´ Algebra Lineal Por: Oswaldo Lezama
J a,y =
a
0
1 .. . .. .
a .. . .. .
0
0
··· ···
0
0
0 .. .
.. .
..
0 .. . .. .
···
1
..
.
.
a
ii
´ Indice general ´ Indice General
IV
1. Espacios Espacios Vectoria Vectoriales les 1.1. Estructura Estructurass Algebraic Algebraicas as . . . . . 1.2. Espacios Espacios Vecto Vectoriales riales y Ejemplos Ejemplos . 1.3. Subespacios Subespacios . . . . . . . . . . . . 1.4.. Bases 1.4 Bases . . . . . . . . . . . . . . . 1.5.. Dimens 1.5 Dimensi´ i´ on on . . . . . . . . . . . . . 1.6. Ejercicios Ejercicios . . . . . . . . . . . . .
. . . . . .
1 1 3 5 6 8 11
. . . . . . .
17 17 18 20 22 25 28 30
. . . . . . .
33 33 35 37 39 42 45 48
. . . . . .
51 51 53 54 56 58 63
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
2. Transformaci ransformaciones ones Lineales 2.1.. Definic 2.1 Definici´ i´ on on y Ejemplos . . . . . . . . . . . . . . . . 2.2. 2.2. N´ ucleo ucleo e Imagen . . . . . . . . . . . . . . . . . . . 2.3. Operaciones Operaciones con Transfo Transformac rmaciones iones Lineales Lineales . . . . 2.4. Tansformaciones Lineales Biyectiva Biyectivass . . . . . . . . 2.5. Producto Producto y Suma Directa Directa de Espacios Vector Vectoriales iales . 2.6. Suma Directa Directa Intern Interna a de Subespacios Subespacios . . . . . . . . 2.7. Ejercicios Ejercicios . . . . . . . . . . . . . . . . . . . . . . . 3. Matric Matrices es 3.1. Espacios Espacios Vecto Vectoriales riales de Matrices Matrices . . . 3.2. Transforma ransformacione cioness Lineales y Matrices Matrices 3.3.. Rango 3.3 Rango de una una Matriz Matriz . . . . . . . . . . 3.4.. Cambio 3.4 Cambio de de Base Base . . . . . . . . . . . . . 3.5. Equivalenc Equivalencia ia y Similaridad Similaridad . . . . . . . 3.6. Matrices Matrices Inv Invertib ertibles les . . . . . . . . . . 3.7. Ejercicios Ejercicios . . . . . . . . . . . . . . . . 4. Determinan Determinantes tes 4.1. Funciones unciones Multilinea Multilineales les . . . . . 4.2.. La Func 4.2 Funci´ i´ on on Determinante . . . . 4.3. Propiedades Propiedades . . . . . . . . . . . . 4.4.. Regla 4.4 Regla de Cramer Cramer . . . . . . . . . 4.5. Sistemas Sistemas de Ecuacion Ecuaciones es Lineales Lineales 4.6. Ejercicios Ejercicios . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . .
5. Polinomio Polinomi o Caracter Cara cter´ ´ıstico 67 5.1. Valores alores y Vectores Vectores Propios Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 5.2. Polinomio Polinomi o Caracter´ıstico ıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 5.3. Matrices Matrices Diagona Diagonalizabl lizables es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 iii
´ INDICE GENERAL
iv
5.4. Ejercicios Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 6. Formas Can´ Can´ onicas onicas 6.1. Polinomio Polinomi o M´ M´ınimo . . . . . . . . . . . . 6.2. Forma Can´ onica onica Triangular . . . . . . . 6.3. Diagonaliza Diagonalizaci´ ci´ on on en Bloques . . . . . . . 6.4. Teorema eorema de Descomposic Descomposici´ i´ on on Irreducible 6.5. El Teorem Teorema a de Descomposic Descomposici´ i´ on on C´ıcli ıc lica ca . 6.6. Forma Can´ onica onica Racional . . . . . . . . 6.7. Forma Can´ onica onica de Jordan . . . . . . . 6.8. Ejercicios Ejercicios . . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
81 . 81 . 83 . 87 . 89 . 93 . 98 . 106 . 112
7. Espaci Espacios os Duales Duales 7.1. El Dual de un Espacio Espacio Vecto Vectorial rial . . . . . . 7.2. El Subespaci Subespacioo Anulado Anuladorr . . . . . . . . . . 7.3.. El Dobl 7.3 Doblee Dual Dual . . . . . . . . . . . . . . . . 7.4. Traspuesta raspuesta de una Transform Transformaci´ aci´ on on Lineal 7.5. Ejercicios Ejercicios . . . . . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . . . . . . .
135 . 135 . 139 . 143 . 144 . 145 . 147 . 150 . 152 . 154 . 157
8. Producto Interno Interno 8.1. Espacios Espacios Euclidianos Euclidianos . . . . . . . . . . . . . 8.2. Sistemas Sistemas de Vecto Vectores res Ortogonale Ortogonaless . . . . . . 8.3. Complemen Complemento to Ortogonal Ortogonal y Proyeccio Proyecciones nes . . 8.4. Espacios Espacios Unitarios Unitarios . . . . . . . . . . . . . . 8.5. Transforma ransformacione cioness y Matrices Matrices Adjuntas Adjuntas . . . 8.6. Transformaciones Hermitianas y Sim´ etricas etricas 8.7. Diagonaliza Diagonalizaci´ ci´ on on . . . . . . . . . . . . . . . . 8.8. Transforma ransformacione cioness Unitarias y Ortogonales Ortogonales . 8.9. Transformaciones Normales . . . . . . . . . 8.10. Ejercicios . . . . . . . . . . . . . . . . . . . 9. Formas Bilineales Bilineales 9.1. Formas ormas Bilineales Bilineales . . . . . . . . . 9.2.. Rango 9.2 Rango . . . . . . . . . . . . . . . 9.3. Formas Bilineales Bilin eales Sim´etricas etricas . . . 9.4. Formas Bilineales Bilin eales Antisim´etricas etricas 9.5. Formas ormas Sesquilinea Sesquilineales les . . . . . . 9.6. Formas ormas Hermitiana Hermitianass . . . . . . . 9.7. Ejercicios Ejercicios . . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
125 125 127 129 130 132
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
181 . 181 . 182 . 184 . 187 . 189 . 192 . 194
10.Formas 10. Formas Cuadr´ Cua dr´ aticas ati cas 10.1. Formas Cuadr´aticas aticas . . . . . . . . . . . . 10.2. Suma de Cuadrados . . . . . . . . . . . . 10.3. Formas Cuadr´aticas aticas y Formas Herm´ıticas ıticas 10.4. Ejercicios . . . . . . . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . . . .
211 . 211 . 221 . 229 . 239 . 250 . 260
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
11.T´ opicos Especiales y Aplicaciones opicos 11.1. Formas Cuadr´aticas atic as y Geometr´ Geom etr´ıa ıa Anal Ana l´ıtica ıti ca . . . . . . 11.2. Inversa Generalizada . . . . . . . . . . . . . . . . . . . 11.3. Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . 11.4. Producto Tensorial de Espacios Vectoriales y Matrices 11.5. Matrices y Formas Positivas . . . . . . . . . . . . . . . 11.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
197 197 198 204 208
Cap´ıtulo 1
Espacios Vectoriales Introducci´ on on En las lecciones de este cap´ıtulo ıtulo se presenta la noci´on on de espacio vectorial sobre cuerpos arbitrarios. Se comienza con las definiciones de las estructuras algebraicas b´asicas que inducen la definici´on on de cuerpo y espacio vectorial. El cap´ cap´ıtulo despu´es es est´a dedicado a trabajar los conceptos de base y dimensi´on on que resultan fundamentales en todo el desarrollo del curso.
1.1. 1.1.
Estru Estruct ctura urass Algeb Algebra raic icas as
Definici´ on on 1.1. Sea G G un conjunto no vac´ıo. ıo. Una operaci´ Una operaci´ on binaria interna en G en G es una funci´ on con dominio G G y codominio G:
∗
×
×
G G (a, b)
−→ −→
G a b
∗
Si la operaci´ on es asociativa asociativa en en el sentido que
∗ ∗
∗ ∗
∗ ∗
(a b) c = a = a (b c) para cualesquiera elementos a elementos a,, b, c
∈ G, entonces se dice que ( que (G, G, ∗) es un semigrupo. semigrupo. Ejemplo Ejemplo 1.1. El 1.1. El conjunto N = {1, 2, 3,...} de n´umeros umeros naturales con la operaci´on on usual de adici´on on es
un semigrupo.
∗
Definici´ on on 1.2. Si en el semigrupo (G, ( G, ) existe un elemento e elemento e tal que e a = a = a = = a a e
∗
∗
∈
∗
para cada elemento a G, entonces se dice que (G, ) es un un monoide con elemento neutro neutro e. N´ otese que en un monoide el elemento neutro es ´ unico. Ejemplo Ejemplo 1.2. El conjunto conjunto Z de n´ umeros umeros enteros enteros con la operaci´ operaci´on on usual de multiplicaci´ on o n es un monoide con elemento neutro 1.
∗
Definici´ on on 1.3. Sea (G, , e) un monoide. Si cada elemento a un elemento a G tal que
∈
a a = e = e = = a a a
∗
∗
1
∈ G tiene un inverso, inverso, es decir, existe
CAP ´ ITULO 1. ESPACIOS ESPACIOS VECTORIALES VECTORIALES
2
entonces se dice que (G, , e) es un un grupo. grupo. N´ otese que en un grupo cada elemento tiene un ´ unico inverso. Si el contexto lo permite, un grupo (G, ( G, , e) ser´ a denotado simplemente por G.
∗
∗
Ejemplo 1.3. El conjunto Z de n´ umeros enteros con la operaci´on umeros on usual de adici´on on conforma un grupo. Un grupo G grupo G se dice conmutativo dice conmutativo (=abeliano) si (=abeliano) si su operaci´on on es conmutativa es conmutativa,, es decir, a b = b = b a
∗
∗
para cualesquiera elementos a, elementos a, b G. Obs´ ervese ervese que el grupo aditivo de n´umeros umeros enteros es conmutativo. Se acostumbra a denotar la operaci´on on de un grupo conmutativo conmutativo mediante el s´ımbolo +.
∈
×
Se ha visto que el conjunto Z de n´ umeros enteros posee dos operaciones + y tal que respecto umeros de la primera es un grupo abeliano, mientras que bajo la segunda es un monoide. Conjuntos con tales condiciones conforman los llamados anillos. M´as as exactamente,
× × tales que:
Definici´ on on 1.4. Un anillo anillo es un conjunto A dotado de dos operaciones + y (a) A respecto de + de + es un grupo conmutativo (b) A respecto de
× × es un monoide
× se distribuye sobre + sobre +,, es decir, a × (b + c) = a × b + a × c (a ( a + b) × c = a = a × c + b × c para para cualesquiera cualesquiera elementos elementos a,b,c ∈ A. El anillo A es es conmutativo si su segunda segunda operaci´ operaci´ on es (c)
conmutativa.
−
En adelante 0 denotar´a el elemento neutro de la primera operaci´on en A, a ser´a el inverso de a respecto de dicha operaci´on on y lo llamaremos el opuesto de a; 1 denotar´a el elemento neutro de A respecto de la segunda operaci´on on y lo llamaremos el uno de A. A . Adem´ as, as, es costumbre omitir el s´ımbolo cribir´ a simplemente como ab. ab .
× entre dos elementos, as´ı pues, el producto a × b se es-
Ejemplo 1.4. El conjunto Z de n´ umeros enteros con las operaciones habituales de adici´on umeros on y multiplicaci´ on on es un anillo conmutativ conmutativo. o. Ejemplo 1.5. El conjunto R [x] de polinomios reales en la indeterminada x con las operaciones habituales de adici´on on y multiplicaci´on on de polinomios es un anillo conmutativo. Ejemplo 1.6. El conjunto M 2 [R] de matrices reales 2 multiplicaci´ on de matrices conforma un anillo. on
× 2 con las operaciones usuales de adici´on on y
−
En un anillo A anillo A cada elemento a tiene un opuesto a, sin embargo, no todo elemento tiene un inverso respecto de la segunda operaci´on. on. Por ejemplo, en Z el 2 no tiene inverso multiplicativo, es decir, no existe entero b tal que 2b 2 b = 1. En R[x] los unicos u ´ nicos polinomios invertibles son las constantes no nulas; en M en M 2 [R] las matrices matrices de determinan determinante te no nulo son invertib invertibles. les. Si a A es invertible, entonces existe un ´unico unico a−1 de elementos invertibles de A de A se denota por A ∗ .
∈
Ejemplo 1.7.
(a) Z∗ =
{±1}.
(b) R[x]∗ = p( p(x) p( p(x) es una constante no nula .
{
| 0}. (c) M 2 [R]∗ = {B | det(B det(B ) =
}
∈ A tal que aa−1
= 1 = a−1 a; la colecci´on on
3
1.2. ESPACIOS ESPACIOS VECTORIALES VECTORIALES Y EJEMPLOS
Proposici´ on on 1.1. Si (A, ( A, +, , 1) es 1) es un anillo, entonces (A∗ , , 1) es 1) es un grupo.
×
×
Un anillo conmutativo A conmutativo A es uncuerpo uncuerpo si si cada elemento no nulo de A tiene inverso multiplicativo. En otras palabras, A palabras, A es un cuerpo si A es conmutativo y A ∗ = A = A 0 .
−{ }
Ejemplo 1.8. El conjunto Q de n´ umeros racionales con las operaciones usuales de adici´on y multiplicaumeros ci´on on es un cuerpo. De igual manera, los conjuntos R y C de n´ umeros umeros reales y complejos, respectivamente, respectivamente, con las operaciones usuales de adici´on on y multiplicaci´on on son ejemplos de cuerpos. Esta secci´on on se cierra con el concepto de isomorfismo, el cual permite clasificar los diferentes tipos de estructuras (grupos, anillos, cuerpos, etc...) de acuerdo a que sean ” iguales ”desde ”desde el punto de vista algebraico. La importancia de este concepto se entender´a m´ as adelante; por ahora presentamos la as definici´ on. on. Definici´ on on 1.5. Dos grupos ( grupos (G, G, ) y (H, ( H, ) se dicen isomorfos dicen isomorfos si si existe una funci´ on biyectiva
∗
·
f : G
→ H
tal que f (a b) = f ( f (a) f ( f (b)
∗
· para para cualesquiera cualesquiera elementos a, a, b ∈ G. Dos anillos (A, ( A, +, ×, 1) y 1) y ( (B, B, +, ×, 1) se 1) se dicen isomorfos si existe
una funci´ on biyectiva
f : A
→ B
tal que f ( f (a + b) = f ( f (a) + f ( f (b), f (ab) ab) = f ( f (a)f (b), para cualesquiera elementos a, elementos a, b A. Obs´ervese ervese que necesariamente f (1) (1) = 1 y 1 y f ( f (a−1 ) = f ( f (a)−1 para cada elemento invertible de a de A. Adem´ as, la relaci´ on ser isom isomorfo orfo es de equivalencia.
∈
1.2.
Espaci Espacios os Vectoria ectoriales les y Ejemp Ejemplos los
Un tipo de estructura m´as as compleja que las definidas en la lecci´on on anterior la constituyen los llamados ´ espacios espacios vectoriales. vectoriales. Los espacios espacios vectoria vectoriales les son los objetos que estudia estudia el Algebra Lineal.
·
Definici´ on on 1.6. espacio vectorial es una tripla ( tripla (V,K, V,K, ) conformada por: (1) Un grupo abelian abeliano o (V, +, 0), 0), los elementos del cual denominamos vectores denominamos vectores.. (2) Un cuerpo cuerpo (K, ( K, +, , 0, 1), 1), los elementos del cual denominamos escalares denominamos escalares..
×
(3) Una operaci´ operaci´ on externa K V (a, v)
×
→ →
V a.v
entre escalares y vectores que cumple las siguientes condiciones: i) a.( a.(v + u) = a.v + a.v + a.u ii) (a + b).v = .v = a.v a.v + + b.v iii) (ab) ab).v = .v = a. a.((b.v) b.v) iv) 1.v = .v = v v
CAP ´ ITULO 1. ESPACIOS ESPACIOS VECTORIALES VECTORIALES
4 para cualesquiera escalares a, b
∈ K y K y cualesquiera vectores v, u ∈ V . V . Es costumbre denotar el espacio vectorial (V,K, ( V,K, ·) simplemente por V ; V ; tambi´en en se dice que V V es un
K -espacio -espacio vectorial.
Ejemplo 1.9. El plano cartesiano R2 de puntos de la forma (x, (x, y) con x, con x, y real respecto de las siguiente siguientess operaciones: operaciones:
∈ R, es un espacio vectorial
(x1 , y1 ) + (x ( x2 , y2 ) = (x1 + x2 , y1 + y2 ) a.( a.(x, y) = (ax,ay) ax,ay ) Ejemplo 1.10. Sea n Sea n un n´ umero umero natural 1. El espacio Rn de n-plas ordenadas de n´umeros umeros reales en la forma (x ( x1 , . . . , xn ) es un espacio vectorial real respecto de las siguientes operaciones:
≥
(x1 , . . . , xn ) + (y ( y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) a.( a.(x1 , . . . , xn ) = (ax1 , . . . , ax a xn ) Este ejemplo se generaliza al caso de un cuerpo cualquiera K , K , obteni´ obte ni´endose endo se el K el K -espacio -espacio can´onico K onico K n . Ejemplo 1.11. El conjunto R[x] de polinomios reales en la indeterminada x indeterminada x con las operaciones habituales bituales de adici´ on on y multiplicaci´on on de real por polinomio, es un espacio vectorial real. Si cambiamos R por un cuerpo cualquiera K K obtenemos el K -espacio -espacio vectorial K [x] de polinomios con coeficientes en K . K . Ejemplo 1.12. El conjunto M 2 [R] de matrices reales 2 2 con las operaciones usuales de adici´on on y multiplicaci´ on de matriz por escalar, conforma un espacio vectorial sobre los reales. on
×
Ejemplo Ejemplo 1.13. Sea X Sea X un un conjunto no vac´ vac´ıo. El conjunto R X de todas las funciones de X en R es un espacio espacio vectorial vectorial real bajo las siguiente siguientess operaciones: operaciones: (f + + g )(x )(x) = f ( f (x) + g (x) (a.f )( a.f )(x x) = af ( af (x)
∀∈ x
∀ ∈R
X, a
Si X = R entonces se obtiene el espacio de todas las funciones de variable real a valor real. Si X es un intervalo abierto, por ejemplo (a, ( a, b) o R , y C ( C (X ) es el conjunto de funciones continuas de X en R , entonces C (X ) es un espacio vectorial real. Si X = N es el conjunto de n´umeros umeros naturales, entonces resulta el espacio de las sucesiones reales. Soluci´ on: La idea es revisar todas las propiedades (axiomas) que definen un espacio vectorial. En primer lugar, n´otese otese que en el ejemplo en cuesti´on, on, el cuerpo de escalares son los n´umeros umeros reales, es decir, no necesitamos demostrar que R sea efectivamente un cuerpo. Esto lo damos por conocido. Mas bien, debemos establecer que el conjunto de vectores RX es un un grupo abeliano y que la acci´on on de los escalares reales por estos vectores satisfacen las propiedades de la definici´on de la Lecci´on on 2. La primera observaci´on on que debemos hacer es que la suma de dos elementos de RX es nuevamenX te una funci´on on de R : esto es claro a partir de la definici´on on de suma: f + g actuando en x X es on de suma en RX es interna. f ( f (x) + g(x) R, en otras palabras, la operaci´on
∈
∈
∈
En segundo lugar, esta operaci´on on es asociativa en el sentido que f +( f +(gg + h) = (f + + g )+h )+ h, donde f , g , h X R : en efecto, esto se debe a que la suma de reales es una operaci´on asociativa: (f (f + + (g + h)) (x) = f ( f (x) + (g + h) (x) = f ( f (x) + (g(x) + h(x)) = (f (f (x) + g (x))+ )) + h(x), en esta ultima u ´ ltima igualdad hemos aplicado la propiedad asociativa de la suma de n´umeros umeros reales. Se concluye entonces que (f ( f + + (g + h)) (x) = ((f ((f + + g ) + h) (x), es decir, f decir, f + + (g + h) = (f + + g ) + h.
5
1.3. SUBESPACIO SUBESPACIOS S
La suma definida tiene elemento neutro, es decir, vector nulo: en efecto, la funci´on 0 : X : X por 0(x 0(x) = 0 para cada x R es tal que 0 + f = f = f + + 0 para cada f R.
∈
∈
→ R definida →
∈ ∈
R tiene su inverso respecto de esta suma, es decir, su funci´on opuesta: esta Cada elemento elemento f funci´ on opuesta se denota por f y on f y es definida por ( f ) (x) = f ( f (x), para cada x X . X . N´ otese otese que f + + ( f ) f ) = 0 = f + + f . f .
−
−
−
−
−
∈
La suma definida es claramente conmutativa. Hemos pues probado que RX es ciertamen ciertamente te un grupo abeliano. Ahora debemos verificar el cumplimiento de las propiedades relativas al producto de escalar por vector: la operaci´on a.f on a.f est´a bien definida, es decir, es una operaci´on on externa y cumple las siguientes propiedades: (a. (f + + g )) (x) = a. (f + + g ) (x) = a.f ( a.f (x) + a.g + a.g((x) = (a.f + + a.g) a.g ) (x), es decir, a. (f + + g ) = a.f + a.g, a.g , donde a donde a es un escalar real. ((a ((a + b) .f ) .f ) (x) = (a + b) .f ( .f (x) = a.f ( a.f (x) + b.f (x) = (a.f + + b.f ) (x), es decir, (a ( a + b) .f = a.f + a.f + b.f . b.f . ((ab ((ab)) .f ) .f ) (x) = (ab) ab) .f ( .f (x) = a( a (b.f (x)) = (a (a(b.f )) )) (x), es decir, (ab (ab)) .f = a( a (b.f ). b.f ). Finalmente, (1.f (1.f )) (x) = 1f ( f (x) = f ( f (x), es decir, 1.f 1.f = f . f . Esto completa completa la demostrac demostraci´ i´on on de todas todas las propie propiedad dades es requer requerida idass para para tener tener una estruc estructur turaa de espacio vectorial real.
1.3. 1.3.
Subes Subespa paci cios os
Dado un espacio vectorial V vectorial V sobre sobre un cuerpo K cuerpo K y y un subconjunto subco njunto no vac´ vac´ıo S ıo S de V de V ,, resulta interesante preguntarse si S S bajo la misma adici´on on de vectores y la misma acci´on on de escalares sobre vectores, conforma un espacio vectorial sobre K . K . En caso afirmativo, se dice que S es es un subespacio un subespacio del del espacio V . V . Esta relaci´on on se denota por S por S V . V . Seg´ un un esta definici´on, on, si se desea establecer que S que S V s V see debe de ber´ r´ıa ıa verificar el cumplimiento de los cuatro axiomas para la adici´on de vectores y los cuatro axiomas para la acci´on on de escalares sobre vectores. Sin embargo, s´olo olo es necesario verificar el cumplimiento de dos condiciones, como lo muestra la siguiente proposici´on. on.
≤ ≤
≤ ≤
Proposici´ on on 1.2. Sea V V un espacio vectorial sobre el cuerpo K y K y sea S un S un subconjunto no vac´ıo ıo de V . V . Entones, S V si V si y s´ olo si se cumplen las siguientes condiciones:
≤ ≤
∈ S , entonces u + v ∈ S. (2) Si v ∈ S y a a ∈ K , entones a.v a. v ∈ S . (1) Si u, v
Ejemplo 1.14. En el plano cartesiano R2 el subconjunto S subconjunto S = = (x, y) y = mx , donde m donde m constante, representa una recta que pasa por el origen y conforma un subespacio de R2 .
{
|
}
∈ R es una
Ejemplo Ejemplo 1.15. En 1.15. En el espacio R [x] de polinomios reales, el subconjunto R n [x] de polinomios de grado n conforma un subespacio.
≤
Ejemplo 1.16. En el espacio R R de funciones de R en R , la colecci´on C on C ((R) de funciones continuas de R en R conforma un subespacio. En C (a, b) se tienen dos subespacios notables: C n (a, b) conformado por todas las funciones de (a, ( a, b) en R cuyas primeras n derivadas son continuas, y C ∞ (a, b) constituido por las funciones de (a, (a, b) en R para las cuales las derivadas de cualquier orden son continuas.
CAP ´ ITULO 1. ESPACIOS ESPACIOS VECTORIALES VECTORIALES
6
Similarmente, se tienen los subespacios subespacios C de C ((R). C n (R) y C ∞ (R) de C Tambi´en, en, en el espacio esp acio RN de sucesiones reales la colecci´on on de sucesiones convergentes es un subespacio. Una sucesi´on on an se dice que es polin´omica omica si existe un entero positivo m tal que a que a n = 0 para cada n m. Es claro que el conjunto de sucesiones polin´omicas omicas es un subespacio del espacio de sucesiones convergentes.
{ }
≥
Ejemplo 1.17. En cada espacio V triviales:: 0 = 0 y V . espacio V se se tienen dos subespacios triviales V .
{}
Ejemplo 1.18. La intersecci´on on de dos subespacios es un subespacio. En realidad, la intersecci´on on de cualquier familia no vac´ vac´ıa de subespacios de un espacio vectorial es un subespacio. Sea V Sea V un un espacio vectorial y S y S un un subconj sub conjunto unto no vac´ıo ıo de d e V ; n´otese otese que el subespacio m´as as peque˜ no no de V que V que contiene a S a S es es la intersecci´on on de todos los subespacios de V de V que que contienen a S a S . Este subespacio subespacio se denota por S y se conoce como el subespacio generado generado p por or S S ..
A continuaci´on on se ver´a que S puede describirse en t´ erminos erminos de combinaciones lineales de elementos de S de S .. Sean v Sean v 1 , v2 , . . . , vn elementos del espacio V , V , una combinaci´ una combinaci´ on on lineal de lineal de estos elementos es un vector v V V de la forma v = a1 .v1 + + a n .vn , donde a1 , . . . , an son escalares del cuerpo K . Se puede entonces afirmar lo siguiente.
∈
···
Proposici´ on on 1.3. Sea V V un espacio vectorial sobre el cuerpo K y K y sea S un S un subconjunto no vac´ıo ıo de V . V . Entonces, S coincide con el conjunto de todas las posibles combinaciones lineales realizadas con elementos de S . S . M´ as exactamente,
n
S =
ai .vi ai
| ∈ K, v ∈ S, n ≥ 1
i=1
i
.
{
}
Esta presentaci´ on permite identificar a S como la la envolvente lineal de S . Si S = v1 , . . . , vn es finito, entonces
n
S = 1.4.
| ∈ K
ai .vi ai
i=1
.
Bases
En cada espacio vectorial existen ciertos subconjuntos conocidos como bases; la importancia de estos subconjuntos radica en que cada elemento del espacio puede ser representado de manera ´unic un icaa a trav´ tr av´es es de sus elementos. El prop´osito osito de la presente lecci´on on es explicar en detalle la noci´on on de base, la cual es fundamental en ´algebra algebra lineal. Definici´ on on 1.7. Sea V un V un espacio vectorial sobre un cuerpo K y S S un subconjunto no vac´ vac´ıo de V , V , se dice que S es S es un sistema sistema de generadores para generadores para V V si si la envolvente lineal de S de S coincide con V con V ,, es decir, S = V . V . El espacio V V se dice dice finitamente generado si existe en V V un subconjunto finito S de generadores.
Por otra parte, sea X = X = x1 , . . . , xn un subconjunto finito de V , V , se dice que X que X es es un conjunto de vectores tores linealmente independientes (L.I.) si la ´ unica combinaci´ on lineal nula con los elementos de X es X es a trav´ t rav´ es es de escalares nulos. n ulos. M´ as exactamente, los vectores de X de X son son linealmente independientes si para cualesquiera escalares a1 , . . . , an K se K se cumple que
{
}
∈
n i=1
ai . xi = 0
⇐⇒
ai = 0,
1
≤ i ≤ n.
7
1.4. 1.4. BASES BASES
Por definici´ on, se asume que el conjunto vac´ vac´ıo es LI. Un subconjunto subconjunto cualquiera X cualquiera X de V es V es LI si cada subconjunto finito de X es LI . X es X es linealmente dependiente (LD) si no es LI. La siguiente proposici´on on reune algunas propiedades propiedades b´asicas asicas sobre dependencia dependencia e independenci independenciaa lineal. lineal. Proposici´ on on 1.4. Sea V V un K -espacio -espacio y = S
∅ ∅ ⊂ ⊂ V V . Entonces (a) S es S es LD si y solo si existe x existe x ∈ S tal S tal que x ∈ S , donde S S = S = S − {x}. (b) Si 0 ∈ S S entonces S es S es LD. (c) Si S es S es LI entonces cada subconjunto de S de S es es LI.
(d) Si S es S es finito y LI con n LD.
≥ 0 elementos, entonces cada conjunto de n + 1 elementos de S es
Demostraci´ on: Las on: Las afirmacione afirmacioness (a)-(c) (a)-(c) son evidentes. evidentes. La prueba prueba de la parte (d) se hace p or inducci´on on sobre n. Los casos n = 0, 1 son evidentes. Sup´ongase ongase que la afirmaci´on on ha sido demostrada para n vectores pertenecientes a la envolvente lineal de n 1 vectores LI. Sea S = v1 , . . . , vn un conjunto LI de vectores, y sean u 1 , . . . , un+1 vectores de S . Sup´ongase ongase que estos vectores son LI, y al expresar cada uno de ellos como combinaci´on on lineal de los n los n vectores de S se S se tiene que:
−
u1 u2 .. . un+1
= = .. .
{
a11 v1 + a21 v1 +
= an+11 v1 +
}
· · · + a1 · · · + a2
n vn n vn
.. .
· · · + a +1 n
n vn
Puesto que los vectores u vectores u 1 , . . . , un+1 son LI, entoces cada uno de ellos es no nulo, en particular u 1 es no nulo, esto hace que sin perder generalidad podamos suponer que a 1n es no nulo. N´ otese otese que entonces el siguiente sistema de vectores es LI: x1 xj
= u1 = uj
− a
−1
jn a1n u 1 ,
≥ 2
j
Seg´ un la parte (c) los vectores x2 , . . . , xn+1 son LI, pero al reemplazar u un reemplazar u1 , uj en la expresi´on on que define a x j se encuentra que estos vectores pertenecen a la envolvente lineal de v 1 , . . . , vn−1 y por inducci´on on resulta res ultarr´ıan LD. Ejericicio Ejericicio 1.1. Demuestre que en el espacio RR el conjunto X conjunto X = = enx n
{ | ∈ N} es LI.
Soluci´ on: Se debe tomar un subconjunto finito arbitrario de X X y demostrar que es LI. Sea Y un subconjunt subconjuntoo finito de X . Si Y es vac´ vac´ıo, entonces por definici´on on Y Y es LI. Sea Y Y no n o vac´ıo, ıo , Y = n1 x n2 x nk x n1 x n2 x nk x e ,e ,...,e , y sean a1 , a2 , . . . , ak reales tales que a1 e + a 2 e + + a k e = 0. Escogemos cogemos el may mayor or de los exponente exponentess naturales, naturales, sin p´ erdida erdida de generalidad generalidad podemos suponer que dicho exponente es n1 ; multiplicamos a ambos lados de la ecuaci´on on anterior por e−n1 x , y obtenemos a1 + a + a2 e(n2 −n1 )x + + ak e(nk −n1 )x = 0. En esta funci´on on al hacer x encontramos que a1 = 0. Podemos ahora repetir el mismo razonamiento con los otros coeficientes y encontrar que todos resultan nulos. Esto demuestra la independencia lineal del conjunto Y . Y .
{
}
···
···
→ ∞
Ejericicio 1.2. Demuestre que dos vectores de R2 son LD si y s´olo olo si pertenecen a la misma recta que pasa por el origen. Ya se puede presentar la noci´on on de base. Definici´ on on 1.8. X
⊂ ⊂ V V es una base para base para V V si si se cumplen dos condiciones:
CAP ´ ITULO 1. ESPACIOS ESPACIOS VECTORIALES VECTORIALES
8 (a) X = V
(b) X X es LI. Ejemplo 1.19. En Rn los vectores ei = (0, (0, . . . , 1, . . . , 0), 0),
1
≤i≤n
constituyen la llamada base llamada base can´ onica (1 onica (1 se encuentra en la i-´ esima esima entrada de la l a n-pla). Cambiando R por cualquier cuerpo K se K se obtiene la base can´onica onica de K de K n . Ejemplo Ejemplo 1.20. En el espacio R [x] el conjunto de polinomios 1, x , x2 , x3 , . . . constituye su base can´ onica. onica. En el subespacio subespacio R n [x] de polinomios de grado n la base can´onica onica es 1, x , x2 , x3 , . . . , xn .
{ } ≤ { } Ejemplo 1.21. En el espacio M espacio M 2 [R] de matrices reales 2 × 2 se tiene la siguiente base can´onica: onica:
1 0 0 0
,
0 1 0 0
0 0 1 0
,
0 0 0 1
,
Ejemplo 1.22. En el espacio R N de sucesiones sucesiones reales la colecci´ colecci´ on on de sucesiones ei = (0, (0, . . . , 1, . . . , 0, . . .) .),
i
≥1
conforman la base can´onica onica para el subespacio de sucesiones polin´omicas. omicas. Ejemplo 1.23. El conjunto es, por definici´on, on, la unica u ´ nica base del espacio nulo 0 = 0 .
∅
{}
Una de las principales caracterizaciones del concepto de base se establece en la siguiente proposici´on. Proposici´ on on 1.5. Sea V V un K -espacio -espacio y X un X un subconjunto no vac´ıo ıo de V de V . X es X es una base de V de V si y s´ olo si cada elemento v V tiene V tiene una representaci´ on unica ´ (salvo sumandos nulos) como combinaci´ on lineal de elementos de X de X en en la forma:
∈
v = a = a 1 . x1 +
1.5. 1.5.
··· +a
n . xn ,
ai
∈ K, x ∈ X, i
1
≤ i ≤ n.
Dime Dimens nsi´ i´ on on
En esta lecci´on on se discutir´an an los siguientes aspectos relativos a las bases: existencia, unicidad y cardinalidad (= cantidad de elementos). El punto de partida ser´a el teorema sobre existencia de bases en cualquier espacio vectorial. La prueba de este teorema se apoya en el Lema de Zorn (= axioma de elecci´ on), el cual representa uno de los supuestos b´asicos de la teor´ on), teor´ıa clasica de conjuntos. El lector no interesado en la prueba puede simplemente asumir el Teorema 1 como un axioma. Teorema 1.1. Todo espacio vectorial posee al menos una base. Demostraci´ on: La prueba prueba de este teorema teorema se apoya apoya en uno de los supuestos de la teor´ teor´ıa cl´asica asica de conjuntos: el lema de Zorn. Para los lectores no familiarizados con este axioma se explicar´an brevemente algunos de los t´ erminos erminos de su enunciado. Un conjunto no vac´ vac´ıo M es M es parcialmente ordenado si en M est´ a definida una relaci´on on de orden . Un subconjunto subcon junto no vac´ vac´ıo N de M es M es totalmente ordenado si cualesquiera dos elementos a, elementos a, b de N son N son comparables, es decir, se tiene al menos una de las siguientes posibilidades: a posibilidades: a b, b , b a. a . Un elemento x elemento x M es M es una cota superior para el subconjunto N de M de M si a x para cada elemento a N . N . Finalmente, se dice que el elemento x M es M es maximal si no existe z en M en M tal tal que z que z = x y x y x z .
≤
≤
≤ ≤ ∈ ≤
∈
∈
Lema 1.1 (de 1.1 (de Zorn). Zorn) . Sea (M, ( M, ) un conjunto parcialmente ordenado tal que cada subconjunto totalmente ordenado de M de M tiene cota superior en M en M .. Entonces, M posee M posee al menos un elemento maximal.
≤
´ 1.5. DIMENSI DIMENSI ON
9
Ya se puede iniciar la prueba del teorema. Sea V un K -espacio -espacio vectorial y sea M o n de M la colecci´on subconjuntos de V de V que que son LI. M LI. M = ya que M . M . La relaci´on on de inclusi´ on entre conjuntos define on un orden parcial en M . M . Sea N Sea N un un subconjunto de M totalmente M totalmente ordenado. Sea
∅
∅∈
⊆
X = =
L
∈
L N
∈ ∈
{
}
Claramente, X Claramente, X es es una cota superior para N para N ;; n´otese otese que X que X M , es decir, X decir, X es es LI. Sea Z Sea Z = = x1 , . . . , xn un subconjunto finito de X ; existen L1 , . . . , Ln N tales N tales que x1 L 1 , . . . , xn L n . Como N N es totalmente talmente ordenado ordenado se puede suponer que L i L1 para cada 1 i n; por tanto, x 1 , . . . , xn L1 , es decir, Z decir, Z L1 ; como L como L 1 es LI entonces Z es Z es LI. Esto completa la prueba de que X es X es LI.
⊆
⊆ ⊆
∈
∈ ≤ ≤
∈
∈
Por el lema de Zorn, M M tiene element elementoo maximal maximal X 0 , el cual, por construcci´on, o n, es LI; n´otese otese que X 0 = V : V : obviamente X 0 V ; V ; sea v sea v V , V , si v si v X 0 , entonces v entonces v X 0 ; sup´ ongase ongase que v que v / X 0 . Si v = 0 entonces v entonces v X 0 ; sea v sea v = 0. Por la maximalidad de X de X 0 , X 0 v es LD, entonces existen elementos x tos x1 , . . . , xn X 0 y escalares no todos nulos a, nulos a, a1 , . . . , an K tales tales que a que a v +a1 x1 + +an xn = 0. Debido a la independencia lineal de los elementos x 1 , . . . , xn se debe tener que a = 0, de donde, despejando v pejando v , se tiene que v X 0 . En total, V total, V X 0 y se ha probado que X 0 = V . V .
∈
⊆ ∈
∈
∈
∈ ∪{ } · · ···
∈
∈
⊆
∈ ·
Con respecto a la unicidad de las bases se puede decir que, en general, un espacio vectorial tiene infinitas bases. En efecto, si el espacio V es V es no nulo (si V (si V es es nulo su ´unica unica base es ) y si X si X es es una base cualquiera de V de V y x es un elemento de X de X ,, entonces cambiando x cambiando x por a.x en X , X , con cada a cada a K 0 , se obtienen bases distintas en V en V .. Cuando K Cuando K es es infinito esta colecci´on on de bases es infinita. En realidad, el unico u ´ nico espacio con base unica ´unica es el espacio nulo.
∅
∈ −{ }
Mucho m´as as interesante que la pregunta sobre la unicidad de las bases es el problema sobre el tama˜ no no de ´estas. estas. Las siguientes proposiciones constituyen la prueba del Teorema 2 que se enunciar´a m´ as as adelante. Proposici´ on on 1.6. Si un espacio vectorial V vectorial V posee posee una base finita, entonces todas sus bases son finitas. La proposici´ on on anterior permite p ermite clasificar los espacios vectoriales en dos categor´ categor´ıas: los de bases finitas y los de bases infinitas.
{
}
{
}
Proposici´ on on 1.7. Sea V un V un espacio vectorial con bases finitas X finitas X = x1 , . . . , xn y Z y Z = = z1 , . . . , zm . Entonces n = m = m.. Demostraci´ on: Sup´ on: Sup´ongase ongase que m que m > n; seg´ un un la Proposici´on on 4, z 4, z 1 , . . . , zn , zn+1 son LD, lo cual es falso ya que Z que Z es es una base. Por tanto, m n. Sim´etricame etri camente, nte, n m.
≤
≤
Proposici´ on on 1.8. Sea V un V un espacio vectorial con bases infinitas X, infinitas X, Y . Y . Entonces card card (X ) = card (Y ) Y ). Demostraci´ on: La idea es probar que card( card(X ) concluir que card que card((X ) = card( card(Y ). Y ).
≤ card( card(Y ) Y ) y utilizar utilizar la simetr simetr´ıa del problema problema para
Cada elemento s Y es Y es representable mediante una combinaci´on on lineal finita de elementos de X . Adem´ as, as, dado x dado x X existe s existe s Y Y tal que x que x se encuentra en la representaci´on on de s de s.. En efecto, sea
∈ ∈
∈
·
x = a = a 1 s1 +
··· +a · s m
m
≤ ≤
(1.1)
la representaci´on on de x de x en t´ erminos erminos de elementos de Y . Y . Cada elemento s i , 1 i m, es representable como combinaci´on on lineal de elementos de X ; si se supone que x no aparece en la representaci´on on de ning´ un un elemento de Y de Y ,, entonces x entonces x no aparece en la representaci´on on de ninguno de los elementos s elementos s i . Sea
CAP ´ ITULO 1. ESPACIOS ESPACIOS VECTORIALES VECTORIALES
10
m
X i el conjunto (finito!) de elementos de X de X que que intervienen en la representaci´on on de s de s i y sea X sea X 0 = Obviamente X 0 es finito y x / X 0 . De (1.1 (1.1)) se obtiene que U = X 0 tradice el hecho de que X es X es una base.
X i .
i=1
∪ {x} es LD, pero esto con-
∈
∈
As´ı pues, pues , dado x X existe X existe al menos un s el axioma de elecci´on on se define la funci´on on X x
∈ Y Y tal que x est´a en la representaci´on o n de s. Usando Φ −→ →
Y Φ(x Φ(x) = s
donde s donde s es un elemento de Y Y tal que x que x est´a en la represen representaci´ taci´ on on de s de s.. Sea s Sea s Φ(X Φ(X ), ), entonces Φ−1 (s) es un conjunto (finito!) y consta de elementos de X X que intervienen en la representaci´on o n de s. Se establece, de esta manera, una funci´on on entre Φ(X Φ(X ) y el conjunto P F ( F (X ) de partes finitas de X : X :
∈
Φ(X Φ(X ) s
α
P F ( F (X ) − Φ 1 (s)
−→ →
α es inyectiva ya que Φ es una funci´on; por tanto card tanto card(Φ( (Φ(X X )) )) = card( card(I m(α)). Enseguida se probar´a que I m(α) es una partici´on o n de X . Si s1 = s2 son dos elementos de Φ(X Φ( X ) entonces Φ−1 (s1 ) Φ−1 (s2 ) = debido a que Φ es una funci´on. on. Claramente
∩
∅
Sea x Sea x
I m(α) =
Φ−1 (s)
s Φ(X )
∈
⊆ X
∈ X , entonces Φ(x Φ(x) = s = s ∈ Φ(X Φ(X ) con lo cual x cual x ∈ Φ−1 (s) ⊆
⊆ ⊆
I m(α), es decir, X decir, X
I m(α).
Puesto que X X es infinito I m(α) tambi´en en es infinito. infinit o. As´ As´ı, se tiene que I m(α) es una partici´on on infinita de partes finitas de X , con lo cual card( card(X ) = card( card(I m(α)) = card(Φ( card(Φ(X X )) )) card( card(Y ). Y ). Esto completa la prueba de la proposici´on. on.
≤
Teorema 1.2. Para cada espacio vectorial V se V se cumple que todas las bases tienen la misma cardinalidad. El teorema anterior permite definir la noci´on on de dimension de dimension en en un espacio vectorial V como V como el tama˜no no de cualquiera de sus bases; se denotar´a este invariante de V de V por por dimK (V ), V ), o simplemente por dim(V dim( V ), ), si es claro sobre qu´ q u´e cuerp o se est´a trabajando. Si V Si V es de bases infinitas infinitas se dir´a que V que V es es de dimensi´on on infinita. Si X es X es un subconjunto de V , V , se define el rango el rango de X , rankK (X ), ), como la dimensi´on on de la envolvente lineal de X de X ,, es decir, rank decir, rankK (X ) = dimK X .
Ejemplo 1.24. dim(Rn ) = n R [x] es de dimensi´ on on infinita dim(Rn [x]) = n + 1 dim(M dim(M 2 [R]) = 4 dim(0) = 0 Ejericicio 1.3. Demuestre que si un espacio vectorial V posee V posee un subconjunto infinito LI, entonces V es V es de dimensi´on on infinita. A continuaci´ on on se presentar´an an algunas propiedades interesantes de los espacios de dimensi´on finita. Proposici´ on on 1.9. Sea V V un K -espacio -espacio vectorial de dimensi´ on n
≥ 1. Entonces,
(a) Cada conjun conjunto to de n elementos LI de V V conforman una base.
11
1.6. EJERCICI EJERCICIOS OS
(b) Cada conjun conjunto to de n generadores de V de V conforman una base de de V V .. (c) Sea Sea m m < n y sean x x1 , . . . , xm vectores LI de V . V . Entonces es posible encontrar vectores x xm+1 , . . . , xn en V V tales que x1 , . . . , xm , xm+1 , . . . , xn es una base de V . V .
{ {
}
(d) Sea Sea S un S un subespacio de V de V .. Entonces, cada base de S puede S puede extenderse hasta una base de V . V . En particular, dim(S dim(S ) dim(V dim(V )).
≤
(e) Sean Sean x x 1 , . . . , xm elementos cualesquiera de V V y S su S su envolvente lineal. Entonces, dim( Entonces, dim(S S ) coincide con el m´ aximo n´ umero de vectores LI encontrados en la colecci´ on x x 1 , . . . , xm de vectores dados.
∈{
}
Demostraci´ on: (a) on: (a) Sean x Sean x1 , . . . , xn vectores LI y sea v sea v un un elemento de V de V .. Si x Si x x1 , . . . , xn , entonces x x1 , . . . , xn . Si x / x1 , . . . , xn , entonces se tienen n + 1 elementos en V que V que resultan LD (ver la Proposici´ on on 4 parte (d) con S S una base cualquiera de V ). V ). Sean a, a1 , . . . , an escalares no todos nulos tales que ax + ax + a a 1 x1 + + an xn = 0. Entonces a es no nulo debido a la independencia lineal de los vectores x1 , . . . , xn . Despejando x se tiene que x x1 , . . . , xn . Con esto se ha probado que V = x1 , . . . , xn .
∈
∈{
}
···
∈
(b) Sean x1 , . . . , xn vectores vectores de V V tales que V = x1 , . . . , xn . Sup´ongase ongase que estos vectores son LD, como se vi´o en la parte (a), uno de ellos se puede expresar como combinaci´on lineal de los otros, cual V = x2 , . . . , xn . Esto hace que cualquier base de V resulte resu lte LD (v´ease ease x1 x2 , . . . , xn , con lo cual V la Proposici´ Proposici´ on on 4 parte (d)).
∈
⊂
⊂
(c) Seg´ un un el Teorema 2, los m vectores no pueden ser una base para V . V . Por tanto, x1 , . . . , xm V . V . Sea xm+1 / x1 , . . . , xm . El sistema x1 , . . . , xm+1 es LI. Si m + 1 = n, entonces de acuerdo a la parte (a), este conjunto es una base de V . V . Si m + 1 < n entonces x1 , . . . , xm+1 V V y se puede repetir el razonamiento hasta completar la base.
∈
{
}
(d) Si S S = 0 entonces dim( dim(S ) = 0 n. Sea S = 0 y x1 , . . . , xk una base de S . Si k > n entonces, seg´ un un la Proposici´on on 4, estos vectores son LD, lo cual es falso. Por tanto, k n.
≤
≤
(e) Si todos los vectores dados son nulos, entonces la afirmaci´on se cumple trivialmente. Sup´ongaongase entonces que al menos uno de los vectores es no nulo. Sea L la colecci´on on de subconjuntos LI de x1 , . . . , xm . L = φ ya φ ya que un vector unitario no nulo constituye un conjunto LI. Se puede escoger en L un conjunto de mayor cardinalidad, por ejemplo, x1 , . . . , xr ; de esta forma cualquier subconjunto de r de r +1 elementos es LD. Sea x Sea x S = = x1 , . . . , xm . Existen escalares a escalares a1 , . . . , ar , ar+1 , , am tales que x = a = a 1 x1 + + ar xr + ar+1 xr+1 + + amxm . Para cada 1 i m r el conjunto x1 , xr , xr+i es entonces LD. Existen escalares no todos nulos b nulos b1 , , br , br+1 tales que b que b1 x1 + + br xr + br+1 xr+1 = 0. No es posible que b que b r+1 = 0 ya que los vectores x 1 , . . . , xr son LI. De esta forma, x r+i x1 , . . . , xr , para cada 1 i m r. Esto implica que S que S = = x1 , . . . , xr y x1 , . . . , xr es una base de S de S ..
{
}
···
∈
···
≤ ≤ −
{
···
} ≤ ≤ − {
}
··· { ··· ··· ∈
}
1.6. 1.6.
Ejer Ejerci cici cios os
1. En el conjunto R+ de n´ umeros reales positivos se definen las siguientes operaciones: umeros x
⊕ y = xy = xy (el producto producto corresponde corresponde a la multiplica multiplicaci´ ci´ on on corriente de n´umeros umeros reales positivos) a.x = a.x = x x (a es un n´umero umero real arbitrario y x y x ∈ R+ ) a
Investigar si R+ es un espacio vectorial sobre el cuerpo de n´umeros umeros reales. 2. Sea F el conjunto de todas las sucesiones de n´umeros reales (a (a1 , a2 , a3 , . . .) .) que satisfacen la condici´ on on
CAP ´ ITULO 1. ESPACIOS ESPACIOS VECTORIALES VECTORIALES
12
para k = 3, 4, 5, . . . ak = a k−1 + ak−2 , para k Investigar si F es un subespacio vectorial del espacio vectorial RN de todas las sucesiones reales (v´ease ease la Lecci´ Lecc i´on on 2 del presente cap´ cap´ıtulo). 3. Sean a Sean a,, b, c n´umeros umeros reales diferentes fijos. Investigar si los siguientes polinomios son linealmente independientes: (x
− a) (x − b) , (x ( x − a) (x − c) , (x ( x − b) (x − c) .
4. Sea R n [x] el espacio de polinomios reales de grado n. Demostrar que cualquier subconjunto X de Rn [x] que contenga por cada k = 0, 1, 2, 3, . . . , n un u unico ´ nico polinomio de grado k, constituye una base de Rn [x].
≤
5. Sea Rn [x] el espacio de polinomios reales de grado n y sea W el W el subconjunto de polinomios p( p(x) que satisfacen la condici´on on p(0) = 0 = p = p(1). (1). Demostrar que W W es un subespacio de Rn [x] de dimensi´on n on n 1. Mostrar al menos una base de W.
≤
−
6. Sea X X un sistema no vac´ vac´ıo finito de vectores de un espacio vectorial V . V . Demostrar que la dependencia o independencia lineal de X X no se altera si sobre los elementos de X X se aplican los siguientes cambios: intercambiar el orden de dos vectores, multiplicar un vector de X X por un escalar no nulo, agregar a un vector de X otro X otro vector de X que X que ha sido multiplicado por un escalar. (Estos cambios se conocen con el nombre de operaciones elementales sobre elementales sobre el conjunto X . Para la demostraci´on on consid´erese erese cada operaci´ opera ci´on on por separado). separado). 7. Dos conjuntos de vectores vectores X, X, Y de Y de un espacio vectorial V vectorial V se se dicen equivalentes dicen equivalentes si si sus envolventes lineales lineal es coincide co inciden n (v´ease ease la Lecci´ L ecci´on on 3 del presente cap´ cap´ıtulo). Estudiar la veracidad de la siguiente afirmaci´ on: X on: X es es equivalente a Y a Y si si y s´olo olo si rank si rank((X ) = rank( rank(Y ) Y ). 8. Utilizando las ideas de los dos problemas anteriores, calcular el rango de los siguientes sistemas de vectores: a) (1, (1, 2, 3) , (4, (4, 5, 6) , (7, (7, 8, 9) , (10, (10, 11 11,, 12)
{ } b) {(1, (1, 10 10,, 0, 0) , (0, (0, 1, 10 10,, 0) , (0, (0, 0, 1, 10) , 10−3 , 0, 0, 1 }.
9. Recorda Recordando ndo que los polinom polinomios ios son vecto vectores res,, calcul calcular ar el rango rango de los siguie siguient ntes es sistema sistemass de polinomios:
a) 3x2 + 2x 2x + 1, 1, 4x2 + 3x 3x + 2, 2, 3x2 + 2x 2x + 3, 3, x2 + x + 1, 1, 4x2 + 3x 3x + 4 b)
x3 + 2x 2x2 + 3x 3x + 4, 4, 2x3 + 3x 3x2 + 4x 4x + 5, 5, 3x3 + 4x 4x2 + 5x 5x + 6, 6, 4x3 + 5x 5x2 + 6x 6x + 7
.
10. Completar el siguiente sistema de polinomios hasta una base de R5 [x] : x5 + x4 , x5 2x2 , x5 x.
−
− 3x3, x5 +
11. Demostrar que la conmutatividad de la suma de vectores se desprende de las restantes propiedades que definen un espacio vectorial. 12. Sean x Sean x,, y,z vectores y,z vectores linealmente independientes en un espacio vectorial. Cu´ales ales de los siguientes sistemas de vectores son tambi´ en en linealmente independientes indep endientes ? a) x, a) x, x + y, x + y + z b) x b) x + y, y + z, z + x c) x c) x
− y, y − z, z − x
13
1.6. EJERCICI EJERCICIOS OS
13. Sea R el conjunto de n´umeros umeros reales considerado como espacio vectorial sobre los n´umeros racionales. Pertenece el real 4 3 a la envolvente lineal de los reales 1 y 3 ?
√
√
14. Sea U U el subespacio de R3 [x] generado por los polinomios E = x3 , x3 x2 , x3 + x 2 , x3 Encontrar un subconjunto F de E de E linealmente linealmente independiente tal que < que < F >= U . U .
{
−
− 1}.
15. Encontrar una base para el subespacio U subespacio U de de R4 [x] generado por los polinomios f polinomios f ((x) que satisfacen la condici´ condici´ on f on f ((x) = x4 f x1 .
16. En el espacio C espacio C [0 [0,, 1] de funciones reales continuas determinar si los siguientes vectores son LI:
f (x ( x) = 1 x, g (x) = x (1 x) ,
−
h (x) = 1
−
− x2.
17. Sea K Sea K un un cuerpo finito con q elementos. q elementos. Cu´antas antas bases ordenadas distintas tiene K n , n
≥ 1.
´ Algebra Algebr a Lineal Cap´ Cap´ıtulo 1. Espacios Espaci os Vectoriales ectori ales Ejercicios. 2. Sea 2. Sea F el conjunto de todas las sucesiones de n´umeros umeros reales (a (a1 , a2 , a3 , . . .) .) que satisfacen la condici´on on ak = a k−1 + ak−2 , para k para k = 3, 4, 5, . . . Investigar si F es un subespacio vectorial del espacio vectorial R N de todas to das las l as sucesiones suc esiones reales (v´ease ease la Lecci´on on 2 del presente cap´ cap´ıtulo). Soluci´ on: on: Para ver que F F es un subespacio de RN basta con verificar que la suma y la multiplicaci´on on por escalar son cerradas. En efecto, sean an y bn sucesiones de F y a R, entonces se tiene que ak = ak−1 + a + a k−2 y bk = bk−1 + b + b k−2 , luego ak + b + b k = (ak−1 + b + bk−1 ) + (ak−2 + b + b k−2 ) y por lo tanto ak + bk F. De igual manera a.ak = aa k−1 +aak−2 y a.ak F. As´ı, F es un subespacio.
{ } { }
{
}∈
∈
{
}∈
3. Sean 3. Sean a a,, b, c n´umeros umeros reales diferentes fijos. Investigar si los polinomios ( x (x b)(x )(x c) son linealmente independientes.
−
−
− a)(x )(x − b), (x − a)(x )(x − c),
Soluci´ on: Consideremos on: Consideremos la combinaci´on on lineal α lineal α1 (x a)(x )(x b)+ α2 (x ( x a)(x )(x c)+ α3 (x ( x b)(x )(x c) = 0. Esta relaci´on on dice que el polinomio de la izquierda es nulo, luego en cada valor de x este polinomio es cero. Entonces, tomando x = c = c y y teniendo en cuenta que los valores a, a, b, c son diferentes, se tiene que α1 = 0. De igaul forma se prueba que α 2 = 0 = α3 .
−
−
−
−
−
−
14. Sea U U el subespacio de R3 [x] generado por los polinomios E = x3 , x3 x2 , x3 + x 2 , x3 Encontrar un subconjunto F de E de E linealmente linealmente independiente tal que F = U . U .
{
−
−
− 1}.
Soluci´ on: on: N´ otese otese que x3 + x 2 = 2x3 x3 x2 , luego el elemento x3 + x 2 sobra como generador en E = U . U . Los tres elementos x elementos x 3 , x3 x2 y x 3 1 son linealmente independientes: en efecto, sean + b + + a = 0, b = 0 y a,b,c escalares a,b,c escalares reales tales que ax3 + b x3 x2 + c x3 1 = 0, entonces a + b a = c = 0, o sea que todos los escalares son nulos.
− − − − −
−
−
15. Encontrar una base para el subespacio U de R4 [x] generado por los polinomios f ( f (x) que sa1 4 tisfacen la condici´on f on f ((x) = x f x .
Soluci´ on: on: Sea f ( f (x) = a + bx + bx + + cx cx 2 + dx3 + ex4 tal que x4 a + b x1 + c x12 + d x13 + e x14 = a + bx + bx + + 2 3 4 4 3 2 2 3 4 cx + dx + ex . Entonces, ax Entonces, ax + bx + cx + dx + e = a = a + bx + cx + dx + ex , es decir, a decir, a = = e, e, b = d = d,, 2 3 es decir, decir, los polinomi polinomios os que cumplen cumplen la condic condici´ i´ on o n son de la forma a + bx + cx + bx + ax 4 = 4 3 2 a 1 + x + b + b x + x + cx + cx . Esto dice que los polinomios x2 , x + x + x 3 , 1 + x 4 generan U . U . Adem´as, as, estos polinomios son LI, luego forman una base de U . U .
16. En 16. En el espacio C espacio C [0 [0,, 1] de funciones reales continuas determinar si los siguientes vectores son LI: f (x ( x) = 1 x, g (x) = x (1 x) ,
−
−
− x2. Soluci´ on: Sean on: Sean a a,, b, c ∈ R tales que a que a (1 − x) + b (x (1 − x))+ )) + c 1 − x2 h (x) = 1
= 0. Esta funci´on on nula se debe entonces anular en cualquier punto del intervalo [0 , 1], por tanto, haciendo x = 0 resulta a + c + c = 0. 1 1 1 3 1 Tomando ahora x ahora x = = 2 encontramos que 2 a + 4 b + 4 c = 0. Y finalmente, tomando x tomando x = 3 se tiene que 2 2 8 3 a + 9 b + 9 c = 0. Se tiene entonces el siguiente sistema:
15
1.6. EJERCICI EJERCICIOS OS
1 2a 2 3a
cuya soluci´on o n es [a [a = tomando c tomando c = = 1.
a + c = 0 + 41 b + 43 c = 0 + 92 b + 98 c = 0
−c, b = −c]. Esto nos muestra que las funciones dadas son LD, por ejemplo,
17. Sea 17. Sea K un K un cuerpo finito con q elementos. q elementos. ¿ Cu´antas antas bases ordenadas distintas tiene K tiene K n , n
≥ 1.
Soluci´ on: Cualquier on: Cualquier base de K n consta de n elementos LI. Por tanto, el problema se reduce a construir todos los posibles conjuntos distintos de n elementos LI en el espacio K n. Sea v1 = (a1 ,...,an ) el primer vector de la lista, entonces v1 puede ser cualquier vector no nulo, es decir, el n´umero umero de n posibilidades para v para v 1 es q es q 1. El segundo vector de la lista no puede ser m´ultiplo ultiplo de v de v 1 , es decir, v decir, v 2 no puede ser de la forma v2 = a.v a. v1 , donde a K . K . Por tanto, el n´ umero de posibilidades para v2 es umero q n q . As´ As´ı pues, el n´ umero posible de dos vectores LI en K n es (q n 1) (q n q ). umero ). Para el tercer vector se debe tener que no puede ser combinaci´on on lineal de los dos anteriores, es decir, v3 no puede ser de la forma v3 = a.v1 + b.v + b.v 2 . Por tanto, el n´umero umero de posiblidades para v3 es q n q 2 . Continuando el
−
−
∈
−
−
−
razonamiento de esta manera se encuentra que el n´umero total de n vectores LI es
n 1
−
−
i=0
q n
q i .
16
CAP ´ ITULO 1. ESPACIOS ESPACIOS VECTORIALES VECTORIALES
Cap´ıtulo 2
Transformaciones Lineales Introducci´ on on El segundo cap´ıtulo ıtulo tiene un doble prop´ osito. Por un lado introduce las funciones que conectan los osito. espacios vectoriales: las transformaciones lineales, y por otro, presenta la suma directa interna de subespacios. La representaci´on on de un espacio vectorial en suma directa de subespacios es clave para el tratamiento de las formas can´onicas onicas del cap ca p´ıtulo 6 y los aspect a spectos os geom´ geo m´ etricos etricos de los espacios euclidianos euclidi anos del cap´ıtulo ıtul o 8.
2.1. 2.1.
Defin Definic ici´ i´ on on y Ejemplos
Definici´ on on 2.1. Sean 2.1. Sean V V y W dos W dos espacios vectoriales sobre un mismo cuerpo K ; K ; una transformaci´ transformaci´ on lineal de V en W es W es una funci´ on T : V
−→ −→ W
que satisface dos condiciones: (a) T ( T (u + v) = T ( T (u) + T ( T (v ) (b) T ( T (a.v) a.v ) = a.T ( a.T (v ) para para cualesquiera cualesquiera vectores vectores u, v V V y cualquier escalar a K . K . Se dice tambi´en en que T T es un operador lineal de V en W , W , o que T es T es una funci´ on K -lineal K -lineal de V en W . W .
∈
Ejemplo 2.1. La funci´on T on T : R3
∈
−→ R2 definida por T ( T (x,y,z) x,y,z) = (2x, (2x, 2y)
es una transformaci´on on lineal. En efecto, Si u Si u = (x1 , y1 , z1 ) y v = (x2 , y2 , z2 ), entonces T ( T (u + v) = T ( T (x1 + x2 , y1 + y2 , z1 + z2 ) = (2(x (2(x1 + x2 ), 2(y 2(y1 + y2 )) = (2x (2x1 , 2y1 ) + (2x (2x2 , 2y2 ) = T ( T (u) + T ( T (v ). T ( T (a.u) a.u) = T ( T (ax1 , ay1 , az1 ) = (2ax (2ax1 , 2ay1 ) = a.(2 a. (2x x1 , 2y1 ) = a.T ( a.T (u). Ejemplo 2.2. La derivaci´on D on D puede entenderse entenderse como un operador operador lineal del espacio V espacio V de funciones df derivables en R en el espacio C espacio C ((R): D ): D((f ) = dx 17
CAP ´ ITULO 2. TRANSFORMAC TRANSFORMACIONES IONES LINEALES LINEALES
18
Ejemplo Ejemplo 2.3. La integrac integraci´ i´on on puede considerarse como un operador lineal S S del espacio C (R) en 1 C (R): S (f ) f ) =
f ( f (x)dx + C con C con C = 0
Ejemplo 2.4. Dados dos espacios vectoriales V vectoriales V y W , W , la funci´on on nula
−→ →
O : V : V x
W O(x) = 0
es una transform transformaci´ aci´ on lineal, denominada la transformaci´ on on on nula nula.. De igual manera, la funci´on on id´enti en tica ca
−→ →
I V V : V x
V I V (x) = x = x V (x
es tambi´en en una transformaci´ transfor maci´on on lineal, y se le conoce como la id´entic ent ica a de V . V . Ejemplo 2.5. Sea a Sea a
∈ R un real fijo y R[x] el espacio de polinomios reales, entonces la funci´on on T : R[x] −→ R p( p(x) → p(a)
es una transformaci´on on lineal. lineal.
2.2.
Nucleo u ´ cleo e Imagen
Definici´ on on 2.2. Sea T : V como
→ W W una transformaci´ on lineal de V en W ; W ; se define el n´ ucleo de T { ∈ V |T ( T (v) = 0}.
N ( N (T ) T ) = v
N´ otese que N ( N (T ) T ) es un subespacio de V de V .. Por otro lado, se define la imagen la imagen de de T T como
{ ∈ W |w = T = T ((v ) para alg´ un v v ∈ V };
I m(T ) T ) = w
I m(T ) T ) es un subespacio de W . W . Si A es un subespacio de V y B es un subespacio de W , W , entonces los conjuntos T ( T (A) = T ( T (a) a
| ∈ A}
{
T −1 (B ) = {v ∈ V |T ( T (v ) ∈ B } son subespacios de W y V respectivamen respectivamente. te. Obs´ervese ervese que N (T ( T )) = T −1 (0), (0), e I m(T ) T ) = T (V ( V )). La dimensi´ on del espacio imagen I m(T ) ) se conoce como el rango el rango de la transformaci´ on T , T , y se denota por rank( rank(T ) T ). Ejemplo 2.6. Consid´ Con sid´erese eres e la funci´ func i´on T on T definida definida por Rn [x]
p( p(x) = a 0 + a1 x +
n nx
··· +a
−→ →
R2n [x] a0 + a1 x2 +
T T es una transformaci´on on lineal con n´ucleo ucleo 0 y rank y rank (T ) ) = n + 1.
··· +a
2n
nx
´ 2.2. 2.2. N UCLEO E IMAGEN
19
Ejemplo 2.7. En el espacio V espacio V de las sucesiones reales convergentes la funci´on T on T definida definida por
{ } { − x }, donde a donde a =
T ( T ( xn ) = a
n
→∞{
l´ım ım xn
n
}
es una transformaci´on on lineal cuyo n´ ucleo es el espacio de las sucesiones constantes y cuya imagen es el ucleo espacio de las sucesiones de l´ımite 0. Adem´ as, as, la sucesi´on on constante 1 es una base de N ( N (T ) T ) y, por otro lado, las sucesiones
{ { {
} } }
s1 = 1, 0, 0, . . . s2 = 0, 1, 0, . . . s3 = 0, 0, 1, . . . .. .
son linealmente independientes, con lo cual I m(T ) T ) y V son V son espacios de dimensi´on on infinita. infinita. Soluci´ on: Sea V Sea V el el espacio de sucesiones reales convergentes y T : V que efectivamente efectivamente T T es una transformaci´on on lineal: lineal:
→ V , V , T ( T ({a }) = {a − a }.N´ otese otese n
{ } { } { } { { } { } { − }
n
− } { − } { − b } = T ( T ({a }) + T ( T ({b }); { − } { } Vamos ahora a demostrar que su n´ucleo ucleo son las sucesiones contantes: sea { a } una sucesi´on on convergente verge nte de l´ımite ımi te a de tal forma que T ( T ({a }) = {0} = {a − a }, es decir, para cada n se tiene que a − a = 0, es decir, a decir, a = a = a,, es decir, la sucesi´on on dada es constante. Finalmente, veamos que la imagen de T es el subespacio subespacio de las sucesiones sucesiones de l´ımite cero: sea { b } una sucesi´ sucesi´ o n que pertenece a la imagen de T , on T , entonces entonces {b } = T ( T ({a }) = {a − a },por tanto, tanto, − − − b = a a ,lueg lu egoo l´ım ım →∞ b = l´ım →∞ (a (a a ) = a a = 0. Esto prueba que la sucesi´on on dada T ( T ( an + bn ) = T ( T ( an + bn ) = a + b (an + bn ) = a an + b T ( T (c. an ) = T ( T ( can ) = ca can = c. a an = c.T ( c.T ( an ).
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
n
es de l´ımite ımi te cero. cero .
A continuaci´on on se presenta y se pueba uno de los teoremas b´asicos del ´algebra algebra lineal. Teorema 2.1. Sea V V un espacio de dimensi´ on finita n lineal. Entonces
≥ 1 y sea T : V → W W una tranformaci´ on
dim(V dim(V )) = dim(N dim(N ((T )) T )) + dim(I dim(I m(T )) T )) Demostraci´ on: Sea X X una base de N ( N (T ) T ) y Y Y un conjunto de vectores de V V tal que Y X = y X Y es Y es una base de V V Proposici´ on on 9, Cap´ıtulo ıtulo 1). Si Y Si Y es vac´ıo ıo entonc ent onces es N ( N (T ) T ) = V y V y el teorema se cumple trivialmente. Si Y Si Y = , entonces es f´acil acil probar que T que T ((Y ) Y ) es una base de I m(T ) T ) con la misma cardinalidad de Y de Y .. Esto completa la prueba del teorema.
∪
∩
∅
∅
Ejericicio 2.1. Demuestr Demuestree que si en el enunciado enunciado del teorema anterior anterior V V es es un espacio de dimensi´on on infinita, entonces N entonces N ((T ) T ) ´o I m(T ) T ) es de dimensi´on on infinita, y viceversa.
≥
Ejericicio 2.2. Sea V Sea V un un espacio vectorial de dimensi´on on finita n finita n 1 y sean V 1 y V 2 subespacios de V tales V tales que dim(V dim(V 1 )+dim(V )+dim(V 2 ) = dim(V dim(V ). ). Demuestre que existe una transformaci´on on lineal T lineal T : V V tal que N que N ((T ) T ) = V = V 1 e I m(T ) T ) = V = V 2 .
→
→
Soluci´ on: Si dim(V dim(V 1 ) = 0, entonces dim(V dim( V 2 ) = n y V 2 = V , en tal caso la transformaci´on T on T : V V es la id´ entica. entica. Si dim(V dim(V 1 ) = n, entonces entonces V 2 = 0 y en este caso T T = 0. Sup´ongase ongase entonces entonces que 0 < dim(V dim(V 1 ) < n. Sea X = x1 , . . . , xk una base de V 1 y Z = z1 , . . . , zn−k una base de V 2 . Completamos entonces la base X hasta X hasta una base Y = x1 , . . . , xk , y1 , . . . , yn−k de V . La transformaci´on on
{
}
{
{
}
}
CAP ´ ITULO 2. TRANSFORMAC TRANSFORMACIONES IONES LINEALES LINEALES
20 T entonces T entonces se define por T ( T (xi ) = 0, 1 Im(T Im(T )) = V = V 2 .
≤ i ≤ k y T ( que N ((T ) T (y ) = z , 1 ≤ j ≤ n − k. Es k. Es claro que N T ) = V 1 e j
j
El siguiente teorema muestra que una transformaci´on lineal queda completamente determinada por su acci´on on sobre los vectores de una base. En otras palabras, para definir una transformaci´on lineal basta conocer las im´agenes agenes de los vectores de una base.
→ →
Teorema 2.2. Sean V y W dos K -espacios, -espacios, X una X una base de V y t : X W una W una funci´ on. Entonces existe una unica ´ transformaci´ on lineal T : V W que W que extiende a t, es decir, T ( T (x) = t( t (x), para cada x X .
→
∈
Demostraci´ on: Sea v un vector de V , V , entonces v tiene una representaci´on on unica u ´ nica en la forma v = + + , donde a donde y , 1 (Proposici´ on o n 5, Cap´ ıtulo ı tulo 1). Se define T por a1 x1 an xn a i K x i X i n
·
···
·
∈
∈
≤ ≤ T (v ( v ) = a 1 . t (x1 ) + · · · + a . t (x ) N´ otese otese que T es T es una transformaci´on on lineal: sea u = b1 · z1 + · · · + b · z otro vector de V , V , b ∈ K y z ∈ X , 1 ≤ i ≤ n; si {x1 , . . . , x } ∩ {z1 , . . . , z } = ∅, entonces entonces la represen representaci´ taci´ on o n de u + v · · · + b · z + a 1 · x 1 + ·· · · · + a · x , de donde T ( en la base X es u + v = b1 · z 1 + ·· T (u + v) v ) = b1 cdott( cdott(z1 ) + · · · + b · t(z ) + a1 · t(x1 ) + · · · + a · t(x ) = T ( T (u) + T ( T (v ). Sup´ ongase ongase que { x1 , . . . , x } y { z1 , . . . , z } tienen r elementos en com´un; un; sin perdida de generalidad se puede suponer que r que r ≤ n ≤ m, y entonces se puede expresar a u en la forma u forma u = = b b 1 · x1 + · · · + on de u de u + v en la base X base X es b · x + b +1 · z +1 + · · · + b · z , de donde se obtiene que la representaci´on u + v = (b1 + a1 ).x1 + · · · + (b (b + a ).x + b +1 . z +1 + · · · + b . z + a +1 . x +1 + · · · + a . x . n
n
m
i
n
r
r
r
m
m
r
n
n
n
i
m
m
m
m
n
n
m
m
m
r
r
r
r
r
m
m
r
r
n
n
Se tiene entonces que T ( T (u + v) = (b1 + a1 ).t( .t(x1 ) + + (b (br + ar ).t( .t(xr )+ br+1 . t( zr+1 ) + + bm. t( zm ) + ar+1 . t( xr+1 ) + + an . t(xn ) = T ( T (u) + T ( T (v).
···
···
De otra parte, si a K , entonces a.v entonces a.v = aa = aa 1 . x1 + aan .t( .t( xn ) = a.T ( a.T (v).
∈
· · · + aa
···
n . xn ,
con lo cual T cual T ((a.v) a.v) = aa 1 . t(x1 ) +
···+
Finalment Finalmente, e, es obvio obvio que T T es una extensi´on o n de t, y cualquier cualquier transform transformaci´ aci´ on on lineal que coincida con t en la base X es X es igual a la transformaci´on on T que T que se defini´o arriba. Esto completa la prueba del teorema.
2.3.
Operacion Operaciones es con con Tran Transfor sformac macione ioness Lineal Lineales es
En esta lecci´on on se muestra que el conjunto de todas las transformaciones lineales entre dos K -espacios K -espacios V y W W es un K un K -espacio. -espacio. Se ver´a adem´as as que cuando V cuando V = W dicho W dicho conjunto es una K -´ K -´algebra. algebra. Definici´ on on 2.3. Sea L L K (V, W ) W ) el conjunto de todas las transformaciones lineales del espacio V V en el espacio W . W . LK (V, W ) W ) adquiere estructura de espacio vectorial respecto de las siguientes operaciones:
∈ L
i) Para Para T T 1 , T 2
( V, K (V,
W ) W ) y v y v
∈ V se V se define la suma por (T 1 + T 2 )(v )(v) = T 1 (v ) + T 2 (v ).
21
2.3. OPERACIONES OPERACIONES CON TRANSFORMA TRANSFORMACIONES CIONES LINEALES
ii) La acci´ acci´ on de escalares sobre transformaciones viene dada por
·
·
(a T )( T )(vv) = a T ( T (v ) donde a K y T LK (V, (V, W ) W ). N´ otese que el cero de LK (V, ( V, W ) W ) es la transformaci´ on nula y la opuesta opuesta de T LK (V, ( V, W ) W ) es la transformaci´ on T definida T definida por
∈
∈ ∈
∈ ∈
− −
−
( T )( T )(vv) =
−T ( T (v ).
LK (V, ( V, W ) W ) se s e conoce co noce tambi´en en como el espacio de operadores lineales de V en W . W . Adem´ as de las dos operaciones definidas anteriormente, se puede considerar la composici´on de transas formaciones lineales como una tercera operaci´on. on. Definici´ on on 2.4. Sean T : V W y S : Z U U dos transformaciones lineales de tal manera que se cumpla la condici´ on habitual de compatibilidad: I m(T ) T ) Z . Entonces la funci´ on compuesta ST definida para cada v cada v V por
→
→ →
∈
⊆
(ST )( ST )(vv) = S (T ( T (v )) es una transformaci´ on lineal. Las tres operaciones introducidas gozan de las siguientes propiedades algebraicas. Sean T Sean T , T 1 , T 2 , T 3 transformaciones lineales compatibles para las operaciones indicadas. Entonces (T 1 T 2 )T 3 = T = T 1 (T 2 T 3 ) T ( T (T 1 + T 2 ) = T T 1 + T T 2 (T 1 + T 2 )T = T 1 T + T 2 T a (T 1 T 2 ) = (a T 1 )T 2 = T 1 (a T 2 ), a ), a I T = T = T I
·
·
·
∈ K
donde I donde I es es la transformaci´on on id´ i d´entica enti ca resp r especti ectiva. va. De acuerdo a la discusi´on on anterior, el espacio L K (V ) V ) = L K (V, V ) V ) , de transformaciones lineales de V en si mismo, viene dotado de tres operaciones: suma de vectores, producto de escalares por vectores y producto entre vectores. Resulta entonces que LK (V ) V ) es un ´algebra algebra sobre el cuerpo K , en el sentido de la siguiente definici´on. on. Definici´ on on 2.5. Sea un espacio vectorial sobre un cuerpo K , se dice que es un algebra ´ sobre K , o tambi´en en que es una K -´ -algebra, ´ si en est´ a definido un producto entre vectores que cumple las siguientes condiciones:
A A
A A
A A
A A
(x1 x2 )x3 = x = x1 (x2 x3 ) x(x1 + x2 ) = xx = xx 1 + xx2 (x1 + x2 )x = x = x 1 x + x2 x a (x1 x2 ) = (a x1 )x2 = x1 (a x2 ), a 1x = x = x = = x x11
·
·
·
∈ K
∈ A, a ∈ K y 1 1 es el elemento neutro del producto de vectores.
donde x, x, x1 , x2 , x3
CAP ´ ITULO 2. TRANSFORMAC TRANSFORMACIONES IONES LINEALES LINEALES
22
2.4.
Tansform ansformaci aciones ones Linea Lineales les Biye Biyecti ctiv vas
En el Cap´ Cap´ıtulo 1 se present´ o el concepto de isomorfismo para grupos y anillos; en esta lecci´on se mostrar´ a la importancia de esta noci´on on para el caso de los espacios vectoriales. Definici´ on on 2.6. Una transformaci´ on lineal T : V u, v V se V se cumple que:
∈
T ( T (u) = T ( T (v )
→ W es inyectiva inyectiva si si para cualesquiera elementos ⇐⇒
u = v. = v.
T T se dice dice sobreyectiva si I I m(T ) T ) = W . W . Proposici´ on on 2.1. Si T : V son equivalentes:
→ W W es una transformaci´ on lineal, entonces las siguientes condiciones
1. T T es inyectiva. 2. N ( N (T ) ) = 0. 0. 3. Si v1 , . . . , vn son vectores LI de V ,entonces V ,entonces T T ( (vv1 ), . . . , T (v ( vn ) son vectores LI de I I m(T ). ) . 4. Si X es X es una base de V de V ,, entonces T ( T (X ) es una base de I de I m(T ). ) . En particular, si V y W son W son espacios de dimensi´ on finita n T es T es sobreyectiva.
≥ 1, 1 , entonces T T es inyectiva si y s´ olo si
⇒ 2): Si v Si v ∈ N ( N (T ), T ), entonces T entonces T ((v ) = 0 = T = T (0), (0), con lo cual v = 0. 2) =⇒ 3): Sean a Sean a 1 , . . . , a ∈ K tales tales que a que a 1 · T ( T (v1 ) + · · · + a · T ( T (v ) = 0, entonces a entonces a 1 · v1 + · · · + a · v ∈ N ( N (T ), T ), es decir, a decir, a 1 · v1 + · · · + a · v = 0, de donde, a donde, a 1 , . . . , a = 0. 3) =⇒ 4): Es obvio que T ( T (X ) es LI; si w ∈ I m(T ), T ), entonces existen escalares a1 , . . . , a y vectores v res v 1 , . . . , v ∈ X tales X tales que w = T = T (a ( a1 .v1 + · · · + a .v ) = a 1 .T (v ( v1 ) + · · · + a .T (v ( v ) ∈ T ( T (X ),
Demostraci´ on: 1) =
n
n
n
n
n
n
n
n
n
n
n
n
n
n
lo cual prueba que T que T ((X ) genera a I m(T ), T ), y por lo tanto es una base de I m(T ). T ). 4) = 1): Sean u, v V V tales que T ( T (u) = T ( T (v); sin p´ erdida erdida de generalidad podemos p odemos suponer que la expansi´on o n de u y v a trav´ es es de la base X se X se realiza con los mismos vectores, es decir, existen v1 , . . . , vn X y a 1 , . . . , an , b1 , . . . , bn K tales tales que
⇒
∈
∈
∈ ( a1 .v1 + · · · + a .v ) = T (b ( b1 .v1 + · · · + b .v ) = T ( T ( T (u) = T (a T (v ) a1 .T (v ( v1 ) + · · · + a .T (v ( v ) = b 1 .T (v ( v1 ) + · · · + b .T (v ( v ), pero como T como T ((X ) es LI, entonces a = b , para cada 1 ≤ i ≤ n. Esto garantiza que u que u = v = v.. n
n
i
n
n
n
n
n
n
i
Por las equivalencias probadas anteriormente se tiene que T es T es inyectiva si y s´olo olo si dim(T dim(T ((V )) V )) = n si n si y s´olo olo si T si T ((V ) V ) = W si W si y s´olo olo si T si T es es sobreyectiva. Se dice que T que T es biyectiva es biyectiva si si T T es es inyectiva y sobreyectiva. Dos K Dos K -espacios -espacios V V y W se W se dicen isomorfos dicen isomorfos si existe una transformaci´on on lineal biyectiva T de V en W en W .. Esta relaci´on on entre V y W se W se denota por V = W . W .
∼
Siendo T Siendo T biyectiva, biyectiva, existe la funci´on on inversa de T de T definida definida por T −1 : W
→ V →
23
2.4. TANSFORMACIO ANSFORMACIONES NES LINEALES BIYECTIVAS BIYECTIVAS
T −1 (w) = v
∈
donde w donde w W y v condiciones:
⇐⇒
T ( T (v) = w
∈ V . V . Es obvio que T que T −1 es tambi´en en una tranformaci´ tranformac i´on on lineal y cumple las siguientes T T −1 = I W W
,
T −1 T = I V V
N´ otese otese que T −1 es la unica u ´ nica transformaci´on on de W en V que V que cumple estas identidades, y se le conoce como la transformaci´ on on inversa de T . T . Se ha visto que una transformaci´on on lineal biyectiva tiene inversa, esta es ´unica unica y viene caracterizada por las identidades anteriores. N´ otese otese que la relaci´on on “ser isomorfo” es una relaci´on on de equivalencia en la colecci´on o n de todos los K -espacios. -espacios. Es tambi´ en en claro que la composici´on on de dos isomorfismos es nuevamente un isomorfismo. Un isomorfismo T isomorfismo T de de un espacio V en V en si mismo se denomina un automorfismo un automorfismo de de V . V . La colecci´on on de todos los automorfismos de un espacio V V se denota por Aut K (V ). V ). Se tiene entonces inmediatamente el siguiente resultado. Proposici´ on on 2.2. Si V V es un K -espacio, -espacio, entonces AutK (V ) V ) es un grupo respecto de la composici´ on de transformaciones con elemento neutro I V V . Una consecuencia consecuencia inmediata de la Proposici´ Proposici´ on 2.1 on 2.1 es el siguiente corolario.
→
Corolario Corolario 2.1. Sea T T : V V una V una transformaci´ on lineal de un espacio V V de dimensi´ on finita n n Entonces las siguientes condiciones son equivalentes:
≥ 1.
1. T T es inyectiva 2. N ( N (T ) T ) = 0 3. T es T es sobreyectiva 4. rank( rank(T ) T ) = n 5. T es T es un automorfismo. El siguiente teorema pone de manifiesto la importancia del concepto de isomorfismo para el caso de los espacios vectoriales. Teorema 2.3. Salvo isomorfismos, el ´ unico K unico K -espacio -espacio de dimensi´ on n n si V V es un K -espacio K -espacio de dimensi´ on n 1, entonces V V = K n .
∼
≥
n
≥ 1 es K es K . M´ as exactamente,
Demostraci´ on: Sea X Sea X = x1 , . . . , xn una base de V y C = e1 , . . . , en la base can´onica onica de K de K n . Las funciones
{
}
t : X : X xi
{
−→ −→
C ei
,
s : C : C ei
}
−→ −→
X xi
con 1 i n, n , inducen de manera ´unica unica transformaciones lineales T : V K n y S : K n V que coinciden con t con t en X y s en C , C , respec r espectivamente tivamente (v´ease ease el Teorema 2 del presente cap´ cap´ıtulo). Las transformaciones S formaciones S T y T S son son tales que ST S T ((xi ) = x i y T S (ei ) = ei , para cada 1 i n. Nuevamente, por el Teorema 2, S 2, S T = I V = I K que T es es un isomorfismo y la prueba ha terminado. V y T S = K n . Esto indica que T
≤ ≤
→ ≤ ≤
→
Corolario Corolario 2.2. Dos 2.2. Dos espacios vectoriales de dimensi´ on finita sobre un mismo cuerpo K cuerpo K son son isomorfos si y s´ olo si sus dimensiones coinciden.
CAP ´ ITULO 2. TRANSFORMAC TRANSFORMACIONES IONES LINEALES LINEALES
24
Demostraci´ on: = ) Sean V y W dos K -espacios -espacios isomorfos isomorfos de dimensi´ dimensi´on on finita finita con isomorfi isomorfismo smo T : V W ; W ; si X = x1 , . . . , xn es una base de V V entonces obviamente obviamente T (X ( X ) es una base de W con n con n elementos. De acuerdo a la Proposici´on on 7 del Cap´ Cap´ıtulo 1, dim(W dim(W )) = n = n = dim(V dim(V ). ).
⇒
→
{
}
⇐=) Si dim(W dim(W )) = n = dim(V dim(V ), ), entonces por el Teorema 3 V ∼ W , y por transitividad, = K ∼ = W , V ∼ W . W . = n
Las versiones en dimensi´on on infinita del Teorema 2.3 y 2.3 y del Corolario 2.1 Corolario 2.1 ser´ ser´an an estudiadas en la pr´oxima oxima lecci´ on. on. Cerramos esta lecci´ lecci´on on con tres ejercicios. ejercicios. Ejericicio 2.3. Sean T Sean T : V W , W , S : S : W W U transformaciones transformaciones lineales, donde V donde V,, W y U son U son espacios de dimensi´on on finita n finita n 1. Demuestre que:
≥
→
→ →
≤ rank (S ) y rank (ST ) ST ) ≤ rank (T ). ). (b) rank (ST ) ST ) ≥ rank (S ) + rank (T ) ) − n. (a) rank (ST ) ST )
(c) Si S S es biyectiva, entonces rank (ST ) ST ) = rank (T ). ). Si T T es biyectiva, entonces rank (ST ) ST ) = rank (S ). ). (d) Si V Si V = W = U y S es S es biyectiva, entonces rank (ST ) ST ) = rank (T ) ) = rank (T S ). ). Si T Si T es es biyectiva, entonces rank (ST ) ST ) = rank (S ) = rank (T S ). ).
⊆
Soluci´ on: (a) Para la primera parte basta tener en cuenta que I m(ST ) ST ) I m(S ). ). Para la segunda, n´ otese otese que N ( N (T ) T ) N ( N (ST ); ST ); resulta entonces que dim N ( N (T ) T ) dim N ( N (ST ), ST ), y por el Teorema 1, dim N ( N (T ) T ) + rank + rank((ST ) ST ) dim di m N ( N (ST ) ST ) + rank + rank((ST ) ST ) = n, n , y entonces n rank( rank(T ) T ) + rank + rank((ST ) ST ) n, n , es decir, rank decir, rank((ST ) ST ) rank( rank(T ). T ).
≤
⊆ ≤
≤
−
≤
(b) Si se prueba que dim N ( N (ST ) ST ) dim N ( N (S ) + dim N ( N (T ), T ), entonces rank( rank(ST ) ST ) = n dim N ( N (ST ) ST ) n dim N ( N (S ) dim N ( N (T ) T ) = n n + rank( rank(S ) n + rank( rank(T ) T ) = rank( rank(S ) + rank( rank(T ) T ) n.
−
−
−
≤
− −
−
≥
Para probar prob ar lo requerido requeri do recu´erdese erdese que dim di m N ( Sea q = = dim N ( N (T ) T ) dim N ( N (ST ). ST ). Sea q N (T ) T ) y sea v1 , . . . , vq una base de N de N ((T ). T ). Sea q Sea q + p = p = dim N ( N (ST ), ST ), p p 0. Podemos completar la base anterior hasta una base de N ( N (ST ) ST ) : v1 , . . . , vq , vq+1 , . . . , vq+ p . N´ otese otese que los vectores T vectores T ((vq+1 ), . . . , T ( vq+ p) son LI y pertenecen al n´ ucleo ucleo de S de S , por lo tanto, p tanto, p dim N ( N (S ) y se tiene que dim N ( N (ST ) ST ) = p + q dim N ( N (S )+dim ) +dim N ( N (T ). T ).
{
≥
}
≤
≤
{
}
≤ ≤
(c) y (d) son consecuencia inmediata de (a) y (b). Ejericicio Ejericicio 2.4. Sea R [x] el espacio de los polinomios reales y sea T sea T definida definida por
p( p(x) = a 0 + a1 x +
T : R[x] + an xn
···
−→ →
R[x]
a0 + a1 x2 +
··· +a
2n
nx
Probar que T que T es es una transformaci´on on lineal inyectiva pero no es sobreyectiva (Este ejemplo ilustra que el Corolario 1 no es v´alido alido en dimensi´ on on infinita). Ejericicio Ejericicio 2.5. Sean α Sean α 1 ,
· · · , α
m
n´ umeros reales diferentes y sea T definida umeros T definida por
T : Rn [x] p( p(x)
−→ →
Rm
( p( p(α1 ),
· · · , p(α
m ))
Demuestr Demuestree que T T es una transformaci´ transformaci´ on on lineal. Calcule dim N ( N (T ) T ) y rank( rank(T ) T ). ¿En que caso T es inyectiva, en que caso T es T es sobreyectiva?
25
2.5. PRODUCTO PRODUCTO Y SUMA DIRECTA DIRECTA DE ESPACIOS ESPACIOS VECTORIALES
Soluci´ on: Sean on: Sean p p((x), q (x)
n [x],
∈R
entonces:
T [ T [ p( p(x) + q (x)] = T [( T [( p + q )(x )(x)] = (( p (( p + q )(α )(α1 ), ( p + q )(α )(α2 ),..., ( p + q )(α )(αm )) = ( p ( p((α1 ) + q (α1 ), p(α2 ) + q (α2 ),...,p( ,...,p(αm ) + q (αm )) = ( p ( p((α1 ), p(α2 ),...,p( ,...,p(αm )) + (q (q (α1 ), q (α2 ),...,q (αm )) = T [ T [ p( p(x)] + T [ T [q (x)] y sea θ sea θ
∈ R, entonces: T [ T [θp( θp(x)] = T [( T [(θp θp)( )(x x)] = ((θp ((θp)( )(α α1 ), (θp)( θp)(α α2 ),..., (θp)( θp)(α αm)) = (θp( θp(α1 ), θp( θp(α2 ),...,θp( ,...,θp(αm )) = θ( θ ( p( p(α1 ), p(α2 ),...,p( ,...,p(αm )) = θT [ θT [ p( p(x)]
Luego T Luego T es una transformaci´on on lineal. Para la segunda segunda parte del ejercicio, ejercicio, consideremos consideremos dos situaciones situaciones por separado. separado.
≥
a) n m: el N ( N (T ) T ) est´a conformado conformado por los polinomios polinomios que tienen tienen como ra´ ra´ıces a α1 , α2 ,ldots,αm. Si p Si p((x) N ( N (T ), T ), entonces p entonces p((x) = (x α1 )(x )(x α2 ) (x αm)q (x) donde q donde q ((x) Rn−m [x]. N´ otese otese que en este caso una base del n´ucleo ucleo es (x α1 )(x )(x α2 )...( ...(x αm ), (x α1 )(x )(x α2 )...( ...(x αm )x , . . . , (x α1 )(x )(x α2 )...( ...(x αm)xn−m y la dim N ( N (T ) T ) = n m + 1 1.
∈ −
−
}
− − ··· − { − − − − ≥
−
−
∈
−
−
Por el Teorema de la dimensi´on on se tiene que:
− − −
dim I m(T ) T ) = dim Rn[x] dim N ( N (T ) T ) = n + 1 (n m + 1) = m = m es decir, rank decir, rank((T ) = m. Lo anterior indica que T no T ) = m. T no es inyectiva pero si sobreyectiva. b) n < m: en este caso el ´unico unico polinomio del n´ ucleo u cleo es el cero y T es inyectiv inyectiva. a. En consecuen consecuen-cia, rank cia, rank((T ) T ) = n + 1. Si m Si m = n = n + 1 entonces T entonces T es es sobre y por tanto biyectiva. Si m > n + 1, entonces T no T no es sobreyectiva.
2.5. 2.5.
Produc Producto to y Suma Suma Direct Directa a de Espa Espaci cios os Vec Vecto toria riale less
La operaci´on on producto prod ucto cartesiano cartesi ano de la teor´ıa ıa elemental de conjuntos, co njuntos, aplicada apl icada a los espacios es pacios vectoriales, vecto riales, permite construir un espacio vectorial a partir de una familia dada de espacios. Esta lecci´on esta dedicada a dicha construcci´on. on. Como consecuencia de ella, se probar´a la versi´on on del Teorema 3 para espacios de cualquier dimensi´on. on. Definici´ on on 2.7. Sean V V 1 , . . . , Vr espacios vectoriales sobre el cuerpo K , K , y sea V V 1 producto cartesiano, es decir, V r = (v1 , . . . , vr ) vi
{
| ∈ V , i
1
≤ i ≤ r}
×···× V el conjunto r
CAP ´ ITULO 2. TRANSFORMAC TRANSFORMACIONES IONES LINEALES LINEALES
26
El conjunt conjunto o V 1 en por V r , denotado tambi´en vectorial bajo las siguientes operaciones:
× ·· · ×
r i=i
V i , tiene una estructura natural de espacio
(v1 , . . . , vr ) + (w ( w1 , . . . , wr ) = (v1 + w1 , . . . , vr + wr ) a (v1 , . . . , vr ) = (a v1 , . . . , a vr )
· ∈
·
·
r donde (v1 , . . . , vr ), (w1 , . . . , wr ) K . K . ir=i V i se conoce como el espacio el espacio producto de i=i V i y a n los espacios V espacios V 1 , . . . , Vr . N´ otese que K K es el producto cartesiano de n de n espacios vectoriales iguales a K a K ..
∈
Asociad Asociadas as al espacio espacio pro producto se tienen tienen transfor transformacio maciones nes lineales lineales cono conocida cidass como como las proye proyecc cciones iones e inyecciones can´ onicas. Por cada 1 i r se tiene una proyecci´ proyecci´ on can´ onica definida definida por
≤ ≤
πi : ir=1 V i (v1 , . . . , vr )
−→ −→
V i vi
Es obvio que πi es una transformaci´ on lineal sobreyectiva. Las Las inyecciones inyecciones can´ onicas se definen por:
−→ −→
µi : V i vi
r i=1
V i (0, (0, . . . , vi , . . . , 0)
Las inyecciones son transformaciones lineales inyectivas. Las proyecciones e inyecciones satisfacen las siguientes propiedades interesantes:
∼
Im(π Im(πi ) = V i , Im(µ Im( µi ) = V i , πj µi =
I V Vi 0
1
≤i≤r
si j = i = i si j = i
r
i=1
µi πi = I V V1 ×···×V r
La construcci´on on descrita en las l´ıneas anteriores puede ser generalizada al caso de una familia infinita de espacios vectoriales.
{ { }
Definici´ on on 2.8. Sea V i i∈I una familia de espacios vectoriales sobre un cuerpo K , el producto cartesiano de dicha familia se define como el conjunto de todas las funciones de I en I en la reuni´ on i∈I V i , tales que f ( f (i) V i , para cada i I , es decir,
∈
∈
V i =
→ →
f : I
∈
i I
∈ ∈
V i f ( f (i)
∈
i I
V i para cada i cada i
∈ I
.
Si se escrib escribe e f ( f (i) = f i , entonces entonces cada cada elemento elemento f puede repr represe esenta ntarr en la forma forma i∈I V i se puede f = (f i )i∈I . El producto i∈I V i adquiere estructura de espacio vectorial respecto de las siguientes operaciones: f + + g = (f i )i∈I + (gi )i∈I = (f i + gi )i∈I a f = a (f i )i∈I = (a ( a f i )i∈I , a K.
·
·
·
∈
Las proyecciones y las inyecciones can´ onicas se definen de manera similar a como se hizo en el caso finito: πj :
i I V i
∈
(f i )
µj : V j v
−→ −→ −→ −→
V j f j
i I V i
∈
f = (f i )
27
2.5. PRODUCTO PRODUCTO Y SUMA DIRECTA DIRECTA DE ESPACIOS ESPACIOS VECTORIALES
donde
f i =
v 0
si i i = j = j si i i = j
En el espacio producto i∈I V i se destaca como subespacio el conjunto de elementos f = (f i ) con f i = 0 para casi todo i I ; este subespacio se denota por i∈I V i y puede definirse m´ as exactamente de la siguiente forma: sea f = (f i ) un elemento de i∈I V i , el el soporte S f de f se f se define como el f subconjunto de elementos i I tales I tales que f que f i = 0 (para el elemento 0 el soporte soport e es vac´ıo). ıo). As´ı pues, pues ,
∈
∈
V i =
f = (f i )
∈
N´ otese que efectivamente externa de de la familia V i
V i S f . f es finito
∈
i I
∈ i I
es un subesp subespacio acio de i∈I V i, y se conoce como la la suma directa Cuando I es es finito, i∈I V i = i∈I V i . i∈I . Cuando I
{ { }
i I V i
∈
Un caso particular de las construcciones anteriores se obtiene cuando todos los espacios V i de la familia dada coinciden y son iguales a K 1 = K , K , en tal caso se usa la siguiente notaci´ on: i∈I V i = K I , (I ) I es finito de tama˜ no n, entonces claramente K claramente K I = K (I ) = K n . i∈I V i = K . Si I es
Ya se est´a en capacidad de probar el Teorema 3 para espacios de cualquier dimensi´on.
∼
Teorema 2.4. Sea V un K -espacio K -espacio con base X base X .. Entonces V = K (X ) . Demostraci´ on: En on: En primer lugar se debe observar que K (X ) tiene la siguiente base can´onica: onica: C = = ex
x X,
ex = (f z )z∈X ,
si z si z = x = x si z si z = x.
{ }∈
donde f z =
1 0
Las funciones t : X : X x
−→ −→
C ex
,
s : C : C ex
−→ −→
X x
inducen de manera ´unica unica transformaciones lineales T lineales T : V K (X ) y S : S : K (X ) V que V que coinciden con t en X y s en C , respectivamente respectivamente (v´ease ease el Teorema 2 del presente cap´ cap´ıtulo). Las transformaciones ST y T S son S son tales que S que S T ( T (x) = x y T S (ex ) = e x , para cada x cada x X . X . Nuevamente, por el Teorema 2, = I K (X) . Esto indica que T que T es es un isomorfismo y la prueba ha terminado. ST = I V V y T S =
→
→
∈
Corolario Corolario 2.3. Dos espacios vectoriales sobre un mismo cuerpo K K son isomorfos si y s´ olo si sus dimensiones coinciden. Demostraci´ on: Sean on: Sean V V y W dos K dos K -espacios -espacios isomorfos con isomorfismo T isomorfismo T : V W , W , y sea X sea X una una base de V , entonces T ((X ) es una base de W que V , entonces T W que tiene la misma cardinalidad de X . X . En consecuencia V y W tienen W tienen la misma dimension.
→
Rec´ıproc ıpr ocament amente, e, sup´ongase ongase que dim(V dim( V )) = dim(W dim(W ). ). Sean X , Y Y bases de V y W W respectivamente. Existe una funci´on on biyectiva α : X Y que Y que induce una transformaci´on on lineal T : V W ; W ; de igual manera α−1 : Y X X induce una transformaci´on on lineal S : W V V de tal forma que T S = I W W y ST = I V donde, T es es un isomorfismo y, V y, V = W . W . V , de donde, T
→
→
∼
→
→
CAP ´ ITULO 2. TRANSFORMAC TRANSFORMACIONES IONES LINEALES LINEALES
28
2.6. 2.6.
Suma Suma Direc Directa ta Inte Interna rna de de Subesp Subespac acio ioss
En esta lecci´on on se estudia la suma de subespacios de un espacio vectorial y se analiza el caso particular cuando dicha suma sea directa, es decir, cuando la representaci´on de los vectores del subespacio suma sea unica u ´nica en t´erminos erminos de sus s us sumandos. s umandos. En la Lecci´on on 3 del Cap´ Cap´ıtulo 1 se estudi´o la intersecci´on on de subespacios de un espacio vectorial V y se defini´o a partir de ella la envolvente lineal S de un subconjunto de vectores S de V de V .. Sean ahora V 1 , . . . , Vn subespacios de V de V ,, se define la suma la suma de de los subespacios V subespacios V 1 , . . . , Vn por
n
V 1 +
· · · + V = n
V i
i=1
y coincide, por lo tanto, con el menor subespacio de V V que contiene a cada uno de los subespacios V 1 , . . . , Vn . Es obvio que el subespacio suma se puede caracterizar tambi´ en en de la siguiente manera:
∈
n
V 1 +
· · · + V = n
vi vi
V i ,
i=1
1
≤i≤n
.
La suma de una colecci´on on arbitraria arbitraria de subespacios subespacios del espacio espacio V V se se define de forma an´aloga, aloga, pero no se har´a uso de ella en este curso. Se menciona a continuaci´on on una lista amplia de propiedades de las operaciones de suma e intersecci´on on de subespacios, cuyas demostraciones no son dif´ dif´ıciles:
∩ (V 2 ∩ V 3) = (V 1 ∩ V 2) ∩ V 3, V 1 + (V ( V 2 + V 3 ) = (V 1 + V 2 ) + V 3 V 1 ∩ V 2 = V = V 2 ∩ V 1 , V 1 + V 2 = V = V 2 + V 1 V 1 ∩ V = V 1 , V 1 + 0 = V 1 V 1 ∩ (V 2 + V 3 ) = (V 1 ∩ V 2 ) + (V ( V 1 ∩ V 3 ), si V si V 1 ⊇ V 2 ´o V 1 ⊇ V 3 . V 1
Adem´ as de lo anterior, se tienen las siguientes relaciones entre las dimensiones de los subespacios suma as e intersecci´on. on. Proposici´ on o n 2.3. 2.3. Sea V un espacio espacio vectorial vectorial y V 1 , . . . , Vn subespacios subespacios de V V de dimensi´ on finita. Entonces
∩ · · · ∩ V ) ≤ dim(V dim(V ), para cada 1 cada 1 ≤ i ≤ n ii) dim(V dim(V 1 + · · · + V ) ≥ dim(V dim(V ), para cada 1 cada 1 ≤ i ≤ n iii) dim(V dim(V 1 + V 2 ) = dim(V dim(V 1 ) + dim(V dim(V 2 ) − dim(V dim(V 1 ∩ V 2 ) iv) dim(V dim(V 1 + · · · + V ) ≤ dim(V dim(V 1 ) + · · · + dim(V dim(V ). i) dim(V dim(V 1
n
n
i
i
n
n
Adem´ as, si V V es de dimensi´ on finita n y U es U es un subespacio de V , V , entonces existe un subespacio U tal que U + + U = V, V ,
U
∩ U = 0,0 , dim(U dim(U ) + dim(U dim(U )) = n.
U se denomina el complemento el complemento de U U en V . V .
∪ ∩ { }
Ejemplo 2.8. Sean X 1 , X 2 sunconjuntos de un espacio V , V , y sean V 1 = X 1 , V 2 = X 2 . Puesto que V 1 + V 2 = V 1 V 2 = X 1 X 2 = X 1 X 2 , entonces una base de X 1 X 2 es una base para V 1 + V + V 2 . Se quiere ahora mostrar como se consigue una base para V 1 V 2 . Si V 1 = 0 ´o V 2 = 0, entonces V 1 V 2 = 0 y es una base para la intersecci´on. on. Sea entonces X = x1 , . . . , xk una base de V de V 1 y Y = y1 , . . . , ym una base de V de V 2 ; si V si V 1 V 2 = 0, entonces es una base para la intersecci´on.
∪ ∪ ∪ ∩ ∅ { } ∩
∅
29
2.6. SUMA DIRECTA DIRECTA INTERNA DE SUBESPACIOS SUBESPACIOS
Si V 1 V 2 = V 1 , entonces X es on, V 1 V 2 = V 2 , entonces Y X es una base para la intersecci´on, Y es una base para la intersecci´on. on. Descartando entonces los casos triviales anteriores y por lo anotado en la primera parte del ejemplo, sea X = x1 , . . . , xk , y1 , . . . , ys una base de V de V 1 + V 2 , 1 s m 1. Los vectores ys+1 , . . . , ym se pueden expandir a trav´ es es de la base X base X :
∩
∩
{
}
·
≤ ≤ −
· · · + a · x + b 1 · y1 + · · · + b · y , s + 1 ≤ i ≤ m. Se puede probar facilmente que entonces el conjunto Z = Z = {z1 , . . . , z − } de vectores z − = a 1 · x1 + · · · + a · x , s + 1 ≤ i ≤ m conforma conforma una base para V 1 ∩ V 2 . yi = a = a i1 x1 +
ik
k
i
is
s
m s
i s
i
ik
··· ≤ ≤
k
La suma V suma V 1 + + V n de una colecci´on V on V 1 , . . . , Vn de subespacios de un espacio V espacio V puede coincidir con dicho espacio, de tal forma que cada elemento v V se V se pueda representar en la forma v = v = v 1 + + vn con v con v i V i , 1 i n. Sin embargo, es posible que dicha representaci´on on para el vector v vector v no sea unica. u ´ nica. Por ejemplo, si n si n = = 2 y los subespacios V subespacios V 1 , V 2 tienen un vector no nulo u en com´ un, un, entonces el vector nulo se puede escribir en dos formas diferentes: 0 = 0 + 0 = u + u + ( u). Esta situaci´on on no se presenta cuando la suma de los subespacios es directa. A continuaci´on on se estudia la suma directa de subespacios.
∈
∈
···
−
Definici´ on on 2.9. Sea V 1 , . . . , Vn una colecci´ on finita de subespacios de un espacio V , V , se dice que la suma V 1 + + V n es directa directa si cada elemento v V 1 + + V n tiene una representaci´ on unica ´ en la forma v = v 1 + + vn , donde vi V i , 1 i n. n . N´ otese que la unicidad de la representaci´ on de cada elemento v V 1 + + V n es equivalente a la unicidad de la representaci´ on del vector nulo de V 1 + + V n a trav´es es de sumandos sumando s nulos. nulo s. La suma su ma directa de subespacios se simboliza por V por V 1 V n . Se dice que un espacio V es V es suma directa de los subespacios V 1 , . . . , Vn si V V = V 1 V n .
···
∈
···
···
∈ ≤ ≤
∈
···
···
⊕···⊕
⊕···⊕
Proposici´ on on 2.4. Sea V 1 , . . . , Vn una colecci´ on finita de subespacios de un espacio V . V . Entonces las siguientes condiciones son equivalentes:
⊕ · · · ⊕ V b) V = V 1 + · · · + V y para cada 1 ≤ i ≤ n − 1 se cumple que V ∩ (V 1 + · · · + V −1 + V +1 + · · · + V ) = 0. Se probar´a ahora que si V si V = V 1 ⊕···⊕ V , entonces reuniendo bases de V de V 1 , . . . , V se obtiene una base a) V = V 1
n n
i
i
i
n
n
n
de V de V ..
Proposici´ on o n 2.5. 2.5. Sea V 1 , . . . , Vn una colecci´ colecci´ on finita finita de subesp subespaci acios os de un espaci espacio o V con con bases bases X 1 , . . . , Xn , respectivamente. Entonces las siguientes condiciones son equivalentes: a) V = V 1
n i=1
⊕ · · · ⊕ V
n
∩ X = ∅ para cada i j. cada i = Demostraci´ on: a) ⇒ b) : Puesto que V ∩ ( V ) = 0, entonces V ∩ V = 0 para cada i = j , y en = consecuencia, X ∩ X = ∅ para cada i = j . Puesto que V = V 1 + · · · + V y X es una base para V , entonces es claro que =1 X es un sistema de generadores para V . Sea {z1 , · · · , z } un subcon junto finito de X y a K tales que a1 .z1 + · · · + a .z = 0, entonces adicionando 1 , · · · , a ∈ K =1 b)
X i es una base de V de V y X X i
j
i
j
i
j
j i
i
i
j
n i
i
n i
n
i
i
m
m
m
m
sumandos nulos mediante coeficientes nulos se puede escribir esta ecuaci´on, on, sin p´ erdida erdida de generalidad, en grupos de sumandos de tal forma que los primeros sumandos sean de V 1 , los siguientes sean de V de V 2 , etc, y los ultimos ´ultimos sean de V de V n . Pero de acuerdo con la hip´otesis otesis a), el vector nulo solo es representable mediante sumandos nulos, por lo tanto, cada grupo de sumandos es nulo y, puesto que en cada grupo aparecen combinaciones lineales de vecotres LI, entonces todos los coeficientes a i son nulos.
CAP ´ ITULO 2. TRANSFORMAC TRANSFORMACIONES IONES LINEALES LINEALES
30
b)
⇒ a) : Puesto que
n i=1
X i es una base de V , V , entonces
n
V =
n
X i
=
V i
i=1
··· ∩
= V 1 +
i=1
· · · + V . n
∈
Sea ahora 0 = v = v 1 + + vn , con v con v i V i , entonces se puede representar cada v cada v i como combinaci´on on lineal de los vectores de X de X i de tal forma que se obtiene una combinaci´on lineal de vectores de ni=1 X i ; teniendo en cuenta que X que X i X j = para cada i cada i = j, j , entonces en esta ´ultima ultima representaci´on on no hay sumandos n repetidos, lo cual, combinado con la hip´otesis otesis de que i=1 X i es una base para V para V se se obtiene que todos los sumandos en tal representaci´on on son nulos, es decir, cada v cada vi es nulo. Esto completa la prueba de a).
∅
Ejemplo Ejemplo 2.9. Sea V un espaci espacioo de dimens dimensi´ i´ on o n 3 con una base X = x1 , x2 , x3 , y sean V 1 = x1 , x2 , V 2 = x1 , x3 subespacios de V . V . N´ otese otese que V = V 1 + V 2 pero la suma no es directa ya que x1 , x2 x1 , x3 = .
{
}∩{
{
} ∅
}
Corolario Corolario 2.4. Sea V un V un espacio vectorial de dimensi´ on finita n n 1 y sean V V 1 , . . . , Vm subespacios de Entonces, V = V 1 olo si dim(V dim(V )) = dim(V dim(V 1 )+ +dim(V +dim(V m ). V tales V tales que V V = V 1 + +V m . Entonces, V V m si y s´
···
≥
⊕···⊕
···
⇒) : Esta parte es consecuencia directa de la Proposici´on on 5 que se prob´o atr´as. as. ⇐) : dim(V dim(V )) = dim(V dim(V 1 + · · · + V ) = dim(V dim(V 1 ) + · · · + dim(V dim(V ) + · · · + dim(V dim(V ) = dim(V dim(V ) + dim(V dim(V 1 + · · · + V −1 + V +1 + · · · + V ) − dim(V dim(V ∩ (V 1 + · · · + V −1 + V +1 + · · · + V )), por lo tanto, dim(V dim(V 1 ) + · · · + dim(V dim(V −1 ) + dim(V dim(V +1 ) + · · · + dim(V dim(V ) = dim(V dim(V 1 + · · · + V −1 + V +1 + · · · + V ) − dim(V dim(V ∩ (V 1 + · · · + V −1 + V +1 + · · · + V )) ≤ dim(V dim(V 1 ) + · · · +dim(V +dim(V −1 )+dim(V )+dim(V +1 ) + · · · +dim(V +dim(V ) − dim(V dim(V ∩ (V 1 + · · · + V −1 + V +1 + · · · + V )), )),
Demostraci´ on:
m
i
i
i
m
i
i
i
i
i
i
i
m
i
i
m
de lo cual se tiene que dim(V dim( V i (V 1 + V i−1 + V i+1 + + V m ) = 0, para cada 1
∩
···
m
i
m
m
i
2.7. 2.7.
i
i
i
m
i
i
m
· · · + V −1 + V + V +1 + · · · + V )) ≤ 0, es decir, V ∩ (V 1 + · · · + ≤ i ≤ m−1. La Proposici´on on 4 garantiza que V que V = V 1 ⊕···⊕V . i
i
m
i
m
Ejer Ejerci cici cios os
Esta secci´on on contiene una lista de ejercicios de aplicaci´on on a los temas tratados en el presente cap´ cap´ıtulo. Se sugiere sugiere a los estudiantes estudiantes resolver resolver estos problemas, problemas, los cuales cuales ayudar´ ayudar´an an a reforzar el aprendizaje. Sea esta la oportunidad para ratificar la disponibilidad de los profesores para resolver cualquier duda sobre la matem´atica atica del presente curso. Sus preguntas y comentarios pueden ser enviados via e-mail o tambi´en en usando usan do la p´agina agina de visitantes visitantes en donde podr´an an usar un formato especialmente dise˜nado nado para tal efecto.
−→
1. Investigar la veracidad de la siguiente afirmaci´on: on: sea T : V W W una transformaci´on on lineal y sean x1 , . . . , xn , y1 , . . . , ym sistemas equivalentes equivalentes de vectores (ver el Cap´ Cap´ıtulo 1). Entonces T ( T (x1 ), . . . , T ( xn ) , T ( T (y1 ), . . . , T ( ym ) son sistemas equivalentes de vectores.
{
{
}{ }{
}
}
2. En relaci´on on con el Teorema 2, investigar la veracidad de la siguiente afirmaci´on: on: sean V, W dos -espacios y sean x1 , . . . , xn , y1 , . . . , yn sistemas de vectores en V y W , K -espacios W , respectivamente. Existe una transformaci´on on lineal de V de V en W en W tal tal que T que T ((xi ) = yi , para cada i cada i = = 1, 2, . . . , n. n.
{
}{
}
≤
3. En el espacio real Rn [x] de polinomios de grado n (ver el Ejemplo E jemplo 15 1 5 del Cap´ıtulo ıtulo 1) definir defin ir dos transformaciones lineales diferentes que coincidan con el operador de derivaci´on on en el subespacio Rn−1 [x].
31
2.7. EJERCICI EJERCICIOS OS
4. Sea h Sea h un real no nulo y sea T h la funci´on on definida sobre el espacio Rn [x] de la siguiente manera: T h ( p( p(x)) =
p(x + h) h
− p( p(x)
Demostrar que T h es una transformaci´on on lineal. Calcular su n´ ucleo y su imagen. Calcular la ucleo dimensi´ on de estos subespacios. on 5. Sean V, W dos K -espacios, -espacios, x un vector no nulo de V y y1 , . . . , ym una base de W . W . Si T i son transformaciones lineales de V en W tales W tales que T que T i (x) = y i , entonces T 1 , . . . , Tn es linealmente independiente.
{
} {
}
6. Sea V Sea V un un espacio vectorial y T y T , S dos dos transformaciones lineales de V de V .. Si T Si T S = = 0, entonces siempre se tiene que S que S T = 0 ? 7. Sea V un K -espacio -espacio vectorial y T T una transformaci´on on lineal de V V de rango 1. Demostrar que 2 existe existe un escalar escalar a a K tal tal que T que T = a.T . a.T .
∈
8. Sea V Sea V un K un K -espacio -espacio vectorial y T una T una transformaci´on on lineal de V de V de de rango 1. Demostrar que al menos una de las transformaciones I + I + T ´o I T es T es invertible.
−
9. Sea T , S S transform transformacion aciones es lineales lineales de un espacio espacio V con T T invertible invertible.. Demostrar Demostrar que (T + − − 1 1 S )T (T S ) = (T S )T (T + S ). ).
− −
− −
10. Sea V Sea V un K un K -espacio -espacio vectorial, T vectorial, T una una transformaci´on on lineal de V de V y p( p(x) un polinomio que se anula en T en T ,, es decir, la transformaci´on on lineal polin´omica p omica p((T ) T ) es nula. Si el t´ ermino ermino independiente p independiente p 0 de p de p((x) es no nulo, entonces T es T es invertible. 11. Mostrar un ejemplo de transformaci´on on lineal que sea inyectiva inyectiva pero no sobreyectiva. sobreyectiva. Tambi´ en, en, mostrar un ejemplo de transformaci´on on lineal no nula que sea sobreyectiva pero no inyectiva.
∈
12. Sea V un K -espacio -espacio vectorial y sea U U un subespacio de V . V . Dado v V V denotemos por v el subconjunto de V de V definido por v por v = v = v + U = v + u u U . Denotemos por V por V /U la /U la colecci´on on de todos estos subconjuntos, es decir, V /U = v = v = v + + U v V . Demostrar Demostrar que:
{
{
| ∈ } | ∈ }
⇐⇒ ⇐ ⇒ v − v ∈ U
(i) v = v = v
(ii) V /U es /U es un K un K -espacio -espacio vectorial respecto de las siguientes operaciones: v1 + v2 = v = v 1 + v2 a v = a = a v
·
·
(iii) Si V Si V es es de dimensi´on on finita, entonce entoncess dim (V /U ) /U ) = dim(V dim(V ))
− dim(U dim(U )).
13. Demostrar el teorema de homomorfismo para espacios vectoriales: sea T : V W una W una transformaci´ on on lineal. lineal. Entonces Entonces se tiene el siguiente siguiente isomorfismo isomorfismo de espacios espacios vectoriales: vectoriales:
→
∼
V /N (T ) T ) = Im(T Im( T )). 14. Sea V un espacio vectorial de dimensi´ dimensi´on on finita y V 1 , V 2 subespacios de V . V . Demostrar Demostrar que dim (V 1 + V 2 ) = dim(V dim(V 1 ) + dim dim (V 2 ) dim(V dim(V 1 V 2 ).
−
∩
15. Encontrar subespacios V subespacios V 1 , V 2 , V 3 de R3 tales que V que V 1 + V 2 + V 3 = R3 pero la suma no es directa. 16. Dar un ejemplo de transformaci´on on que sea inyectiv inyectivaa pero no sobreyec sobreyectiv tivaa y tambi´ tambi´ en en de una transformaci´ on que sea sobreyectiva pero no inyectiva. on
CAP ´ ITULO 2. TRANSFORMAC TRANSFORMACIONES IONES LINEALES LINEALES
32
17. Sea V Sea V un K un K -espacio -espacio vectorial. Una involuci´ Una involuci´ on de V de V es una transformaci´on on lineal T lineal T : V V tal 2 que T que T = I V en K y T T es una involuci´on, on, entonces demostrar que V = V 1 V 2 donde V . Si 2 = 0 en K V 1 = x V T ( T (x) = x y V 2 = x V T ( T (x) = x .
{ ∈ | |
}
{ ∈ | |
⊕
−}
→
18. Sea V Sea V un un espacio vectorial de dimensi´on on finita. Demostrar que existe un endomorfismo T endomorfismo T : V tal que N que N ((T ) T ) = Im(T Im( T )) dim(V dim(V )) es par.
→ V
⇔
19. Sea T : V on lineal tal que T k = 0 para alg´un un entero positivo k. Si V V una transformaci´on k−1 T (v ) = 0 para un cierto vector no nulo v V , V , entonces el conjunto v, T (v ( v ) , T 2 (v ) ,...,T k−1 (v ) es LI.
→
∈
20. Sea V 1
f 1
−→
V 2
f 2
−→
V 3
f 2n−1
· · · −−−−→
V 2n
f 2n
−−→
V 1
una secuencia de transformaciones lineales entre espacios vectoriales de dimensi´on on finita tal que la imagen de cada transformaci´on on coincide coincide con el n´ ucleo de la siguiente, es decir, Im(f ucleo Im( f i ) = N (f ( f i+1 ), 1 i 2n 1 y Im(f Im( f 2n ) = N ( N (f 1 ). Demostrar Demostrar que dim (V 1 ) dim(V dim(V 2 ) + dim dim (V 3 ) dim(V dim(V 4 ) + + dim dim (V 2n−1 ) dim(V dim(V 2n ) = 0.
≤ ≤ − − − ··· − 21. Sea T −→ V una Sea T : V −→ V una transformaci´on on lineal tal que T que T 2 = T . T . Demostrar que V que V = = ker(T ker(T )) ⊕ I m(T ). T ).
Cap´ıtulo 3
Matrices Introducci´ on on Las matrices matrices pueden pueden ser considerada consideradass como un lenguaje algor´ algor´ıtmico ıtmico apropiado apropiado para estudiar estudiar transtransformaciones lineales entre espacios de dimensi´on on finita. El cap´ cap´ıtulo 3 est´ a dedicado a introducir este lenguaje. El problema de equivalencia y similaridad de matrices es tambi´ tambi´en en planteado.
3.1.
Espaci Espacios os Vectoria ectoriales les de Matric Matrices es
El objetivo central del presente cap´ cap´ıtulo es establecer el isomorfismo entre el ´algebra algebra de transformaciones lineales de un K un K -espacio -espacio de dimensi´on on finita n finita n y y el ´algebra algebra de matrices cuadradas de orden n sobre n sobre K . Este isomorfismo permite un mejor manejo algebraico de las transformaciones lineales en t´ erminos erminos de matrices. Otro aspecto importante tratado en este cap´ cap´ıtulo es el de la clasificaci´on de matrices en t´ erminos erminos de equivalencia equivalencia y similaridad. En la ultima u ´ltima lecci´on on se estudian las matrices invertibles.
≥ ≥
Definici´ on on 3.1. Sea K un K un cuerpo y m, n enteros 1, 1 , una matriz A sobre K de K de orden (=tama˜ no) m n es una tabla de m de m filas y n columnas cuyas entradas pertenecen a K : :
×
A =
∈
a11 a21 .. .
··· ···
a1n a2n .. .
am1
···
amn
.. .
Los elementos a11 , . . . , amn K , y se conocen como las entradas de la matriz A; el elemento de A ubicado en la intersecci´ on de la i-´ esima esima fila y la j-´ esima esima columna se denota por aij . La matriz A se denota brevemente por A = [aij ]. La i-´ esima esima fila de A se denota por A(i) = [ai1 , . . . , ain ] y puede considerarse como un vector de K de K n , la j-´esima esima columna de A de A se representa por
A(j ) =
a1j .. .
amj
y puede considerarse como un vector de K m . Dos matrices A = [aij ] y B = [bij ], del mismo tama˜ no, son iguales si y s´ olo si aij = bij , para cada 1 i m, 1 j n. Una matriz A se dice que es cuadrada si si el n´ umero de filas coincide con el n´ umero de columnas, es decir, m = n = n.. Una matriz fila fila es una matriz de una sola fila, una matriz columna matriz columna es es una matriz con una sola columna. El conjunto de matrices sobre K de K de tama˜ no m no m n se denota por M por M mn mn (K ), para el conjunto de matrices cuadradas de tama˜ no n no n n se utiliza la notaci´ on M M n (K ).
≤ ≤
×
×
33
≤ ≤
CAP ´ ITULO ITULO 3. MA MATRIC TRICES ES
34
Se puede ya enunciar el primer hecho sobresaliente relacionado con los arreglos matriciales definidos arriba.
×
Proposici´ on o n 3.1. 3.1. Sea K K un cuerpo y M mn onjunto o de matric matrices es de tama˜ tama˜ no m n sobre mn (K ) el conjunt K . Entonces, M mn K de dimensi´ on mn, mn, respecto de las siguientes mn (K ) es un espacio vectorial sobre K de operaciones: A + B = [aij ] + [b [ bij ] = [aij + bij ] a A = a = a [aij ] = [aa [ aaij ], a K.
·
·
∈
La prueba de esta proposici´on on es muy sencilla, solo se debe destacar que el vector nulo es la matriz nula
0=
0 0 .. .
··· ···
0 0 .. .
0
···
0
.. .
−A = [−a ], y la base la base can´ onica es onica es {E }, 1 ≤ r ≤ m, 1 ≤ s ≤ n,
la opuesta la opuesta de de la matriz A matriz A = = [aij ] es la matriz
ij
rs rs
· · · 0
. .. . ..
0
1 . ..
0
E rs rs =
· · · 0 0
,
0
donde E donde E rs on de rs es una matriz con una sola entrada no nula, la entrada correspondiente a la intersecci´ la r-´esima esima fila y la s-´esima esima columna, donde aparece el escalar e scalar 1. Esta proposici´on on es v´alida alida para todos los enteros positivos m positivos m y y n n,, en particular, se cumple para m para m = = n n,, es decir, para las matrices cuadradas. De esta forma se generaliza el Ejemplo 12 del Cap´ıtulo ıtulo 1. De otra mn parte, de acuerdo al Teorema 3 del cap´ cap´ıtulo anterior, M mn , M 1n (K ) = K n , M m1 (K ) = mn (K ) = K K m .
∼
∼
∼
Adem´ as as de la suma de matrices matrices y el producto de escalar por matriz matriz definidos arriba, arriba, es posible realizar realizar on de compatibilidad: on compatibilidad: el n´ productos entre matrices que cumplan una condici´ umero umero de columnas del primer factor debe coincidir con el n´umero umero de filas del segundo factor. De este producto se ocupa el resto de la presente lecci´on. on. Definici´ on on 3.2. Sean A = [aij ], B = [bij ] matrices de tama˜ nos m define el producto producto de A A y B , en ese orden, como la matriz
× n y n × p, p, respectivamente. Se
C = = AB = AB = [cij ] n
cij =
aik bkj ,
k=1
∈ M mp mp (K ), 1 ≤ i ≤ m, 1 ≤ j ≤ p.
N´ otese que el elemento cij de la matriz producto corresponde a realizar la multiplicaci´ la multiplicaci´ on entre on entre la i-´esima esim a fila de A de A y la j-´esima esima columna de B : A(i) B (j ) = [a [ ai1 , . . . , ain ]
b1j .. .
bnj
= a i1 b1j +
···+a
in bnj .
35
3.2. TRANSFORMAC TRANSFORMACIONES IONES LINEALES Y MATRICES MATRICES
Todas las propiedade propiedadess enunciada enunciadass en la siguiente siguiente proposici´ on se demuestran directamente a partir de on las definiciones anteriores. Proposici´ on on 3.2. Sean A, A, B,C matrices matrices sobre el cuerpo K tal K tal que cumplen las condiciones de compatibilidad requeridas para cada una de las operaciones indicadas. Entonces: 1) (AB) AB )C = = A( A (BC ) BC ). 2) A(B + C ) = AB + AB + AC. 3) (B + C )A = B = BA A + CA. 4) (aA) aA)B = a = a((AB) AB ) = A( A(aB) aB ), para cada a cada a 5) Para Para cada cada n n n n,
×
∈ K.
≥ 1 se define la matri mat rizz id´enti en tica ca de de orden n n como la matriz cuadrada E cuadrada E de de tama˜ no 1 0 ··· 0 0 1 ··· 0 E = =
.. .. . . 0 0
..
.. . 1
.
···
es decir, E = [eij ], donde eij = 1 si i = j , y eij = 0 si i = j . Entonces, para cada matriz A de orden m m n se tiene que AE = = A, E A = A, = A,
×
donde en la primera ecuaci´ on E den E denota ota la id´ entica entica de orden n y en la segunda E segunda E es la id´enti en tica ca de orden m. Definici´ on on 3.3. Una matriz cuadrada A de orden n mismo orden tal que
≥ 1 es es invertible si existe otra matriz B del
AB = AB = E = = BA. B A. De la discusi´ on on anterior anterior se obtiene obtiene de manera inmediata inmediata la siguiente siguiente afirmaci´ afirmaci´on. on. Proposici´ on on 3.3. Sea K K un cuerpo y M n (K ) el conjunto de matrices de tama˜ no n Entonces, M Entonces, M n (K ) es un ´ algebra sobre K sobre K ..
× n sobre K .
Ejericicio Ejericicio 3.1. Sea E rs onica onica de M de M n (K ). ). Demuestre que rs la base can´
{ }
E ri ri E js js =
E rs rs 0
si i si i = j = j si i si i = j.
×
Se concluye la lecci´on on definiendo la transpuesta la transpuesta de de una matriz A matriz A = = [aij ] de tama˜ no m no m n: se denota por AT y es la matriz de tama˜no no n m obtenida de A de A “convirtiendo” las columnas de A en filas, es decir, (A (AT )(j ) = A = A (j ) , para cada 1 j n. Es f´acil acil demostrar que si A y B son matrices compatibles para el producto, entonces (AB ( AB))T = B T AT , adem´as, as, si A es una matriz invertible, entonces AT es tambi´en en invertibl invert iblee y (AT )−1 = (A ( A−1 )T .
× ≤ ≤
3.2.
Transfor ransformac macione ioness Lineal Lineales es y Matric Matrices es
≥
Sean V Sean V y W dos W dos espacios vectoriales sobre un cuerpo K K con dimensiones n, m 1, respectivamente. El objetivo central de esta lecci´on on es demostrar que el espacio LK (V, W ) W ) es isomorfo a M mn ). La mn (K ). prueba se realiza estableciendo una funci´on on que asigna a cada transformaci´on on lineal T de LK (V, W ) W ) una matriz m(T ) T ) de M mn ); se demuestra que esta funci´on on es una transformaci´on on lineal biyectiva. mn (K ); Cuando V Cuando V = W , W , se demuestra que el ´algebra L algebra L K (V ) V ) es isomorfa a M n (K ). ).
CAP ´ ITULO ITULO 3. MA MATRIC TRICES ES
36
≥ 1,
Teorema 3.1. Sean V y W W dos espacios vectoriales sobre un cuerpo K K con dimensiones n, m respectivamente. respectivamente. Entonces, LK (V, W ) W ) = M mn mn (K ).
∼
Demostraci´ on: Paso 1: Matriz de una transformaci´ on on lineal. lineal. La idea es definir una funci´on on mX,Y : LK (V, W ) W )
→ M
mn mn (K )
→
que asocia a cada transformaci´on on lineal T : V W W una matriz mX,Y (T (T )) = A = [aij ]; la matriz A de la transformaci´on on T T se define de la siguiente manera: Sea X = v1 , . . . , vn una base de V y Y = w1 , . . . , wm una base de W de W ,, el vector T vector T ((vj ) admite una expansi´on on en t´ erminos erminos de la base Y en la siguiente forma:
{
{
}
·
T ( T (vj ) = a 1j w1 +
· · · + a · w mj
m,
aij
∈ K,
1
}
≤ i ≤ m, 1 m, 1 ≤ j ≤ n.
Los coeficientes a coeficientes a ij de las expansiones anteriores, dispuestos por columnas, determinan la matriz A: A :
A =
a11 a21 .. .
··· ···
a1j a2j .. .
··· ···
a1n a2n .. .
am1
···
amj
···
amn
.. .
.. .
Se dice entonces que A = A = m m X,Y (T (T )) es la matriz la matriz de T en T en las bases X, Y . Y . Es f´acil acil probar que m que m X,Y es una transformaci´on on lineal inyectiva. Paso 2: Transformaci´ on lineal definida por una matriz. on matriz. Resta probar que m que m X,Y es sobreyectiva. Para esto se asocia a cada matriz A = [aij ] M mn ( K ) una transformaci´ on o n lineal T L K (V, W ) W ) mn de tal forma que mX,Y (T (T )) = A. A . La transformaci´on on T se T se define de la siguiente manera: consideremos la funci´on on
∈
−→ −→
t : X : X vj
≤ ≤
∈ ∈
W a1j w1 +
·
· · · + a · w mj
m
donde 1 j n. Seg´ un un el Teorema 2 del Cap´ Cap´ıtulo 2, la funci´on t on t se extiende de manera ´unica unica a una transformaci´ on on lineal T lineal T ,, definida de la siguiente manera: si v = x = x1 v1 + + xn vn , entonces T ( T (v) = x1 t(v1 ) +
·
· · · + x · t(v n
n
· ··· · ) = c 1 · w1 + · · · + c · w m
m
donde
·
ci = a i1 x1 +
···+a ·x in
n,
1
≤ i ≤ m.
Es obvio que m que m X,Y (T (T )) = A. A . Esto completa la prueba del teorema. Una observaci´ observaci´on on final antes de terminar: si se identifica a (x ( x1 , . . . , xn ) como el v vect ector or de coorcoordenadas de v en la base X y a (c1 , . . . , cm ) como el vector de coordenadas de T ( T (v) en la base Y , Y , entonces la transformaci´on T on T se se puede expresar matricialmente de la siguiente manera:
c1 .. .
cm
=
a11 .. .
···
a1n .. .
am1
···
amn
.. .
x1 .. .
.
xn
Corolario 3.1. Sean V y W W dos espacios vectoriales sobre un cuerpo K K con dimensiones n, m respectivamente. respectivamente. Entonces, dim( dim(LK (V, W )) W )) = mn. mn.
≥ 1, 1 ,
37
3.3. RANGO RANGO DE UNA MATRIZ MATRIZ
De la demostraci´on on del Teorema 3.1 Teorema 3.1 se deduce que la matriz asociada a la transformaci´on lineal nula es la matriz nula; adem´as, as, si V = W , W , entonces la matriz asociada a la transformaci´on lineal lin eal id´entica entic a de V de V es la matriz id´entica. entica. Otra consecuencia inmediata de la prueba del Teorema 3.1 es 3.1 es la siguiente proposici´on. on. Proposici´ on o n 3.4. 3.4. Sean V, W y U espacio espacioss vectori vectoriales ales sobre sobre el cuerpo cuerpo K , de dimensiones n, m y p, p, respectivame respectivamente. nte. Sean T : V W y S : W U U transformaciones lineales, X = v1 , . . . , vn , Y = w1 , . . . , wm , Z = u1 , . . . , u p bases bases de V, W y U , U , resp respec ectivame tivamente. nte. Si A = mX,Y (T (T )) es la matriz de T T en las bases X, Y y B = mY,Z (S ) es la matriz de S S en las bases Y, Z , entonces entonces BA = mY,Z (S )mX,Y (T (T )) = mX,Z (ST ) ST ) es la matriz de ST ST en las bases X, Z . En otras palabras, la matriz de una compuesta de transformaciones lineales es el producto de las matrices que representan dichas transformaciones.
{
}
{
→
}
→
{
}
Si V = W = U , U , entonces se acostumbra a tomar X = Y = Z , y en tal caso se denota por por mX : LK (V ) V ) M n (K ) el isomorfismo del Teorema 3.1. 3.1. N´ otese que T , S LK (V ) V ) y mX (ST ) ST ) = mX (S )mX (T ) T ).
→
∈ ∈
Ya est´a probado el siguiente teorema. Teorema 3.2. Si V V es un K -espacio K -espacio vectorial de dimensi´ on finita n 1, entonces LK (V ) V ) y M n (K ) son ´ algebras algebras isomorfas isomorfas,, en el siguiente sentido: existe una transformaci´ on lineal biyectiva mX : LK (V ) V ) M n (K ) que satisface las siguientes condiciones:
≥
→
∈ ∈ L
1) mX (ST ( ST )) = m X (S (S )mX (T ( T )), para cualesquiera T , S
( V )). K (V
2) mX (I (I V E es la matriz id´ entica entica de orden n orden n.. V ) = E , donde E es Se debe notar que un ´algebra algebra es un espacio vectorial con estructura de anillo, de tal forma que se pueden considerar los grupos de elementos invertibles de las ´algebras L algebras L K (V ) V ) y M n (K ); ); estos grupos se denotan por GL por GLK (V ) V ) y GL y GLn (K ), ), y se conocen como el grupo el grupo lineal general general de automorfismo automorfismoss del espacio V y el grupo el grupo lineal general de orden n sobre K , respectivamente. N´otese otese que GL que GL K (V ) V ) es el grupo de automorfismos definido en Proposici´on on 2 del Cap´ Cap´ıtulo 2. Se tiene entonces el siguiente resultado. Corolario 3.2. Si V es V es un K -espaci K -espacio o vectorial de dimensi´ on finita n n 1, entonces GL GLK (V ) V ) y GL GLn (K ) son grupos isomorfos, con isomorfismo definido por la restricci´ on de la funci´ on mX del Teorema 3.2 al grupo GLK (V ) V ). En particular, T GL K (V ) V ) m X (T ) T ) GL n (K ), donde X es X es cualquier base de V . V .
≥
∈ ∈
3.3. 3.3.
⇔
∈
Rang Rango o de de una una Matr Matriz iz
El rango de una transformaci´on on lineal de un espacio de dimensi´on on finita se puede calcular por medio del rango de la matriz asociada a dicha transformaci´on. on. En esta lecci´on on se estudia la noci´on on de rango para matrices. Definici´ on o n 3.4. 3.4. Sea A = [aij ] una matriz de tama˜ no m n, n , cada cada columna columna A(j ) de A se puede puede m considerar como un vector de K K , de tal forma que el rango el rango de A se define como la dimensi´ on de la envolvente lineal de las columnas de A de A,, es decir,
×
rank( rank(A) = dim A(1) , . . . , A(n) .
≥
≥
Proposici´ on on 3.5. Sean V y W W dos K -espacios -espacios de dimensiones n 1 y m y m 1, respectivamente. Sea T : V W W una transformaci´ on lineal y A = [aij ] = m X,Y (T (T )) la matriz de T en T en las bases X, Y de V y W , W , respectivamente. Entonces, rank Entonces, rank((T ) T ) = rank( rank(A).
→
CAP ´ ITULO ITULO 3. MA MATRIC TRICES ES
38
Demostraci´ on: Sea X = v1 , . . . , vn y Y = w1 , . . . , wm , puesto que I m(T ) T ) = T ( T (v1 ), . . . , T ( vn ) , entonces rank entonces rank((T ) T ) coincide con el m´aximo aximo n´ umero de vectores linealmente independientes del conjunto umero T ( T (v1 ), . . . , T ( vn ) . Sea p Sea p = = rank rank((T ), T ), 0 p min m, n , si p si p = = 0 entonces T entonces T = = 0, y en consecuencia A = 0, de donde, rank donde, rank((A) = 0. Sea p Sea p 1 y T ( T (vj1 ), . . . , T ( vjp ) una base de I de I m(T ). T ). La idea es probar (j1 ) (jp ) que las columnas A columnas A , . . . , A son LI y que p que p es el m´aximo aximo n´ umero de columnas LI de la matriz A. umero A . (j1 ) (jp ) Sean c Sean c 1 , . . . , c p K tales tales que c que c 1 A + + c p A = 0, entonces
{
{
}
}
∈
·
{ } ≤ ≤ { } ≥ { } ··· · c1 a1 + · · · + c a1 = 0 j1
p
jp
.. . + c p amjp = 0
c1 amj1 +
···
·
· · · + c · T ( T (v ) = · · · + (c(c a1 · w1 + · · · + c a · w · · · + (c(c1a + · · · + c a ) · w = · · · + 0 · w = 0
Por otro lado,
·
(c1 a1j1 w1 + (c1 a1j1 +
··· ···
c1 T ( T (vj1 ) + + c1 amj1 wm) + + c p a1jp ) w1 + 0 w1 +
· · ·
p
jp
p
jp
m)
p mjp
mj1
p mjp
=
m
m
de donde, por la independencia lineal de los vectores T ( T (vj1 ), . . . , T ( vjp ), se tiene que c que c 1 = = c p = 0. (j 1 ) (jp ) Se ha probado que las columnas A , . . . , A son LI. Al suponer que A tiene q > p columnas LI, entonces entonces,, realizando realizando la misma prueba anterior anterior en orden inverso, inverso, I I m(T ) T ) tend te ndr´ r´ıa ıa q > p vectores LI, en contradicci´ on on con p con p = = rank rank((T ). T ).
···
≥
Sea A una matriz cuadrada de orden n 1, seg´ un el paso 2 de la demostraci´on un on del Teorema 1, se n puede suponer que A es la matriz de una transformaci´on lineal T LK (K ) en una cierta base X de K n , por ejemplo, en la base can´onica de K n . Aplicando la proposici´ on anterior, el Teorema 2, el on Corolario 2 y Ejercicio 3 del Cap´ Cap´ıtulo 2, se obtiene el siguiente corolario.
∈
Corolario 3.3. Se tiene que:
≥ 1 es invertible si y s´ olo si rank( rank(A) = n. n . b) Sean Sean A y B matrices cuadradas de orden n ≥ 1, 1 , entonces rank( rank(AB) AB ) ≤ rank( rank(A), rank( rank(AB) AB ) ≤ rank( rank(B ) y rank y rank((AB) AB ) ≥ rank( rank(A) + rank( rank(B ) − n.
a) Una matriz cuadra cuadrada da A A de orden n
Adem´ as, si A es invertible, entonces rank entonces rank((AB) AB ) = rank( rank(B ) = rank( rank(BA) BA ); tamb ta mbi´ i´en, en , si B es invertible, entonces rank entonces rank((AB) AB ) = rank( rank(A) = rank( rank(BA) BA ). Ejericicio Ejericicio 3.2. Sea e1 , e2 , e3 la can´onica onica de R3 y t : R3
{
}
→ R3 la funci´on on definida por
t(e3 ) = 2.e1 2.e2 t(e2 + e3 ) = 3.e1 3.e2 t(e1 + e2 + e3 ) = 3.e1 3.e2 + e3
−
− −
Demuestre que t que t induce induce una unica u ´ nica transformaci´on on lineal T lineal T : R3 del n´ ucleo ucleo de T de T ..
→ R3. Calcule rank Calcule rank((T ) T ) y la dimensi´on on
Soluci´ on: Si on: Si la funci´on t on t act´ act´ ua ua sobre sobr e una base, bas e, entonces de acuerdo acuer do al Teorema 2 del de l Cap´ıtulo ıtulo 2, 2 , t induce t induce una unica u ´ nica transformaci´on on lineal T . T . Pero efectivamente e1, e2 + e3, e1 + e2 + e3 es una base de R3 , lo cual se puede verificar observando que estos tres vectores son LI. Entonces para la transformaci´on lineal T lineal T se se tiene que:
{
−
T (e ( e3 ) = 2.e1 2.e2 T (e ( e2 + e3 ) = 3.e1 3.e2 T (e ( e1 + e2 + e3 ) = 3.e1 3.e2 + e3
− −
}
39
3.4. CAMBIO CAMBIO DE BASE
Pero como T como T es es lineal se puede hacer lo siguiente: T (e ( e1 + e2 + e3 ) (3.e (3.e1 3.e2 ) = e 3 , es decir, T decir, T ( (ee1 ) = e 3 .
−
Similarmente, T Similarmente, T ( (ee2 + e3 )
− T (e ( e2 + e3 ) = (3.e (3.e1 − 3.e2 + e3 ) −
− T (e ( e3 ) = (3.e (3.e1 − 3.e2 ) − (2.e (2.e1 − 2.e2 ) = e = e 1 − e2 , de donde T donde T (e ( e2 ) = e 1 − e2 .
La matriz de T de T en en la base can´onica onica es: A =
0 0 1
1 1 0
− −
2 2 0
,
Mediante el SWP se encuentra que rank( rank(A) = 2, luego el rango de T e T ess tambi´ tamb i´en en 2. Mediante el Teorema 1 del Cap´ Cap´ıtulo 2 se encuentra que dim N ( N (T ) T ) = 1. Ejericicio 3.3. Sea V Sea V el el espacio de funciones derivables en R y U la U la envolvente lineal de las funciones u1 (x) = e2x sen(3 sen(3x x), u ), u 2 (x) = e 2x cos(3x cos(3x). Si D Si D : V : V V V es el operador derivaci´on, on,
→
a) Demuest Demuestre re que D que D((U ) U )
⊆ U . U .
{
}
b) Demuest Demuestre re que u1 (x) , u2 (x) es LI. c) Calcule Calcule las matrices matrices de D de D y D 2 en la base X base X = = u1 (x) , u2 (x) de U . U .
{
}
d) Calcule Calcule rank rank((D). Soluci´ on: d a) dx (e2x sin(3x sin(3x) ) = 2e 2e2x sin3x sin3x + 3e2x cos3x cos3x esto demuestra que D( D (U ) U ) U . U .
⊆
∈
d U, dx (e2x cos(3x cos(3x)) : 2e 2e2x cos3x cos3x
− 3e 3 e2
x
sin3x sin3x
∈
U , U ,
b) Sean a, b reales tales que ae2x sen(3 sen(3x x) + be + be2x cos(3x cos(3x) = 0, entonces haciendo x = 0 resulta b resulta b = 0 y π tomando x tomando x = = 2 resulta a resulta a = = 0. c) mX (D) = d)
2 3
−3 2
,
2
mX ( D ) =
rank( rank(D2 ) = rank
3.4. 3.4.
−3
2 3
2
− − −
rank( rank(D) = rank Adem´ as, as,
2 3
5 12
3 2
12
−5
− 2
=
5 12
−12 −5
= 2.
= 2. 2.
Cam Cambio bio de de Bas Base e
≥
≥
Sean V y W dos K -espacios -espacios de dimensiones n 1 y m 1, respectivamente. En el Teorema 1 se vi´ o como asociar a cada transformaci´on lineal T : V W W una matriz A de tama˜ no no m n fijando un par de bases X en V y Y en W . W . Es l´ ogico pensar que al cambiar de bases la matriz de la transogico formaci´ on on T T tambi´en en cambie. En esta lecci´on on se estudia la relaci´on on entre las matrices de una misma transformaci´ on calculadas en diferentes bases. on Se tiene el siguiente preliminar.
→
×
CAP ´ ITULO ITULO 3. MA MATRIC TRICES ES
40
Proposici´ on on 3.6. Sea V un K -espacio -espacio de dimensi´ on n 1 y X = v1 , . . . , vn , Z = z1 , . . . , zn bases de V . V . Entonces, cada vector z vector z j se puede representar como una combinaci´ on lineal de los vectores de la base X
≥
zj = c 1j .v1 +
··· +c
nj .vn ,
{
1
}
≤ j ≤ n,
{
}
(3.1)
dando origen a una matriz cuadrada invertible C = [cij ] de orden n. C C se denomina la la matriz de − 1 cambio de cambio de la base X base X a a la base Z base Z .. Adem´ as, C es la matriz de cambio de la base Z a Z a la base X base X .. Demostraci´ on: De acuerdo al Corolario 3, basta probar que el rango de C es n, es decir, que las columnas de C son C son LI. Sean a1 , . . . , an K tales K tales que a que a 1 .C (1) + + an .C (n) = 0, se tienen entonces las relaciones
∈
···
a1 .c11 +
···+a
n .c1n =
a1 .cn1 +
···
0
.. . + an .cnn = 0.
Consid´erese erese ahora la combinaci´on on lineal a1 .z1 +
··· +a
n .zn = a 1 .(c11 .v1 +
(a1 .c11 +
de donde, a donde, a 1 =
· · · = a
n =
··· +a
n .c1n
· · · + c 1.v ) + · · · + a .(c1 .v1 + · · · + c ).v1 + · · · + (a (a1 .c 1 + · · · + a .c ).v = 0, n
n
n
n
n
n
nn
nn .vn )
=
n
0. De otra parte, sea D = [dij ] la matriz de cambio de Z a X , X , es decir, vj = d 1j .z1 +
··· + d
nj .zn ,
1
≤ j ≤ n,
(3.2)
reemplazando (3.2 (3.2)) en (3.1 (3.1)) resulta resulta entonces entonces que
···
··· ···
···
zj = c 1j .(d11 .z1 + + dn1 .zn ) + + cnj .(d1n .z1 + + dnn .zn ) = (d11 c1j + + d1n cnj ).z1 + + (d (dn1 c1j + + dnn cnj ).zn ,
···
≤ ≤
···
···
···
para cada 1 j n, es decir, (d (di1 c1j + + din cnj ) = 0 si i = j y (di1 c1j + + din cnj ) = 1 si i = i = j. j. En otras palabras, D palabras, DC C = = E (v´ E (v´ease ease el producto de matrices definido en la primera lecci´on del presente cap´ cap´ıtulo). ıtulo) . Remplazando Remplaz ando (3.1) 3.1) en (3.2 ( 3.2)) se obtiene que CD = E . E . Esto completa la demostraci´on on de la proposici´on. on. Como cierre de la prueba se debe hacer la siguiente observaci´on: si (x (x1 , . . . , xn ) es el vector de coordenadas del vector v V V en la base X y (u1 , . . . , un ) es el vector de coordenadas de v en la base Z , entonces
∈
u1 .. .
=
un
d11 .. .
···
d1n .. .
dn1
···
dnn
.. .
x1 .. .
xn
El cam cambio bio de base se puede expresar expresar “matricial “matricialmen mente” te” de la siguiente siguiente manera: manera:
Z = =
z1 .. .
zn
=
c11 .. .
···
cn1 .. .
c1 n
···
cnn
.. .
v1 .. .
vn
= C T
v1 .. .
vn
Usando esta notaci´on on matricial es f´acil acil probar la siguiente siguiente proposici´ on. on.
= C T X.
41
3.4. CAMBIO CAMBIO DE BASE
Proposici´ on on 3.7. Sea V un K -espacio -espacio de dimensi´ on n 1 , X = v1 , . . . , vn una base de V y F una matriz invertible de orden n orden n.. Entonces z1 , . . . , zn es una base de V de V ,, donde
{ {
≥
}
{
z1 .. .
v1 .. .
= F
zn
}
.
vn
Ya se puede enunciar el teorema de cambio de base.
→
≥
≥
Teorema 3.3. Sea T T : V W una una transformaci´ on lineal, donde dim(V dim(V )) = n = n 1 y dim(W dim(W )) = m 1. Sean X 1 = v1 , . . . , vn , X 2 = x1 , . . . , xn bases de V y Y 1 = w1 , . . . , wm , Y 2 = z1 , . . . , zm bases de W . W . Si A = m X1 ,Y 1 (T ) T ) es la matriz de T T en las bases X 1 , Y 1 , y B = m X2 ,Y 2 (T ) T ) es la matriz de T en las bases X 2 , Y 2 , entonces
{
}
{
}
{
}
{
}
B = D = D −1 AC, donde C es C es la matriz de cambio de la base X 1 a la base X 2 y D es la matriz de cambio de la base Y base Y 1 a la base Y base Y 2 . Demostraci´ on: De on: De las definiciones de las matrices A, A, B,C y D se tienen las siguientes relaciones: m
T ( T (vj ) =
akj .wk
k=1 m
T ( T (xj ) =
bkj .zk
k=1 n
xj =
ckj .vk
k=1 m
zj =
dkj .wk
k=1
Entonces, n
T ( T (xj ) =
n
ckj .T ( .T (vk ) =
k=1
m
ckj .
ark .wr ;
r=1
k=1 m
T ( T (xj ) =
m
bkj .
drk .wr ,
r=1
k=1
de donde,
≤ ≤ m
n
m
m
ark ckj .wr =
r=1
r=1 m
k=1
n
ark ckj =
k=1
drk bkj .wr ,
k=1
drk bkj ,
k=1
1
j
n, 1
1
≤ j ≤ n
≤ r ≤ m,
es decir, AC decir, AC = = DB , con lo cual, B cual, B = D = D −1 AC . En el caso en que V = W , W , se acostumbra tomar solo un par de bases X, Y en V , V , es decir, X 1 = X, X 2 = Y, Y , Y 1 = X, Y 2 = Y = Y .. El teorema anterior toma entonces la siguiente forma.
CAP ´ ITULO ITULO 3. MA MATRIC TRICES ES
42
Corolario 3.4. Sea V on finita n 1 y sean X = v1 , . . . , vn , Y = V un espacio vectorial de dimensi´ w1 , . . . , wn bases de V . V . Sea T : V V V es una transformaci´ on lineal , A = m X (T ) T ) y B = m Y (T (T )). Entonces
{
}
≥
→
{
}
B = C −1 AC, donde donde C es C es la matriz de cambio de la base X base X a a la base Y base Y .. Si el lector conoce una manera de calcular la inversa de una matriz, entonces puede emprender ya la soluci´ on de los siguientes ejercicios, en caso contrario debe pasar a la Lecci´on 6. on Ejericicio Ejericicio 3.4. Sea T : R2 [x]
−→ R2[x]
una transformaci´on on lineal definida por la matriz
0 0 1 0 1 0 1 0 0
en la base can´onica X onica X de R 2 [x]. Calcular la matriz de T en T en la base Y base Y = 3x2 + 2x, 5x2 + 3x + 1, 7x2 + 5x + 3 .
{
}
Soluci´ on: Basta on: Basta aplicar el Corolario 3. Sea X Sea X la la base can´onica onica de R2 [x] y sea Y sea Y la la base dada. Debemos entonces calcular la matriz de cambio C de C de la base X base X a a la base Y base Y y tambi´ t ambi´en en calcula c alcularr su s u inversa: i nversa: C = =
0 1 3 2 3 5 3 5 7
,
C −1 =
−
1
1 4 1 4
−1 − 943 321 −2 4 2
Ahora basta calcular m calcular m Y (T (T )) = C −1 AC , donde A donde A es la matriz dada. Este producto da: C −1 AC = =
−
1 15 4 9 4
0 4 3
0 5 4
− −
Ejericicio Ejericicio 3.5. En el espacio R3 [x] se definen dos funciones t y s de la siguiente manera: t(a0 + a1 x + a2 x2 + a3 x3 ) = a 0 + a1 x + a2 x2 s(x2 + x3 ) = x + x3 s(x + x3 ) = 1 + x3 s(1 + x3 ) = 1 + x + x2 + x3 s(1 + x + x2 + x3 ) = 0. a) Calcular Calcular las matrices matrices de las transformacio transformaciones nes T T y S S inducidas por t por t y s, s , respectivamente, en las 2 2 siguientes bases: X bases: X = = can´onica onica y Y y Y = 1, 1 + x, 1 + x + x , 1 + x + x + x3 .
{
}
b) Calcular Calcular las matrices matrices de las transformaci transformaciones ones S S T y T S en en las mismas bases de la parte a).
3.5.
Equiv Equivale alenci ncia a y Simila Similarida ridad d
El Teorema 3 y Corolario 3 de la lecci´on on anterior anterior inducen los conceptos conceptos de equivalenc equivalencia ia y similaridad similaridad de matrices que se estudian en esta lecci´on. Esto permitir´a presentar una matriz de rango r 0 en una forma bastante bastante simple por medio de una matriz equivalent equivalente. e.
≥
43
3.5. EQUIVALENCIA EQUIVALENCIA Y SIMILARIDAD SIMILARIDAD
Definici´ on on 3.5. Sean A y B matrices de tama˜ no m n, se dice que A es equivalente equivalente a B , lo cual se denota por A por A B , si existen matrices invertibles D invertibles D de orden m y C y C de de orden n orden n tales que
×
∼
B = DAC. Para las matrices cuadradas, adem´ as del concepto de equivalencia, se tiene otro de mayor uso como es el de similaridad: sean A sean A y B y B matrices de orden n orden n,, se dice que A que A es similar es similar a B a B , lo cual se denota por A B , si existe una matriz invertible C invertible C de de orden n orden n tal que
≈
B = C −1 AC. Para las matrices m atrices cuadradas cu adradas similaridad simi laridad implica equivalencia, equivalen cia, pero no nec n ecesariame esariamente nte se da el rec´ rec´ıproco. ıproco. Es claro que define una relaci´ on de equivalencia en el espacio M mn define una relaci´ on de mn (K ) y equivalencia en el ´ algebra M n (K ), por lo tanto, estos conjuntos quedan particionados en clases de equivalencia.
∼ ∼
≈ ≈
Proposici´ on on 3.8. Dos matrices A, B transformaci´ on lineal.
→
∈ M
mn mn (K ) son
equivalentes si y s´ olo si representan la misma
≥
Demostraci´ on . Sea T : V W W una transformaci´on on lineal de un espacio V V de dimensi´on on finita n 1 en un espacio W W de dimensi´on on finita m 1. Sean X 1 , X 2 bases de V y Y 1 , Y 2 bases de W W (v´ (v´ease as e el Teorema 3 de la lecci´on on anterior), entonces siendo A = mX1 ,Y 1 (T ) T ) y B = mX2 ,Y 2 (T ) T ) se tiene que A B , es decir, si A y B representan la misma transformaci´on on lineal en diferentes bases, entonces A B.
≥
∼ ∼
Debemos ahora mostrar el rec´ rec´ıproco. Sean A y B matrices equivalentes de tama˜no no m n. Enton− 1 ces existe D existe D invertible de orden m y C invertible C invertible de orden n orden n tales que B que B = D AC . Sea X Sea X 1 una base de V de V y Y 1 una base de W ; W ; sabemos que C que C T y D T son matrices invertibles y que X 2 = C T X 1 es una base de V y Y 2 = D T Y 1 es una base de W (v´ease ease la Proposici´ Propo sici´on on 7). Seg´ un un la Proposici´on on 6, C es C es la matriz de cambio de la base de X 1 a X 2 y D es la matriz de cambio de Y 1 a Y 2 . Por el paso 2 de la demostraci´ on on del Teorema 1, A es la matriz de una transformaci´on on T 1 en las bases X 1 , Y 1 y B es la matriz de una transformaci´on T on T 2 en las bases X 2 , Y 2 , es decir, A decir, A = m = m X1 ,Y 1 (T 1 ) y B = m X2 ,Y 2 (T 2 ). Se tiene entonces que
×
mX2 ,Y 2 (T 1 ) = D −1 mX1 ,Y 1 (T 1 )C = = D −1 AC = = B = B = m m X2 ,Y 2 (T 2 ), pero como m como m X2 ,Y 2 es una funci´on on inyectiva (por ser un isomorfismo, Teorema 1), entonces T 1 = T 2 . Del Corolario 3 y a partir de que similaridad implica equivalencia, se tiene inmediatamente el siguiente resultado. Proposici´ on on 3.9. Si A, B maci´ on lineal.
∈ M (K ) son similares, entonces A y B representan la misma transforn
La idea ahora es calcular el n´umero umero de clases de equivalencia determinados por la relaci´on espacio M espacio M mn ( K ). ) . mn Proposici´ on on 3.10. Sea A forma
∈ M
rank(A) mn mn (K ). rank(
= r si y s´ olo si A es equivalente a una matriz de la
E 0 0 0
donde E es E es la matriz id´ entica entica de orden r orden r,, 0
∼ en el
,
(3.3)
≤ r ≤ m (el caso r = 0 corresponde a la matriz nula).
CAP ´ ITULO ITULO 3. MA MATRIC TRICES ES
44
Demostraci´ on: ) Sea T : K n on lineal correspondiente a la matriz A en K m la transformaci´on n m un par de bases X de K y Y de K (v´ ease ease el paso 2 del Teorema eorema 1 aplicado aplicado al caso V = K n , m W = K ). Puesto que rank que rank((A) = rank = rank((T ), T ), entonces la dimensi´on on del n´ ucleo ucleo de T de T es p es p = = n n r (v´ (v´ease as e el Teorema 1 del Cap´ Cap´ıtulo 2). Sea v1 , . . . , v p una base del n´ucleo ucleo de T de T ,, la cual se completa hasta una n base X 0 = v1 , . . . , v p , v p+1 , . . . , v p+r de K . Se sabe que z1 = T ( T (v p+1 ), . . . , zr = T ( T (v p+r ) es una base de la imagen de T , T , la cual se completa hasta una base Z 1 = z1 , . . . , zr , zr+1 , . . . , zm de K m. Reordenando X Reordenando X 0 se obtiene la base X 1 = v p+1 , . . . , v p+r , v1 , . . . , v p y es claro que
⇒
→ {
{
}
}
{
{ }
{
mX1 ,Z 1 (T ) T ) =
E 0 0 0
− } }
,
donde E donde E es es la matriz id´entica entica de orden r. El caso r caso r = 0 corresponde a la transformaci´on nula, y por lo tanto, a la matriz nula. Seg´un un el Teorema 3, A mX1 ,Z 1 (T ). T ).
∼
⇐
) Si A Si A es es equivalente a una matriz de la forma (3.3 ( 3.3), ), entonces A entonces A y (3.3) representan 3.3) representan la misma transformaci´ on on lineal, de donde, rank donde, rank((A) coincide con el rango de la matriz de ( 3.3), 3.3), es decir, rank decir, rank((A) = r.
Es conveniente anotar que la proposici´on on anterior no es v´alida alida en general general para similaridad. similaridad. En efecto, efecto, si A es una matriz cuadrada de rango r, entonces A no es necesariamente similar a una matriz de la forma descrita en la proposici´on. on. Por ejemplo, la matriz A =
0 0 1 0
tiene rango 1, sin embargo no existe una matriz invertible C tal C tal que C −1 AC = =
1 0 0 0
.
Corolario 3.5. Dos matrices A matrices A y B y B de M M mn olo si tienen el mismo rango. mn (K ) son equivalentes si y s´
∼
En efecto, Si A Si A B , entonces A entonces A y B representan una misma transformaci´on on lineal T lineal T ,, y por lo tanto, rank( rank(A) = rank( rank(T ) T ) = rank( rank(B ). De otra parte, la Proposici´on on 10 y la transitividad de la relaci´on on demuestran la afirmaci´on on rec´ıpro ıp roca. ca.
∼
El corolario anterior no se tiene para la relaci´on on de similaridad, es decir, dos matrices cuadradas pueden tener el mismo rango y no ser similares. El mismo contraejemplo mostrado arriba sirve en este caso.
∼ ∼ determina una partici´ on del espacio M
mn mn (K )
Corolario 3.6. La relaci´ on clases de equivalencia.
en t = m´ın m, n + 1
{
}
Demostraci´ on: El on: El n´ umero t umero t de clases de equivalencia est´a determinado por los posibles valores para el rango de una matriz de M mn ease ease el Corolario Corolar io 4). Estos E stos posible p osibless valores son: 0, 1, 2, . . . , m´ın m, n , mn (K ) (v´ es decir, t decir, t = m´ın m, n + 1.
{
{
}
{
}}
Corolario 3.7. Sea A M mn rank(AT ) = rank( rank(A). En otras palabras, el rango de mn (K ). Entonces, rank( una matriz coincide con el m´ aximo n´ umero de filas LI.
∈
Demostraci´ on: Sea rank Sea rank((A) = r, r , entonces existen D invertible de orden m y C invertible C invertible de orden n tal que DAC = =
E 0 0 0
,
45
3.6. MA MATRICES TRICES INVER INVERTIBLES TIBLES
donde E donde E es es la id´entica entica de orden r. Entonces, T
(DAC ) =
T
E 0 0 0
T
T
T
= C A D =
E 0 0 0
.
Teniend eniendoo en cuent cuentaa que C T y DT son matric matrices es inve inverti rtible bles, s, enton entonces ces por la Proposi Proposici´ ci´ on o n 10 10,, T rank( rank(A ) = r = r..
3.6. 3.6.
Matri Matrice cess Inv Invertib ertible less
El m´ etodo etodo para calcular calcular la inversa inversa de una matriz matriz mediante mediante operaciones operaciones sobre las filas y columnas columnas ser´a completamente explicado y justificado en esta lecci´on.
{ { }
Definici´ on on 3.6. Sea E rs onica del ´ algebra M algebra M n (K ), se definen los siguientes tres tipos de rs la base can´ matrices elementales: elementales: a) Transvecciones: son Transvecciones: son matrices cuadradas de orden n orden n de la forma
·
T ij + a E ij ij (a) = E + ij =
··· ··· ··· .. . a ··· 0 1 .. . .. .
0
.. . .. .
..
0 0 .. . .. . 1
.. . .. .
.
.. .
··· ··· ···
,
i = j,
donde a K K est´ a ubicado en la intersecci´ on de la i-´ esima esima fila y la j-´esima esima columna, y E E es la id´entica ent ica de orden n.
∈
b) Permutaciones: son Permutaciones: son matrices cuadradas de orden n orden n de la forma
P ij ij = E
− E − E ii ii
jj jj +
E ij ij + E ji ji =
1 0 .. . .. . 0
··· ··· ··· 0 ··· 1 .. .
..
1
.. .
.
.. .
0
··· ··· ···
0 0 .. . .. . 1
,
es decir, P decir, P ij inte rcambia ambia las filas i y j de la matriz id´ entica. entica. Los ´ındices ındices i, j son cualesquiera, el ij interc caso i = j = j corresponde a la matriz id´ entica. entica. c) Diagonales: son Diagonales: son matrices cuadradas de orden n orden n de la forma
Di (a) = E
− E + a.E = E = E + + (a ( a − 1)E 1)E = ii ii
∈ −{ } ≤ ≤
ii ii
ii ii
··· ··· ··· .. . ··· ··· 0 1
0
.. . .. .
0 .. . .. . 1
0
.. . .. .
a .. .
.. . .. .
··· ··· ···
,
donde a a K 0 , 1 i n, es decir, D i (a) coincide con la matriz ma triz id´ entica entica salvo s alvo en la l a entrada en trada (i, i) en la cual aparece ubicado el elemento a. Si a = 1, entonces D D i (a) = E .
CAP ´ ITULO ITULO 3. MA MATRIC TRICES ES
46 Las matrices elementales son invertibles:
−1 = T ij T ij ij (a) ij ( a) P ij−1 = P ij ij Di (a)−1 = Di (a−1 ).
−
La multiplicaci´ on, a izquierda o derecha, de una matriz A M mn on, mn (K ) por cada una de las matrices elemen elemental tales es tiene tiene un efecto efecto intere interesan sante te sobre sobre sus filas filas y column columnas. as. Estos Estos efecto efectoss se conocen conocen com comoo operaciones elementales sobre elementales sobre las filas y columnas de una matriz:
∈
a) T ij esima esima fila de A de A su j-´esima esima fila multiplicada multipli cada por a. De otra otra parte, parte, ij (a) A implica sumar a la i-´ AT ij esima esima columna de A la i-´esima esima multiplicada multipli cada por a. a . ij (a) indica sumar a la j-´ b) P ij A intercambia las filas i y j de la martiz A martiz A.. El intercam intercambio bio de las columnas columnas i, j de A de A se se obtiene ij A intercambia mediante el producto AP ij . ij c) El producto producto D D i (a)A corresponde a multiplicar la i-´ esima esima fila de A por el escalar a. El a. El producto ADi (a) corresponde a multiplicar la i-´ esima esima columna de A de A por p or a a.. Teorema 3.4. Toda matriz invertible se puede factorizar como un producto finito de matrices elementales. Demostraci´ on: La on: La prueba se realiza por inducci´on on sobre el orden n de las matrices. n = 1 : En este caso las matrices invertibles son los escalares no nulos del cuerpo K , K , los cuales pueden ser considerados como matrices diagonales. n = 2 : Sea A =
a11 a21
a12 a22
una matriz invertible. a11 y a 12 no pueden ser simult´aneamente aneamente nulos debido a que el rango de A es dos (v´ease ease el Corolario Corola rio 3 del Cap´ıtulo ıtulo 3). Consid´erense erense pues dos casos. Si a Si a 11 = 0, entonces
AD1 (a−1 ) = 11
y
1 b21
b12 b22
T 21 21 ( b21 )B =
1 c12 0 c22
CT 12 12 ( c12 ) =
1 0 0 f 22 22
−
= B, B ,
= C.
Tamb Tambi´ i´en,
− = F. −1 )T 12 En total, F = T 21 21 (−b21 )AD1 (a11 )T 12 (−c12 ), de donde A se puede despejar como un producto de transvecciones y diagonales. N´otese otese que F que F es invertible invertible ya que es producto producto de invertibles. invertibles.
Si a Si a 12 = 0 entonces se puede reducir esta situaci´on a la anterior multiplicando la matriz A matriz A a la derecha por la permutaci´on P on P 12 , y entonces A entonces A nuevamente nuevamente se puede expresar como un producto de elementales. 12 La prueba del caso n caso n = 2 est´a completa.
×
Sup´ongase ongase que el teorema ha sido probado para matrices de tama˜no no n n y sea A una matriz de tama˜ no no (n + 1) (n + 1). No es posible que todos los elementos de la primera fila de A sean nulos; al igual que en el caso n = n = 2 se puede desde ya asumir que a 11 = 0. 0 . La matriz
×
47
3.6. MA MATRICES TRICES INVER INVERTIBLES TIBLES
−1 ) B = AD1 (a11 es tal que b11 = 1 y se puede multiplicar a derecha e izquierda por transvecciones adecuadas hasta obtener una matriz invertible C de C de la forma C = =
1 0 0 A0
,
donde A donde A 0 es una matriz de orden n. Puesto que C que C es es invertible, entonces el rango de A 0 es n, n , es decir, A0 es invertible. Por inducci´on, on, A0 se puede factorizar en un producto de matrices elementales de orden n orden n : : A A 0 = F = F 1 F t . La matriz C matriz C se se puede entonces escribir en la forma:
···
C =
1 0 0 F 1 F t
=
···
1 0 0 F 1
···
1 0 0 F t
.
≤ ≤
Puesto que cada matriz F i , 1 i t, t , es elemental de orden n, entonces C queda C queda factorizada en un producto de matrices elementales de orden n + 1, de donde, A donde, A se expresa como un producto finito de matrices elementales de orden n + 1. 1.
∈
Corolario 3.8. Sean 3.8. Sean A, A, B M mn Entonces, A mn (K ). Entonces, A elementales sobre las filas y/o columnas de A.
∼ B si y s´ olo si B se B se obtiene relizando operaciones
El Teorema 4 justifica plenamente el algoritmo para determinar la inversa de una matriz A mediante la realizaci´on on de operaciones elementales sobre sus filas y columnas. En efecto, sea A −1 la inversa de la matriz A matriz A,, entonces A entonces A −1 se puede expresar como un producto de matrices elementales, A−1 = F 1 F t . Entonces, A−1 A = E = F 1 F t A, pero cada matriz elemental representa una operaci´on on elemental sobre las filas de A de A,, entonces, realizando estas mismas operaciones sobre las filas de E obtenemos E obtenemos A A −1 , es decir, F 1 F t E = A −1 (La relaci´on on AA−1 = E indica E indica que el trabajo se puede hacer tambi´en en por p or columnas). De acuerdo a lo anterior, se puede construir la matriz ampliada
···
···
···
A
|
E
y realizar operaciones elementales sobre sus filas hasta obtener la id´entica entica en la parte izquierda, en la parte derecha aparecer´a precisamente la inversa de A. A . El resultado resultado del Teorema eorema 4 com combinad binadoo con el Corolario Corolario 3 y el Corolario Corolario 6 puede tambi´ tambi´ en en ser usado para calcular el rango de una matriz, o lo que es lo mismo, el rango de un sistema finito de vectores de K m . En efecto, realizando operaciones elementales sobre las filas y o columnas de una matriz es posible reducirla a otra en la cual se pueda determinar por simple inspecci´on cual es su rango. Ejericicio 3.6. Expresar la matriz A matriz A como como producto de matrices elementales; calcule adem´as la inversa de A de A::
A =
− −
2 5 2 3
−1 1 −1 −3 1 1 3 −1 0 −1 0 1
.
{
}
{
− −}
Ejericicio 3.7. Determine el rango del siguiente sistema de vectores: x1 = 1, 1, 1, 1 , x2 = 1, 1, 1, 1 , x3 = 1, 1, 1, 1 .
{ −
−}
CAP ´ ITULO ITULO 3. MA MATRIC TRICES ES
48
3.7. 3.7.
Ejer Ejerci cici cios os
Esta secci´on on contiene una lista de ejercicios de aplicaci´on on a los temas tratados en el presente cap´ cap´ıtulo. Se sugiere sugiere a los estudiantes estudiantes resolver resolver estos problemas, problemas, los cuales cuales ayudar´ ayudar´an an a reforzar el aprendizaje. 1. Determinar todas las matrices de M 3 (K ) que conmutan con la matriz
A =
0 1 0 0 0 1 0 0 0
2. Una matriz cuadrada diagonal se dice escalar dice escalar si si todos los elementos de su diagonal son iguales. Demostrar que si A si A M n (K ) conmuta con todas las matrices de M n (K ), ), entonces A entonces A es escalar.
∈
×
×
3. Sean A, B matrices rectangulares de tama˜no no m n y p q , respectivamente. El producto Kronecker de las matrices A matrices A y B es una matriz de tama˜no mp no mp nq y y se define por
A
× B =
a11 B .. .
···
a1n B .. .
am1 B
···
amn B
.. .
×
Demostrar que el producto Kronecker tiene las siguientes propiedades: a) (aA) aA)
× B = A × (aB) aB ) = a( a (A × B )
b) (A + B ) c) A
× C = = A × C + + B × C
× (B + C ) = A × B + A × C
d) Si los productos productos AB tienen sentido, sentido, entonces entonces (AB) AB y C D, tienen AB )
× (CD) )(B × D) CD ) = (A × C )(B
e) Si A, B son matrices cuadradas de orden m y n, respectivamente, entonces tr( tr (A B ) = tr( tr(A)tr( tr(B ) (la traza de una matriz cuadrada se define como la suma de los elementos de su diagonal principal). En el siguiente cap´ cap´ıtulo se repasa el concepto de determinante y sus propiedades. Demostrar que det(A det( A B ) = (det A)n (det B )m.
×
× 4. Sea A Sea A una una matriz cuadrada de tama˜no n no n ≥ 2 tal que todas sus entradas son iguales a 1. Demostrar 1 − 1 que (E (E − A) = E − −1 A. A . 5. Sean P, Q matrices cuaradas invertibles de orden m y n, respectivamente. Sea { E } la base can´ onica onica de M (K ). ). Demostrar que las matrices F = P E Q con 1 ≤ i ≤ m, 1 ≤ j ≤ n n
ij ij
mn mn
ij ij
ij ij
conforman una base de M de M mn ). Calcular la matriz de cambio de la base can´onica a esta nueva mn (K ). base.
6. Sea T Sea T : R3 [x]
2
→R
la transformaci´on on lineal definida por T por T (( p( p(x)) = p(0) p(0),, 2
la matriz de T de T relativa relativa a las bases can´onicas onicas de R3 [x] y R .
1 p(x)dx 0
. Encontrar
7. Sea A una matriz invertible, se dice que A es una involuci´ una involuci´ on si A si A −1 = A. A . Probar que A que A es una involuci´on o n si y s´olo olo si (E (E A) (E + + A) = 0.
−
8. Sean A, B matrices matrices invertib invertibles les tales que A + B es invertib invertible. le. Demostrar Demostrar que A−1 + B −1 es invertible.
49
3.7. EJERCICI EJERCICIOS OS
9. Sea A Sea A una matriz cuadrada. Demostrar que A = olo olo si AA si AA T = 0. A = 0 si y s´ 10. Sean A, Sean A, B matrices cuadradas de orden n
≥ 1 tales que AB que AB = E . Demostrar que B que B A = E = E . 11. Sea V Sea V = R 4 y sea U sea U = (1, (1, 1, 1, 1) , (3, (3, 2, 0, 3) , (0, (0, −1, 0, 3). Encontrar una base para U y U y exten4 derla a una base de V de V .. Adem´as, as, sea V sea V = C y sea
U = (1, (1, 1, 0, 1) , (2i (2i
− 1, 2i, −i, 2i) , (−i, 0, 0, 1 + i) , (i,i, 0, −1) .
Calcular una base para U para U y y completar esta hasta una base de C4 . 12. Sea V V el espacio vectorial real de todas las funciones de la forma f ( f (x) = a cos(x cos(x) + b + b sin(x sin(x) y d2 f consideremos las transformaciones lineales A lineales A : V : V V y B : V : V V V dadas por A por A((f ) = dx2 5f π y B (f )( f )(x x) = f x + 2 . Encontrar la matriz de A y de B de B en la base cos(x cos(x), sin(x sin(x) .
→
→
{
}
−
50
CAP ´ ITULO ITULO 3. MA MATRIC TRICES ES
Cap´ıtulo 4
Determinantes Introducci´ on on El determinante puede ser considerado como una funci´on on que cumple cuatro propiedades b´asicas. asicas. En este cap´ cap´ıtulo se ve que cualquier funci´on o n del ´algebra algebra de matrices cuadradas en el cuerpo de trabajo que cumpla estas propiedades propiedades b´asicas asicas es la funci´on on determinante.
4.1.
Funcione uncioness Multili Multilinea neales les
Los determinantes de las matrices pueden ser considerados como funciones que cumplen cuatro propiedades b´asicas. asicas. En este cap´ cap´ıtulo se ver´ a que cualquier funci´on o n del ´algebra algebra de matrices cuadradas M n (K ) en el cuerpo K que K que cumpla dichas propiedades es necesariamente la funci´on on determinante. La primera lecci´on on est´a dedicada al estudio de esas propiedades b´asicas. asicas. Definici´ on on 4.1. Sea V V un espacio vectorial sobre un cuerpo K , una funci´ on multiline multilineal al de m argumentos sobre el espacio V V es una funci´ on D : V : V
V
× × ·· · × −→
K
m veces
−
que es lineal en cada argumento, es decir, D satisface las siguientes condiciones: a) Para Para cada 1
≤ i ≤ m,
D(v1 , . . . , vi + ui , . . . , vm ) = D = D((v1 , . . . , vi , . . . , vm ) + D(v1 , . . . , ui , . . . , vm ), b) Para Para cada 1 cada 1
≤ i ≤ m, ·
·
D(v1 , . . . , a vi , . . . , vm ) = a = a D(v1 , . . . , vi , . . . , vm), alternada si D c) D es alternada si D cumple la siguiente condici´ on: D(v1 , . . . , vi , vi , . . . , vm ) = 0
≤ ≤ − 1. Es decir, D decir, D es alternada si D se anula cuando dos argumentos conse-
para cada 1 i m cutivos coinciden.
Sea D una funci´ funci´ on multiline multilineal al alternada alternada de m argumentos argumentos sobre sobre un espacio espacio V . V . Entonces se puede demostrar f´ acilmente que D que D satisface las siguientes propiedades. 51
CAP ´ ITULO ITULO 4. DETE DETERMIN RMINANT ANTES ES
52
d) Si se interca intercambia mbian n dos argumentos argumentos de D D el signo cambia, es decir, D(v1 , . . . , vi , . . . , vj , . . . , vm ) =
− D (v1 , . . . , v , . . . , v , . . . , v j
i
m ),
para cualquier par i = j. j .
e) Si existe un par i par i = j tal que v que v i = v = v j , entonces D(v1 , . . . , vi , . . . , vj , . . . , vm) = 0 f) f ) Si a un argumento argumento se le suma otro multiplicado multiplicado por un escalar, entonces el valor de la funci´ on D no cambia. Es decir, D(v1 , . . . , vi + a vj , . . . , vm ) = D( D (v1 , . . . , vi , . . . , vm )
· j y cada escalar a ∈ K . para cada par i par i =
g) Si un argumento argumento de D D es nulo, entonces D se anula, es decir, D(v1 , . . . , vi , . . . , 0, . . . , vm ) = 0.
≥
{
}
Proposici´ on on 4.1. Sea V V un espacio vectorial de dimensi´ on finita n 1 y sea X = x1 , . . . , xn una base de V . V . Sean D1 y D2 dos funciones multilineales alternadas de n de n argumentos sobre el espacio V . V . D1 = D = D 2 si y s´ olo si D D 1 (x1 , . . . , xn ) = D2 (x1 , . . . , xn ). Demostraci´ on: Sean on: Sean v v 1 , . . . , vn
∈ V , V , entonces existen escalares a ∈ K, 1 K, 1 ≤ i, j ≤ n , tales que v1 = a 11 · x1 + · · · + a1 · x ij
vn = a = a n1 Entonces,
·
.. . x1 +
n
n
··· + a · x nn
n.
D1 (v1 , . . . , vn ) = D1 (a11 x1 + + a1n xn , v2 , . . . , vn ) = a11 D1 (x1 , v2 , . . . , vn )+ a12 D1 (x2 , v2 , . . . , vn )+ .. . a1n D1 (xn , v2 , . . . , vn ) = [a21 D1 (x1 , x1 , v3 , . . . , vn ) + + a2n D1 (x1 , xn , v3 , . . . , vn )] + a11 [a a12 [a [a21 D1 (x2 , x1 , v3 , . . . , vn ) + + a2n D1 (x2 , xn , v3 , . . . , vn )] + .. . a1n [a [a21 D1 (xn , x1 , v3 , . . . , vn ) + + a2n D1 (xn , xn , v3 , . . . , vn )] ;
·
···
·
··· ···
···
si se continua aplicando la linealidad de D1 en cada uno de sus argumentos, se obtiene una suma de nn sumandos de la siguiente forma:
∈
f F
a1f (1) a2f (2)
···a
nf (n) D1 (xf (1) , . . . , xf (n) )
´ DETERMINANTE 4.2. 4.2. LA FUN FUNCI CI ON
53
donde F donde F es es el conjunto de todas las funciones del conjunto 1, 2, . . . , n en si mismo. N´otese otese que F que F tiene tiene n n elementos. Pero como D como D 1 se anula cuando al menos dos de sus argumentos son iguales, entonces la suma anterior se reduce a una de s´olo n olo n!! sumandos, es decir,
{
D1 (v1 , . . . , vn ) =
a1f (1) a2f (2)
∈
f S
}
···a
nf (n) D1 (xf (1) , . . . , xf (n) ),
⊂ ⊂
{
}
donde S donde S F F est´a conformado por todas las funciones biyectivas de 1, 2, . . . , n en si mismo. N´otese otese que este mismo procedimiento se puede aplicar a la funci´on D on D 2 , es decir,
D2 (v1 , . . . , vn ) =
a1f (1) a2f (2)
∈
f S
···a
nf (n) D2 (xf (1) , . . . , xf (n) )
Aplicando ahora la propiedad (d), se puede decir que D1 (xf (1) , . . . , xf (n) ) = signo = signo((f )D1 (x1 , . . . , xn ) D2 (xf (1) , . . . , xf ( ( n) ) = signo( signo(f ) f )D2 (x1 , . . . , xn ), donde signo( signo(f ) f ) = 1 en el caso en que se realizara un n´umero par de transposiciones para llevar (xf (1) (x1 , . . . , xn ), y signo( signo(f ) f ) = 1 para un n´umero umero impar de transposiciones (1) , . . . , xf ( ( n) ) a la forma (x para llevar (x (xf (1) , . . . , x ) a la forma (x ( x , . . . , x ) . As´ ı pues pu es, , 1 n (1) ( n) f (
−
D1 (v1 , . . . , vn ) =
signo( signo(f ) f )a1f (1) a2f (2)
∈
f S
D2 (v1 , . . . , vn ) =
signo( signo(f ) f )a1f (1) a2f (2)
∈
f S
···a
nf (n)
···a
nf (n)
D1 (x1 , . . . , xn )
D2 (x1 , . . . , xn ).
Con lo supuesto en el enunciado de la proposici´on se completa la prueba. En realidad se ha demostrado que una funci´on on multilineal alternada de n argumentos sobre un espacio V V de dimensi´on on finita n queda determinada por su acci´on on sobre los vectores de alguna base X previamente fijada. fijada.
4.2. 4.2.
La Funci unci´ on o ´n Determinante
Cada fila de una matriz cuadrada A cuadrada A M n (K ) puede considerarse como un vector de K n de tal forma que se pueden definir funciones multilineales de M n (K ) en K . Seg´ un un la Proposici´on on 1 de la lecci´on on anterior, cada funci´on on multilineal alternada D alternada D : M n (K ) K queda queda completamente determinada por su acci´on on sobre los vectores de una base. Esto permite definir el concepto de funci´on determinante de la siguiente manera.
∈
→
≥
{
}
Definici´ on on 4.2. Sea M M n (K ) el ´ algebra de matrices cuadradas de tama˜ no n no n 1 y sea X = X = e1 , . . . , en la base can´ onica de K K n . Se define la funci´ funci´ on determinante determinante como como la ´ unica funci´ on multilineal alternada det : M : M n (K )
−→ K
que satisface la condici´ on det(e det(e1 , . . . , en ) = 1, es decir, det(E det(E ) = 1, donde E es E es la matriz id´ entica entica de orden n.
CAP ´ ITULO ITULO 4. DETE DETERMIN RMINANT ANTES ES
54
Si A Si A = = [aij ] M n (K ), ), entonces cada fila A fila A (i) de A puede expresarse en la forma A (i) = a i1 e1 + ain en y, de acuerdo a la demostraci´on on de la Proposici´on on 1, necesariamente se tiene que
∈
·
·
det(A det(A) =
signo( signo(f )a1f (1) a2f (2)
∈
f S
es decir,
det(A det(A) =
···a
nf (n)
signo( signo(f ) f )a1f (1) a2f (2)
∈
f S
{
···+
det(e det(e1 , . . . , en ),
···a
nf (n)
}
,
donde S es S es el conjunto de funciones biyectivas de 1, 2, . . . , n en si mismo. El signo de la funci´on on f fue definido en al prueba de la Proposici´on on 1. Cualquier Cualquier funci´ on multilineal alternada D on alternada D de M n (K ) en K tal tal que D que D((E ) = 1 coincide con la definici´on on anterior de la funci´on on det. Ejericicio Ejericicio 4.1. Sea
A =
a11 a21 a31
a12 a22 a32
a13 a23 a33
∈
M 3 (K ).
A partir de la definic´on on de la funci´on on det demuestre que det(A det(A) = a = a 11 (a22 a33
− a32a23) − a21 (a12a33 − a32a13) + a31(a12a23 − a22 a13 ) Soluci´ on: Debemos on: Debemos calcular todas las funciones biyectivas del conjunto {1, 2, 3} en si mismo: f 1 =
f 3 = f 5 =
123 +1, , signo signo((f 1 ) = +1, 123
f 2 =
123 , signo signo((f 3 ) = 321
−1,
f 4 =
123 , signo signo((f 5 ) = +1, +1, 231
f 6 =
123 , signo signo((f 2 ) = 132
−1,
123 , signo signo((f 4 ) = 213
−1,
123 , signo signo((f 6 ) = +1 312
Entonces, det(A det(A) =signo = signo((f 1 )a11 a22 a33 + signo( signo(f 2 )a11 a23 a32 + signo( signo(f 3 )a13 a22 a31 + signo( signo(f 4 )a12 a21 a33 + signo( signo(f 5 )a12 a23 a31 + signo( signo(f 6 )a13 a21 a32 = a11 a22 a33 a11 a23 a32 a13 a22 a31 a12 a21 a33 + a12 a23 a31 + a13 a21 a32 = a11 (a (a22 a33 a32 a23 ) a21 (a (a12 a33 a32 a13 ) + a31 (a (a12 a23 a22 a13 )
− −
4.3. 4.3.
− −
− −
−
Prop Propie ieda dade dess
Teniendo en cuenta que la funci´on on determinante es multilineal y alternada respecto de sus filas, entonces det tiene det tiene las propiedades que se enuncian a continuaci´on. on. Sea A Sea A una matriz cuadrada de orden n 1.
≥
55
4.3. PROPIED PROPIEDADES ADES
a) det
donde u donde u i
n
∈ K .
A(i) + ui .. . A(n)
b) det
donde a donde a
A(1) .. .
∈ K.
= det(A det(A) + det
A(1) .. . a . A(i) .. . A(n)
A(1) .. . ui .. . A(n)
,
= a det A.
c) Si existe existe un par i par i = j tal que A que A (i) = A = A (j ) , entonces det(A det(A) = 0.
d) det
para cada par i par i = j.
e) det
para cada par i par i = j.
A(1) .. . A(i) .. . A(j ) .. . A(n)
=
− det
A(1) .. . A(i) + a . A(j ) .. . A(j ) .. . A(n)
f) det
A(1) .. . 0 .. .
A(1) .. . A(j ) .. . A(i) .. . A(n)
,
= det(A det(A),
= 0.
A(n) Adem´ as as de las propiedade propiedadess anteriore anterioress se tienen tienen las siguiente siguientes. s. g) La matriz matriz A se dice que es triangular triangular superior si aij = 0 para i > j , es decir, A tiene el siguiente aspecto
A =
a11 0 0
··· ..
0
.
ain .. . ann
.
CAP ´ ITULO ITULO 4. DETE DETERMIN RMINANT ANTES ES
56
Si A Si A es una matriz triangular superior, entonces det(A det( A) = a 11 de A de A es el producto de los elementos de la diagonal.
· · · a
nn
, es decir, el determinante
h) det( det(AB) AB ) = det(A det(A) det( det(B B ). i) Si A Si A es una matriz invertible, entonces det(A det( A) = 0, y adem´as, as, det(A det(A−1 ) = (det(A (det(A))−1 .
≈ B, entonces det(A det(A) = det(B det(B ). k) Sea T Sea T : V → V V una transformaci´on on lineal de un espacio de dimensi´on on finita n finita n ≥ 1. Entonces el j) Si A Si A
determinante de T se T se define como el determinante de la matriz de T en cualquier cualqu ier base (v´ease ease la Proposici´ Proposici´ on on 9 del Cap´ Cap´ıtulo 3).
l) det(A det(AT ) = det(A det(A). Ejericicio Ejericicio 4.2. (Determinante de Vandermonde) Sean x 1 , . . . , xn
det
1 x1 x21 .. .
1 x2 x22 .. .
xn1 −1
xn2 −1
··· ··· ··· ··· ···
1 xn xn2 .. .
=
xnn−1
∈ K , entonces
≤ i< j ≤ n (xj − xi ).
1
Ejericicio Ejericicio 4.3. Sea A una matriz de orden n, B una matriz de orden m y C C un matriz de orden n m. Entonces
×
det
A C 0 B
= det(A det(A) det( det(B B ).
Ejericicio Ejericicio 4.4. Sea A, Sea A, B y C como C como en el ejercicio anterior. Entonces det
4.4. 4.4.
C B
A 0
= ( 1)nm det(A det(A)det(B )det(B ).
−
Regl Regla a de Cra Cramer mer
La teor´ teor´ıa de determinantes determinantes puede ser emprendida por p or medio de los llamados menores de una matriz. La definici´ on on de una nueva funci´on on Det en este caso se hace por inducci´on on sobre el tama˜no n o de las matrices. Definici´ on on 4.3. Se define Det1 : M : M 1 (K ) [a]
−−→→
Det2 : M 2 (K ) a11 a12 a21 a22
−→ −→
K Det1 (a) = a = a
K a11 Det1 [a22 ]
− a21Det1[a12] = a11a22 − a21a12.
→ K se K se supone definida y se quiere construir la funci´ on Det = Det = Det Det : M (K ) → K . ] ∈ M (K ), para el elemento a se define la matriz A ∈ M −1 (K ) suprimiendo la
La funci´ on Detn−1 : M n−1 (K )
n
Sea A = [aij n ij i-´esima esim a fila y la j la j -´esima esim a columna column a de A de A , es decir,
n
ij
n
57
4.4. REGLA DE CRAMER CRAMER
Aij =
a11 .. .
···
a1j −1 .. .
a1j +1 .. .
···
a1n .. .
ai−11 ai+11 .. .
··· ··· .. .
ai−1j −1 ai+1j −1 .. .
ai−1j +1 ai+1j +1 .. .
··· ···
ai−1n ai+1n .. .
an1
···
anj−1
anj+1
···
ann
.. .
.. . .. .
.
La imagen de A A ij a trav´es es de la funci´ fun ci´ on Det D etn−1 se conoce como el menor menor del del elemento a elemento a ij y se denota por M ij ij , es decir, M ij ij = Det n−1 (Aij ). Det se Det se define entonces por n
Det( Det(A) =
−
( 1)i+1 ai1 M i1 .
(4.1)
i=1
Proposici´ on on 4.2. Det es Det es una funci´ on multilineal alternada sobre las filas de las matrices de orden n orden n que cumple adem´ as la condici´ on Det D et((E ) = 1. En consecuencia, Det = Det = det. det.
Se dice que la f´ormula ormula (4.1) (4.1) define la funci´on on determinante por los menores de la primera columna, adaptando esta f´ormula ormula a cualquier cualquier otra columna columna se puede probar tambi´ tambi´ en en la proposici´ proposici´on on anterior, adem´ as, as, como det(A det(AT ) = det(A det(A), entonces se tienen las siguientes igualdades: n
Det( Det(A) =
n
−
i+j
( 1)
aij M ij ij =
i=1
para cada 1 enseguida.
−
( 1)i+j aij M ij ij
(4.2)
j =1
≤ i, j ≤ n. Estas n. Estas f´ormulas ormulas pueden usarse para probar la regla de Crammer que se estudia
Definici´ on on 4.4. Sea A A = [aij ] una matriz de orden n orden n,, se define la matriz cofactor matriz cofactor de A A por Cof ( Cof (A) = [( 1)i+j M ij ij ].
−
La regla de Crammer est´a entonces dada por el siguiente teorema. Teorema 4.1. Sea A una matriz cuadrada de orden n
ACof ( ACof (A)T =
det(A det(A) 0 0
0 .. . 0
≥ 1. Entonces, 0
0 de det(A)
= Cof C of ((A)T A.
Una consecuencia importante de este ´util util teorema es el siguiente corolario. Corolario 4.1. Sea A una matriz de orden n En tal caso, A −1 = (det(A (det(A))−1 Cof ( Cof (A)T .
≥ 1. Entonces, A es invertible si y s´ olo si det(A 0. det(A) =
CAP ´ ITULO ITULO 4. DETE DETERMIN RMINANT ANTES ES
58
4.5. 4.5.
Sist Sistema emass de Ecu Ecuac acio iones nes Linea Lineale less
En esta lecci´on on se presentan los aspectos te´oricos oricos involucrados en la soluci´on on de sistemas de ecuaciones lineales, en particular se estudian los criterios para que un sistema tenga soluci´on. No se enfatiza en m´ etodos etodo s para encontrar e ncontrar las la s soluciones soluc iones debido d ebido a que hoy d´ıa ıa existen exis ten excelentes excel entes paquetes paquet es computacional comput acionales es que permiten resolver con gran rapidez tales sistemas. Definici´ on on 4.5. Sea K un K un cuerpo arbitrario. Se denomina sistema denomina sistema de ecuaciones lineales de n indeterminadas (inc´ ognitas) y m ecuaciones a un conjunto de ecuaciones de la forma a11 x1 + a21 x1 + am1 x1 +
· · · + a1 · · · + a2
= b 1 n xn = b
···
= b 2 n xn = b .. . + amn xn = b m
(4.3)
∈
donde a11 , . . . , amn K K son los los coeficientes del sistema y x1 , . . . , xn representan elementos de K que hay que determinar y se conocen como las indeterminadas las indeterminadas (inc´ ognitas) del sistema. Se dice que el sitema ( 4.3 4.3 ) es de orden m n. La matriz
×
A =
a11 .. .
···
a1n .. .
am1
···
amn
.. .
se conoce como la matriz matriz de coeficientes del coeficientes del sistema ( 4.3 4.3 ). ). Los escalares b escalares b 1 , . . . , bm se conocen como t´ ermino erm inoss inde i ndependi pendient entes es del los t´ del sistema ( 4.3 4.3 ). ). El sistema ( 4.3 4.3 ) se puede representar matricialmente en la forma AX = = B
(4.4)
donde A es A es la matriz de coeficientes, B coeficientes, B = = [b1 , . . . , bm ]T es la matriz columna de t´ erminos ermino s independientes inde pendientes T y X = [x1 , . . . , xn ] es la matriz columna de indeterminadas. La La matriz ampliada del sistema es la matriz definida por
M =
| ∈
a11 .. .
···
a1n .. .
b1 .. .
am1
···
amn
bm
.. .
=
A
B
El sistema ( 4.4) 4.4) se dice hom ho mog´ og´ eneo si eo si B B = 0, en e n caso contrario se dice no homog´ eneo. eneo. Una Un a soluci´ soluci´ on 0 0 T n del sistema ( 4.4) 4.4) es una matrix columna X 0 = x1 , . . . , xn K tal que AX 0 = B. El sistema ( 4.4) 4.4) se dice compatible si compatible si posee al menos una soluci´ on, en caso contrario se dice no compatible. Un sistema compatible con soluci´ on unica ´ se dice determinado dice determinado,, si el sistema posee m´ as de una soluci´ on se dice indeterminado. Sea CX = D
×
(4.5)
equivalentes si otro sistema de ecuaciones lineales de orden m orden m n, los sistemas ( 4.4) 4.4) y ( 4.5 4.5 ) se dicen equivalentes si poseen las mismas soluciones. N´ otese que la relaci´ on “ser equivalente” es de equivalencia en el conjunto de todas las ecuaciones lineales de orden m n.
×
Proposici´ on on 4.3. Sea AX AX = 0 un sistema sistem a homog´ eneo eneo de orden m orden m (a) El conjunto conjunto de soluciones soluciones S constituye S constituye un subespacio de K de K n .
× n. Entonces
59
4.5. SISTEMAS SISTEMAS DE ECUACION ECUACIONES ES LINEALES
(b) A es de rango r
≥ 0 si y s´ olo si el espacio soluci´ on S es on n − r. S es de dimensi´
Demostraci´ on: La on: La afirmaci´on on (a) es evidente. (b) La matriz A determina una transformaci´on on lineal T lineal T : K n que S que S es es precisamente el n´ucleo ucleo de T de T .. Por lo tanto, dim(S dim(S ) = n
m
−→ K en alg´un un par de bases. N´otese otese − rank( rank(T ) T ) = n − rank( rank(A).
Como se anot´o al principio, el c´alculo alculo efectivo del conjunto soluci´on on de un sistema de ecuaciones lineales se realiza hoy mediante alg´un un paquete computacional. Sin embargo, es conveniente tener unos criteros claros que permitan entender algunos de los m´etodos etodos que usan estos programas y que interpreten adecuadamente las respuestas que producen estos paquetes de c´omputo. Sea AX = B un sistema de orden m n. Efectuando una sucesi´on on finita de operaciones elementales sobre las filas de la matriz ampliada A B se obtiene un sistema C X = = D equivalente al primero. En efecto, puesto que la realizaci´on on de operaciones elementales sobre las filas de una matriz corresponde al producto a izquierda por p or matrices elementales (v´ esase esase la Lecci´on on 6 del Cap´ Cap´ıtulo 3) y estas son invertib invertibles, les, los conjunt conjuntos os de soluciones soluciones de AX = B y C X = = D coinciden.
×
|
La observaci´on on anterior anterior permite sacar la siguiente siguiente conclusi´ conclusi´on. on. Proposici´ on on 4.4. Todo sistema AX = B de ecuaciones lineales de orden m sistema escalonado C X = = D en la siguiente forma: c1j1 xj1
+ c1j2 xj2 c2j2 xj2
+ +
c1j3 xj3 c2j3 xj3
+ +
crjr xjr
+
··· ···
+ c1n xn + c2n xn
= =
···
+ crn xn 0
= dr = dr+1
.. . .. .
0 donde c c 1j1 , c2j2 , . . . , crjr son no nulos y 1
× n es equivalente a un
=
d1 d2 (4.6)
dm
≤ j1 < j2 < · · · < j . r
La forma forma escalonada escalonada (4.6 ( 4.6)) permite permite determina determinarr las soluciones del sistema sistema original original AX AX = = B. B . Si en (4.6 (4.6)) existe r existe r + 1 i m tal que d que di = 0, entonces el sistema es no compatible; si tal situaci´on no se presenta entonces se pueden dar valores arbitrarios en K a K a las indeterminadas libres x libres x j , j / j1 , j2 , . . . , jr , y obtener para las indeterminadas dependientes x dependientes xj1 , x j2 , . . . , xjr valores unicos u ´ nicos mediante reemplazo hacia atr´ as, as, es e s decir, deci r, desde de sde la l a r-´esima esima ecuaci´ e cuaci´on on hasta la primera de (4.6 ( 4.6). ). Si en (4.6 ( 4.6)) aparecen indeterminadas libres entonces el sistema tiene m´as as de una soluci´on on y por lo tanto es indeterminado. Si no aparecen indeterminadas libres, es decir, r decir, r = n = n,, entonces la soluci´on o n es unica u ´ nica y el sistema es determinado.
≤ ≤
∈{
}
Las observaciones anteriores pueden ser resumidas en la siguiente forma:
×
Proposici´ on on 4.5. Sea AX = B un sistema de ecuaciones lineales de orden m n. El sistema es compatible si y s´ olo si despu´ es es de reducirlo reducirlo a la forma escalonada escalonada ( 4.6 ( 4.6 ) no se presentan ecuaciones de la forma 0 = d i con i r y alg´ un di no nulo. nulo. En tal caso, el sistema es determinado si y s´ olo si en ( 4.6 4.6 ) no hay indeterminadas libres.
≥
Se pueden considerar situaciones particulares con n = m,n = m,n > m . m . Proposici´ on on 4.6. Se tiene que: (a) Sea Sea AX = B un sistema sistema de ecuaci ecuaciones ones lineales lineales de orden orden n n. El sistema es compatible y determinado si y s´ olo si det(A det(A) = 0. 0 . En tal caso, la ´ unica soluci´ sol uci´on on es A−1 B .
×
CAP ´ ITULO ITULO 4. DETE DETERMIN RMINANT ANTES ES
60
(b) Sea Sea AX = B un sistema compatible de ecuaciones lineales de orden m el sistema es indeterminado.
× n. Si n > m entonces
Demostraci´ on: (a) on: (a) = ) Seg´ un un la Proposici´on on 4 el sistema AX = B es equivalente a un sistema escalonado C lonado C X = D; D ; pero las condiciones de compatibilidad y de soluci´on on unica u ´ nica implican que r que r = n = n y y que det(C det(C ) = c 11 cnn = 0. Puesto que C que C se se obtuvo de A de A por por medio de operaciones elementales, entonces det(A det(A) = 0.
⇒ · · ·
⇐=) Si det(A 0, entonces A det(A) = entonces A es invertible y necesariamente se tiene que X = A−1 B . ≤
(b) Sea r el n´ umero umero de indetermin indeterminadas adas dependientes dependientes en ( 4.6). 4.6). Entonces Entonces claramen claramente te r m y en consecuencia n consecuencia n > r, con lo cual existen indeterminadas libres y el sistema es indeterminado. El cuadro (4.1 cuadro (4.1)) resume los resultados precedentes en relaci´on on con el n´umero umero de soluciones de un sistema de ecuaciones lineales: n > m > m Homo Ho mog´ g´eneo en eo No homog´ eneo eneo
∞ 0, ∞
n m 1, 0 , 1,
≤ ∞
∞
Cuadro 4.1: Soluciones de un sistema de ecuaciones lineales Ejemplo resuelto: (a) Determinar Determinar todas las soluciones soluciones del sistema sistema x1 + 2x 2 x2 5x3 + 4x 4 x4 + x5 = 4 3x1 + 7x 7 x2 x3 3x4 + 2x 2 x5 = 10 x2 13 13x x3 2x4 + x5 = 14 x3 16 16x x4 + 2x 2 x5 = 11 2x4 + 5x 5 x5 = 12
− − − − − − −
− −
En este caso m = n = 5 y se realizan sobre la matriz ampliada la siguiente secuencia de operaciones elementales:
1 3 0 0 0
1 0 0 0 0
− 1 0 0 0 0
− − ⇓ − − − − − − − − − ⇓ − − − − − − − −
−5 4 − 1 −3 − −13 −2 1 −16 2 7 1 0 0
2 1 1 0 0
2 1 0 0 0
1 2 1 2 2 5
0
5 14 13 1 0
5 14 1 1 0
4 15 2 16 2
4 15 17 16 2
1 1 1 2 5
1 1 0 2 5
4 10 14 11 12
4 2 14 11 12
4 2 16 11 12
61
4.5. SISTEMAS SISTEMAS DE ECUACION ECUACIONES ES LINEALES
1 0 0 0 0 1 0 0 0 0
2 1 0 0 0 2 1 0 0 0
−5
14 1 0 0
−5
14 1 0 0
⇓ − −
4 15 17 1 2
⇓
4
1 1 0 2 5
−
4 2 16 5 12
− −
1
4
−15 −1 −2 −17 0 −16 1 0
2 1
5 2
todas las indetermina indeterminadas das son dependient dependientes, es, el sistema sistema es compatible compatible y determina determinado do con soluci´ soluci´on on dada por: x por: x 5 = 2, x4 = 5 2x5 = 1, x 1, x 3 = 17 17x x4 16 = 1, 1, continuando con esta sustituci´on on hacia atr´ as as se encuentra que x 2 = 1 y x 1 = 1.
−
−
(b) Determinar Determinar todas las soluciones soluciones del sistema sistema x1 5x3 + 2x 2 x6 = 6 2x2 + x4 + 3x 3 x5 = 6 2x1 7x3 + 3x 3 x6 = 4 3x2 + 2x 2 x4 + 4x 4 x5 = 7 2x1 x3 + x6 = 12 4x2 + 3x 3 x4 + 5x 5 x5 = 9
− − −
−
En este caso m = n = 6 y se realizan sobre la matriz ampliada la siguiente secuencia de operaciones elementales:
1 0 2 0 2 0 1 0 0 0 0 0
1 0 0 0 0 0
0 2 0 3 0 4 0 2 0 3 0 4 0 2 0 1 0 0
−5 0 −7 0 −1
0 1 0 2 0 0 3
−5 0 3 0 9 0
−5 0 3 0 9 0
0 1 0 2 0 3 0 1 0 1 0 1
⇓
⇓
0 3 0 4 0 5 0 3 0 4 0 5 0 3 0 1 0 1
− ⇓
− − − − − − − − − 2 0 3 0 1 0
6 6 4 7 12 9
2 0 1 0 3 0
2 0 1 0 3 0
6 6 8 7 24 9
6 6 8 1 24 3
−
CAP ´ ITULO ITULO 4. DETE DETERMIN RMINANT ANTES ES
62
1 0 0 0 0 0
−5
0 0 0 1 0 0
1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0
0 1 0 1 0 1
−
0 3 0 9 0
0 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0
0 1 0 1 0 1
−5 0 3 3 0 0
−5 0 3 0 0 0
−5 0 3 0 0 0
⇓
0 1 0 0 1 1
−
⇓ 0 1 0 0 1 0
−
⇓ 0 1 0 1 0 0
−
−
0 1 0 0 1 1
2 0 1 0 3 0
− −
2 0 1 1 0 0
− −
−
0 1 0 0 1 0 0 1 0 1 0 0
2 0 1 0 0 0
−
2 0 1 0 0 0
−
la ultima u ´ ltima matriz indica que el sistema es no compatible.
− − − − − − − − 6 4 8 1 24 3 6 1 8 8 4 3
6 1 8 0 4 1 6 1 8 4 0 1
´ Algebra Lineal Cap´ ıtulo ıtul o 4. Determ Det ermina inantes ntes Ejercicios. 1. Mediante operaciones elementales sobre la matriz ampliada establecer si los siguientes
sistemas son compatibles y determinados: (a) 7x1 − 5x2 − 2x3 − 4x4 = 8 3x1 + 2 x2 + x3 + 2 x4 = −3 2x1 − x2 − x3 − 2x4 = 1 −x1 + x 3 + 2 x4 = 1 −x2 + x 3 + 2 x4 = 3 (b) 12x1 − 18x2 + 102x3 − 174x4 − 216x5 = 132 14x1 − 21x2 + 119x3 − 203x4 − 252x5 = 154 x3 + 2 x4 + 3 x5 = −1 4x3 + 5 x4 + 6 x5 = −2 7x3 + 8 x4 + 9 x5 = −3 2. Calcular todas las soluciones de los sistemas lineales del problema anterior (Sugerencia:
h´agalo agalo manualmente y tambi´en en utilizand ut ilizandoo alg´ al g´ un un paquete de c´omputo). omputo). 3. Calcule Calcule todas las soluciones soluciones de los siguiente siguientess sistemas sistemas homog´ homog´eneos eneos (usted escoge escoge el m´eto et o do !): !) : (a) 14x1 + 35 x2 − 7x3 − 63x4 = 0 −10x1 − 25x2 + 5 x3 + 45 x4 = 0 26x1 + 65 x2 − 13x3 − 117x4 = 0 (b) 2x1 − x2 − x3 − x4 − x5 = −x1 + 2 x2 − x3 − x4 − x5 = 4x1 + x2 − 5x3 − 5x4 − 5x5 = x1 + x 2 + 2 x3 + x 4 + x 5 = x1 + x 2 + x 3 + 2 x4 + x 5 =
1
0 0 0 0 0
4. Calcule los determinantes de las siguientes matrices:
(a)
a2
+1
b2
ab
ab ab
ac
+1
bc 2
ac
bc
c
1 2 3
0 2 a 0 b 0 c 4 5 0 0 0
+1
(b)
d
(c)
.. . . .. es el coeficiente binomial. Utilizar la identidad = + . donde a
1 1 1 1 1.. .. .. . . . 1 2
3
1 3
1 4
2
2
n
n+1
n−1
n−1
1
···
n
··· ···
···
1
n+1
2
2n−2 n−1
b
n
n−1
n−1
k
k
k −1
5. Sea A una matriz cuadrada de orden n × n. Demostrar que
(a) det
A
−A
A
A
= 2n (det A)2
(b) det
A
−A
−A
A
= 0
(c) det
2
A
A
3A = (det A)2 2A 2
Soluci´ on. on. (a) Sea B =
primeras n filas de
las siguientes n filas pero con signo negativo. El determinante no
B a
A
−A
A
A
, entonces podemos adicionar en forma secuencial las
cambia cambia y se obtiene obtiene que det (B ) = det
A
−A
. Seg´ un el Ejercicio 3 de la Lecci´on un on 3, 0 2A se tiene tiene que det (B ) = det(A) det( det(22A) = det( A)2n det(A) = 2n det(A).
(b) Sea = , podemos sumar en forma secuencial las primeras filas de alas siguientes filas de , el determinante no cambia y obtenemos que det( ) = det = det( ) det(0) det(0) = 0. 0 0 2 3 (c) Sea = , podemos sumar en forma secuencial las ´ultimas ultimas filas de a 2 las primeras filas de pero con signo negativo, el determinante no cambia y obtenemos B
A
−A
−A
A
B
n
A
n
B
−A
B
A
A
B
A
A
n
A
n
B
B
que det(B ) = det
A
A
. Podemos ahora sumar en forma secuencial las primeras n 2A filas de esta nueva matriz a las siguientes n filas pero con signo negativo de tal forma que el determinante determin ante no cambia y as´ as´ı:
det(B ) = det
A
A
A
= det det (A)det(A) = det(A)2 .
0 A 6. Calcular el determinante de la matriz
A
n × n sobre
= .. .
K :
.. .
a
b
···
b
b
a
···
b
.. .
.. .
b
···
b
un cuerpo
a
Soluci´ on. on. Vamos a demostrar que este determiante es ( a + ( n − 1) b) (a − b)
n−1
mediante la realizaci´on on de operac op eraciones iones elementales elementales sobre filas y columnas: columnas: en primer primer lugar multiplimultiplicamos la primera fila por −1 y se la sumamos a las n − 1 restantes, el determinante de la nueva matriz no cambia:
a
b
···
b
b−a
a−b
···
.. .
.. . 0
.. .
0 .. .
···
a−b
b−a
Esta matriz tiene un bloque diagonal de tama˜no no n − 1 y el determinante de este bloque n−1 diagonal es (a − b) . Ahora multiplicamos las ultimas u ´ltimas n − 1 columnas por −1 y las vamos sumando a la primera columna, el determinante no cambia y obtenemos: 3
a + ( n − 1)b
b
···
b
0 .. .
a−b
···
.. . 0
.. .
0 .. .
···
a−b
0
Podemos finalmente desarrollar el determinate por los menores de la primera columna y obtenemos el resultado anunciado. 7. Demuestre que
det
2 −1 0
0 0 0
1 2 −1 −
0 0 0
0 0 ··· 0 0 ··· 0 −1 2 −1 · · · 0 ... ... ... ... ... ... 0 2 −1 0 ··· −1 0 0 ···
0 0 0
1 2 −1 −
0 0 0
= 0 1
n + 1
−
2
8. Sea A una matriz matriz cuadrada de orden impar tal que A T =
. Demostrar que det(A) =
−A
0. 9. Sea A ∈ M n (Z), con n par tal que AT =
. Demostrar que
−A
4
det(A)
= k2 , con
k ∈ Z .
Cap´ıtulo 5
Polin Polinom omio io Cara Caract cter er´ ´ısti ıstico co Introducci´ on on El estudio estudio de las transform transformacion aciones es lineales lineales por medio de matrices matrices usa como una de sus t´ ecnicas ecnicas el polinomio poli nomio caracter´ car acter´ıstico. ıstico . El conocimi co nocimiento ento de sus ra´ ra´ıces es fundamental para entender entende r el comp ortamiento de la transformaci´on on lineal. Estas ra´ ra´ıces son los l os llamados valores propios.
5.1. 5.1.
Valore aloress y Vec Vector tores es Propi Propios os
En el Cap´ Cap´ıtulo 3 se vi´ o que cada transformaci´on on lineal T de T de un espacio de dimensi´on on finita n 1 se puede representar por medio de una matriz A de orden n, la cual permite conocer propiedades de la transformaci´ on T on T ,, por ejemplo, es claro que T que T es es invertible si y s´olo olo si det(A det(A) = 0 (v´ease ease el Corolario Corola rio 1 del cap´ cap´ıtulo anterior). Si la matriz ma triz A A tiene tiene un aspecto sencillo es muy f´acil acil obtener informaci´on on de T de T a partir de ella. La forma m´as as simple que puede tener una matriz es la forma diagonal. En este cap´ cap´ıtulo se estudian criterios para diagonalizar matrices.
≥
→
∈
Definici´ on on 5.1. Sea T : V V V una transformaci´ on de un K -espacio -espacio V , V , un escalar a K K se dice que es un valor un valor propio de propio de la transformaci´ on T si T si existe un vector no nulo v V tal que T ( T (v) = a . v. En tal caso se dice que v es un un vector propio de T perteneciente perteneciente al valor propio propio a. N´ otese que un vector propio solo puede pertenecer a un solo valor propio.
∈
Ejemplo Ejemplo 5.1. Para 5.1. Para la transformaci´on on lineal T lineal T : R 2 R2 definida por T por T ((x, y) = (2x, (2x, 3y), a = 2 es un valor propio con vector propio (6, (6 , 0); a 0); a = = 3 es e s tambi´ ta mbi´en en un u n valor propio de T de T con con vector propio (0, (0 , 2).
→
−
→ V V una transformaci´ on lineal y a y a ∈ K , , el conjunto E (a) = {v ∈ V | T ( T (v) = a . v} es un subespacio de V de V ;; n´ otese que E ( E (a) = 0 si y s´ olo si a a es un valor propio de T de T ,, en tal caso E caso E ((a) se Definici´ on on 5.2. Sea T T : V
denomina el el espacio propio de T correspondiente T correspondiente al valor propio a.
Ejemplo 5.2. Sea D Sea D el operador derivaci´on on definido sobre el espacio de funciones reales cuyas derivadas de cualquier orden existen, y sea a R, entonces E entonces E ((a) = c eax c R .
∈
{
| ∈ }
Ejemplo 5.3. Existen transformaciones lineales sin valores propios, es decir, E (a) = 0 , para cada a K . En efecto, la transformaci´on T on T : R 2 R 2 definida por
∈
→
−
T ( T (x, y) = (y, x) no tiene valores propios. 67
CAP ´ ITULO 5. 5. POLINOMIO CARACTER CARACTER ´ ISTICO
68
Proposici´ on on 5.1. Sea T on lineal de un espacio V espacio V . . Sean a T : V V una V una transformaci´ a 1 , . . . , ar valores propios diferentes con vectores propios v1 , . . . , vr , respectivamente. Entonces v1 , . . . , vr son L.I. En particular, si V es V es de dimensi´ on finita n n 1, entonces T tiene T tiene a lo sumo n valores propios diferentes. Si T T tiene exactamente n n valores propios diferentes, entonces v1 , . . . , vn es una base de V de V .
→
≥
{ {
}
Demostraci´ on: La prueba de la primera afirmaci´on la se realiza por inducci´on. on. Las otras dos afirmaciones ciones son consecuencia consecuencia directa de la primera. primera. n = 1 : Si a es un valor propio y v = 0 es un vector propio asociado al valor a, entonces v es LI.
{ }
−
Sup´ ongase ongase que la afirmaci´on on ha sido probada para n 1 valores propios diferentes. Sean a1 , . . . , an valores propios diferentes para T con T con vectores propios v1 , . . . , vn . Sean b1 , . . . , bn escalares tales que b1 .v1 + + bn .vn = 0. Aplicando T Aplicando T y tambi´en en multiplicando multipli cando por a por a n se pueden restar las dos relaciones y obtener que
···
(b1 a1
− b1 a
n ) .v1 +
· · · + (b(b −1a −1 − b −1a ) .v −1 = 0 Aplicando inducci´ on on resulta entonces que b 1 = · · · = b −1 = 0, de donde b = 0. Esto prueba que los n
n
n
n
n
vectores v 1 , . . . , vn son LI.
n
n
El rec´ rec´ıproco de la proposici´on on anterior no es siempre cierto, por ejemplo, si T = I V V , cualquier base de V de V pertenece pertenece a 1, que es el ´unico unico valor propio de I de I V . V Ejemplo 5.4. Sea K [x] el conjunto de polinomios con coeficientes en el cuerpo K , y sea T : V V V una transformaci´on on lineal. Entonces para cada polinomio p(x) K [x] se tiene que p(T ) T ) es una transformaci´ on on lineal de V en V , a s si a V , adem´as K K es un valor propio de T T con vector propio v , entonces p( p (a) es un valor propio de p de p((T ) T ) con vector propio v propio v.. En tal caso, E caso, E ((a) N ( N ( p( p(T )) T )) si a si a es es ra´ız de p de p((x), y E ( E (a) Im( p( p(T )) T )) si a si a no es ra´ız ız de p de p((x).
→
∈
∈
⊆
⊆
Soluci´ on: Puesto on: Puesto que ya hemos definido la suma y producto producto de transform transformacion aciones es lineales y adem´as as un producto de escalar por transformaci´on on lineal, entonces es claro que si p(x) = a 0 + a + a 1 x + + an xn es un polinomio, entonces p entonces p((T ) T ) es nuevamente una transformaci´on on lineal de V de V en V en V .. Sea ahora a ahora a K un valor propio de T con T con vector propio v V , V , entonces p(T )( T )(vv) = a 0 .v + .v + a a 1 T ( T (v) + + an T n (v) = a0 .v + .v + a1 a.v + a.v + a2 a2 .v + .v + + an an .v = .v = p p((a).v, .v , es decir, p decir, p((a) es valor propio de p( p (T ) T ) con vector propio v.
···
∈
···
···
∈
∈
Supongamos que a es ra´ız ız de p(x), entonces p(T )( T )(vv) = 0 y de esta forma v N ( p ( p((T ))), T ))), es decir, E (a) N ( p ( p((T )). T )). Sup´ongase ongase contrariamente que a que a no no es ra´ız ız de p de p((x), entonces v entonces v = = ( p( p(a))−1 p( p(T )( T )(vv) = − 1 p( p(T )(( T )(( p( p(a)) .v), .v), es decir, v decir, v Im( p( p(T )) T )),, y as´ı, E ( E (a) Im( p( p(T )). T )).
⊆
5.2.
∈
⊆
Polinomio Caracter´ Caracter´ıstico
En el Cap´ Cap´ıtulo 4 se defini´o la teor´ teor´ıa de determinantes determinantes para matrices con entradas en un cuerpo, sin embargo la invertibilidad de los elementos del cuerpo no fue usada en la construcci´on. Esto indica que se puede desarrollar la teor´ıa ıa de determinantes para matrices con entradas en un anillo conmutativo, conmutativo, por ejemplo, con entradas polin´omicas. omicas. Esta observaci´on on permite definir un invariante muy importante de una transformaci´on on lineal de un espacio de dimensi´on on finita: finita : su polinom p olinomio io caracter carac ter´´ıstico. Comencemos Comencemo s por definir el polinomio caracter´ caracter´ıstico de una matriz cuadrada. Definici´ on on 5.3. Sea A = [aij ] una matriz cuadrada de orden n
≥ 1 sobre un cuerpo K . Se define el
5.2. POLINOMIO CARACTER CARACTER ´ ISTICO
69
polinomio poli nomio caracter´ısticode ıstico de A A por
− − − x
pA (x) = det(xE det(xE
− A) = det
a11 a21 .. .
an1
N´ otese que efectivamente pA (x) otese siguientes propiedades:
∈
−a12 ··· · · −a1 −a2 x − a22 · · · −
.. . an2
..
.
···
n n
.. . x ann
−
.
K [x]. Se puede probar f´acilmente acilmente que para pA (x) se tienen las
a) pA(x) es un polinomio de grado n grado n.. b) Siendo Siendo pA (x) = p0 + p + p 1 x + + pn−1 xn−1 + p nxn , entonces se tiene que p0 = ( 1)n det(A det(A), pn−1 = (a11 + + ann ) y p n = 1.
−
···
···
−
c) Matrices similares tienen el mismo polinomio caracter´ caracter´ıstico. El rec´ rec´ıproco de esta afirmaci´on on no es siempre cierto, como lo ilustran las matrices
1 1 0 1
y
1 0 0 1
.
→
≥
d) Sea T : V V V una transformaci´on on lineal de un espacio V V de dimensi´on on finita n finita n 1. Entonces se define el polinomio caracter´ caracter´ıstico de T de T como el polinomio caracter´ caracter´ıstico de la matriz de T en cualquier base, y se denota por p T (x). En otras palabras, el polinomio caracter´ caracter´ıstico de T de T es es un invariante de T T que no depende de la base elegida en V, y se tiene que pT (x) = p A (x) , donde A = m = m X (T ) T ) y X es X es cualquier base de V . V . El polinomio caracter´ caracter´ıstico es un instrumento para determinar los valores propios de una transformaci´on on lineal. lineal.
→
Proposici´ on on 5.2. Sea T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on finita n 1 y sea a a K. Entonces, a Entonces, a es es un valor propio de T de T si si y s´ olo si a es a es ra´ ra´ız del polino poli nomio mio caracte carac ter´ r´ıstico ıst ico de T , T , es decir, p T (a) = 0.
≥
∈
Demostraci´ on: ) Sea v Sea v un vector propio de a, a , entonces, T entonces, T ((v) = a.v, a.v , luego (T (T aI )(v )(v) = 0, es decir, T aI no aI no es una transformaci´on on inyectiva. Esto implica que si X es X es una base cualquiera que fijamos en V en V ,, entonces m entonces m X (T aI ) tiene determinante igual a cero, es decir, det( donde A es la det (A aE ) = 0, donde A matriz de T de T en en la base X . X . Por tanto, p tanto, p A(a) = 0, es decir, decir, a es ra´ ra´ız del polinomio poli nomio caracter´ıstico ıstico de A de A,, o sea del polinomio caracter´ caracter´ıstico de T de T ..
− −
⇒
− −
− −
−
⇐) Si a es ra´ızız de p (x), entonces a es ra´ızız de p (x), donde A es la matriz de T T en una base X − aI ) que fijamos. Por tanto det( det(A − aE ) aE ) = 0, luego m (T − aI ) no es invertible. Esto garantiza que T − − aI no aI no es invertible, y en consencuencia no es inyectiva, es decir, existe v no nulo en V V tal que (T − − aI )(v )(v) = 0, es decir, T decir, T ((v) = a.v. a.v . Esto quiere decir que v que v es vector propio con valor propia a. a . T
A
X
Insistimos en que este resultado es v´alido para valores a K. Podr´ıa ıa ocurrir ocurri r que las ra´ ra´ıces del polipoli nomio caracter´ caracter´ıstico no pertenecieran al cuerpo K , K , por ejemplo, en el caso en que K sea K sea el cuerpo de n´ umeros umeros reales y todas to das las l as ra´ıces ıces de d e p T (x) fueran complejas (v´ease ease el Ejemplo 3 de la l a lecci´ l ecci´on on anterior), entonces no tendr´ıamos ıamos valores propios. propio s.
∈
Un cuerpo K K se dice algebraicamente algebraicamente cerrado cerrado si todas las ra´ ra´ıces de todos sus polinomios polinomios pertenepertenecen a K , por ejemplo, el cuerpo C de n´ umeros complejos es algebraicamente cerrado, en cambio, el umeros cuerpo R cuerpo R de n´ umeros umeros reales no lo es.
CAP ´ ITULO 5. 5. POLINOMIO CARACTER CARACTER ´ ISTICO
70
Corolario Corolario 5.1. Sea K un sea T : V on lineal K un cuerpo algebraicamente cerrado y sea T V una V una transformaci´ del K -espacio -espacio V V de dimensi´ on finita n 1. 1 . Entonces, T T tiene n valores propios (no necesariamente diferentes) correspondientes a las n las n ra´ıces ıces de su polinomio polino mio caracter´ıstico. ıst ico.
→
≥
≥
∈ ∈
Sea A una matriz cuadrada cuadrada de orden orden n 1, un elemento a K K se dice que es un valor propio de A si existe una matriz columna no nula u = (u1 , . . . , un )T K n tal que Au = Au = a.u . La teor´ıa de valores y vectores propios para matrices est´ a relacionada relacion ada de d e manera m anera obvia obv ia con la correspondiente correspondient e teor t eor´ ´ıa para transformaciones lineales. Corolario 5.2. Sea T : V V V una transformaci´ on lineal de un K -espacio -espacio V V de dimensi´ on finita n 1. Sea X = v1 , . . . , vn una base de V , V , A = mX (T ) T ) y a K . Entonces, a es un valor propio de T si T si y s´ olo si a es un valor propio de A. Mas exactamente, v = u 1 . v1 + + un . vn es un vector T propio de T T perteneciente al valor propio a si y s´ olo si u = (u1 , . . . , un ) es un vector propio de A perteneciente al valor propio a. a .
≥
→ }
{
5.3.
∈
···
Matric Matrices es Diagona Diagonaliz lizabl ables es
≥
Definici´ on on 5.4. Sea A = [aij ] una matriz de orden n 1 sobre el cuerpo K . Se dice que A es una matriz diagonal si aij = 0 para i = j . Sea T : V V V una transformaci´ on lineal de un espacio V de dimensi´ on finita n 1. 1 . Se dice que T es T es diagonalizable si existe una base X en V V tal que mX (T ) T ) es una matriz diagonal. Una matriz A A de orden n orden n 1 se dice que es diagonalizable si A si A es similar a una matriz diagonal.
≥
→
≥
Teniendo en cuenta que matrices que representen la misma transformaci´on lineal son similares, se tiene el siguiente resultado.
→
≥
Proposici´ on on 5.3. Sea T T : V V una V una transformaci´ on lineal de un espacio V de V de dimensi´ on finita n n 1 y sea X una X una base cualquiera de V de V .. Entonces, T Entonces, T es es diagonalizable si y s´ olo si m m X (T ) T ) es diagonalizable. En t´erminos erminos de vectores propios se tiene el siguiente criterio obvio de diagonalizaci´on. on.
→
Teorema 5.1. Sea T T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on finita n T es T es diagonalizable si y s´ olo si V tiene V tiene una base constituida por vectores propios. Demostraci´ on:
⇒) Existe una base X = X = {x1 , . . . , x } en V V tal que m que m n
mX (T ) T ) =
d1 0 0
0 .. . 0
0 0 dn
T ) X (T )
≥ 1.
es diagonal, digamos
Esto indica que T ( T (x1 ) = d 1 x1 ,...,T ,...,T ((xn ) = d n xn . Puesto que los vectores x1 , . . . , xn son no nulos, entonces estos vectores son propios. ) Sea X = x1 , . . . , xn una base de vectores propios. Entonces, existen escalares d1 , . . . , dn en K tales que T que T ((x1 ) = d 1 x1 , . . . , T ( xn ) = dn xn . N´ otese que entonces la matriz de T es otese T es la base X base X es es diagonal, y sus elementos diagonales son precisamente d 1 , . . . , dn .
⇐
{
}
Sea A Sea A M n (K ) una matriz diagonalizable. Entonces existe una matriz invertible C tal C tal que C que C −1 AC = = D, donde D es una matriz diagonal. La demostraci´on on del teorema anterior nos da una manera de encontrar la matriz diagonalizante C . En efecto, sea Y Y la base can´onica onica de K n , entonces sabemos que A es la matriz de una transformaci´on on T : K n K n , A = mY (T (T ). ). Como A es diagonalizable entonces por la Proposici´on on 3, T 3, T es es diagonalizable. Seg´un un la demostraci´on on del Teorema 1, existe una base X base X = x1 , . . . , xn en K en K n de vectores propios de T de T de tal forma que m que m X (T ) T ) = D, D , donde D donde D es una − 1 matriz diagonal. Entonces, D Entonces, D = m = m X (T ) T ) = C mY (T (T ))C , donde C donde C es es la matriz de cambio de la base Y
∈
→
{
}
71
5.3. MA MATRICES TRICES DIAGONA DIAGONALIZABLES LIZABLES
a la base X base X .. Es decir, la i-´ esima esima columna de C de C son son los coeficientes de la expansi´on on del i-´esimo esimo vector xi a trav´es es de la base can´onica Y onica Y ,, es decir, las coordenadas del vector columna x i . En otras palabras, las columnas de C son C son los vectores columna x1 , . . . , xn (N´ otese otese que seg´un un el Corolario 2, cada vector columna x columna x i es un vector propio de A). A ). Seg´ un un la Proposici´on on 1 y el Corolario 2 se tiene el siguiente corolario. Corolario 5.3. Sea A una matriz cuadrada de orden n orden n
≥ 1. Entonces,
a) A es diagonalizable si y s´ olo si A tiene n n vector vectores es propio propioss L I. b) Si A tiene n n valores propios diferentes, entonces A entonces A es diagonalizable. El rec´ıproco ıproc o de la l a parte b) del corolario corolar io anterior anteri or no siempre s iempre se s e cumple: cumpl e: la matriz id´entica entica E es es diagonal, sin embargo sus n sus n valores propios coinciden y son iguales a 1.
→
≥
Proposici´ on on 5.4. Sea T T : V V una V una transformaci´ on lineal de un espacio V V de dimensi´ on finita n n 1. Sean a a 1 , . . . , ar los valores propios propios diferentes diferentes para para T T ,, 1 r n, y E E (a1 ) , . . . , E( ar ) los subespacios propios correspondientes. Entonces, la suma E suma E ((a1 ) + + E (ar ) es directa. En consecuencia,
· · ·
≤ ≤
⊕ ··· ⊕ E (a )) = dim(E dim(E (a1 ) ) + · · · + dim(E dim(E (a ) ). Demostraci´ on: Sean on: Sean u u 1 ∈ E (a1 ) , . . . , u ∈ E (a ) tales que u que u 1 + · · · + u = 0, sup´ongase ongase que alguno de estos sumandos es no nulo, y entre ellos sean u 1 , . . . , u , 1 ≤ s ≤ r los no nulos. Como u Como u 1 , . . . , u son vectores propios correspondientes a valores propios diferentes, entonces son L.I., pero esto contradice la condici´ on u on u 1 + · · · + u = 0. Por lo tanto, u tanto, u = 0, para cada 1 ≤ i ≤ r. dim(E dim(E (a1 )
r
r
r
r
r
s
s
s
i
Podemos probar ahora un criterio de diagonalizaci´on on en t´ erminos erminos del polinomio poli nomio caracter´ıstico ıstico y de los espacios propios. Teorema 5.2. Sea T on lineal de un espacio V on finita n 1. T : V V V una transformaci´ V de dimensi´ Sean a1 , . . . , ar los valores propios diferentes para T , T , 1 r n, y E (a1 ) , . . . , E( ar ) los subespacios propios correspondientes. Entonces, las siguientes condiciones son equivalentes:
→
≥
≤ ≤
a) T T es diagonalizable. b) El polinomio caracter´ caracter´ıstico ıstico de T de T es de la forma pT (x) = (x
− a1)
d1
. . . (x
dr
−a ) , donde d = dim(E dim(E (a )), )), 1 ≤ i ≤ r. i
r
i
c) dim(V dim(V )) = dim(E dim(E (a1 )) + . . . + dim(E dim(E (ar )). )).
⊕ . . . ⊕ E (a ). Demostraci´ on: a) on: a) ⇒ b) Por el Teorema 1, V 1, V tiene tiene una base X base X = = {v1 , . . . , v } constituida por vectores d) V = E (a1 )
r
n
propios. Se ordena esta base de tal manera que los primeros d 1 vectores correspondan al valor propio a1 , los siguientes d2 vectores correspondan al valor a2 y as´ as´ı sucesivamente. sucesivamente. Entonces claramente la matriz de T de T en en esta base toma la forma
mX (T ) T ) =
a1 E .. .. . . 0
···
0 .. .
···
ar E
,
CAP ´ ITULO 5. 5. POLINOMIO CARACTER CARACTER ´ ISTICO
72 donde a donde a i E es es una matriz diagonal de orden d i ,
= ai E =
ai .. .
···
0
···
..
0 .. .
.
ai
,
d1
dr
− a1) · · · (x − a ) . Se ver´a ahora que d = dim(E dim(E (a )). Puesto que gr( gr ( p (x)) = n, entonces n = d1 + · · · + d . Por la forma como se ha organizado la base X , se tiene que V = X ⊆ E (a1 ) + · · · + E (a ), es decir, V = E (a1 ) + · · · + E (a ), luego, por la Proposici´on on 4, n 4, n = = dim(E dim(E (a1 )) + · · · +dim(E +dim(E (a )). Se sabe que d ≤ dim(E dim(E (a )) para cada 1 ≤ i ≤ r, sup´ ongase ongase que existe i tal que d que d < dim( < dim(E E (a )), entonces n = d = d 1 + · · · + d < dim(E dim(E (a1 )) + · · · + dim(E dim(E (a )) = n. Esto indica que d que d = dim(E dim(E (a )) para cada 1 ≤ i ≤ r . b) ⇒ c) dim(V dim(V )) = n = n = = d d 1 + · · · + d = dim(E dim(E (a1 )) + · · · + dim(E dim(E (a )) c) ⇒ d) dim(V dim(V )) = dim(E dim(E (a1 )) + · · · + dim(E dim(E (a )) = dim(E dim(E (a1 ) + · · · + E (a )), )),de donde, donde, V = E (a1 ) + · · · + (E (E (a ), adem´as, as, por la Proposici´on on 4, la suma es directa, es decir, V decir, V = E (a1 ) ⊕ · · · ⊕ E (a ) d) ⇒ a) Al reunir las bases de E (a1 ), . . . , E ( a ) se obtiene una base de V V constituida por vecto1
≤ i ≤ r. Obviamente r. Obviamente el polinomi p olinomioo caracter´ car acter´ıstico ıstico de T es p es p
i
i
T (x)
= (x
r
T
r
r
r
i
r
i
i
r
i
i
r
i
r
r
r
r
r
r
r
res propios, lo cual, de acuerdo al Teorema 1, garantiza que T T es diagonalizable.
Ejericicio 5.1. Determinar si las siguientes matrices son diagonalizables. En caso afirmativo encontrar una matriz que diagonalice.
A =
−
0 0 1
−1 0 −3
0 1 3
,
B =
1 0 0 0
1 2 0 0
2 2 1 0
3 4 2 2
−
.
Ejericicio Ejericicio 5.2. Determinar los valores y vectores propios del operador derivaci´on sobre el espacio Rn[x]. ¿Es este operador operador diagonaliza diagonalizable? ble? Ejericicio 5.3. Sean A Sean A y y B matrices cuadradas de orden n orden n que el polinomio caracter´ caracter´ıstico de la matriz
es
A 0 0 B
≥ 1 y m ≥ 1, respectivamente. Demuestre
pA (x) pB (x). Ejericicio 5.4. Sea A una matriz de orden n 1 y p(x) un polinomio cualquiera. Demuestre que si A es diagonalizable, entonces p entonces p((A) es diagonalizable.
≥
Ejericicio 5.5. Sea A Sea A = [aij ] una matriz de orden n Demuestre que 1 es un valor propio de A. A .
≥ 1 tal que
n j =1
aij = 1 para cada 1
≤ i ≤ n.
73
5.3. MA MATRICES TRICES DIAGONA DIAGONALIZABLES LIZABLES
Soluci´ on: Sea X = [x1 , . . . , xn ]T un vector propio de la matriz A correspondiente al valor propio 1. Entonces AX = X , X , se obtiene entonces que para cada 1 i n se cumple ai1 x1 + + ain xn = x i . N´ otese que si todas las entradas del vector X son otese X son iguales entonces todas las ecuaciones anteriores se satisfacen. Entonces, siendo x siendo x cualquier elemento no nulo de K de K se se cumple que para X para X = = [x , . . . , x] x]T se satisface AX satisface AX = X , X , y as´ı X es X es un vector propio de A con valor propio 1.
≤ ≤
···
´ Algebra Lineal Cap´ ıtulo ıtul o 5. Polinomio Polino mio Caract Car acter er´ ´ıstico ısti co Ejercicios. 1. Calcular el polinomio caracter´ caracter´ıstico de la siguiente matriz
x1 y1 x2 y1
x1 y2 · · · x2 y2 · · ·
···
···
x1 yn x2 yn
···
xn y1 xn y2
···
xn yn
2. Sean A y B matrices rectangulares de dimensiones m × n y n × m respectiv resp ectivamente. amente. Demostrar que los polinomios caracter´ caracter´ısticos de las matrices AB y B A satisfacen la relaci´on on n m x pAB (x) = x pBA (x). 3. Sean A y B matrices cuadradas de orden n. Demostrar Demo strar que el polinomio pol inomio caracter´ıstico ıstico
de la matriz
A B B A
es pA+B (x) pA−B (x). 4. Sea A una matriz cuadrada y sea B = A − αE , donde α es es un esc escal alar ar y E es la id´entica. entic a. Demostra Demo strarr que q ue pB (x) = p A (x + α). 5. Sean A, B matrices diagonalizables. Demostrar que A y B son similares si y s´ olo olo si tienen el mismo mi smo polinomio pol inomio caracter´ıstico. ıstico. 6. Sea P : V → V una transformaci´ on on lineal no nula tal que P 2 = P (es decir, P es una ). Demostrar que los ´unicos unicos valores propios de P son 0 y 1. proyecci´ on ). 7. Sea T : V → V una transformaci´ on on lineal invertible. invertible. Qu´e relaci´on on existe entre los −1 valores propios de T y T ? 8. Demostrar que la matriz 1 1 ··· 1 1 1 ··· 1 A = .. .. .. .. . . . .
1 1
···
1
es diagonalizable. 9. Determinar si la siguiente matriz real A se puede diagonalizar: A
=
0 0 −1 1 3 0
1
4 2 −1
En caso afirmativo, calcular una matriz real C tal tal que C −1 AC sea diagonal. 10. Sea A una matriz cuadrada de tama˜ no no n × n con valores propios distintos λ1 ,...,λn . Demostrar que tr(A) = λ 1 + ... + λn y det(A) = λ 1 ...λn . 11. Demostrar que la siguiente transformaci´on on lineal es diagonalizable. Calcular una matriz diagonalizante: T : C4 → C4 , T ( ( x , y , z , w) = (−y,x, −w, z ). ). 12. Para cada una de las siguientes matrices reales determinar si son diagonalizables. En caso afirmativo calcular una matriz diagonalizante: A
=
2 2 1 3 −1 1
1
−2 −
,B
1
=
2 −2 −1 −2 −1 −2 14 25 14
.
13. Sea A ∈ M n (R) tal que considerada como matriz compleja tiene un valor propio de la forma a + ib con vector propio de la forma x + i y, donde x, y ∈ Rn . Demostrar que en un valor propio de A con vector propio x − iy. a − ib es tambi´en 14. Sean S, T : V −→ V transforma transformacione cioness lineales, lineales, dim dim (V ) = n, probar que ST y T S
tienen los mismos valores propios. 15. Sea T : V −→ V una transformaci´ on lineal tal que cada vector no nulo de V es un on vector propio de T . Demostrar que T = α.I V un un escalar α ∈ K . V para alg´ 16. Sea V un espacio vectorial complejo y sea T : V −→ V una transformaci´ on on lineal. Sea p (x) un polinomio con coeficientes complejos y sea α ∈ C. Probar que α es un valor propio de p(T ) si y s´olo olo si α = p(λ), donde λ es un valor propio de T . Mostrar adem´as as que esta propiedad no es v´alida alida en general para R. 17. Dar un ejemplo de transformaci´on on lineal T cuya matriz con respecto a una cierta base contenga solamente ceros en la diagonal principal pero T sea invertible. 18. Dar un ejemplo de transformaci´on on lineal T cuya matriz con respecto a una cierta base contenga solamente elementos no nulos en la diagonal principal pero T no sea invertible. 19. Dar un ejemplo de operador T : R4 −→ R4 que no tenga valores propios reales. 20. Sea V un espacio vectorial real de dimensi´on on finita y sea T : V −→ V una transformaci´on on lineal que no tiene valores propios reales. Demostrar que si W es un subespacio de V tal que T ( ( W ) ⊆ W , entonces la dimensi´on on de W es par.
2
´ Algebra Lineal Cap´ ıtulo ıtul o 5. Polinomio Polino mio Caract Car acter er´ ´ıstico ısti co Ejercicios. 1. Calcular el polinomio caracter´ caracter´ıstico de la siguiente matriz
x1 y1 x2 y1
x1 y2 · · · x2 y2 · · ·
···
··· ···
xn y1 xn y2
···
x1 yn x2 yn xn yn
Soluci´ on. on. Sea A = [xi y j ] la matriz dada, notemos entonces que
A
=
0 1 .. .. . .
x1 · · ·
.. . 0
...
· · · xn
··· .. .
1 .. .
0 .. .
y1 · · ·
.. . . . . 0 · · · yn
1 ··· 1
Escribamos entonces A = DLD , donde D es la matriz diagonal de la izquierda, L es la matriz de unos y D es la matriz diagonal de la derecha. Se tiene que
pA (x) = p (DL)D (x) = p D (DL) (x) = p (D D)L (x) = p B (x)
donde
B = D DL
=
··· .. .
x1 y1
xn yn · · ·
xn yn
x1 y1
.. .
.. .
.
Pero B es una matriz donde sus columnas coinciden, y entonces el c´alculo alculo de su polinomio caracter´ıstico ıstico es muy sencillo: sencill o:
( ) = det
pB x
z − x1 y1 · · ·
.. .
−xn yn
.. . ···
−x1y1 .. . z − xn yn
restamos restamos la segunda segunda columna de la primera, primera, y luego sumamos sumamos la primera primera fila a la segunda, segunda, el determinante no ha cambiado y obtenemos
0 ( ) = det .. .
−x1 y1 ··· −x1 y1 z − (x1 y1 + x2 y2 ) · · · − (x1 y1 + x2 y2 ) .. .. ... . . z − xn yn 0 −xnyn
z
pB x
Aplicando inducci´on on y calculando este determinante encontramos que pB (x) = z z n
1
−
− (x1 y1 + x2 y2 + · · · + xn yn ) z n
2
−
1
es decir, pA (x) = p B (x) = z n − (x1 y1 + x2 y2 + · · · + xn yn ) z n
1
−
.
2. Sean A y B matrices rectangulares de dimensiones m × n y n × m respectiv resp ectivamente. amente. Demostrar que los polinomios caracter´ caracter´ısticos de las matrices AB y B A satisfacen la relaci´on on xn pAB (x) = x m pBA (x). Soluci´ on. on. Se definen definen la matrices matrices cuadradas C y D de orden m + n de la siguiente forma:
C =
0 xE m
E n −A
,
D =
A E m xE n B
Entonces, CD
=
DC =
0 xE m
0
E n −A
A E m xE n B
A E m xE n B
xE m
E n −A
= =
xE n
B
0
xE m − AB
xE m 0 xB xEn − BA
.
Pero det(C D) = det(DC ), luego xn pAB (x) = x m pBA (x). 3. Sean A y B matrices cuadradas de orden n. Demostrar Demo strar que el polinomio pol inomio caracter´ıstico ıstico de la matriz
A B B A
es pA+B (x) pA B (x). Soluci´ on. on. Consideremos la matriz −
F =
xE − A −B −B xE − A
donde E es es las matriz id´entica entica de orden n. Por medio de transvecciones podemos sumar las primeras primeras n columnas de F a las siguientes n columnas en forma consecutiva:
F =
xE − A xE − A − B −B xE − A − B
notemos notemos que det det (F ) = det det (F ). De igual manera, podemos multiplicar por −1 las ultimas u ´ ltimas n filas de F y sumarlas a las primeras n filas en forma consecutiva :
F =
0 xE − A + B −B xE − A − B
,
nuevamente nuevamente det (F ) = det det (F ) = det det (xE − A + B )det(xE − A − B ) = p A
B
−
2
(x) pA+B (x).
4. Sea A una matriz cuadrada y sea B = A − αE , donde α es es un esc escal alar ar y E es la id´entica. entic a. Demostra Demo strarr que q ue pB (x) = p A (x + α). Soluci´ on. on. Tenemos que
pB (x) = det det (xE − B ) = det det (xE − A + αE ) = det((x + α) E − A) = p A(x + α). 5. Sean A, B matrices diagonalizables. Demostrar que A y B son similares si y s´ olo olo si
tienen el mismo mi smo polinomio pol inomio caracter´ıstico. ıstico. Soluci´ on. on. ⇒) Sean A, B similares, similares, entonce entoncess existe existe una matriz matriz inverti invertible ble C tal que que 1 C AC = B . Entonces, −
pB (x) = det(xE − B ) = det xE − C 1 AC = det C
−
det C 1 det(xE − A)det C = = det(xE − A) = p A (x). −
1
−
(xE − A) C =
ongase ahora que A, B tienen el mismo polinomio caracter´ caracter´ıstico y que son diago⇐) Sup´ongase 1 nalizables. Existen matrices invertibles C, F tales tales que C AC = D (a1 , . . . , an), F 1 BF = D (b1 , . . . , bn ). Entonces pA (x) = (x − a1 ) · · · (x − an ) = (x − b1 ) · · · (x − bn ) = p B (x). Esto implica que {a1 , . . . , an } = {b1 , . . . , bn }, aunque el orden de los elementos no sea el mismo. Sin embargo, se puede lograr que el orden sea el mismo mediante matrices de permutaci´ on on P ij ij . En efecto, para intercambiar la entrada diagonal a i con la a j se debe realizar la siguiente siguiente operaci´on: on: P ij ij D (a1 , . . . , ai , . . . , a j , . . . , an ) P ij ij = D (a1 , . . . , a j , . . . , ai , . . . , an ). 1 Puesto que P ij = P ij ij , entonces se puede asegurar que existe una matriz invertible P (producto de las permutaciones que sea necesarias para ordenar los elementos diagonales) tal que P 1 D (a1 , . . . , an ) P = D (b1 , . . . , bn ), es decir, las dos matrices diagonales son similares, y en consecuencia, A y B son similares. 6. Sea P : V → V una transformaci´ on on lineal no nula tal que P 2 = P (es decir, P es una ). Demostrar que los ´unicos unicos valores propios de P son 0 y 1. proyecci´ on ). Soluci´ on. on. Sea a un valor propio de P con vector propio v, entonces P (v ) = a.v, luego 2 P (v ) = P ( a.v ) = a.P ( v ) = a 2 .v = P (v) = a.v . Resulta entonces, ( a2 − a) .v = 0, y como ´ a = 1. v es no nulo, entonces ( a2 − a) = 0, es decir, a = 0 o 7. Sea T : V → V una transformaci´ on on lineal invertible. invertible. Qu´e relaci´on on existe entre los 1 valores propios de T y T ? Soluci´ on. on. Sea λ un valor propio de T con vector propio v , entonces T ( ( v ) = λ.v , aplicamos 1 1 ahora T , luego v = λ.T (v ); como v es no nulo entonces λ = 0, con lo cual T 1 (v ) = λ 1 .v , es decir, λ 1 es valor propio de T 1 . Se tiene pues que λ es valor propio de T si y s´olo olo si λ 1 es valor propio de T 1 . 8. Demostrar que la matriz 1 1 ··· 1 1 1 ··· 1 A = .. .. .. .. . . . . −
−
−
−
−
−
−
−
−
−
−
−
−
1 1 ··· 1 3
es diagonalizable. Soluci´ on. on. Vamos a demostrar que los unicos u ´ nicos valores propios de A son n y 0, adem´as as veremos que que dim dim (E (n)) = 1 y que dim dim (E (0)) = n − 1. El resultado es entonces consecuencia del Teoream 2 de la Lecci´on on 3 del Cap Cap´´ıtulo 5. T T ..., 1) = n. (1, ..., ..., 1) . Adem´ N´otese otese que en efecto A (1, ..., as, a s, sea (x1 ,...,xn )T ∈ E (n), entonces A (x1 ,...,xn)T = n. (x1,...,xn)T , es decir, x1 + · · · + xn = nx 1 ,...,x1 + · · · + xn = nx n, o sea que, nx1 = · · · = nxn, lo cual implica que x1 = · · · = xn, es decir, (x1 ,...,xn )T es T m´ultiplo ultiplo de (1, ..., ..., 1) . Veamos ahora los vectores propios de 0: n´otese otese que 0 es valor propio con vector propio T T (0, 0...., −1, 1) . Sea (x1 ,...,xn ) ∈ E (0), entonces A (x1 ,...,xn)T = 0, es decir, se obtiene la unica u ´ nica ecuaci´on on x1 + · · · + x n = 0, la cual evidentemente se satisface por todas las T on on de este espacio es n-plas de la forma (x1 ,...,xn 1 , −x1 − x2 − · · · − xn 1 ) . La dimensi´ claramente n − 1. 9. Determinar si la siguiente matriz real A se puede diagonalizar: −
−
A
=
0 0 4 2 −1 1 3 0 −1
En caso afirmativo, calcular una matriz real C tal tal que C 1 AC sea diagonal. 10. Sea A una matriz cuadrada de tama˜ no no n × n con valores propios distintos λ1 ,...,λn. Demostrar que tr(A) = λ 1 + ... + λn y det(A) = λ 1 ...λn . Soluci´ on. on. Puesto que A tiene n valores propios distintos, entonces A es diagonalizable, es decir, existe C invertible invertible tal que −
1
−
C AC
=
λ1
...
0
0 =
D. D .
λn
Entonces, pA (x) = pD (x) = (x − λ1) · · · (x − λn), luego el t´ermino ermino independiente de n n pD (x) es (−1) det(A) = (−1) λ1 · · · λn , es decir, det(A) = λ1 ...λn . De igual manera, el coeficiente del monomio xn 1 es tr (A) = λ 1 + ... + λn. 11. Demostrar que la siguiente transformaci´on on lineal es diagonalizable. Calcular una ma4 4 triz diagonalizante: T : C → C , T ( ( x , y , z , w) = (−y,x, −w, z ). ). 12. Para cada una de las siguientes matrices reales determinar si son diagonalizables. En caso afirmativo calcular una matriz diagonalizante: −
A
=
2 2 −2 1 3 −1 −1 1 1
,B
2 = −2
−2 −1 −1 −2 14 25 14
.
13. Sea A ∈ M n (R) tal que considerada como matriz compleja tiene un valor propio de la forma a + ib con vector propio de la forma x + i y, donde x, y ∈ Rn . Demostrar que en un valor propio de A con vector propio x − iy. a − ib es tambi´en
4
Soluci´ on. on. Tenemos
A (x + iy) = (a + ib) . (x + iy) ,
tomando conjugados resulta A (x + iy) = (a + ib) . (x + iy) ⇒ A (x − iy) = (a − ib) . (x − iy) . 14. Sean S, T : V −→ V transforma transformacione cioness lineales, lineales, dim dim (V ) = n, probar que ST y T S
tienen los mismos valores propios. Soluci´ on. on. Sabemos que p ST (x) = p T S (x), luego los valores propios de S T y T S coinciden. coinciden. 15. Sea T : V −→ V una transformaci´ on lineal tal que cada vector no nulo de V es un on vector propio de T . Demostrar que T = α.I V un un escalar α ∈ K . V para alg´ 16. Sea V un espacio vectorial complejo y sea T : V −→ V una transformaci´ on on lineal. Sea p (x) un polinomio con coeficientes complejos y sea α ∈ C. Probar que α es un valor propio de p(T ) si y s´olo olo si α = p(λ), donde λ es un valor propio de T . Mostrar adem´as as que esta propiedad no es v´alida alida en general para R. 17. Dar un ejemplo de transformaci´on on lineal T cuya matriz con respecto a una cierta base contenga solamente ceros en la diagonal principal pero T sea invertible. Soluci´ on. on. Basta considerar T : R2 → R2 definida por T ( ( e1 ) = e 2, T ( ( e2 ) = e 1 . 18. Dar un ejemplo de transformaci´on on lineal T cuya matriz con respecto a una cierta base contenga solamente elementos no nulos en la diagonal principal pero T no sea invertible. Soluci´ on. on. Basta considerar T : R2 → R2 definida por T ( ( e1 ) = e 1 + e2 , T ( ( e2 ) = e 1 + e2 . 4 4 19. Dar un ejemplo de operador T : R −→ R que no tenga valores propios reales. Soluci´ on. on. El operador cuya matriz en la base can´onica onica es
0 1 0
−1 0 0 0 0
0 0 0 0 0 −1 1 0
.
20. Sea V un espacio vectorial real de dimensi´on on finita y sea T : V −→ V una transformaci´on on lineal que no tiene valores propios reales. Demostrar que si W es un subespacio de V tal que T ( ( W ) ⊆ W , entonces la dimensi´on on de W es par.
5
Cap´ıtulo 6
Formas Can´ onicas onicas Introducci´ on on Las matrices matrices constituyen constituyen un lenguaje computacional computacional para estudiar estudiar transform transformacion aciones es lineales. lineales. Si el aspecto de una matriz que representa una cierta transformaci´on lineal es sencillo, entonces es f´acil acil conocer propiedades de la matriz , y por lo tanto, de la transformaci´on. Las formas sencillas cl´asicas asicas a las cuales puede ser reducida una matriz, bajo ciertas condiciones, son estudiadas en el presente cap´ cap´ıtulo. El problema problema de similaridad similaridad de matrices matrices es resuelto resuelto en t´ erminos erminos de las formas formas can´onicas onicas introducidas.
6.1.
Polinomio M´ınimo
El polinomio polinomio caracter caracter´´ıstico de una matriz, matriz, o de una transform transformaci´ aci´on on lineal, es un instrumento para calcular calcular sus valores valores propios; en esta lecci´ on on se estudia el polinomio m´ınimo de matrices y transformaciones lineales, el cual resulta muy ´util util para establecer criterios sobre la posibilidad de reducir matrices a formas can´onicas onicas simples.
≥ ∈ ∈
Definici´ on on 6.1. Sea V un V un espacio vectorial de dimensi´ on finita n n 1 sobre un cuerpo K y K y sea L L K (V ) V ) el ´ algebra de las transformaciones lineales del espacio V . V . Sea T LK (V ) V ), se sabe que la dimensi´ on 2 de LK (V ) V ) es n (v´ease ease la Lecci´ Lecci´ on 2 del Cap´ Cap´ıtulo 3). Entonces Entonces existen existen escalar escalares es no todos todos iguales iguales a 2 n cero a0 , . . . , an2 tales que a0 I V + a n2 T = 0, es decir, T es ra´ ra´ız del polinomio polinomio no V + a 1 T + 2 n nulo a0 + a + a1 x + + an2 x . As´ı pues, se puede asegurar que existe al menos un polinomio no nulo p( p(x) tal que p(T ) T ) = 0. Sea S S la colecci´ on de todos los polinomios que son anulados por T , T , en S se puede escoger un polinomio no nulo q (x) que tenga grado m´ınimo, adem´ as se puede suponer que el coeficiente de q ( q (x) correspondie correspondiente nte al t´ ermino ermino de mayor grado es 1, es decir, que q que q ((x) es m´ onico. Con estas condiciones para q (x) se puede demostrar que cualquier otro polinomio p( p (x) de S es es m´ ultiplo de q (x). Esto implica que si en S existiera existiera otro polinomio t(x) m´ onico del mismo grado de q de q ((x), es decir de grado m´ınimo, entonces t(x) = q ( q (x). Se ha entonces encontrado un polinomio especial asociado a la transformaci´ on T , T , dicho polinomio se denotar´ a por q por q T a el polinomio m´ınimo ınimo de T . T . T (x) y se llamar´
·· · · ·
···
≥
La discusi´ on on anterior la podemos realizar tambi´ tambi´en en para cualquier matriz A de tama˜no no n 1, de tal forma forma que podemos p odemos definir el polinomio polinomio m´ınimo de A, el cual denotaremos denotaremos por p or q A (x). Como es de esperarse esperarse se tiene el siguiente siguiente resultado. resultado. Proposici´ on on 6.1. Sea T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on finita de V .. Si A de T en en la base X , n 1 y sea X una X una base cualquiera de V A es la matriz de T X , entonces q q T T (x) = q A (x).
≥
→
Puesto que dos matrices similares representan la misma transformaci´on lineal, entonces se tiene el siguiente corolario. 81
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
82
Corolario 6.1. Matrices Matri ces similares tienen el mismo mis mo polinomio polinomi o m´ınimo. ınimo. El siguiente teorema establece una importante relaci´on on entre el polinomio caracter´ caracter´ıstico y el polinomio m´ınimo ni mo.. Teorema eorema 6.1 (Hamilton - Cayley). Cayley). Sea T : V V V una transformaci´ on lineal de un espacio V de de dimensi´on on n 1 , pT (x) su polinomio caracter´ caracter´ıstico ıstico y q T ( x ) su polinomio m´ınimo. Entonces, Enton ces, T q T Tamb i´en, en , si A es una matriz cuadrada de orden n orden n 1, entonces q A(x) pA(x). T (x) pT (x) . Tambi´
→
≥
|
≥
|
Demosraci´ on: Veamos on: Veamos primero la prueba de la versi´on on matricial del teorema. teorema. Sea B Sea B la matriz xE matriz xE A con entradas en el anillo conmutativo K [x], seg´ un un vimos en la Lecci´on on 2 del Cap´ Cap´ıtulo 5, podemos considerar determinantes sobre este anillo y definir la matriz C = Cof ( Cof (B )T (v´ease ease la Lecci´ Lecc i´on on 4 del Cap´ıtulo ıtul o 4); n´otese otese que cada entrada c ij de la matriz C matriz C es es un polinomio en x en x de grado n 1 el cual (0) (1) (n−1) n−1 podemos entonces escribir en la forma cij = cij + c ij x + + cij x . La ma matr triz iz C es C es por lo
−
≤ −
···
(k )
tanto representable como C = C = C (0) + C (1) x + + C (n−1) xn−1 donde C donde C (k) = [c [ cij ] es de orden n orden n con entradas en K en K .. De acuerdo con la Regla de Crammer.
···
CB = C = C ((xE
− A) = det(B det(B )E = = det(xE det(xE − A)E = = p
×n
A (x)E.
Sea p Sea pA(x) = p0 + p1 x + + pn−1 xn−1 + xn , realizando las operaciones indicadas en la igualdad anterior y comparando coeficientes concluimos que
···
−C (0)A
= p0 E C A + C = p1 E (2) (1) C A + C = p2 E .. .. .. . . . C (n−1) A + C (n−2) = pn−1 E C (n−1) = E
− −
(1)
(0)
−
Podemos ahora multiplicar estas igualdades a la derecha por E , A, A, . . . , A n respectivamente y luego sumar de tal forma que todos to dos los t´ erminos erminos del miembro de la izquierda i zquierda se cancelan por pares y el t´ ermino ermino de la derecha es precisamente pA (A), es decir, pA(A) = 0. Por la condici´on on que define al polinomio m´ınimo ıni mo se tiene tie ne que q A (x) pA (x).
|
→
≥
Sea ahora T : V V V una transformaci´on on lineal de un espacio V V de dimensi´on on n 1 , X una base de V y A = m X (T ). T ). Acabamos de ver que q A (x) pA (x), pero q pero q A (x) = q T T (x) y p A (x) = p T (x), de donde q donde q T ( x ) p ( x ). T T
|
|
La Lass ra´ıces ıc es en K del K del polinomio poli nomio m´ınimo y del polinomio poli nomio caracter´ıstico ıstico coinciden. coinci den. Proposici´ on on 6.2. Sea T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on n 1 (o tambi´ tam bi´en, en, sea A una matriz matriz cuadra cuadrada da de orden orden n 1). Sea a K. Entonces, Entonces, p pT (a) = 0 si y s´ olo si q T (tamb mbi´ i´en, en , pA (a) = 0 si y s´ olo si q A (a) = 0). En particular, si K K es un cuerpo T (a) = 0 (ta algebraicamente cerrado (v´ease ease la Lecci´ Lecci´ on 2 del cap´ cap´ıtulo anterior), anterio r), entonces las ra´ ra´ıces del polinomio m´ınimo ıni mo y el caracter´ıstico ıst ico coinciden coinc iden..
→
≥
≥
∈
Demostraci´ on: Sea on: Sea a K una un a ra´ r a´ız ız de pT (x), entonces a entonces a es es un valor propio de T . T . Mediante el algoritmo de la divisi´on on se tiene que q que q T a)s(x) + r, donde r donde r es una constante de K . K . Reemplazando x Reemplazando x T (x) = (x por T por T se se tiene que q T ( T ) T ) = ( T aI ) s ( T ) T ) + rI = rI = 0; sea v sea v un vector propio del valor propio a, a , entonces T ya que (T ( T aI ) y s( s (T ) T )conmutan resulta conmutan resulta que 0 = s = s((T ) T ) (T ( T (v ) a.v) a.v) + r.v = r.v = s s((T )( T )(a.v a.v a.v) a.v) + r.v = r.v = r.v r.v,, como v como v es es no nulo, entonces r entonces r = = 0, y por tanto q tanto q T que a es es ra´ız ız de q de q T T (x) = (x a)s(x). Esto implica que a T (x).
∈
− −
− −
−
−
−
−
Rec´ıproc ıpr ocament amente, e, sea a K un K unaa ra´ız ız de q T T (x), entonces podemos aplicar el Teorema de HamiltonCayley y escribir p escribir p T (x) = q = q T donde p T (a) = q T T (x)m(x), de donde p T (a)m(a) = 0.
∈
´ 6.2. FORMA FORMA CAN CAN ONICA TRIANGULAR TRIANGULAR
83
Ejericicio Ejericicio 6.1. Calcular el polinomio m´ınimo de las siguientes si guientes matrices:
A =
C = =
6.2. 6.2.
−
2 0 0 0 0
−
−1 −1 3 1 −1 1
1 1 1
0 2 0 0 0
−
3 0 3 0 0
−
4 6 0 3 0
−
B =
5 7 8 0 3
−
−−
1 1 2 1
D =
1 2 1 2 2
− −
1 1 2 1
0 0 2 1
0 0 1 0
−
−1 0 −1 0 −2 0 −1 0 −1 −1 0 0 −1 0 −2 0 −1 0 −1 −1
Forma orma Can´ Can´ onica onica Triangular
En el cap´ cap´ıtulo anterior consideramos la primera forma can´onica onica que puede tener una matriz (transformaci´ on): on): la forma diagonal. Por los criterios establecidos all´ı se puede observar que no toda matriz es diagonalizable, a´ un en cuerpos algebraicamente cerrados. En esta lecci´on estudiamos una forma un can´ onica menos exigente que la diagonal: la forma can´onica onica onica triangular. Definici´ on on 6.2. Una transformaci´ on T T de un espacio V V de dimensi´ on finita n 1 es triangulable si existe una base X en V V tal que la matriz de T T en dicha base es triangular superior. Una matriz cuadrada A = [aij ] de orden n 1 es triangulable si y s´ olo si A es similar a una matriz triangular superior.
≥
≥
≥ 1. 1 . Sea
Proposici´ on on 6.3. Sea T T una transformaci´ on lineal de un espacio V V de dimensi´ on finita n X una X una base de V y A = m = m X (T ) T ). Entonces, T Entonces, T es es triangulable si y s´ olo si A es triangulable.
El polinomio m´ınimo es un buen instrumento para establecer criterios de triangulaci´on on y diagonaliza diagonaliza-ci´on on de matrices y transformaciones. Los Teoremas 2 y 3 que probaremos adelante requieren de algunos preliminares que enseguida entramos a considerar. Definici´ on on 6.3. Sea T on lineal de un espacio V on finita n 1. Un T una transformaci´ V de dimensi´ subespacio W subespacio W de V se V se dice que es T es T -invariante, -invariante, o invariante respecto de T de T ,, o simplemente, invariante, si T ( T (W ) W ) W . W . Con cada transformaci´ on T T hay siempre asociados algunos subespacios invariantes triviales: 0 triviales: 0,, V , N (T ) T ), Im(T Im( T )) ; adem´ as si p( p (x) es un polinomio y p y p((T ) T ) es la transformaci´ on polinomial correspondiente, entonces N ( N ( p( p(T )) T )),, Im( p( p(T )) T )) son son subespacios invariantes de V.
≥
⊆
Si T es T es una transformaci´on on lineal de un espacio V V de dimensi´on on finita n invariante respecto de T , T , entonces T entonces T induce induce una transformaci´on on lineal
≥ 1 y W W es un subespacio
→ W →
T W W : W w
→ T
W W (w)
= T ( T (w),
es decir, T W restricci´ ci´ on o n de T a W . W . Los polinomios poli nomios m´ınimo y caracter´ıstico ıstico de T W W es la restric W guardan estrecha relaci´on on con los correspondie correspondiente ntess polinomios polinomios de T . T .
≥
Proposici´ on on 6.4. Si T T es una transformaci´ on lineal de un espacio V de dimensi´ dimensi´on finita on finita n n 1 y W y W es un subespacio subespacio invariante no nulo, entonces el polinomio polinomio caracter caracter´ ´ıstico ıstico de T W polinomio W divide al polinomio caracte carac ter´ r´ısti ıs tico co de T de T .. La misma relaci´ on se tiene para los polinomios m´ınimos.
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
84
Demostraci´ on: Sea Z Sea Z = z1 ,...,zr una base de W de W y X = z1 ,...,zr ; v1 ,...,vs una base de V de V (de tal forma que r que r + + s = n = n). ). Sea T Sea T ((zi ) = a 1i .z1 + + ari .zr + 0.v 0 .v1 + + 0.v 0.vs , 1 i r (debido a que W que W es T es T -invariante). -invariante). Esto muestra que la matriz de T en T en la base X base X tiene tiene la forma
{
}
{
···
mX (T ) T ) =
} ≤ ≤
···
mZ (T (T W B W ) 0 C
donde B y C C contiene contienen n los coeficiente coeficientess al aplicar aplicar T T a los vecto vectores res v1 ,...,vs . Entonces Entonces,, pT (x) = det(xE det(xE mX (T )) T )) = det(xE det(xE mZ (T ( T W ))det( xE C ) = pT W (x) pC (x). Esto completa la demostraW ))det(xE W ci´on on de la primera afirmaci´on. on.
−
−
−
El polinomio poli nomio m´ınimo de T es el polinomio m´ınimo de mX (T ) T ) y de igual manera q T TW es el polinoW mio mi o m´ınim ın imoo de m Z (T (T W ). Entonces, sea A sea = m ( ) y = m = (T ( ), se tiene pues que A = m X T ) T D m Z T W W W q A (A) = 0 =
q A (D (D) 0 q A (C (C )
∗
luego q luego q A (D (D) = 0, esto implica que q que q A (x) es m´ ultiplo ultiplo de q de q D (x), es decir, q decir, q T ultiplo ultiplo de q de q T T (x) es m´ TW (x). W
Definici´ on on 6.4. Sea T una T una transformaci´ on lineal de un espacio V V de dimensi´ on finita n n subespacio invariante. Sea v Sea v un vector cualquiera de V , V , entonces el conjunto T I W (v) = p( p(x)
{
≥ 1 y W y W un
∈ K [x] | p( p(T )( T )(vv) ∈ W }
se denomina el T -ideal T -ideal generado por v por v en W en W ,, o simplemente, el ideal generado por v por v,, si por el contexto es claro que nos referimos a T y W. En W. En tal caso escribiremos simplemente I (v ). Este conjunto tiene las siguientes propiedades: a) I (v ) es no vac´ vac´ıo y no nulo. b) I (v ) es un subespacio de K [x] (v´ease eas e la Lecci´ on 2 de Cap´ Cap´ıtulo ıtulo 1). c) Para Para cada t cada t(x)
∈ K [x] y cada p(x) ∈ I (v) se tiene que t( t (x) p( p(x) ∈ I ( I (v ).
d) I (0) (0) = K = K [[x] . e) Si W W = 0, entonces I I 0T (v ( v ) se conoce como el T el T -anulador -anulador del vector v vector v,, o simplemente, el anulador del vector v . N´ otese que I I 0T (v ( v) = K [ K [x] si y s´ olo si v v = 0. T f) f ) Existe un polinomio polinomio m´ onico q onico q v (x) de grado m´ınimo ıni mo en I en I W (v ) tal que cualquier otro polinomio de T I W (v ) es m´ ultiplo de ´ el. el. En particular, q T ultiplo de q q v (x). q v (x) se denomina el olinomio T (x) es m´ m´ınimo ınim o del vector v vector v relativo a W a W y a T . T . Cuando W Cuando W = 0, q v (x) se conoce conoce tambi´en en con el e l nombre de el anulador del vector v .
El ultimo u ´ ltimo preliminar requerido para demostrar los Teoremas 2 y 3 es la siguiente proposici´on. Proposici´ on on 6.5. Sea T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on finita n 1. Sup´ ongase que el polinomio m´ınimo de T de T es es de la forma
→
≥
q T T (x) = (x
r1
rk
− a1) · · · (x ( x − a ) , = V donde a ∈ K K son valores diferentes, 1 ≤ r ≤ n, n , 1 ≤ i ≤ k, k , 1 ≤ k ≤ n. Si W V es un subespacio invariante, entonces existe un vector u ∈ V V tal que u ∈ / W y (T − − aI )(u )(u) ∈ W W , para alg´ un valor i
k
i
V V
propio a propio a de T .
´ 6.2. FORMA FORMA CAN CAN ONICA TRIANGULAR TRIANGULAR
85
Demostraci´ on: Sea v un vector cualquiera de de V W . W . Sea q v (x) el polinomio m´ınimo del vector v relativo al subespacio W subespacio W . Entonces, q Entonces, q v (x) divide d ivide al polinomio poli nomio m´ınimo q T T (x) , de donde , q v (x) es de la forma q v (x) = (x a1 )s1 (x ( x ak )sk ,
\ \
−
··· −
donde 0 si ri , 1 i k. No k. No es posible que que cada s i sea nulo, ya que de lo contrario q contrario q v (x) = 1 , y entonces q v (T )( T )(vv ) = I V (v ( v ) = v W W , en contra de lo supuesto. Supongamos pues que s1 1, V entonces q v (x) = (x a1 )h(x) donde h donde h((x) K [x] es de grado inferior al grado de q v (x). Esto implica que u = h( ( )(v ) Tambi´ Tamb i´ en, e n , (T a1 I V )(u) = (T a1 I V )( h T )( T v / W. T )(vv)) = q v (T )( T )(vv) W. Puesto que V )(u V )(h h(T )( a1 K es es una ra´ ra´ız del polinomio poli nomio m´ınimo , entonces a 1 es un valor propio propio de T de T (v´ease ease la Prop P roposi osici´ ci´on on 2). 2).
≤ ≤
∈
∈
≤ ≤ −
∈ − −
≥
∈
− −
∈
Teorema 6.2. Sea T T una transformaci´ on lineal de un espacio V V de dimensi´ on finita n triangulable si y s´ olo si el polinomio m´ınimo ınimo de T es T es de la forma r1
≥ 1.
T es
rk
− a1) · · · (x ( x − a ) , donde a ∈ K K son valores diferentes, 1 ≤ r ≤ n, 1 ≤ i ≤ k , 1 ≤ k ≤ n. La afirmaci´ on del teorema tambi´en en se cumple si A si A es una matriz cuadrada de orden n orden n ≥ 1. Demostraci´ on: ⇒) Existe una base X base X en V en V tal tal que la matriz de T en T en dicha base es de la forma a11 · · · · · · a1 0 a22 · · · a2 q T T (x) = (x
i
k
i
mX (T ) T ) =
n
.. . 0
n
.. .
.. . . 0 ann
..
···
−
.
·· · · · −
N´ otese otese que el polinomio caracter´ caracter´ıstico de T es pT (x) = (x a11 ) (x ( x ann) y los valores propios de T de T son a son a 11 , . . . , ann K . K . Sean a1 , . . . , ak K K los valores propios diferentes con multiplicidades d1 , . . . , dk , de tal manera que
∈
∈
pT (x) = (x
≤ ≤
d1
dk
− a1) · · · (x ( x − a ) k
,
≤ ≤ n , 1 ≤ i ≤ k. Puesto que el polinomio m´ınimo de T T divide a p − · · · (x ( x − a ) , 1 ≤ r ≤ d ≤ n, 1 ≤ i ≤ k, 1 k, 1 ≤ k ≤ n.
donde 1 k n , 1 di entonces q T a1 )r1 T (x) = (x
T (x),
k
rk
i
i
⇐) Sea v1 un vector propio de T correspondiente T correspondiente al valor propio a1 , y sea W 1 =< v1 > , W 1 es invariante. Si W 1 = V , V , entonces dim(V dim(V )) = 1 y T T es triangulable. Si W 1 = V V , entonces , por la Proposici´on on 5, existe un vector v 2 ∈ ( T − − aI )(v )(v2 ) ∈ W 1 , para alg´un un valor propio a propio a de T . / W 1 tal que (T T . Se tiene entonces que T que T ((v2 ) = b . v1 + a . v2 y {v1 , v2 } es L I. Sea Sea W 2 = < v 1 , v2 >. > . Si W Si W 2 = V = V ,, entonces dim(V dim(V 2 ) = 2 y la matriz de T en T en la base {v1 , v2 } es V V
a1 b 0 a
y T es T es triangulable. Si W Si W 2 = V entonces V entonces podemos repetir este razonamiento hasta conformar una base de V de V en en la cual la matriz de T T es triangular. Notemos que la escogencia del valor propio a es arbitraria, sin embargo cada valor ai se puede usar m´ aximo r aximo r i veces debido a que estos valores van por la diagonal principal de la matriz.
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
86
Corolario 6.2. En un cuerpo algebraicamente cerrado cada transformaci´ on lineal de un espacio de dimensi´ on finita es triangulable. La afirmaci´ on on tamb ta mbi´ i´en se cumple si A es una matriz cuadrada de orden n 1.
≥
Teorema 6.3. Sea T T una transformaci´ on lineal de un espacio V V de dimensi´ on finita n diagonalizable si y s´ olo si el polinomio m´ınimo ınimo de T de T es es de la forma q T T (x) = (x
≥ 1.
T es
− a1) · · · (x − a ), donde a ∈ K K son valores diferentes, 1 ≤ i ≤ k , 1 ≤ k ≤ n. La afirmaci´ on del teorema tambi´ t ambi´en en se ≥ cumple si A es una matriz cuadrada de orden n orden n 1. Demostraci´ on: ⇒ ) Si T T es diagonalizable V V tiene una base conformada por vectores propios: X = {v1 , . . . , v }. Sean a Sean a 1 , . . . , a los diferentes valores propios de T , T , 1 ≤ k ≤ n. Sea v Sea v = b 1 . v1 + · · · + k
i
n
k
bn . vn un vector cualquiera de V , V , entonces (T
− − a1. I ) · · · (T − − a . I )(v )(v ) = (T − − a1. I ) · · · (T − − a . I )(b )(b1 .v1 + · · · + b V V
k
V V
V V
k
V V
n . vn )
= 0,
ya que las transformaciones polinomiales conmutan y cada vi esta asociado a algunos de los valores propios ai , 1 i k. Esto indica que el polinomio (x (x a1 ) (x ak ) se anula en T , T , de donde, q T ( x ) divide a dicho polinomio. Pero como a es ra´ ız ı z de q ( x ), entonces cada factor ( (x x ai ) divide a T i T T q T ( x a1 ) (x ak ) divide a q a q T que q T (x ak ). T (x), por lo tanto (x T (x). Se tiene entonces que q T (x) = (x a1 )
≤ ≤
−
··· −
−
− ··· −
− ··· −
⇐=) N´otese otese que a1 , . . . , a son los diferentes valores propios de T T (v´ease ease la Proposici´ Propo sici´on o n 2). Sea W el W el espacio generado por todos los vectores propios de T ; si W si W = V V , entonces T entonces T es diagonalizable. Sup´ ongase ongase que W que W = V . V . Demostraremos que esta suposici´on on nos lleva a una contradicci´on. on. Es claro que W W es invariante. Seg´un un la Proposici´on o n 5 , existe u ∈ V \ \ W W y un valor propio a de T T tales que v = (T − − a . I )(u )(u) ∈ W . W . a es alguna de las ra´ ra´ıces de q (x) , digamos, a = a 1 , entonces − a1 . I )(u − a1 . I )[(T − a2 . I ) · · · (T − − a . I )(u v = (T − )(u). Por otro lado, q (T )( T )(u u) = 0 = (T (T − )[(T − )(u)], es − a2 . I ) · · · (T − − a . I )(u decir, w decir, w = (T − )(u) es un vector propio de T con T con valor propio a1 , con lo cual w ∈ W W . Sea h(x) = (x − a2 ) · · · (x − a ) , entonces w = h(T )( T )(u u). La divisi´on on con res´ res´ıduo de h(x) entre (x (x − a1 ) nos da h(x) = m( m (x)(x )(x − a1 ) + h(a1 ), con m con m((x) ∈ K [x]. Entonces, w = h = h((T )( T )(u u) = m( m (T )( T )(T T − − a1.I )(u )(u) + h(a1 ).u = .u = m m((T )( T )(vv) + h(a1 ).u, 0, entonces u es decir, h decir, h((a1 ).u = .u = w w − m(T )( T )(vv) ∈ W ya W ya que v que v ∈ W y W es W es invariante. Si h Si h((a1 ) = entonces u ∈ W k
V V
T T
V V
T T
V V
k
V V
V V
k
V V
V V
k
V V
y esto contradice contradice la escogencia escogencia de u. u . Por lo tanto, a tanto, a 1 es una de las ra´ ra´ıces de h de h((x), pero contradice que los valores a valores a 1 , . . . , ak son diferentes. Ejericicio Ejericicio 6.2. Determinar si la matriz A =
0 2 2
− −
1 0 2 2 3 2
es triangulable sobre los reales. En caso afirmativo encontrar una matriz real triangular similar a la matriz A matriz A.. Soluci´ on: El on: El polinomio poli nomio caracter´ıstico ıstico de A de A es es x 3 . Puesto que A que A 2 = 0, entonces el polinomi p olinomioo m´ınimo ınimo de 3 A es tambi ta mbi´´en en x . Esto garantiza que A es triangulable.
´ EN BLOQUES 6.3. DIAGONALIZAC DIAGONALIZACI I ON
87
Para calcular una matriz triangular similar a la matriz A podemos aplicar la segunda parte de la demostraci´ on on del Teorema 2. El unico u ´ nico valor propio de A de A es 0, para calcular un vector propio podemos resolver resolver el sistema sistema AX AX = = 0, y obtener como vector b´asico asico del espacio propio E (0) (0) a X 1 = (1, (1, 0, 1). Definimos W = X 1 . Debemos escoger X 2 / W W tal que AX 2 W, para esto debemos encontrar las T soluciones de AX de AX 2 = (a, 0, a) , a R. El vector X vector X 2 = (1, (1, 1, 0) satisface las dos condiciones anteriores. Ahora debemos escoger X 3 / X 1 , X 2 tal que AX 3 X 1 , X 2 . El vector X 3 = (0, (0, 0, 1) cumple estas condiciones. La matriz C matriz C que permite triangularizar es
−
∈
∈
∈
∈
∈
C = = y efectivamente efectivamente
−
−
C −1 AC = =
1 1 0 0 1 0 1 0 1
0 1 0 0 0 0
−2 2 0
→
Ejericicio Ejericicio 6.3. Sea K K un cuerpo algebraicamente cerrado y sea T : V V V una transformaci´on on de un espacio V V de dimensi´on on finita n 1. Demostrar que en V V existen subespacios sub espacios invariantes invariantes V 0 = 0 , V 1 , . . . , Vn −1 , V n = V = V de de dimensiones 0 , 1 , . . . , n 1, n tales que
≥
−
V 0
⊂ V 1 ⊂ · · · ⊂ V −1 ⊂ V = V = V.. n
n
Soluci´ on: Como K K es algebraicamente cerrado podemos aplicar la Proposici´on o n 5. Sea v1 un vector propio de T . T . Entonces claramente < v1 > es T invariante de dimensi´on on 1. Si < v1 >= V , V , ya hemos terminado: 0 V 1 =< = < v1 >= > = V . V . Si < Si < v1 > = V aplicamos V aplicamos la proposici´ on on y existe un vector v 2 / < v1 > y tal que (T (T aI ) (v2 ) < v1 >, donde a es un cierto valor propio de T . T . Entonces, T (v ( v2 ) = b 1 .v1 + a.v2 , de donde V 2 =< v1 , v2 > es T -invariante T -invariante de dimensi´on o n 2. Si V 2 = V V hemos terminado. De lo contrario aplicamos nuevamente la proposici´on on mencionada y escogemos un vector v3 / V 2 y tal que (T cI ) (v3 ) V 2 , para un cierto valor propio c. Entonces, T (v ( v3 ) = b1 .v1 + b + b 2 .v2 + c.v + c.v 3 , de donde V 3 =< v1 , v2 , v3 > es T -invariante T -invariante de dimensi´on o n 3. Si V 3 = V V hemos terminado. De lo contrario continuamos de la misma forma. N´otese otese que el proceso termina ya que V es V es de dimensi´on on finita.
⊂ − −
− −
6.3. 6.3.
∈
−
∈
∈
∈
Diago Diagona nali liza zaci ci´ on o ´n en Bloques
Otra forma relativamente simple que puede tener una matriz o transformaci´on es la forma diagonal en bloques. En esta lecci´on on hacemos una introducci´on on a esta forma can´onica onica la cual complementaremos m´ as as adelante. Definici´ on on 6.5. Sea A = [aij ] una matriz de orden n 1. 1 . Se dice que A es una matriz diagonal en bloques si n si n = 1 o si para n 2 existen r r 2 enteros positivos k1 , . . . , kr tales que A A es de la forma
≥
≥
≥
A =
A1 .. .
···
0
···
..
.
0 .. . Ar
≤ ≤
≤
≤ −
(6.1)
≤ ≤
donde Ai es una matriz de orden ki . N´ otese que 2 r n , 1 ki n 1 , 1 i r. Una transformaci´ on lineal T T : V V de V de un espacio V espacio V de de dimensi´ on finita n n 1 es diagonalizable en bloques si existe una base en V V tal que la matriz de T en T en dicha base es diagonal en bloques. Finalmente, una matriz cuadrada A de orden n 1 es diagonalizable en bloques si A es similar a una matriz diagonal en bloques.
→
≥
≥
→
Proposici´ on on 6.6. Sea T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on finita n 1. Sea X X una base cualquiera de V . V . Entonces, T es T es diagonalizable en bloques si y s´ olo si mX (T ) T ) es diagonalizable en bloques.
≥
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
88
Si T Si T es es una transformaci´on on lineal de un espacio de dimensi´on on 1, entonces T es T es trivialmente diagonalizable en bloques. Consideremos el caso n 2 .
≥
→
Proposici´ on on 6.7. Sea T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on finita n 2. Entonces, T Entonces, T es es diagonalizable en bloques si y s´ olo si V es V es suma directa de 2 de 2 r n subespacios invariantes no triviales.
≥
Demostraci´ on:
≤ ≤
⇒) Sea X Sea X = = {v1 , . . . , v } una base de V en V en la cual la matriz de T es T es de la forma A1 · · · 0 n
mX (T ) T ) =
.. . 0
..
.. .
.
,
··· A , 1 ≤ k ≤ n − 1 , 1 ≤ i ≤ r , 2 ≤ r ≤ n. N´ n. N´otese otese que k que k1 + · · · + k = n. n. r
donde A donde Ai es una matriz de orden k orden k i i Podemos Podemos escribir escribir la base X base X en en la siguiente forma
r
X = v11 , . . . , v1k1 , v21 , . . . , v2k2 , . . . , vr1 , . . . , vrkr .
{
Para cada 1 i adem´ as V as V = W 1
}
≤ ≤ r se tiene que W = < v 1 , . . . , v > es un subespacio invariante no trivial, y ⊕ · · · ⊕ W . ⇐) Si V = W 1 ⊕ · · · ⊕ W es suma directa de 2 ≤ r ≤ n subespacios invariantes no triviales, eni
i
iki
r
r
tonces tonces podemos elegir en cada subespacio subespacio W i una base X base X i de tal forma que X = X = de V de V .. Es obvio que la matriz de T en T en dicha base es diagonal en bloques.
r i=1
X i es una base
Corolario Corolario 6.3. Sea T T : V V una V una transformaci´ on lineal de un espacio V V de dimensi´ on finita n n 2. Sup´ ongase que T es T es diagonalizable en bloques y sea V = W 1 W r una descomposici´ on de V en suma de 2 r n subespacios invariantes no triviales. Sea T i la restricci´ on de T a W i , 1 i r. Entonces
→
⊕···⊕
≤ ≤
· · · det(T det(T ). b) p (x) = p (x) · · · p (x). c) q (x) = m.c.m{q (x), ·· · · · , q
a) det(T det(T )) = det(T det(T 1 ) T
r
T 1
T T
≥ ≤ ≤
T r
T Tr (x)
T T1
}
Estas relaciones relaciones se tienen tambi´ en en para para matrices diagonales en bloques bloques de la forma (1) definida arriba. Demostraci´ on: Teniendo Teniendo en cuenta cuenta que el determinan determinante, te, el polinomio polinomio caracter caracter´´ıstico y el polinomio polinomio m´ınimo de una transformaci´ transfor maci´on on lineal coinciden con los de su matriz en cualquier base, entonces basta probar las tres afirmaciones del corolario en el caso matricial. Adem´as, seg´ un u n el Ejercicio 3 de la Lecci´ on on 3 del Cap´ Cap´ıtulo 4 , el determina determinante nte de una matriz diagonal en bloques es el producto producto de los determinantes de sus bloques, luego las partes a) y b) ya est´an an probadas. Resta demostrar demostrar la parte c). Sea A1 0 .. .. .. A = . . .
···
0
··· A y q (x) el polinomio m´ınimo de A. Hagamos m.c.m{q (x), . . . , q (x)}= m(x). Existen polinomios m (x), 1 ≤ i ≤ r, tales que m(x) = q (x)m (x). Se debe entonces demostrar que q (x) = m(x). Teniendo en cuenta que tanto q (x) como m(x) son m´onicos, onicos, entonces basta demostrar que q (x) | m(x) y m( m (x) | q (x). Sea m Sea m((x) = m 0 + m1 x + · · · + m x , entonces r
A
A1
i
Ai
i
A
A
A
Ar
A
l
l
´ IRREDUCIBLE 6.4. TEOREMA TEOREMA DE DESCOMPOS DESCOMPOSICI ICI ON
m(A) = m0 I + + m1 A + + ml Al m0 I + + m1 A1 + + ml Al1 .. = .
=
=
···
···
0 m(A1 ) .. .
···
0
···
..
0 .. .
.
m(Ar )
q A1 (A1 )m1 (A1 ) .. .
···
0
···
..
0 .. .
··· ..
.
···
89
m0 I + + m1 Ar +
0 .. .
.
q Ar (Ar )mr (Ar )
|
Esto garantiza que q que q A(x) m(x).
l r
···+m A l
= 0.
Para demostrar la segunda parte basta mostrar que q A(x) es m´ultiplo ultiplo de cada q Ai (x). Sea q A (x) = q 0 + q 1 x + + q t xt , entonces q entonces q A(A) = 0 luego q luego q 0 I + + q 1 A + + q t At = 0 y
···
q 0 I + +
···
q 1 A1 .. .
0 .. .
··· ..
0
.
q 1 Ar
···
+
··· +
q t At1 .. . 0
0 .. .
··· ..
.
···
q t Atr
=
q A (A1 ) .. .
···
0
···
..
0 .. .
.
q A(Ar )
luego q luego q A(Ai ) = 0 para cada i cada i,, y esto indica que q A (x) es m´ultiplo ultiplo de cada q cada q Ai (x).
6.4. 6.4.
= 0,
Teorema eorema de Desc Descompo omposi sici ci´ on o ´n Irreducible
Como vimos en la Lecci´on on 2, la forma del polinomio p olinomio m´ınimo ınimo de una matriz o transformaci´on on es clave para decidir si es posible reducirla a una determinada forma can´onica. En esta lecci´on on estudiamos un teorema sobre la descomposici´on on del polinomio m´ınimo, el cual ser´ a muy util u ´ til en lo que resta de este cap´ cap´ıtulo. Podemos iniciar i niciar con la siguiente proposici´ proposi ci´ on. on. Proposici´ on on 6.8. Sea V un V un espacio vectorial descompuesto en suma directas finita de k de k cios V = W 1 W k .
≥ 2 subespa-
⊕···⊕
Entonces existen transformaciones lineales T 1 , . . . , Tk del espacio V V que satisfacen las siguientes condiciones: a) T i2 = T i , 1
≤ i ≤ k. j. b) T T = 0 para i para i = c) I = T 1 + · · · + T . d) I m(T ) = W , 1 ≤ i ≤ k. i
j
V V
k
i
i
Rec´ Rec´ıprocamen ıprocam ente te,, si T si T 1 , . . . , Tk son transformaciones lineales del espacio V que V que satisfacen las condiciones a) - c) , entonces V = V = Im(T Im(T 1 ) Im(T Im(T k ).
⊕···⊕
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
90
Demostraci´ on: La transf transform ormaci aci´´on on T i es simp simple leme men nte la func funci´ i´ on on proyecci´ on defin definid idaa por T i (w (w1 + + wi + wk ) = w i . Estas funciones satisfacen claramente las propiedades a)-d) ya que la suma de los subespacios W i es directa.
···
···
∈
Para Para la segund segundaa parte, parte, sea v V , V , enton entonces ces usando usando la propie propiedad dad c) se tiene tiene que v = T 1 (v ) + + T k (v (v ) Im(T Im(T 1 ) + + Im Im (T k ). Esto demuestra que V V = Im(T Im(T 1 ) + + Im Im (T k ). Sea ahora 0 = T 1 (v1 ) + + T k (v (vk ), aplicando aplicando T i a cada lado y teniendo en cuenta a) y b) resulta 0 = T i (v (vi ), es decir, la suma es directa.
···
∈ ···
···
···
N´ otese otese que la proposici´on on anterior se cumple trivialmente para k = 1.
→
Teorema 6.4 (de descomposici´on on irreducible). irreducible). Sea T : V V V una transformaci´ on lineal de un K espacio V V de dimensi´ on finita n 1. Sup´ ongase que el polinomio polinomio m´ınimo de T tiene la siguie siguiente nte descomposici´ on en producto de polinomios irreducibles:
≥
r1 rk q T T (x) = q 1 (x) . . . qk (x) ,
donde q q 1 (x) , . . . , qk (x) K [x] son polinomios m´ onicos onicos irreducibles irreducibles diferentes, diferentes, 1 1 ri n , 1 i k , 1 k n . Sea
∈ ≤ ≤ ≤ ≤
≤ ≤
= N ((q i (T ) W i = N T )ri ) ,
1
≤ grado( q q (x)) ≤ n , i
≤ i ≤ k.
Entonces, a) Cada W W i es invariante y no nulo. b) V = W 1
⊕ · · · ⊕ W . k
c) Sea T i la restricci´ on de T T al subespacio W i . Entonces Enton ces el e l polinomio m´ınimo de T de T i es q q i (x)ri . Demostraci´ on: N´ otese que el teorema se cumple trivialmente para k = 1. otese Sea pues k pues k > 1. Considerem Consideremos os los polinomios polinomios pi (x) =
q T T (x) , q i (x)ri
1
≤ i ≤ k.
Es claro que el m´aximo aximo com´ un un divisor divisor de estos estos polinomi polinomios os es 1,por lo tanto, tanto, existe existen n polinom polinomios ios s1 (x) , . . . , sk (x) K [x] tales que
∈
1 = s 1 (x) p1 (x) +
· · · + s (x) p (x). k
k
Sea Li = s i (T ) T ) pi (T ) T ) , 1 i k. k . Se puede probar facilmente que estas transformaciones cumplen las condiciones a) - c) de la Proposici´on on 8. Entonces V Entonces V = = Im(L Im(L1 ) Im(L Im(Lk ).
≤ ≤
Queremos ahora demostrar que Im(L Im( Li ) = N ( N (q i (T ) T )ri de v de v V , V , y se tiene que
∈
⊕···⊕ ): sea u ∈ Im(L Im(L ) , entonces u = L (v) , doni
i
q i (T ) T )ri (u) = q = q i (T ) T )ri si (T ) T ) pi (T )( T )(vv) = s i (T ) T ) pi (T ) T )q i (T ) T )ri (v ) = s = s i (T ) T )q T T )(vv) = 0, T (T )( lo cual indica que u N ( N (q i (T ) T )ri ). Por otro lado, sea u I V + Lk , y en consecuencia , V = L 1 +
···
∈
u = L = L 1 (u) +
∈
N ( N (q i (T ) T )ri ); como mencionamos arriba,
· · · + L (u) = s1(T ) T ) p1 (T )( T )(u u) + · · · + s (T ) T ) p (T )( T )(u u). k
k
k
Pero n´otese otese que para j para j = i se tiene que s j (x) pj (x) es m´ultiplo ultiplo de q de q i (x)ri , con lo cual s j (T ) T ) pj (T )( T )(u u) = 0 ,para j para j = i. Se tiene entonces que u = L = L i (u), es decir, u decir, u Im(L Im(Li ).
∈
´ IRREDUCIBLE 6.4. TEOREMA TEOREMA DE DESCOMPOS DESCOMPOSICI ICI ON
91
Haciendo W Haciendo W i = N = N ((q i (T ) T )ri ), se tiene probada la parte b) del teorema. Seg´ un un vimos en la Lecci´on on 2 , N , N ((q i (T ) T )ri ) es invariante. Puesto que k > 1, grado 1, grado((q T )) > grado( grado( pi (x)) T (x)) > , por lo tanto, p tanto, p i (T ) T ) = 0. Existe Existe entonces entonces v v V V tal que w que w = p = pi (T )( T )(vv ) = 0, y entonces
∈
q i (T ) T )ri (w) = q i (T ) T )ri pi (T )( T )(vv) = q T T )(vv ) = 0, T (T )( ri
∈ N ( N (q (T ) T )
es decir, 0 = w
i
). Hemos completado la prueba de la parte a).
Resta probar la parte c). Sea T i la restricci´on on de T T al subespacio W i = N ( N (q i (T ) T )ri ). Entonces, para cada u W i se tiene que q i (T i )ri (u) = q i (T ) T )ri (u) = 0, es decir, q i (T i )ri = 0, de donde q i (x)ri es m´ ultiplo ultipl o del polinomio poli nomio m´ınimo de T de T i , q T V = W 1 W k se tiene Ti (x). De otra parte, para cada v que q T T ) pi (T )( T )(vv) = q T T ) q j (T ) T )rj (w1 + + wk ) = 0 , Ti (T ) Ti (T )
∈
∈
···
j =i
∈
⊕···⊕
≤ ≤
donde w donde w i W i , 1 i k. Esto k. Esto quiere decir que q que q T T ) pi (T ) T ) = 0, por lo tanto, q tanto, q T ultiplo ultiplo Ti (T ) Ti (x) pi (x) es m´ ri ri de q de q T ( x ) = p = p ( x ) q ( x ) , y en consecuencia, q consecuencia, q ( x ) es m´ ultiplo u ltiplo de q de q ( x ) . T i i T Ti i Esto completa la demostraci´on on del teorema.
Aclaraci´ on. on. Para la prueba de las partes a) y b) del teorema anterior no es necesario suponer que el espacio V V sea de dimensi´on on finita. Adem´as, as, podemos reemplazar el polinomio m´ınimo q T T (x) por cualquier polinomio que se anule en T , T , es decir, por cualquier m´ultiplo ultiplo de ´el. el. Sin embargo, en esta generalizaci´ on no podemos garantizar en la parte a) que cada sumando W i sea no nulo. on Como consecuencia de este teorema se tiene el siguiente corolario sobre diagonalizaci´on en bloques. El caso n = 1 no es considerado en el corolario, ya que toda transformaci´on lineal de un espacio de dimensi´ on 1 es diagonalizable en bloques. on Corolario 6.4. Sea T : V V V una transformaci´ on lineal de un K -espacio -espacio V V de dimensi´ on finita ongase que el polinomio m´ınimo ınimo de T tiene on : n 2. Sup´ T tiene la siguiente descomposici´
≥
→
r1 rk q T T (x) = q 1 (x) . . . qk (x) ,
donde q q 1 (x) , . . . , qk (x) K [x] son un polinomios m´ onicos irreducibles irreducibles diferentes, diferentes, 1 grado( q q i (x)) n 1 , 1 ri n 1 , 1 i k , 2 k n . Entonces T T es diagonalizable en bloques.
−
∈ ≤ ≤ − ≤ ≤
≤
≤ ≤
≤
Demostraci´ on: Para aplicar la Proposici´on on 7 y el Teorema de descomposici´on on irreducible solo necesitamos probar que para cada 1 i k, N ( N (q i (T ) T )ri ) = V. Pero esta condici´on on se tiene, ya que si ri ri ri N ( N (q i (T ) T ) ) = V V para alg´ un i un i,, entonces q entonces q i (T ) T ) = 0 y q i (x) ser´ıa ıa el polin po linomio omio m´ınimo ıni mo de T de T ,, en contradicci´ on on con la condici´on k on k 2.
≤ ≤
≥
Teniendo en cuenta que nuestra definici´on on de diagonalizaci´on on en bloques requiere de al menos dos bloques, entonces a´un un para cuerpos algebraicamente cerrados no toda matriz o transformaci´on lineal es diagonalizable en bloques. De otra parte, n´otese otese que el rec´ıproco ıproco del corolario anterior no se tiene: la matriz id´ i d´ entica entica es diagonalizable en bloques pero su polinomio m´ınimo es (x 1). 1).
−
Ejericicio Ejericicio 6.4. Demuestre que el polinomio m´ınimo de la matriz A = es (x
11 4 4 3
−
− 7)2 , pero dicha matriz no es diagonalizable en bloques.
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
92 Ejericicio Ejericicio 6.5. Demuestre que la matriz
B =
−
−1
1 0 2 3
−
0 3 1 1 2 2 0
1 0 1 4
−
es diagonalizable en bloques. Calcule una matriz diagonal en bloques que sea similar a la matriz B . Soluci´ on: Seg´ un un la Proposici´on on 7 y el Teorema de descomposici´on on irreducible debemos factorizar el polinomio polinomio m´ınimo y calcular calcular las bases de los n´ ucleos de las transformaciones polinomiales de sus ucleos factores. Al unir estas bases obtenemos una base en la cual la matriz dada se convirte en diagonal. Veamo eamos, s, usando usando el SWP podemo po demoss calcular calcular y factoriza factorizarr q B (x):
−
1 0 2 3
−1 −
0 3 1 1 2 2 0
36
1 0 1 4
−
, minimum polynomial 36
− 60 60X X + + 37X 37 X 2 − 10 10X X 3 + X 4
− 60 60X X + + 37X 37 X 2 − 10 10X X 3 + X 4 = (X ( X − 2)2 (X − 3)2 = q
B (x)
Debemos entonces calcular ahora las matrices
(B
− 2E )2 =
− −
−2 −1
2 2 1 3
2 1 3
1 1 0 1
−
1 1 2
− −
ahora calculamos las bases de sus n´ucleos: ucleos:
− − −
2 2 1 3 1 2 3 3
−2 −1 2 1 3
1 1 0 1
1 1 2
−
− − 0 −1 −1 1 −1 −1 −1 2 2 1 −2 −2
Definimos la matriz “de cambio”
C = =
finalmente,
.
1 0 1 0
1 1 1 0
0 1 1 1
0 1 0 1
− −
−
1 0 1 1
−
, nullspace basis:
−−
1 4 3 3
−
1 0 1 1 0 0 1 1
−
1 0 1
0 3 1 1 2 2 0
1 0 1 4
−
− −
−1
− 3E )2 =
, nullspace basis:
−1
1 0 0
1 0 2 3
, (B
0 0 1 1
−1
−
−
C −1 =
,
1 0 1 1
−1 1 0 0
1 0 1 0
0 0 1 1
1 1 1 0
−1 1 0 1
− −
0 2 1 1
−1
2 2 1 4
− − −
−
−
− −
−
2 2 2
− −
1 1 0 0
,
1 1 0 1
,
0 1 1 1
=
0 1 0 1
,
1 1 0 0
1 3 0 0
0 0 3 1
0 0 0 3
.
´ C ´ 6.5. EL TEOREMA TEOREMA DE DESCOMPOSIC DESCOMPOSICI I ON ICLICA
6.5. 6.5.
93
El Teo Teorem rema a de Des Desco compos mposic ici´ i´ on C´ıcli ıc lica ca
Otro de los teoremas fuertes del ´algebra algebra lineal de las formas can´onicas onicas es el teorema de descomposici´on on c´ıclica que estudiaremos en la presente lecci´on. on. Para su formulaci´on on necesitamos algunos preliminares relacionados con el subespacio c´ıclico generado por p or un vector. Definici´ on on 6.6. Sea V un V un espacio vectorial de dimensi´ on finita n n lineal y v y v un vector cualquiera de V . V . El conjunto
{
|
[v ]T = p( p(T )( T )(vv ) p( p(x)
≥ 1, T : V → V una V una transformaci´ on
∈ K [x]}
es claramente el menor subespacio invariante de V de V que que contiene al vector v vector v . Este subespacio se conoce con el nombre de el T -su T -subespacio bespacio c´ıclico ıcli co generado gen erado por v . Cuando no haya lugar a confusi´ on, diremos simplemente que [v ] es el subespacio c´ıclico ıclico generado g enerado por el vector v vector v . N´ otese que [v ]T = T k (v ) k
| ≥ 0 Mas exactamente, [v ] = T (v ) | 0 ≤ k ≤ m − 1, donde m es el grado del polinomio polinomio m´ınimo ınimo de la transformaci´ on T . T . El vector v v se dice que es un u n vector v ector c´ıclico ıclico de T de T si [v [ v ] = V . V . De manera similar se define el subespacio [α] , donde A es una matriz cuadrada de orden n ≥ 1 sobre el cuerpo K y α es k
T
T
A
un vector cualquiera de K de K n . En este contexto contexto , α , α es un vector c´ıclico ıclico de la matriz A si [α]A = K = K n .
Proposici´ on on 6.9. Sea T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on finita n 1 y sea X = X = v1 , . . . , vn una base de V . V . Entonces, el vector v vector v = c = c 1 .v1 + + cn .vn es un vector c´ıcli ıc lico co de T si T si y s´ olo si α = (c1 , . . . , cn ) es un vector c´ıclico ıclico de la matriz de T en T en la base X .
≥
{
}
→
···
Demostraci´ on: Sea A = mX (T ) T ) la matriz de la transformaci´on on T T en la base X ; entonces para cada k k k 0 se tiene que A es la matriz de T de T en la base X base X .. Puesto que V que V es un K un K -espacio -espacio de dimensi´on n on n,, entonces entonces se tiene el isomorfismo isomorfismo ϕ : V K n vi ei
≥
→ →
donde e1 , . . . , en denota la base can´onica onica de K n (v´ease ease el Teorema 3 del Cap´ Cap´ıtulo 2). Sea v = n c1 .v1 + + cn .vn V y α = (c1 , . . . , cn ) K . N´otese otese que ϕ(v ) = α. α . Se tiene entonces el siguiente diagrama conmutativo para cada k 0 :
{ ···
} ∈
≥
∈
V T k V
K n
ϕ
↓ −→ ↓ A −→ϕ K
k
n
Debemos demostrar que [v [ v ]T = V si V si y s´olo olo si [α [α]A = K n . Teniendo en cuenta que [v [ v ]T = T k (v ) 0 k m 1 y que [α [ α]A = Ak .α 0 k m 1 , donde m donde m es el grado del polinomio m´ınimo de T de T ( y tambi ta mbi´´en en de A), A ), entonces entonces basta probar que
≤ −
| ≤ ≤ −
k
k
n
| ≤
T (v) | 0 ≤ k ≤ m − 1 = V ⇔ A .α |0 ≤ k ≤ m − 1 = K . Supongamos que T (v ) | 0 ≤ k ≤ m − 1 = V y V y veamos que cada vector can´onico e onico e de K de K pertenece a A .α |0 ≤ k ≤ m − 1. Para el vector v de la base X de V V se tiene que v = b1 .T 0 (v) + · · · + − 1 b −1 .T (v), donde b1 , . . . , b −1 ∈ K. K . Entonces aplicando ϕ y la conmutatividad del diagrama de arriba se tiene que e = b1 .ϕ( .ϕ(T 0 (v)) + · · · + b −1 .ϕ( .ϕ(T −1 (v )) = b1 . A0 ϕ(v) + · · · + b −1 . A −1 ϕ(v ) = b1 . A0 α + · · · + b −1 . A −1 α k
i
k
m
i
m
n
i
m
i
m
m
m
m
m
m
Para la prueba de afirmaci´on on rec r ec´´ıproca ıpro ca partimos p artimos de la l a ultima u ´ ltima igualdad igualdad y aplicamos aplicamos ϕ ϕ −1 .
A continuaci´on on presentamos algunas propiedades evidentes de [v [ v]:
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
94 a) [0] [0] = 0 b) dim([ dim([vv]) = 1
⇔ v es un vector propio de T . T .
c) Sea v Sea v = 0, y q y q v (x) su polinomio polinomio anulador. anulador. Entonces Entonces dim([v dim([v]) =grado (q (q v (x)). Mas exactamente, k−1 si grado( q grado( q v (x)) = k, k , entonces v, T ( T (v ), . . . , T (v ) es una base de [v [ v ].
{
}
d) Sea T Sea T [v] la restricci´on on de T de T a [v [ v]. Entonces, E ntonces, el polinomi p olinomioo m´ınimo ınimo de T de T [v] coincide con el anulador q v (x) del vector v. v . e) Si v Si v es un vector c´ıclico ıclic o de T de T ,, entonces q entonces q v (x) = q T T (x) = p T (x). Ya estamos en capacidad de enunciar el segundo teorema central del presente cap´ cap´ıtulo.
→
Teorema 6.5 (de 6.5 (de descomposici´on on c´ıcli ıc lica ca)). Sea T T : V V una V una transformaci´ on lineal de un espacio V de dimensi´ dimensi´ on finita n 1. Entonces existen r 1 vectores no nulos v1 , . . . , vr en V V con polinomios anuladores q v1 (x) , . . . , qv r (x) tales que
≥
⊕ · · · ⊕ [v ] (x) | q (x) , 1 ≤ i ≤ r − 1.
a) V = [v1 ] b) q vi+1
≥
r
vi
c) q v1 (x) = q T T (x). Adem´ as, el entero r entero r y los polinomios anuladores q anuladores q v1 (x) , . . . , qv r (x) est´ an un´ıvocamente ıvocamen te deter d etermin minados ados por a) y b), es decir, si existen otros vectores no nulos w nulos w 1 , . . . , ws con anuladores q anuladores q w1 (x) , . . . , qw s (x) tales que se cumplen a) y b), entonces r = s = s y q y q vi (x) = q wi (x) para cada 1 i r.
≤ ≤
Demostraci´ on: La prueba de este importante teorema es extensa, raz´on on por la cual la hemos dividido en varias partes. Primero probaremos lo relativo a la existencia de la descomposici´on on deseada. Parte I . I . Comencemos probando que podemos encontrar r tales que cumplen las siguientes condiciones:
≥ 1 vectores no nulos u1, . . . , u
r
en V
· · · + [u [u ] ii) Sea W = [u1 ] + · · · + [u [ u ] , 2 ≤ k ≤ r, entonces el polinomio m´ınimo q (x) de u relativo a W −1 y a T es T es de grado m´aximo, aximo, es decir, si v si v ∈ V y q (x) es el polinomi p olinomioo m´ınimo ınimo de v de v relativo a W −1 y a T , T , entonces gr( gr (q (x)) ≥ gr g r (q (x)) (v´ease ease el concepto de polinomio poli nomio m´ınimo). Para i) V = [u1 ] +
r
k
k
uk
k
k
v
k
uk
v
k = 1, u 1, u 1 es un vector no nulo tal que el grado de su polinomio anulador es m´aximo.
Paso 1. La 1. La idea es definir W 1 = [u1 ] y W 2 , . . . , Wr recursivamente seg´un un ii) hasta completar todo el espacio V espacio V .. Para ello se requiere que cada W k tenga dimensi´on on mayor que el anterior.
∈ −
Comencemos la discusi´on on para un subespacio propio invariante W W cualquiera de V. Sea u V W , W , entonces u = 0 y consideremos el polinomio m´ınimo del vector u vector u relativo a W a W y a T , T , q u (x). Sabemos T que cada polinomio del T -ideal T -ideal generado por u en W , W , I W (u), es m´ultiplo ultiplo de q u (x). Aseguramos que q u (x) no es una constante, es decir, que gr g r(q u (x)) > )) > 0: 0: en caso contrario, sea q sea q u (x) = a K , entonces T a = 0 pues pT (x) I W (u) y entonces p T (x) es m´ ultiplo ultiplo de a. Se a. Se tendr´ıa ıa entonces que a.u W y, W y, en − 1 consecuencia, a consecuencia, a a.u = a.u = u u W , W , lo cual contradice la escogencia de u. u . De otra parte, g r(q u (x)) n ya que p que p T (x) es m´ultiplo ultiplo de q de q u (x).
∈
∈
∈
∈ − ⊆
∈
≤
Entre todos los vectores u V W escogamos W escogamos uno tal que gr( gr (q u (x)) sea m´aximo. aximo. Sea [u [u] el subespacio c´ıclico generado por el vector u. Aseguramos que W W es un subespacio propio de W + [u] : si W + [u [ u] = W W , entonces [u [ u] W W con lo cual u W , W , y esto es imposible. Se tiene entonces que dim(W dim(W +[ +[u u]) > ]) > dim( dim(W W )) . N´otese otese adicionalmente que W +[ W +[u u] es invariante invariante ya que es suma de invariantes. invariantes.
∈
´ C ´ 6.5. EL TEOREMA TEOREMA DE DESCOMPOSIC DESCOMPOSICI I ON ICLICA
95
Hemos demostrado que para cada subespacio propio e invariante W de V V existe un vector no nulo u lo u V W tal W tal que W que W + + [u] es invariante, dim(W dim(W + + [u]) > ]) > dim( dim(W W )) y el grado gra do del polinomio poli nomio m´ınimo q u (x) de u de u relativo a W a W y a T es T es m´aximo. aximo.
∈ − −
Paso 2. Tomando en el paso anterior W W = 0 encontramos un vector u1 = 0 tal que [u [ u1 ] es invariante y g y grr(q u1 (x)) es m´aximo aximo (en este caso particular particular q q u1 (x) es el polinomio anulador del vector u vector u 1 ). Sea W Sea W 1 = [u1 ]. Si W Si W 1 = V , V , la prueba de la Parte I ha terminado (en este caso u 1 es un vector vecto r c´ıclico ıcl ico y por lo tanto q u1 (x) = q T T (x). La prueba de la existencia en este caso ya ha terminado). Supongamos entonces que W 1 es propio. De acuerdo a lo probado en el Paso 1, existe un vector no nulo u nulo u 2 V W 1 tal que g que grr(q u2 (x)) es m´aximo, W aximo, W 1 + [u2 ] es invariante y dim(W dim( W 1 + [u2 ]) > ]) > dim( dim(W W 1 ) (q u2 (x) es el polinomi p olinomioo m´ınimo ınimo de u de u 2 relativo a W a W 1 y a T ). T ). Sea W Sea W 2 = W = W 1 + [u2 ]. Si W Si W 2 = V = V la prueba de la Parte I ha terminado. En otro caso podemos aplicar recursivamente el Paso 1 y puesto que V es de dimensi´on on finita podemos asegurar que existen vectores no nulos u1 , . . . , ur en V V tales que se cumple lo afirmado en la Parte I.
∈ − −
Parte II. Sea u Sea u 1 , . . . , ur una colecci´on on de r de r 2 vectores no nulos de V V que cumplen las condiciones i) y ii) de la Parte I, y sea v un vector cualquiera de V . V . Para 2 k r fijo, sea f ( f (x) el polinomio m´ınim ın imoo de v relativo v relativo a W a W k−1 = [u1 ] + + [uk−1 ]. Entonces existen polinomios g polinomios g 1 (x), . . . , gk−1 (x) tales que f (T )( T )(vv) = g 1 (T )( T )(u u1 ) + + gk−1 (T )( T )(u uk−1 ). (6.2)
≥
≤ ≤
···
···
En esta parte de la prueba queremos demostrar que entonces f ( f (x) divide a cada uno de los polinomios gi (x). Para cada i cada i consideremos la divisi´on on con residuo. gi (x) = f ( f (x)ci (x) + ri (x), ri (x) = 0 ´o, g o, grr(ri (x)) < )) < gr( gr (f ( f (x)). )). Se trata de demostrar que todos los residuos ri (x) son nulos. Paso 1. Comence 1. Comencemos mos con lo siguiente siguiente:: sea y sea y el vector definido por
− [c1(T )( T )(u u1 ) + · · · + c −1 (T )( T )(u u −1 )]. )]. Veamos que f que f ((T )( T )(yy ) = r1 (T )( T )(u u1 ) + · · · + r −1 (T )( T )(u u −1 ) : en efecto, f ( f (T )( T )(yy) = f ( f (T )( T )(vv ) − f ( f (T )[ T )[cc1 (T )( T )(u u1 ) + · · · + c −1 (T )( T )(u u −1 )] = f ( f (T )( T )(vv ) − [g1 (T )( T )(u u1 ) + · · · + g −1 (T )( T )(u u −1 )] + [r [r1 (T )( T )(u u1 ) + · · · + r −1 (T )( T )(u u −1 )] = f ( f (T )( T )(vv ) − f ( f (T )( T )(vv) + [r [r1 (T )( T )(u u1 ) + · · · + r −1 (T )( T )(u u −1 )] = [r1 (T )( T )(u u1 ) + · · · + r −1 (T )( T )(u u −1 )]. )]. y = v = v
k
k
k
k
k
k
k
k
k
k
k
k
k
k
T T Paso 2. I W (v) = I W (y ) (luego, f (luego, f ((x) es el polinomio poli nomio m´ınimo de y de y relativo a W a W k−1 ): sea m sea m((x) k 1 k 1 T I W k 1 (v), entonces m entonces m((T )( T )(vv) W k−1 y −
−
∈
−
m(T )( T )(vv ) = m = m((T )( T )(yy +[c +[c1 (T )( T )(u u1 )+
∈
· · ·+c −1(T )( T )(u u −1 )]) = m = m((T )( T )(yy )+m )+m(T )[ T )[cc1 (T )( T )(u u1 )+· · ·+c −1 (T )( T )(u u −1 )] de donde m donde m((T )( T )(yy ) ∈ W −1 , es decir, m decir, m((x) ∈ I (y). La prueba de la otra inclusi´on on es completamente k
k
k
k
T W k−1
k
an´aloga. aloga.
Paso Paso 3. Sup´ongase ongase que no todos los res´ res´ıduos ri (x) son nulos, y sea rj (x) = 0 con mayo mayorr ´ındice j. j . Entonces, f (T )( T )(yy ) = r1 (T ( T (u1 ) + + r j (T )( T )(u uj ); sea p(x) el polinomio m´ınimo de y relativo a W j −1 , puesto que W j −1 W k−1 , entonces de p(T )( T )(yy ) W j −1 se sigue que p(T )( T )(yy) W k−1 , luego T T p( p(x) I W k 1 (y ) = I W k 1 (v), es decir, p decir, p((x) es m´ ultiplo ultiplo de f de f ((x). Sea p Sea p((x) = f ( f (x)g (x). Resulta,
∈
⊆
−
·· · · ·
∈
∈
−
p( p(T )( T )(yy ) = g = g((T ) T )f ( f (T )( T )(yy ) = g( g (T )[ T )[rr1 (T )( T )(u u1 ) +
· · · + r (T )( T )(u u )] = g( g (T ) T )r1 (T )( T )(u u1 ) + · · · + g (T ) T )r (T )( T )(u u ); j
j
j
j
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
96
pero por la definici´on on de p(x), p(T )( as W 1 T )(yy ) W j −1 y como adem´as W 2 W j −1 son invariantes, entonces g (T ) T )rj (T )( T )(u uj ) W j −1 , de donde el polinomio g (x)rj (x) es m´ ultiplo ultiplo del polinomio m´ınim ın imoo de u j realtivo al subespacio W subespacio W j −1 . Seg´ un un la condici´on on ii) i i) de la Parte I, este polinomio p olinomio m´ınimo ınimo tiene grado m´aximo, aximo, luego el grado de g(x)rj (x) gr( gr ( p( p(x)). )). De estas consideraciones se concluye que g que g r(g (x)) + gr + gr((rj (x)) = gr g r(g(x)rj (x)) gr g r ( p( p(x)) = gr g r(f ( f (x)g(x)) = gr g r(g (x)) + gr + gr((f (x)), luego gr( gr (rj (x)) gr( gr (f ( f (x)), obteni´endose endose una contradicci´ contradicc i´on. on. Esto E sto indica in dica que qu e efectivamente efecti vamente todos los res r es´´ıduos ri (x) son nulos.
∈
∈
⊆
≥
≥
≥
⊆ ··· ⊆
Parte III. La idea ahora es construir construir los vectores vectores vi de la parte parte a) del del teorem teoremaa a part partir ir de los vectores u i que hemos encontrado en la Parte II de la prueba. Paso 1. Sea 1. Sea u 1 , . . . , ur una colecci´on on de r de r 1 vectores no nulos de V con polinomios poli nomios m´ınimos q ui (x) que cumplen las condiciones i) y ii) de la Parte I. Si r = 1, entonces, como anotamos antes, V = [u1 ], u1 es un vector c´ c´ıclico y por lo tanto q tanto q u1 (x) = q T 2 como en la Parte II; para cada T (x). Sea pues r 1 i r queremos construir los vectores v i ; definimos
≥
≥
≤ ≤
v1 = u = u 1 ,
≥
seg´ un el Paso 2 de la prueba de la Parte I, q v1 (x) es el polinomio anulador del vector v1 . Para i 2 un definimos vi = u = u i [h1 (T )( T )(u u1 ) + + hi−1 (T )( T )(u ui−1 )], )], (6.3)
−
···
donde los polinomios h polinomios h 1 (x), . . . , hi−1 (x) se definen de la siguiente manera. En calidad de vector v en el razonamiento de la Parte II tomamos u i y en calidad de f ( f (x) tomamos q ui (x) , el polinomio poli nomio m´ınimo de u de u i relativo a W a W i−1 ; seg´ un un (6.2) 6.2) existen existen polinomios polinomios g g 1 (x), . . . , gi−1 (x) tales que
· · · + g −1(T )( T )(u u −1 ) y adem´as as q (x) divide a cada uno de los polinomios g (x), 1 ≤ j ≤ i−1. Los polinomios h1 (x), . . . , h −1 (x) se definen entonces mediante esta ´ultima ultima condici´on on , es decir, son tales que g (x) = q (x)h (x), 1 ≤ j ≤ i − 1. Como en el Paso 2 de la Parte II, I (v ) = I (u ), luego q luego q (x) es el polinomio poli nomio m´ınimo q ui (T )( T )(u ui ) = g1 (T )( T )(u u1 ) +
ui
i
i
j
i
j
T W i−1
de v de v i relativo a W a W i−1 .
T W i−1
i
i
ui
j
ui
Paso 2. A 2. A partir de lo anterior vamos a demostrar que [vi ]
∩ W −1 = 0, (6.4) donde, como siempre, W −1 = [u1 ] + · · · + [u [ u −1 ]. Sea z ∈ [v ] ∩ W −1 , entonces z entonces z = g( g (T )( T )(vv ) ∈ W −1 luego g luego g((x) ∈ I (v ) = I (u ), de donde, g donde, g((x) es m´ultiplo ultiplo de q de q (x). Existe entonces s entonces s((x) tal que i
T W i−1
i
T W i−1
i
i
i
i
i
i
i
ui
g (x) = s( s (x)q ui (x) y
z = g = g((T )( T )(vvi ) = s( s (T ) T )q ui (T )( T )(vvi ) = s(T ) T )q ui (T )( T )(u ui [h1 (T )( T )(u u1 ) + + hi−1 (T )( T )(u ui−1 )]) = s(T )[ T )[q q ui (T )( T )(u ui ) q ui (T )( T )(h h1 (T )( T )(u u1 ) + + hi−1 (T )( T )(u ui−1 ))] = s(T )[ T )[q q ui (T )( T )(u ui ) q ui (T ) T )h1 (T )( T )(u u1 ) q ui (T ) T )hi−1 (T )( T )(u ui−1 )] = + gi−1 (T )( s(T )[ T )[q q ui (T )( T )(u ui ) (g1 (T )( T )(u u1 ) + T )(u ui−1 ))] = s(T )[ T )[q q ui (T )( T )(u ui ) q ui (T )( T )(u ui )] = 0. 0.
−
−
Paso 3. Veamos 3. Veamos que la suma [v [ v1 ] +
−
−
−
··· ··· −···− ···
· · · + [v[v ] es directa. r
Para comenzar n´otese otese que la intersecci´on o n de [v [ v1 ] con [v [v2 ] es nula, es decir que la suma [ v1 ] + [v2 ] es directa: en efecto [ v2 ] [v [ v1 ] = [v2 ] [u [ u1 ] = [v2 ] W 1 = 0.
∩
∩
∩ Supongamos inductivamente que la suma [v [ v1 ] + · · · + [v −1 ] es directa y probemos que la intersecci´ on o n de [v [v ] con dicha suma es nula. Sea z ∈ [v ] ∩ ([v ([v1 ] + · · · + [v [ v −1 ]), entonces existen polinomios i
i
m(x), m1 (x), . . . , mi−1 (x) tales que
i
i
´ C ´ 6.5. EL TEOREMA TEOREMA DE DESCOMPOSIC DESCOMPOSICI I ON ICLICA
= m((T )( z = m T )(vvi ) = m 1 (T )( T )(vv1 ) + pero esto seg´un un (6.3) 6.3) implica que z que z
97
· · · + m −1(T )( T )(vv −1 ), i
i
∈ [v ] ∩ W −1 = 0. i
i
Paso 4. Para 4. Para terminar la prueba de la parte a) de teorema n´otese que V que V = [v [ v1 ] +
· · · + [v[v ]. r
Parte IV. Para la prueba sobre los anuladores anuladores se debe demostrar que los polinomios q u1 (x), . . . , qu r (x) encontrados anteriormente anteriormente son precisamente los anuladores de los elementos v elementos v1 , . . . , vr respectivamente. El caso i = 1 ya lo consideramos en el Paso 1 de la Parte III. Sea i 2, sabemos que el polinomio m´ınimo ıni mo de vi relativo a W i−1 coincide con q ui (x), luego q ui (T )( T )(vvi ) W i−1 , pero seg´ un un (6.4), 6.4), q ui (T )( T )(vvi ) = 0, luego q luego q ui (x) es m´ultiplo ultiplo del polinomio anulador de v de v i .
≥ ∈
∈
Sea q vi (x) el polinomio anulador de vi , entonces q vi (T )( T )(vvi ) = 0 W i−1 , luego q vi (x) es m´ ultiplo ultiplo de el polinomio poli nomio m´ınimo de v de v i relativo a W a W i−1 , es decir, es m´ ultiplo ultiplo de q de q ui (x). Hemos pues demostrado que q que q ui (x) = polinomio anulador de v i = q vi (x). Parte V. Veamo eamoss la prueba prueba de la parte b). q b). q vi (T )( T )(vvi ) = 0, para para cada 1
≤ i ≤ r. Luego, r. Luego,
···
q vi+1 (T )( T )(vvi+1 ) = 0 = q = q v1 (T )( T )(vv1 ) + + q vi (T )( T )(vvi ) = q v1 (T )( T )(u u1 ) + q v2 (T )( T )(u u2 w1 ) + + q vi (T )( T )(u ui wi−1 ) = q v1 (T )( T )(u u1 ) + + q vi (T )( T )(u ui ) + w,
− ··· − ··· donde w donde w 1 ∈ W 1 , . . . , w −1 ∈ W −1 y w ∈ W −1 ⊂ W . Pero entonces w entonces w pertenece a [v [ v +1 ] ∩ W = 0. En i
i
i
i
i
i
total
· · · + q (T )( T )(u u ), (x) | q (x) para cada 1 ≤ j ≤ i. Esto i. Esto completa
q vi+1 (T )( T )(vvi+1 ) = q v1 (T )( T )(u u1 ) + luego razonando como en la Parte II se tiene que q vi+1 la prueba de la parte b).
vi
i
vj
Parte VI. Ahora vamos vamos a demostrar demostrar la parte c). Sea q T ınimo de T , entonces T (x) el polinomio m´ sabemos que q que q T ultiplo ultiplo de q de q v1 (x). T (x) es m´ De otra parte, seg´un un la Parte V, q vi (x) q v1 (x) para cada 1 i r. Existen r. Existen entonces polinomios mi (x) tales que q v1 (x) = m i (x)q vi (x). Sea v un vector cualquiera de V , V , entonces existen polinomios si (x) tales que
|
≤ ≤
··· ···
v = s = s 1 (T )( T )(vv1 ) + + sr (T )( T )(vvr ), q v1 (T )( T )(vv ) = s = s 1 (T )( T )(m m1 (T ) T )q v1 (T )( T )(vv1 )) + + sr (T )( T )(m mr (T ) T )q vr (T )( T )(vvr )) = 0, 0, por lo tanto q tanto q v1 (T ) T ) = 0, de donde q donde q v1 (x) es m´ ultiplo ultiplo de q de q T T (x). Parte VII. Solo resta probar la parte relativa relativa a la unicidad. Sean w1 , . . . , ws vectores no nulos con anuladores q w1 (x) , . . . , qw s (x) tales que se cumplen las condiciones a) y b) del enunciado del teorema. Paso Paso 1. q v1 (x) = q w1 (x) : Bast Bastaa prob probar ar que q w1 (x) = q T Pero esta prueba prueba es id´ entica entica a la T (x). Pero que realizamos en la Parte VI. Paso 2. Supongamos inductivamente que q vi (x) = q wi (x) para 1 i k 1, donde k que k que k 1 < r, entonces [v [ v1 ] [v [ vk−1 ] es un subespacio propio de V de V ,, con lo cual
−
≤ ≤ −
⊕ ·· · ⊕
dim([v dim([v1 ]) +
· · · + dim([v dim([v −1 ]) < ]) < dim( dim(V V )), k
≤ r. Puesto r. Puesto
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
98
pero com comoo q vi (x) = q wi (x) para 1 entonces dim([ dim([vi ]) = dim( dim([[wi ]) y por lo tanto i k 1, entonces dim([w dim([w1 ]) + + dim([w dim([wk−1 ]) < dim(V dim(V )) y por lo tanto k 1 < s, es decir, k s. Esto al menos indica que la pregunta sobre la igualdad de q vk (x) y q wk (x) tiene sentido.
≤ ≤ −
···
−
≤
|
Paso 3. Probemos 3. Probemos inicialmente que q que q wk (x) q vk (x).
⊕ · · · ⊕
q vk (T )( T )(V V )) = q vk (T )([ T )([vv1 ] [vr ]) = q vk (T )([ T )([vv1 ]) q vk (T )([ T )([vvr ]) = [q vk (T )( T )(vv1 )] [q vk (T )( T )(vvr )];
⊕···⊕ ⊕ · · · ⊕
para j para j
≥ k , q
vk (x)
es m´ ultiplo ultiplo de q de q vj (T ) T ) luego la suma anterior se reduce a q vk (T )( T )(V V )) = [q vk (T )( T )(vv1 )]
⊕ · · · ⊕ [q
T )(vvk 1 )]. )]. vk (T )(
−
(6.5)
Por otro lado,
⊕ · · · ⊕
q vk (T )( T )(V V )) = q vk (T )([ T )([w w1 ] [ws ]) = [q vk (T )( T )(w w1 )] [q vk (T )( T )(w wk−1 )] [q vk (T )( T )(w wk )]
⊕ · · · ⊕ ⊕ ⊕ · · · ⊕ [q (T )( T )(w w )], )], (6.6) (x) para 1 ≤ i ≤ k − 1, entonces se puede probar facilmente que los polinomios vk
s
pero como q como q vi (x) = q wi anuladore anuladoress de q vk (T )( T )(vvi ) y q vk (T )( T )(w wi ) tambi´ tambi´ en en son iguales iguales y en consecuenc consecuencia ia dim([q dim([q vk (T )( T )(vvi )]) = dim([q dim([q vk (T )( T )(w wi )]). Aplicando esto a (6.5 (6.5)) y (6.6) 6.6) se obtiene que 0 = [q vk (T )( T )(w wk )]
⊕ · · · ⊕ [q
T )(w ws )], )], vk (T )(
≤ ≤ ≤ ≤
de donde [q [q vk (T )( T )(w wj )] = 0 para k j s, s , en cosecuencia, q vk (T )( T )(w wj ) = 0, de manera que q vk (x) es m´ ultiplo ultiplo de q de q wj (x) para cada k cada k j s, en particular q particular q vk (x) es m´ultiplo ultiplo de q de q wk (x). Podemos repetir rep etir todo el razonamiento anterior y probar tambi´en en que q wk (x) es m´ultiplo ultiplo de q de q vk (x). Paso 4. Por 4. Por lo anterior resulta imposible que r = s, s , ya que seg´ un un vimos k vimos k
6.6. 6.6.
≤ r si y s´olo olo si k si k ≤ s.
Forma orma Can´ Can´ onica onica Racional
Recordemos que dos matrices rectangulares son equivalentes si y s´olo si tienen el mismo rango (v´ ease ease el Corolario 4 del Cap´ Cap´ıtulo 3). Sin embargo, esto no es necesariamente cierto para matrices cuadradas mediante similaridad. La forma can´onica onica racional que estudiaremos en la presente lecci´on permite clasificar las matrices cuadradas por similaridad en t´ erminos erminos de de sus factores invariantes. invariantes. Sea p(x) = a0 + a 1 x + matriz
·· · · · + a
n 1 n 1x
− + x n un polinomio m´onico onico de grado grado n
−
0 0 1 0 0 1 .. .. . . 0 0
··· ··· ···
− a0 − a1 − a2
···
−a −1
0 0 0 .. .. . . 1
.. .
n
≥
1 de K [x]. La
se conoce con el nombre de matriz compa˜nera del polinomio p(x). Si p(x) = a + x + x es de grado 1, entonces la matriz compa˜nera nera de p(x) se define como la matriz [a [ a] de tama˜no no 1 1. La siguiente proposici´on on muestra una conexi´on on entre este concepto y el concepto de vector c´ c´ıclico presentado en la lecci´on on inmediatamente anterior.
×
´ 6.6. FORMA FORMA CAN CAN ONICA RACIONAL
99
Proposici´ on on 6.10. Sea T : V on lineal de un espacio V on n 1. V V una transformaci´ V de dimensi´ Entonces, T tiene un vector c´ıclico ıclico si y s´ olo si existe una base X en V V tal que mX (T ) T ) es la matriz compa˜ nera del polinomio m´ınimo ınimo de T . T .
→
⇒
≥
Demostraci´ on: ) Sea v Sea v un vector c´ıclico ıclic o de T , T , entonces de acuerdo a las propiedades estudiadas en n−1 la lecci´ on on anterior, X anterior, X = = v, T ( T (v ), . . . , T (v ) es una base de V de V y y la matriz de T en T en dicha base es
{
0 0 1 0 0 1 .. .. . . 0 0
} ··· ··· ···
−a0 −a1 −a2
···
−a −1
0 0 0 .. .. . . 1
.. .
n
,
· · · + a −1x −1 + x = q (x) = p (x) = q (x) ⇐) Sea X Sea X = {v1 , . . . , v } una base de V de V tal que m que m (T ) T ) es la matriz compa˜nera nera del polinomio poli nomio m´ınimo − 1 de T de T ,, q (x) = a 0 +a1 x+· · ·+a −1 x +x , se tiene entonces necesariamente necesariamente que k que k = = n n,, y adem´as, v as, v2 = T ( T (v1 ), v3 = T = T ((v2 ) = T 2 (v1 ), . . . , v = T ( T (v −1 ) = T −1 (v1 ), es decir, {v1 , T ( T (v1 ), T 2 (v1 ), . . . , T −1 (v1 )} es una base de V de V ,, con lo cual, V cual, V =< v 1 , T ( T (v1 ), T 2 (v1 ), . . . , T −1 (v1 ) > ⊆ [v1 ] y v 1 es un vector vecto r c´ıclico ıcl ico donde a donde a 0 + a1 x +
n
n
n
T T
n
T
v
X
T T
k
k
k
n
n
n
n
n
de T de T ..
→
≥
Corolario Corolario 6.5. Sea T T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on n n 1, y sea v = 0 un vector de V. Sea [v [ v ]T el e l subespacio c´ıclico ıclico generado por el vector v y T [v] la restricci´ on de T a [v ]T . Entonces, v es un vector c´ıclico de T [v ] y existe una base X en [v ]T tal que la matriz de T [v ] en dicha base es la matriz compa˜ nera de q q v (x).
Demostraci´ on: Sabemos on: Sabemos que [v ]T [v] = p( p(T [v] )(v )(v ) p( p(x)
{
|
∈ K [x]} = { p( p(T )( T )(vv ) | p( p(x) ∈ K [x]} = [v],
es decir, v es un vector c´ıclico de T [v] . Seg´ un un la Proposici´ on on 10, existe una base X en [v ]T tal que la matriz de T [v] en dicha base es la compa˜nera nera del polinomio poli nomio m´ınimo de T [v] . Pero sabemos que dicho polinomio coincide con q con q v (x). Proposici´ on on 6.11. Sea A una matriz cuadrada de orden n 1. 1 . Si A es la matriz compa˜ nera de un polinomio m´ onico p onico p((x), entonces p( p (x) es el polinomio m´ınimo ınimo y caracter´ caracter´ıstico ıstico de la matriz A matriz A..
≥
Demostraci´ on: Sea
A =
0 0 1 0 0 1 .. .. . . 0 0
··· ··· ···
0 0 0 .. .. . . 1
···
− a0 − a1 − a2
.. .
−a −1 la matriz compa˜ nera nera del polinomio p(x) = a0 + a + a 1 x + · · · + a −1 x −1 + x . A representa la matriz de una cierta transformaci´on on T de K en la base can´onica onica X = {e1 , . . . , e }(v´ ease ease el paso 2 de la n
n
n
n
n
n
demostraci´ on on del Teorema 1 del Cap´ Cap´ıtulo 3). Entonces,
. T ( T (e1 ) = e 2 , T ( T (e2 ) = e3 = T 2 (e1 ) .. T ( T (en−1 ) = e n = T = T n−1 (e1 ), es decir, X = e1 , T ( T (e1 ), . . . , T n −1 (e1 ) , con lo cual, K n =< e1 , T ( T (e1 ), . . . , T n−1 (e1 ) > [e [ e1 ], y e1 resulta ser un vector vec tor c´ıclico ıclico de T de T .. Entonces, por las propiedades de los vectores c´ c´ıclicos estudiadas en la lecci´ on on anterior se tiene que q T = q A (x) y p y pT (x) = p A(x). T (x) = p T (x) = q e1 (x). Pero sabemos que q T T (x) = q Hemos probado que q e1 (x) = q A (x) = p = p A (x). Adem´as, as,
{
}
⊆
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
100
−a0.e1 − a1.e2 − · · · − a −1.e = −a0.e1 − a1.T ( .T (e1 ) − · · · − a −1 .T −1 (e1 ), es decir, a decir, a 0 .e1 + a1 .T ( .T (e1 ) + · · · + a −1 .T −1 (e1 ) + T (e1 ) = 0, lo cual indica que el polinomio p polinomio p((x) = − 1 a0 + a + a 1 x + · · · + a −1 x + x es m´ ultiplo ultiplo de q (x), y por razones de grado se tiene la igualdad T ( T (en ) = T n (e1 ) =
n
n
n
n
p( p(x) = q e1 (x).
n
n
n
n
n
n
e1
Ya podemos definir los conceptos de transformaci´on on lineal racionalizable y matriz racionalizable. Definici´ on on 6.7. Sea A una matriz cuadrada de orden n 1, se dice que A es una matriz racional o matriz de Frobenius si existen polinomios m´ onicos no constantes p1 (x), . . . , pr (x) K [x], 1 r n, tales que p p i+1 (x) pi (x) para cada 1 i r 1 y A y A es de la forma
≥
|
∈
≤ ≤ −
A1 .. .
···
0
···
..
.
0 .. . Ar
,
≤ ≤
(6.7)
donde el bloque Ai es la matriz compa˜ nera del polinomio pi (x) , 1 i r. Los r. Los polinomios pi (x) se conocen como los factores invariantes de la matriz A. N´ A. N´ otese que el orden de Ai es igual al grado del polinomio p i (x), adem´ as, por el Corolario 3 y la Proposici´ on 11, se tiene que p que p A (x) = p1 (x) pr (x), q A (x) = m.c.m p1 (x), . . . , pr (x) = p1 (x). Una matriz B se dice racionalizable si B es similar a una matriz racional. Finalmente, sea T sea T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on n 1, se dice que T que T es es racionalizable si existe una base X en V V tal que la matriz de T en T en dicha base es una matriz racional.
{
}
≥
≤ ≤
·· · · ·
→
De manera manera inmediata inmediata se tiene el siguiente siguiente corolario. corolario. Corolario 6.6. Sea T T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on n 1 y sea X una X una base cualquiera de V . V . Entonces, T Entonces, T es es racionalizable si y s´ olo si m m X (T ) T ) es racionalizable.
→
≥
→
≥ ≥
Teorema 6.6. Sea T : V V V una transformaci´ on lineal de un espacio V V de dimensi´ on n 1. Entonces, existe una base X base X en V V tal que mX (T ) T ) es racional. En otras palabras, toda transformaci´ on lineal de un espacio V de V de dimensi´ on n 1 es racionalizable. racionalizable . Tambi´en, en, toda matriz A de orden n 1 es racionalizable.
≥
Demostraci´ on: Seg´ on: Seg´ un el Teorema de Descomposici´on un on C´ıclica, ıclic a, existen ex isten vectores no nulos nul os v v 1 , . . . , vr con polinomios anuladores q anuladores q v1 (x), . . . , qv r (x) tales que V = [v [ v1 ]
∈ V
⊕ · · · ⊕ [v ] r
y q vi+1 (x) q vi (x) para cada 1 i r 1. Puesto que los vectores v i son no nulos, entonces los polinomios q nomios q vi (x) no son constantes. Teniendo en cuenta que los subespacios [v [ vi ] son invariantes, podemos aplicar el Corolario 5 de la Lecci´on on 6 y la Proposici´on on 7 para completar la prueba del teorema.
|
≤ ≤ −
N´ otese que por el Teorema de Descomposici´on otese on C´ıclica, ıclica , existe un vector v vector v 1 en V tal V tal que q que q v1 (x) coincide con el polinomio m´ınimo de T . Esta observaci´on on y el hecho que dim([v dim([ v1 ])=grado ])=grado((q v1 (x)), permite entonces sacar las siguientes conclusiones. Corolario Corolario 6.7. Sea T : V Entonces,
→ V V una transformaci´ on lineal de un espacio V V de dimensi´ on n ≥ 1.
a) Existe un vector vector v v 1 en V V tal que q v1 (x) coincide con el e l polinomio m´ınimo de T de T . b) T tiene un vector c´ıclico ıclico si y solo si p si p T (x) = q T T (x). Las mismas afirmaciones son v´ alidas para matrices.
´ 6.6. FORMA FORMA CAN CAN ONICA RACIONAL
101
Ejericicio Ejericicio 6.6. Determine si la matriz
A = tiene tie ne vectore vec toress c´ıclicos ıcl icos..
2 0 0 2 0 0
0 0 1
−
Para terminar queremos queremos considerar considerar el problema problema de similaridad similaridad de matrices matrices en t´ erminos erminos de los factores invariantes. invariantes.
≥
Proposici´ on on 6.12. 6.12. Toda Toda matriz cuadrada cuadrada B de orden orden n 1 es similar a una y s´ olo una matriz racional de la forma 6.7 forma 6.7 descrita descrita arriba. Los polinomios m´ onicos p p 1 (x), . . . , pr (x) se conocen como los factores invariantes de la matriz B . Demostraci´ on: Sea Y Sea Y la la base can´onica onica de K de K n y T : K n K n una transformaci´on on lineal tal que B que B es la matriz de T de T en en la base Y . Y . Sea A Sea A una matriz racional de la forma 6.7 similar a la matriz B matriz B . Existe entonces una base X en K n tal que A = mX (T ). T ). Queremos demostrar que entonces K n tiene una descomposici´on on c´ıclica en la forma
→
K n = [v [ v1 ]
⊕ · · · [v ] r
En efecto, si la matriz racional A racional A tiene tiene un solo bloque, entonces seg´un un la Proposici´ on on 11 y el Corolario n 7, T 7, T tiene tien e un vector vecto r c´ıclico ıcl ico y as´ı K = [v]. Si el n´ umero umero de bloques de A es r es r 2, entonces de acuerdo n a la Proposici´on on 7, K 7, K se descompone en la forma
≥
K n = W 1
⊕ · · · ⊕ W , r
de tal manera que si T i es la restricci´on on de T a W i y X i es una base de W i , el bloque Ai de A es Ai = mXi (T i ). Aplicando nuevamente la Proposici´on on 11 y el Corolario 7, se tiene que W i tiene un vector vecto r c´ıclico ıcl ico no nulo v i , de donde W donde W i = [vi ], 1 i r. Esto r. Esto completa la prueba de la descomposici´on enunciada arriba.
≤ ≤
Una consecuencia inmediata de esta afirmaci´on on es el siguiente corolario. Corolario 6.8. Dos matrices cuadradas son similares si y s´ olo si tienen la misma forma can´ onica racional, es decir, si y s´ olo si tienen los mismos factores invariantes. Ejericicio 6.7. Sea p(x) = a 0 + a + a 1 x + + a n−1 xn−1 + xn un polinomio m´onico onico de grado n sea A sea A su matriz compa˜nera. nera. Demuestre que xE A es equivalente a la matriz
···
≥ 1 y
−
p( p(x) 0 .. .
0 1 .. .
··· ···
0
0
···
..
.
0 0 .. . 1
(Para (Para este ejercicio considere considere operaciones operaciones elementales elementales en el conjunto conjunto de matrices matrices con entradas entradas en el anillo de polinomios K [x]. La segunda segunda operaci´ operaci´on on elemen elemental tal debe enten entender derse se en este este caso caso com comoo multiplicaci´ on por un polinomio constante no nulo). on
≥
Ejericicio 6.8. Sea A Sea A una una matriz de grado n grado n 1 con entradas en un cuerpo K cuerpo K , y sean p sean p1 (x), . . . , pr (x) sus factores invariantes. Utilizando el Ejercicio 7 demuestre que la matriz xE A es equivalente a la matriz
−
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
102
p1 (x) 0 .. . .. . .. . .. . 0
··· ··· · · · · ··· ·
0 p2 (x) .. . .. . .. . .. . 0
..
.
.. . .. . .. .
··· ··· · · · · ··· ·
.. .
.. . . pr (x) .. . .. 1 .. .. . .
··· ···
.. . .. . .. . ..
.
··· ···
0 0 .. . .. . .. . .. . 1
Soluci´ on: Sabemos on: Sabemos que A es racionalizable, por lo tanto existe una matriz invertible C invertible C tal tal que
C −1 AC = =
donde A donde A i es la compa˜nera nera de p de p i (x), 1
C −1 (xE Seg´ un un el ejercicio anterior, xE
por lo tanto la matriz xE
A1 .. .
···
0
···
..
0 .. .
.
Ar
≤ i ≤ r. Entonces, C Entonces, C −1 (xE − A)C = = xE − C −1 AC , es decir, xE − A1 · · · 0
− A)C = =
.. . 0
..
.. .
.
···
xE
r
− A es equivalente a la matriz p (x) · · · 0 i
i
.. . 0
..
.
···
.. . 1
− A es equivalente a la matriz p1 (x) 0 ··· ··· ··· ··· 0 · · · · · · ··· · p2 (x) · · · · ··
−A
.. . .. . .. . .. .
.. . .. . .. . .. .
0
0
..
.
.. . .. . .. .
.. .
.. . . pr (x) .. . .. 1 .. .. . .
··· ···
.. . .. . .. . ..
.
··· ···
0 0 .. . .. . .. . .. . 1
Notemos que el polinomio caracter´ caracter´ıstico de A es el producto de sus factores invariantes, es decir, pA (x) = det(xE det( xE A) = p1 (x) pr (x).
−
···
Ejericicio Ejericicio 6.9. Calcular los factores invariates y la forma can´onica racional de la matriz A =
−
Adem´ as, calcular una matriz racionalizante C . as, C .
3 1 2
−4 −4 3 2 −4 −3
Soluci´ on: Para on: Para calcular los factores invariantes, invariantes, aplicamos apli camos el m´ etodo etodo expuesto en el ejercicio anterior, es decir, realizamos operaciones op eraciones elementales sobre la l a matriz caracter´ caracter´ısitica xE A:
−
´ 6.6. FORMA FORMA CAN CAN ONICA RACIONAL
xE
− A =
1 0 0 1 0 0 1 0 0
− (x −
x
−3 1 −2
103
−
x
4 4 3 2 4 x+3
−
− − −
x 3 5) (x 1) 2x 2x 2 x
− (x − 5) (x − 2 (x − 0 2 (x 1) 2 (x 1) x
− − − 2 (x − 1)
0 x 0
−
Por lo tanto, p 1 (x) = q A (x) = (x entonces
−
0 0 1 0 0 1
− −
x
−2 −2 → −1
0 0 1) 2 ((x x 1) 1) x 1 0 0 1
→
→
1 0 0
→ − (x −
− −
1 x 3 2
0 2 1) 0 x
−3
−
−2
4 4
0 0 1
4 x+3
→
− 1)2 = x 2 − 2x + 1,1, y p 2(x) = (x − 1). R =
La forma forma racio racional nal de A es
−1
0 1 0
→
0 2 0 0 1
Veamos ahora como calcular la matriz racionalizante C : seg´ un el Teorema de Descomposici´on un on C´ıcli ıc lica ca se 3 2 tiene que R = [v [ v1 ] [v2 ], donde v donde v 1 es un vector tal que v1 , Av1 sean LI pero v1 , Av1 , A v1 sean LD. Se puede comprobar que e que e1 satisface estas dos condiciones de tal forma que (1, (1, 0, 0) , Ae1 = (3, (3, 1, 2) es una base de [v [ v1 ]. Para v Para v 2 se debe tener que dim[v dim[ v2 ] = 1 y v y v 2 / [v1 ], es decir, v decir, v 2 es un vector propio tal que e1 , Ae1 , v2 sean LI: los vectores propios son (2, (2, 1, 0) , (2, (2, 0, 1) , notemos que
{
⊕
{
}
{
1 0 0
C = =
rank
−
3 2 1 1 2 0
Entonces v 2 = (2, (2, 1, 0) y la matriz C es C es entonces
En efecto,
1 0 0
−
3 2 1 1 2 0
− −1
3 1 2
−4 −4 3 2 −4 −3
1 0 0
−
} ∈
3 2 1 1 2 0
1 0 0
−
{
{
}
−
}
}
=3
3 2 1 1 2 0
=
0 1 0
−1
0 2 0 0 1
= R
Ejericicio 6.10. En este ejercicio mostramos otro procedimiento para calcular los factores invariantes de una matriz (la justificaci´on on te´orica orica de este procedimiento se puede consultar en N. Jacobson, Basic Algebra, Freeman, San Francisco, 1974 o tambi´ ta mbi´en en en A. Maltsev, Fundamentos de Algebra Lineal, Mir, Mosc´ u,1978 ): u,1978 ):
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
104
A =
− −
4 1 6 6
1 2 1 1
1 1 1 4
1 1 1 2
− − −
−
Soluci´ on: Paso 1 . Definimos la l a matriz caracter´ caracter´ıstica de A de A,, es decir,
Az =
z
− 4 −1 1 z−2 −6 −1 6
−1
−1 1 1 −1 z + 1 −4 z − 2
1
Paso 2 . Calculamos Calculamos siguientes siguientes polinomios polinomios determinantes : determinantes :
D1 (z ) = m.c.d de m.c.d de los polinomios que resultan de calcular los determinantes de todas las submatrices de A de A z de tama˜ no no 1 1.
×
D2 (z ) = mcd de de los polinomios que resultan de calcular los determinantes de todas las submatrices de A de A z de tama˜no no 2 2.
×
.. .
Dn (z (z ) = mcd de de los polinomios que resultan de calcular los determinantes de todas las submatrices de A de A z de tama˜no n no n n = p = pA (z ).
×
Para la matriz A matriz A z de nuestro ejemplo se tiene que
D1 (z ) = 1
D2 (z ) = 1, ya que det
D3 (z ) = z
− − 1 1
−
1 4
=5
− 3. En efecto, se deben calcular los determinantes de las siguientes 16 submatrices:
´ 6.6. FORMA FORMA CAN CAN ONICA RACIONAL
105
− − − − − − − − − − − −
,
,
,
.
−1 − 1 z − 4 −1 −1 −2 1 , 1 z−2 1 −1 z + 1 −6 −1 −1 z 4 −1 − 1 −1 −1 −1 − 1 1 1 , z 2 1 1 , −1 z + 1 −1 6 z + 1 −1 z 4 −1 − 1 z−4 −1 −1 1 z−2 1 1 z−2 1 , 6 1 −4 6 1 z−2 −1 −1 −1 −1 z 4 −1 1 1 1 , z−2 1 1 , 6 −4 z − 2 1 −4 z − 2 z 4 −1 −1 z − 4 −1 −1 −6 −1 −1 , 6 −1 z + 1 , −4 6 1 6 1 z−2 z 4 −1 −1 −1 −1 −1 6 z + 1 −1 −1 , −1 z + 1 6 −4 z − 2 1 −4 z − 2 1 z−2 1 1 z−2 1 −1 z + 1 , −6 −1 −1 , 6 −4 6 1 6 1 z−2 1 1 1 z−2 1 1 −1 z + 1 −1 6 z + 1 −1 , −4 z − 2 −4 z − 2 6 1 z
4 1 z 6
Presentados en orden inverso y calculados con SWP, se tiene que: determinant: z determinant: z 3 3z 2 4z + 12 = (z (z 3) (z + 2) 2) (z 2) 2 determinant: z determinant: z z 6 = (z + 2) 2) (z 3) 2 determinant: 6z 6z 31 31zz + 39 = (6z (6z 13)(z 13)(z 3) determinant: 6z 6z 2 31 31zz + 39 = (6z (6z 13)(z 13)(z 3) 2 determinant: z determinant: z z + 6 = (z (z + 2)(3 z ) 2 determinant: 6z 6z 31 31zz + 39 = (6z (6z 13)(z 13)(z 3) determinant: z determinant: z z 2 + 6 = (z (z + 2)(3 z ) determinant: z determinant: z z 2 + 6 = (z (z + 2)(3 z ) 2 determinant: z determinant: z z 6 = (z + 2) 2) (z 3) determinant: z determinant: z 2 z 6 = (z + 2) 2) (z 3) 2 3 determinant: 26z 26z 8z + z 33 = (z (z 3) z 2 5z + 11 determinant: 29z 29z 4z 2 51 = (3 z ) (4z (4z 17) determinant: z determinant: z z 2 + 6 = (z (z + 2)(3 z ) determinant: z determinant: z z 2 + 6 = (z (z + 2)(3 z ) 2 determinant: z determinant: z z + 6 = (z (z + 2)(3 z ) determinant: z determinant: z 3 5z 2 2z + 24 = (z (z 3) (z 4) (z + 2).
− − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − Se observa entonces que el m.c.d es m.c.d es (z − 3). 3 D4 (z ) = p (z ) = (z + 2) 2) (z − 3)
A
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
106
Paso 3 . Calculamos los factores invariantes de la siguiente manera: q 1 (z (z ) =
D4 (z ) = (z ( z + 2) 2) (z D3 (z ) q 2 (z (z ) =
− 3)2 = z 3 − 4z2 − 3z + 18 = q = q (z (z ) A
D3 (z ) = (z (z D2 (z )
− 3)
D2 ( z ) =1 D1 (z )
q 3 (z (z ) =
q 4 (z (z ) = D1 (z ) = 1 Ejericicio Ejericicio 6.11. En este este ejerci ejercicio cio mostra mostramos mos la matriz matriz C C que racionaliza racionaliza la matriz matriz del ejercicio ejercicio anterior. Solucion: Seg´ Solucion: Seg´ un el ejercicio anterior, la forma can´onica racional un racional de A de A es:
B =
0 1 0 0
−18
0 0 1 0
3 4 0
0 0 0 3
Veamo eamoss como calcular calcular C C tal que C −1 AC = B . Aplicamos el Teorema de Descomposici´on on C´ıcli ıc lica: ca: 4 2 [v2 ], donde donde dim dim [v1 ] = 3, es decir, buscamos un vector v1 tal que v1 , Av1 , A v1 sean R = [v1 ] L.I. pero v1 , Av1 , A2 v1 , A3 v1 sean LD. Se puede comprobar que v 1 = e 1 = (1, (1, 0, 0, 0) satisface satisface estas condiciones. Para v Para v 2 se puede tomar un vector vector tal que dim ([v ([ v2 ]) = 1 y tal que v 2 / [v1 ], es decir, v decir, v 2 es un vector propio correspondiente al valor propio 3 y tal que
⊕ {
rank
{ ∈
}
{
v1 , Av1 = (4, (4, 1, 6, 6) , A2 v1 = (15, (15, 6, 11 11,, 11) , v2
−
−
−
eigenvectors : eigenvectors :
N´ otese otese que rank Resulta entonces que
1 0 0 0
6.7. 6.7.
4 1 6 6
15 6 11 11
0 1 0 1
− − − − −
−1
− −
4 1 6 6
}
= 4:
− ↔ − − − − −
1 2 1 1
−
−
0 0 1 1
1 0 0 0
4 1 6 6
− −
1 1 1 4
0 1 , 0 1
2,
1 1 1 2
− − −
15 6 11 11
0 1 0 1
1 0 0 0
4 1 6 6
}
−
1 2 1 0
↔
3
=4
15 6 11 11
0 1 0 1
− − − − −
=
0 1 0 0
0 0 1 0
−18
0 3 0 4 0 0 3
Forma orma Can´ Can´ onica onica de Jordan
Iniciamos la ultima u ´ ltima lecci´on on del presente cap´ıtulo ıtulo con una versi´ on completa del teorema de Hamiltonon Cayley, el cual cu al ya hab h ab´´ıamos consider c onsiderado ado antes. antes . Esta Est a nueva versi´on on ser´a usada para la forma can´onica onica de Jordan que estudiaremos ahora. La forma de Jordan utiliza todo el material estudiado en los cap´ıtulos ıtulos precedentes.
´ 6.7. FORMA FORMA CAN CAN ONICA DE JORDAN
107
Teorema 6.7. Sea T : V on lineal de un K -espacio -espacio V on finita V V una transformaci´ V de dimensi´ n 1. Sean q T ınimo ınimo y polinomio caracter´ caracter´ıstico ıstico de T , T , respectivamente. T (x) y pT (x) los polinomio m´ Entonces, q Entonces, q T ( x ) p ( x ) . M´ as exactamente, si T T
→
≥
|
r1 q T T (x) = q 1 (x)
rk
· · · q (x) es la descomposici´ on irreducible de q (x), 1 ≤ r ≤ n, 1 n, 1 ≤ i ≤ k, 1 k, 1 ≤ k ≤ n, entonces p (x) = q 1 (x) · · · q (x) T T
k
i
d1
T
donde di =
dk
k
dim N [ N [q i (T ) T )ri ] , gr( gr (q i (x))
≤ ≤
para cada 1 i k. En otras palabras, q T T (x) y pT (x) tienen los mismos factores irreducibles salvo multiplicidades. Adem´ as, si F es F es un cuerpo que contiene al cuerpo K , entonces a
∈ F e F ess ra´ız ız de q (x) si y s´ olo si a es ra´ız ız de p
T (x).
T T
Demostraci´ on: Seg´ on: Seg´ un el Teorema de Descomposici´on un on C´ıclica, ıclic a, existen ex isten vectores no nulos nul os v v 1 , . . . , vr con polinomios anuladores q anuladores q v1 (x), . . . , qv r (x) tales que
⊕ · · · ⊕ [v ] (x) | q (x) para cada 1 ≤ i ≤ r − 1. Sea T la restricci´on on de T a [v ]. Sabemos (x) = p (x) = q (x) (v´ease ease el Corolari C orolarioo 5); 5) ; adem´ ad em´as, p as, p (x) = q = q (x) · · · q (x), de V = [v [ v1 ]
q v1 (x) = q T T (x), q vi+1 que para cada i, cada i, q T Ti donde q donde q T ( x ) p ( x ). T T
|
∈ V
r
vi
T i
i
i
vi
T
T T1
T Tr
Sea ahora s(x) un divisor irreducible de q T entoncess s(x) es tambi´ en en un factor de pT (x). De T (x), entonce otro lado, sea r(x) un factor irreducible de pT (x) = q T q T T1 (x) Tr (x), entonces existe un i tal que r(x) q T luego r((x) q T decir, r((x) q T Ti (x), luego r T1 (x), es decir, r T (x).
|
|
···
|
Consideremos ahora la descomposici´on on irreducible irreduci ble (v´ease ease el Teorema 4): V = W 1
⊕ · · · ⊕ W , k
W i = N ( N (q i (T ) T )ri ),
1
≤ i ≤ k.
ri Sea S i la restriccion de T T al subespacio W i ; sabemos entonces que q S Si (x) = q i (x) , luego pS i (x) = q i (x)di con alg´ un d un d i ri . Esto garantiza que p que p T (x) = q 1 (x)d1 . . . qk (x)dk . Se tiene adem´as as que
≥
di =
gr( gr (q i (x)di ) gr( gr ( pS i (x)) dim(W dim(W i ) dim N [ N [q i (T ) T )ri ] = = = gr( gr (q i (x)) gr( gr (q i (x)) gr( gr (q i (x)) gr( gr (q i (x))
La ultima u ´ ltima afirmaci´on on del teorema es consecuencia directa de lo que hemos probado. Definici´ on on 6.8. Pasamos ahora a definir las celdas, bloques y matrices de Jordan. Sea K un K un cuerpo cualquiera y a y a un elemento de K, K , la matriz
J a,r a,r =
≥
a 0 1 a .. .. . . .. .. . . 0 0
··· ··· ..
.
0 0 .. .
.. .
..
···
1
.
0 0 .. . .. . a
de orden r r 1 se denomina celda o bloque elemental de Jordan de orden r orden r correspondiente al elemento a. El caso r = 1 debe entenderse como la matriz [a] de tama˜ no 1 1. La matriz J a con t 1 celdas de Jordan, J a,r t de ´ ordenes r ordenes r 1 r2 rt , a,r1 , J a,r a,r2 , . . . , Ja,r
≥ ≥ · · · ≥
×
≥
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
108
J a =
···
J a,r a,r1 .. .
..
0 .. .
.
0
J a,r a,rt
,
se denomina bloque de Jordan correspondiente al elemento a. Sean a1 , . . . , ak elementos diferentes diferentes pertenecientes al cuerpo K , k 1, la matriz
≥
J a1 .. .
···
0
···
..
0 .. .
.
J ak
,
donde J ai es un bloque de Jordan correspondiente al valor ai se denomina matriz de Jordan correspondiente a los elementos a a 1 , . . . , ak . Sea T : V V V una transformaci´ on lineal de un K -espacio -espacio V V de dimensi´ on finita n 1. Se dice que T es T es diagonalizable en bloques de Jordan si existe una base X en X en el espacio V V tal que mX (T ) T ) es una matriz de Jordan. Finalmente, decimos que una matriz cuadrada A cuadrada A de orden n orden n 1 es diagonalizable en bloques de Jordan si A si A es similar a una matriz de Jordan.
→
≥
≥
→
Corolario 6.9. Sea T : V V V una transformaci´ on lineal de un K -espacio -espacio V V de dimensi´ on finita n 1 y X una X una base de V . V . Entonces, T es T es diagonalizable en bloques de Jordan si y s´ olo si mX (T ) T ) es diagonalizable en bloques de Jordan.
≥
Nuestro objetivo ahora es demostrar que toda transformaci´on (matriz) sobre un cuerpo algebraicamente cerrado es diagonalizable en bloques de Jordan. Podemos comenzar demostrando este resultado para matrices y transformaciones nilpotentes sobre cualquier cuerpo K . K . Una transform transformaci´ aci´ on T on T (matriz A (matriz A)) m m es nilpotente si existe un entero positivo m 1 tal que T que T = 0 (A = 0); el menor entero positivo m positivo m con esta condici´ condici´ on on se denomina red ´ındice de nilpotencia de T de T (de A (de A). ).
≥
→
Proposici´ on on 6.13. 6.13. Sea N : W W W una transformaci´ transformaci´ on lineal lineal nilpotente nilpotente de un espacio espacio W de dimensi´ on finita d d 1. Entonces existe una base X en W W tal que
≥
mX (N ) N ) =
donde
M i =
M 1 .. .
···
0
···
0 0 1 0 .. .. . . 0 0 0 0
..
.
0 .. . M t
··· ···
0 0 0 0 .. .. .. . . . 0 0 1 0
··· ···
,
es un bloque elemental de Jordan de orden si perteneciente al valor 0 de tal manera que se cumplen las siguientes propiedades: s 1 s2 st 1, s 1 + + st = d = d y s y s 1 = ´ = ´ındice ındice de nilpotencia de N de N ..
≥ ≥ · · · ≥ ≥
···
Demostraci´ on: N´ otese otese si s1 es el ´ındice ındice de nilpotencia ni lpotencia de la l a transformaci´ on N on N ,, entonces el polinomio m´ınim ın imoo de N es xs1 . Podemos aplicar entonces el Teorema de Descomposici´on on C´ıclica y encontrar si vectores no nulos w1 , . . . , wt con polinomios anuladores q wi (x) = x , 1 i t de tal forma que s1 s2 st 1 y W W tiene la descomposici´on on
≤ ≤
≥ ≥ · · · ≥ ≥
W = [w1 ]
⊕ · · · ⊕ [w ]. t
´ 6.7. FORMA FORMA CAN CAN ONICA DE JORDAN
109
La matriz compa˜nera nera de q de q wi (x) = xsi es un bloque elemental de Jordan M Jordan M i de orden s orden s i perteneciente al valor 0, adem´as as si X si X i es una base de [w [ wi ], entonces la matriz de N en N en la base X base X = ti=1 X i es
mX (N ) N ) =
M 1 .. .
..
0 .. .
··· .
0
.
· · · M De acuerdo al Teorema de descomposici´on on c´ıcli ıc lica ca,, s1 ≥ s 2 ≥ ·· · ≥ s ≥ 1, s1 + · · · + s t
t
t
= d y s1 =
´ındice de nilp n ilpotencia otencia de N de N . Esto completa la prueba de la proposici´on. on.
El Teorema de descomposici´on on c´ıclica ıclic a garantiza g arantiza que el valor t valor t es´ es unico u ´ nico para N para N ;; veamos que t = dim(ker(N dim(ker(N )) )).. La idea es probar que N s1 −1 (w1 ), , N st −1 (wt ) es una base del n´ ucleo ucleo de N . N . Si w entonces w = u = u 1 + + ut donde u donde u i es un elemento de [ wi ], 1 i t. Entonces,
···
{
···
}
w = g = g 1 (N )( N )(w w1 ) +
≤ ≤
∈ ker(N ker(N ), ),
· · · + g (N )( N )(w w) t
t
donde el grado de g i (x) se puede tomar inferior a s i . Entonces, N Entonces, N ((w) = 0, y por la invariancia de [w [ wi ] si y la suma directa, se concluye que g i (N ) N )N ( N (wi ) = 0. Esto implica que x que x divide a g a g i (x)x, pero por la escogencia del grado de g i (x) se tiene que g i (x)x = b i xsi , bi K . K . Por lo tanto, g i (x) = b i xsi −1 , y en consecuencia,
∈
w = b = b 1 N s1 −1 (w1 ) +
st
· · · + b N t
−1 (wt ).
La independenc independencia ia lineal es consecuenc consecuencia ia de la invariancia invariancia de [wi ], de la suma directa y de que x si es el polinomio anulador de w de w i .
→
≥
Teorema 6.8. Sea T T : V V V una transformaci´ on lineal de un espacio V de dimensi´ dimensi´on finita on finita n 1 tal que el polinomio caracter´ caracter´ıstico ıstico de T T se descompone completamente en K K en producto de factores lineales (este es el caso cuando K es algebraicamente algebraicamente cerrado). cerrado). Entonces, T Entonces, T es es diagonalizable en bloques de Jordan. Jordan . Rec´ Rec´ıprocamente, ıprocament e, si T si T es es diagonalizable en bloques de Jordan, entonces p entonces p T (x) se descompone completamente en K en K en producto de factores lineales. Demostraci´ on: Sea pT (x) = (x
d1
− a1 ) · · · ( x − a ) k
dk
la factorizaci´on on completa en el cuerpo K del polinomio caracter´ caracter´ıstico de T , T , donde a1 , . . . , ak son elementos diferentes en K , K , 1 di n, 1 i k , 1 k n. Seg´ n. Seg´ un el Teorema de Hamilton-Cayley el un polin po linomi omioo m´ınimo ıni mo de d e T T tiene la siguiente descomposici´on: on:
≤ ≤
≤ ≤
q T T (x) = (x
≤
≤
≤ ≤
r1
− a1 ) · · · ( x − a ) k
rk
,
≤ ≤ k. Por el Teorema de Descomposici´on on Irreducible se tiene para V la
donde 1 ri di , 1 i siguiente descomposici´on: on:
V = W 1
⊕ · · · ⊕ W
k
,
donde W i = ker[(T ker[(T ai I )ri ] , 1 i k. Consideremos las transformaciones lineales inducidas T i = T W i ; recu´erdese erdese que el polinomio poli nomio m´ınimo de T i es (x ai )ri . Para cada 1 i k consi co nsid´ d´erese eres e la transformaci´ on on
|
− −
≤ ≤
−
≤ ≤
´ CAP ´ ITULO ITULO 6. FORMAS FORMAS CAN CAN ONICAS
110 N i = T i
− a I : : W → W . i
i
i
N´ otese otese que N i es nilpotente de ´ındice ri y el polinomio m´ınimo de N i es xri . Por el Teorema de Hamilton-Cayley, Hamilton-Cayley, dim(W dim(W i ) = d i , para cada 1 i k.
≤ ≤
Podemos ahora aplicar la Proposici´on on 13 y encontrar una base X i en W i para la cual se tiene la siguiente presentaci´on: on:
mXi (N i ) =
M i1 .. .
···
0
···
..
0 .. .
.
M it iti
,
donde M donde M ij no s no s ij correspondiente al valor 0 y de tal forma ij es un bloque elemental de Jordan de tama˜ que si1
≥ s 2 ≥ · · · ≥ s ≥ 1 , s 1 + s 2 + · · · + s
La reuni´on X on X =
k i=1
i
iti
i
i
= d i , si1 = r = r i .
iti
(1)
X i es una base de V para la cual se tiene la siguiente siguiente represen representaci´ taci´ on on de V de V :
mX (T ) T ) =
mX1 (T 1 ) .. .
···
0
···
..
0 .. .
.
mXk (T k )
.
Pero mXi (T i ) = mXi (N i ) + m + m Xi (ai I ), ), con lo cual mXi (T i ) es un bloque de Jordan correspondiente al valor ai de tama˜ no no di y dividido en ti bloques elementales de Jordan correspondientes al valor ai con tama˜ nos que satisfacen la condici´on nos on (1). Esto completa la prueba de la diagonalizaci´on on de T en bloques de Jordan. Jordan. Podemos complementar el resultado del teorema mostrando que el n´umero umero ti de bloques elementales de Jordan correspondientes al valor a i viene dado por ti = dim(E dim(E (ai )). )). En efecto, seg´un un la demostrac demostraci´ i´ on on de la Proposici´on on 13, ti = dim(ker(N dim(ker(N i )) = dim(ker(T dim(ker(T i pero se puede probar facilmente que ker(T ker( T i
− a I )))) , i
− a I ) = ker(T ker(T − − a I ).). i
i
La ultima u ´ltima afirmaci´on on del teorema es cierta ya que matrices similares tienen el mismo polinomio caracter´ te r´ısti ıs tico co.. Como consecuencia directa del teorema anterior, del Teorema de Hamilton-Cayley y del Teorema 2, se obtiene en forma inmediata el siguiente corolario.
→
Corolario 6.10. Sea T : V V V una transformaci´ on lineal de un K -espacio -espacio V V de dimensi´ on finita n 1. Entonces, T Entonces, T es es diagonalizable en bloques de Jordan si, y s´ olo si, T T es triangulable.
≥
Ejemplo 6.1. En este ejemplo mostramos una matriz invertible C tal C tal que C −1 AC es AC es una matriz de Jordan, donde
A =
− −
4 1 6 6
1 2 1 1
−
1 1 1 4
1 1 1 2
− − −
´ 6.7. FORMA FORMA CAN CAN ONICA DE JORDAN
111
Soluci´ on: Determinemos en primer lugar el polinomio caracter´ caracter´ıstico y el polinomio m´ınimo de A : 3 2 pA (x) = (x +2)(x +2)(x 3) , q A (x) = (x +2)(x +2)(x 3) . De acuerdo a la prueba del Teorema 8, el n´umero de bloques de Jordan es 2, uno correspondiente al valor propio 2 y otro correspondiente al valor propio 3. El n´umero umero de bloques elementales de Jordan correspondiente a 2 viene dado por dim(E dim(E ( 2)) y el n´umeumero correspondiente a 3 es dim(E dim( E (3)). (3)). Pero E Pero E (( 2) = (0, (0, 0, 1, 1) y E (3) E (3) = (0, (0, 1, 0, 1) , (1, (1, 2, 1, 0) , luego dim(E dim(E ( 2)) = 1 y dim(E dim(E (3)) ( 3)) = 2. 2. Para el valor propio 3 se tiene que el tama˜no no del primer bloque elemental de Jordan viene dado por la multiplicidad de 3 en el polinomio m´ınimo, ınimo, que en este caso es 2. Ya podemos entonces mostrar la forma de Jordan de la matriz A: A :
−
−
−
−
−
J =
−
2 0 0 0
0 3 1 0
0 0 3 0
− −
−
−
−
0 0 0 3
Queremos ahora calcular la matriz C matriz C .. Para esto consideramos a la matriz A como una transformaci´on on lineal de R4 en la base can´onica. onica. De acuerdo a la prueba del Teorema 8 se tiene que R4 = W 1 W 2 , donde W donde W 1 = ker(A ker(A + 2E 2E ) = (0, (0, 0, 1, 1) y W 2 = ker[(A ker[(A 3E )2 ] = (1, (1, 0, 1, 0) , (0, (0, 1, 0, 0) , (0, (0, 0, 0, 1) ; debemos encontrar bases X bases X 1 en W en W 1 y X 2 en W en W 2 de tal forma que C es C es la matriz de cambio de la base can´ onica onica de R4 a la base X base X = = X 1 X 2 . Consideremos las transformaciones N 1 = A + 2E 2E : : W 1 W 1 y N 2 = A 3E : W 2 W 2 . N´otese otese que N 1 es nilpotente de ´ındice 1y N 2 es nilpotente de ´ındice 2. Seg´ un la prueba de la Proposici´on un on 13 debemos debemos descomponer descomponer W W 1 y W 2 en suma directa de subespacios c´ıclico ıcl icos. s. Como W 1 = E ( E ( 2) = (0, (0, 0, 1, 1) , entonces la descomposici´on on de W 1 es trivial: W trivial: W 1 = [v1 ] con v1 = (0, (0, 0, 1, 1), 1), y en consecuencia, X 1 = (0, (0, 0, 1, 1) . Para W 2 se tiene que: existe un vector 2 v2 W 2 tal que su polinomio anulador es x y v2 , N 2 (v2 ) es una base de [v [ v2 ], tambi´en en debe deb e tenerse tene rse un vector v vector v 3 W 2 tal que su polinomio polinomio anulador anulador divide a x 2 y W 2 = [v2 ] [v3 ]. N´otese otese que en calidad calidad de v2 podemos tomar a (0, (0 , 0, 0, 1) de tal forma que N 2 (v2 ) = (1, (1, 1, 1, 1); puesto que dim[v dim[ v3 ] = 1, entonces el polinomio anulador de v3 es x y en consecuencia v3 pertenece al n´ucleo ucleo de N 2 , luego v3 E (3). (3). Tomando v Tomando v 3 = (0, (0, 1, 0, 1) se tiene que (0, (0, 0, 0, 1) , (1, (1, 1, 1, 1) , (0, (0, 1, 0, 1) es una base de W de W 2 . La matriz C matriz C es es entonces
−
→ −
−
∈
− ∪
−
−
{ {
−
C = =
−
1 1 1 1
−
0 1 0 1
−1
0 1 1 0 0 0 0
→
∈
∈
−
}
}
{
− − 0 0 1 1
4 1 6 6
0 0 0 1
1 1 1 1
0 1 0 1
− − − 1 2 1 1
− −
1 1 1 4
, C −1 =
1 1 1 2
− − −
−
0 0 1 1
− 0 0 0 1
1 1 1 1
− −
− −
0 1 0 1
−1
− 1 1 1 1
−
0 1 1 0 0 0 0
0 1 0 1
− − −
=
−
}
,
2 0 0 0
0 3 1 0
0 0 3 0
0 0 0 3
.
´ Algebra Lineal Cap´ ıtulo ıtul o 6. Formas orma s Can´ Can ´ onicas onicas Ejercicios. 1. Sea T : V → V una transformaci´ on on lineal de un espacio K -espacio -espacio V de dimensi´on on finita n ≥ 1. Demostrar que T es invertible si y s´olo olo si el t´ermino ermino independiente indep endiente q 0 del polin po linomi omioo m´ınimo ınim o q T T (x) es no nulo. 2. Determinar la forma can´onica onica de Jordan de la matriz:
0 0 1
0 0 0 0 −1
1 0 0 −1 0 0 0 0
3. Calcular la forma de Jordan de la matriz
5 1 0 0 0
0 0 0
−10 10 −5 1
0 1 0 0
0 0 1 0
0 0 0 1 0
4. Sean T 1 , T 2 : V → V transformaciones diagonalizables de un espacio V de dimensi´ on on finita n ≥ 1 tales que T 1 T 2 = T 2 T 1 . Demostar que existe una base X en V tal que m X (T 1 ) y mX (T 2) son diagonales. 5. Sea T : V → V una transformaci´ on on lineal de un espacio K -espacio -espacio V de dimensi´on on finita n ≥ 1 tal que T tiene n valores propios diferentes. Calcular el n´umero umero de subespacios invariantes invariantes de T . 6. Sea A = [aij ] una matriz cuadrada de orden n ≥ 1 tal que su n´ umero de entradas nulas umero 2 es superior a n − n. Demostar que el determinante de A es igual a cero. 7. Sea A = [aij ] una matriz cuadrada invertible de orden n ≥ 1. Demostrar que
pA− (x) = (−x)n(det(A))−1 pA (x−1 ), 1
donde pA(x) denota el polinomio caracter´ caracter´ıstico de la matriz A. 8. Sea T : V −→ V una transformaci´ on on lineal de un K -espacio -espacio de dimensi´on on finita n. Supongamos que T es diagonalizable y que α1 , . . . αk son los distintos valores propios de T , 1 ≤ k ≤ n. Demostrar que existen transformaciones lineales T 1 , . . . , Tk de V tales que: (i) T = α 1T 1 + · · · + αk T k (ii) I V V = T 1 + · · · + T k (iii) T i T j = 0, para i = j (iv) T i2 = T i 1
(v) T i (V ) = E (αi ), 1 ≤ i ≤ k. Demostra Demo strarr tambi´ ta mbi´en en el rec´ rec´ıproco ıpro co de esta e sta afirmaci afir maci´´on, on, es decir, si existen k escalares distintos α1 , . . . αk y k transformaciones lineales T 1 , . . . , Tk de V , con k ≤ n, que satisfacen (i)-(iii), entonces T es diagonalizable, α1 , . . . αk son los valores propios distintos de T y (iv)-(v) tambi´en en se cumplen. cump len. 9. Demostrar que cada matriz cuadrada compleja A es similar a su transpuesta AT . 10. Sea A una matriz cuadrada compleja de orden n ≥ 1 tal que existe un n´ umero umero natural m m para el cual se tiene que A = E . Demostrar que A es diagonalizable ( E denota la matriz id´entica entica de tama˜ tama no n ˜ o n). 11. Sean S, T : V → V transformaciones tales que S T = T S . Demostrar que ker( S ) e Im(S ) son subespacios T -invariantes. 12. Sea T : V → V una transformaci´ on on lineal de un espacio V de dimensi´on on finita. Demostrar que existe un entero k tal que: (a) Para j ≥ k se cumple que Im( T j ) = Im(T k ) y ker( T j ) = ker(T k ). (b) Im(T k ) y ker(T k ) son subespacios T -invariantes y adem´as as V = Im(T k ) ⊕ N (T k ). 13. Calcular, usando los resultados del presente cap´ cap´ıtulo, una matriz invertible invertible C tal tal que −1 C BC sea una matriz de Jordan, donde
7 1 −2
1 2 2 4 −1 −1 1 5 −1 1 1 2 8
14. Sea T : C2 → C2 una transformaci´ on lineal con un solo valor propio λ . Demostrar que on T − λI es nilpotente. 15. Sea T : V → V una transformaci´ on lineal invertible en un espacio V complejo de on dimensi´on on finita. Demostrar que existe una transformaci´on on S : V → V tal que S 2 = T (sugerencia: use la forma can´onica onica de Jordan). Se dice que S es es la ra´ız ız cuad cu adrad rada a de T . 16. Encontrar la ra´ ra´ız cuadrada de la siguiente matriz
2 −1
−1
1 2 −1 −1 −1 2
17. Determinar si la siguiente matriz es triangulable. En caso afirmativo calcular una matriz C triangulante: triangulante:
1 −1 −2
1 0 −1 0 −2 2 1 1 −1 2
0 0 1 0
18. Calcular la forma can´onica onica racional de la transformaci´on on T : R3 → R3 definida por ( x,y,z ) = (4z, y − x + 2z, 3x − z ). ). T ( 19. Para la matriz real
−1 1 A = 0
4 −5
−1 0 − 8
1 0 1 0 0 1
0
4
determinar: (a) A es diagonalizable ?. En caso afirmativo, calcular una matriz diagonalizante. (b) A es triangulable ?. En caso afirmativo, calcular una matriz triangulante. (c) A es diagonalizable en bloques ?. En caso afirmativo calcular una matriz que la convierta en matriz diagonal en bloques. (d) La forma racional de A y una matriz racionalizante. (e) A es diagonalizable en bloques de Jordan ?. En caso afirmativo calcular una matriz que la diagonalice en bloques de Jordan. (f) Resuelva (a)-(e) pero considerando A como matriz compleja. 20. Sea A ∈ M n (K ) una matriz tal que su forma de Jordan es una celda de Jordan. Demostrar que la forma racional de A es la compa˜ nera nera del polinomio m´ınimo de A (en consecuencia, la forma racional de A tiene un solo bloque racional). 21. Sea A ∈ M n (K ) una matriz tal que su forma de Jordan es una celda de Jordan. Demostrar que A no es diagonalizable en bloques.
3
´ Algebra Lineal Cap´ ıtulo ıtul o 6. Formas orma s Can´ Can ´ onicas onicas Ejercicios. 1. Sea T : V → V on lineal de un espacio K -espacio -espacio V on V una transformaci´on V de dimensi´on
finita n ≥ 1. Demostrar que T olo si el t´ermino ermino independiente indep endiente q 0 del T es invertible si y s´olo polin po linomi omioo m´ınimo ınim o q T T (x) es no nulo. Soluci´ on. on. Sea pT (x) = p0 + p 1 x + · · · + x + x n el polinomio poli nomio caracter´ıstico ıstico de T , T , entonces n det(T ), ), luego Si T Si T es es invertible entonces p entonces p 0 es no nulo, pero seg´un un el Teorema p0 = (−1) det(T de Hamilton-Cayley q T T (x) divide a pT (x) y esto implica que p0 = q 0 s0 , con s0 ∈ K , por lo tanto q tanto q 0 es no nulo. Rec´ıprocame ıpro camente, nte, sea q 0 no nulo, esto indica que 0 no es ra´ız ız de q T T (x), y nuevamente por la versi´on on general del Teorema de Hamilton-Cayley, Hamilton-Cayley, 0 no puede ser ra´ ra´ız de pT (x), luego p0 es no nulo y entonces T es T es invertible. 2. Calcular la forma de Jordan de la matriz
0 0 1
0 0 0 0 −1
1 0 0 −1 0 0 0 0
3. Determinar la forma can´onica onica de Jordan de la matriz:
5 1 0 0
−10 10 −5 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 0 1 0
4. Sean T 1 , T 2 : V → V transformaciones on V transformaciones diagonalizables de un espacio V V de dimensi´on
finita n finita n ≥ 1 tales que T que T 1 T 2 = T 2 T 1 . Demostar que existe una base X base X en V en V tal tal que m que m X (T 1 ) y mX (T 2) son diagonales. Soluci´ on. on. Realizamos la prueba por inducci´on on sobre n. Para n = 1 no hay nada que demostrar. demostrar. Supongamos que la afirmaci´ afirmaci´ on es cierta para espacios de dimensi´on < on on < n y sea on n. Sean λ1 , . . . , λs los valores propios distintos de T 1. Podemos suponer V V de dimensi´on que s ≥ 2 ya que si s = 1, entonces el polinomio m´ınimo de T 1 es x − λ1 , con lo cual diago nal es tambi´en en T 1 = λ1 I , y la matriz de T 1 en una base X X para la cual T 2 es diagonal diagonal. Sea W i = ker(T ker(T 1 − λi I ), ), 1 ≤ i ≤ s, fijemos el ´ındice i; W i es T 1-invariante, veamos que tambi´en en es T 2-invariante: si v ∈ W i y u = T 2 (v), entonces (T ( T 1 − λi I )(u )(u) = T 1 T 2 (v ) − λi T 2 (v ) = T 2T 1 (v ) − λi T 2(v ) = T 2 (T 1 (v ) − λi v ) =T 2(0) = 0, por lo tanto u ∈ W i . Consideremos las transformaciones inducidas T inducidas T 1i , T 2i sobre el subespacio W subespacio W i. Puesto que el i polin po linomi omioo m´ınimo ınim o de T de T 1 divide divi de al a l polino p olinomio mio m´ınimo de T de T 1, entonces T entonces T 1i es diagonalizable, de igual manera, T 2i es diagon d iagonalizabl alizable. e. Notemos tambi´en en que T 1i T 2i = T 2i T 1i, como s ≥ 2, entonces dim(W dim(W i ) < dim(V dim(V ), ), y por inducci´on, on, existe una base com´un un X i en W i tal que 1
mX (T 1i ) y m X (T 2i ) son matrices diagonales. Tenemos entonces que V = W 1 ⊕ · · · ⊕ W s y de V ,, pero como W como W i es T es T 1 , T 2-invariante, entonces X = ∪ is=1X i es una base de V i
i
m (T ) =
1 X (T 1 )
mX
1
1
m (T ) =
... mX (T 1s )
0
X 1
mX
0 s
(T 21 )
0 ...
2
mX (T 2s )
0
s
5. Sea T : V → V on lineal de un espacio K -espacio -espacio V on V una transformaci´on V de dimensi´on
finita n finita n ≥ 1 tal que T que T tiene tiene n valores propios diferentes. Calcular el n´umero umero de subespacios n valores invariantes invariantes de T de T .. Soluci´ on. on. Sean a1 , . . . , an los valores propios de T . T . Es claro que cada subespacio propio E (ai ) es invariante y que la suma de subespacios invariantes es invariante. De esta manera tenemos garantizados al menos 2n subespacios invariantes diferentes: todos los subconjuntos diferentes de { a1 , . . . , an }. Veamos ahora que cada subespacio invariante W de V V es una suma directa finita de subespacios propios y por lo tanto determina un subconjunto de {a1 , . . . , an }. Si W = 0 entonces entonces no hay nada que probar: probar: el subconjunt subconjuntoo es el vac´ ac´ıo. Sea W = 0,sabemos que el polinomio caracter´ caracter´ıstico de la transformaci´on on inducida T W W divide al polinomio carac ca racter´ ter´ısti ıs tico co de d e T , T , es decir, pT (x) | pT (x) = (x − a1 ) · · · (x − an ), W W
luego pT (x) = (x − ai ) · · · (x − ai ) , y de esta forma T W determina el conjunto conjunto W determina diagonali alizab zable, le, se determ determina ina la descom descomposic posici´ i´ on on {ai , . . . , ai }, y debido a que T W W es diagon W = E (ai ) ⊕ · · · ⊕ E (ai ). El ultimo u ´ ltimo detalle que falta probar para concluir la demostraci´on on es que subespacios diferentes W 1 = W 2 determinan conjuntos diferentes {ai , . . . , ai } = {a j , . . . , a j } y por lo tanto descomposiciones diferentes E diferentes E (ai ) ⊕ · · · ⊕ E (ai ) = E (a j ) ⊕ · · · ⊕ E (a j ). Razonamos por po r contrar co ntrarec ec´´ıproca, ıpro ca, si {ai , . . . , ai } = { a j , . . . , a j }, entonces s
1
W W
s
1
1
s
1
s
1
s
1
s
1
t
1
t
t
1
= E (ai ) ⊕ · · · ⊕ E (ai ) = W . W 1 = E W . s
1
6. Sea A Sea A = = [aij ] una matriz cuadrada de orden n orden n ≥ 1 tal que su n´umero umero de entradas nulas
es superior a n a n 2 − n. Demostar que el determinante de A es igual a cero. 7. Sea A = A = [aij ] una matriz cuadrada invertible de orden n ≥ 1. Demostrar que (det(A))−1 pA(x−1 ), pA− (x) = (−x)n(det(A 1
2
donde p donde p A(x) denota el polinomio caracter´ caracter´ıstico de la matriz A. 8. Sea T : V −→ V on lineal de un K -espacio -espacio de dimensi´on on finita n. V una transformaci´on Supongamos que T es T es diagonalizable y que α1 , . . . αk son los distintos valores propios de de V tales que: T , T , 1 ≤ k ≤ n. n . Demostrar que existen transformaciones lineales T 1 , . . . , Tk de V (i) T = α 1T 1 + · · · + αk T k (ii) I V V = T 1 + · · · + T k (iii) T i T j = 0, para i para i = j (iv) T i2 = T i (v) T i (V ) V ) = E (αi ), 1 ≤ i ≤ k. k . Demostra Demo strarr tambi´ ta mbi´en en el rec´ rec´ıproco ıpro co de esta e sta afirmaci afir maci´´on, on, es decir, si existen k existen k escalares escalares distintos lineales T 1 , . . . , Tk de V de V ,, con k con k ≤ n, α1 , . . . αk y k transformaciones lineales T n, que satisfacen (i)-(iii), entonces T T es diagonalizable, α1 , . . . αk son los valores propios distintos de T T y (iv)-(v) tambi´en en se cumplen. cump len. 9. Demostrar que cada matriz cuadrada compleja A es similar a su transpuesta A T . 10. Sea A Sea A una una matriz cuadrada compleja de orden n orden n ≥ 1 tal que existe un n´umero umero natural m (E denota denota la m para el cual se tiene que A = E . E . Demostrar que A es diagonalizable (E matriz id´entica entica de tama˜ tama no n n ˜ o n). ). Soluci´ on. on. Si m = 1, no hay hay nada nada que que demo demost stra rar. r. Sea Sea m ≥ 1, existe C C compleja e invertible de orden n orden n tal tal que C que C −1 AC = J , donde J es es la forma de Jordan de A de A.. Entonces, J , donde J m m −1 −1 m (C AC ) = J = C A C = E , mbi´en en se tiene tien e que E , luego para cada celda J a,r J tambi´ a,r de J ta m entica de tama˜no no r. Supongamos que alguna celda es J a,r = E r , donde E r denota la id´entica m de orden r > 1, entonces por sobre la diagonal principal de J a,r tenemos am = 1 y en la segunda diagonal por debajo de la principal tenemos ma tenemos mam−1 = 0, lo cual es contradictorio. Por lo tanto, r = 1 y J es J es una matriz diagonal, es decir, A es diagonalizable. 11. Sean S, T : V → V transformaciones ker(S ) e V transformaciones tales que ST = T S . Demostrar que ker(S Im(S Im(S ) son subespacios T subespacios T -invariantes. -invariantes. 12. Sea T : V → V on lineal de un espacio V on finita. V una transformaci´on V de dimensi´on Demostrar que existe un entero k tal que: (a) Para j Para j ≥ k se cumple que Im(T Im( T j ) = Im(T Im(T k ) y ker(T ker( T j ) = ker(T ker(T k ). (b) Im(T Im(T k ) y ker(T ker(T k ) son subespacios T subespacios T -invariantes -invariantes y adem´as V as V = = Im(T Im(T k ) ⊕ N ( N (T k ). Soluci´ on. on. Consid´erense erense las siguientes cadenas de subespacios: Im(T 0) ⊇ Im(T Im( T 1 ) ⊇ · · · ⊇ Im(T Im( T m ) ⊇ ·· · ⊇ 0 V = V = Im(T 0 = ker(T ker(T 0 ) ⊆ ker(T ker(T 1 ) ⊆ ·· · ⊆ ker(T ker(T m ) ⊆ ·· · ⊆ V Estas cadenas se deben estabilizar ya que V es on finita, esto quiere decir que V es de dimensi´on j p existen p existen py y q enteros enteros tales que Im(T Im( T ) = Im(T Im(T )si j )si j ≥ py ker(T j ) = ker(T ker(T q )si j )si j ≥ q . Siendo py ker(T ax{ p, q }se cumple la parte (a). k = m´ax 3
Seg´ un un la Lecci´on on 2 del d el Cap´ C ap´ıtulo ıtu lo 6, Im(T Im( T k )y ker(T ker(T k )son subespacios T subespacios T -invariantes. -invariantes. Veamos k k ahora que V es Im(T ) ∩ ker(T ker(T ), entonces x =T k (v ), y V es suma directa de ellos. Sea x ∈ Im(T ker(T 2k ) = ker(T ker(T k ), es decir, T k (x) = 0, luego 0 = T k (x) = T 2k (v), es decir, v ∈ ker(T on T k : V → V se dim( V )) = T k (v) = 0, o sea que x = 0. Para la transformaci´on V se tiene que dim(V dim N (T k ) + dim(Im(T dim(Im(T k )), pero como estos subespacios est´an an en suma directa, entonces k k Im(T ) ⊕ ker(T ker(T ). V = V = Im(T 13. Calcular, usando los resultados del presente cap´ cap´ıtulo, una matriz invertible invertible C tal que C tal −1 C BC sea BC sea una matriz de Jordan, donde
7 1 −2
1 2 2 4 −1 −1 1 5 −1 1 1 2 8
Soluci´ on. on. El primer paso es calcular el polinomio caracter´ caracter´ıstico y el polinomio m´ınimo
de B , para esto usamos el SWP: pB (x) = (x − 6)4 , q B (x) = (x − 6)3. Esto indica que la matriz de Jordan de B de B tiene un solo bloque de Jordan. El n´umero umero de bloques elementales de Jordan correspondientes al valor propio 6 es igual a la dimensi´on de E de E (6), (6), y el primer bloque elemental de Jordan es la multiplicidad de 6 en el polinomio m´ınimo, o sea 3. Con esta informaci´on on podemos asegurar que dim(E dim(E (6)) (6)) = 2 y tambi´en en ya tenemos la forma fo rma de de Jordan para la matriz B matriz B :
6 1 = J 0
0 6 1 0 0
0 0 6 0
0 0 0 6
Debemos ahora calcular la matriz C . Vamos a asumir que B representa una transformaci´on on lineal B : R4 → R4 (no necesitamos considerarla sobre C ya que su polinomio caracter´ıstico ıstico se factoriza completamente completa mente en R). Se tiene entonces que R4 = ker((B ker((B −6I )3 ). Debemos encontrar una base X ker(( B − 6I )3 ) de tal forma que la matriz C X en ker((B C ser´a la 4 matriz de cambio de la can´onica onica de R a esta nueva base X . Consideremos para esto la transformaci´on on N = B − 6I 6 I : R4 → R4 ; N es nilpotente nilpotente de ´ındice ındice 3 y seg´un u n la Proposici´on on 13, R4 se descompone descomp one en suma s uma directa de 2 subespacios subes pacios c´ıclicos (recu´erdese erdese 4 que 2 = dim(ker(N dim(ker(N )) ) ) = dimker(B dimker(B − 6I 6 I ) = dim(E dim(E (6))). (6))). Sea pues R = [w1] ⊕ [w [ w2 ], 3 2 donde w1 tiene como polinomio anulador a x y {w1 , N w1 , N w1 } es una base de [w [w1 ] 3 y, w2 es tal que su polinomio anulador divide a x . Pero como dim([w dim([w2]) = 1 el polinomio anulador de w2 es x, esto indica que N ( N (w2) = 0, es decir, w2 debe pertenecer al n´ucleo ucleo de N de N y y no estar en la envolvente lineal de { w1 , N w1 , N 2 w1 } (debido a que la suma es directa). Pasemos entonces a encontrar los vectores w1 y w2 con estas condiciones. En calidad de w1 ∈N (( 6 I )3 ) = R4 tomamos el vector w1 = (0, (0, 0, 0, 1), entonces N ((B B − 6I 2 (2, −1, −1, 2) y N w1 = (3, (3, 3, −6, 3); n´otese otese que estos tres vectores son LI. Ahora N w1 = (2,
4
(6) =< =< ( −1, −1, 1, 0), 0), (−1, −1, 0, 1) > 1) > y y { w1 , N w1 , N 2 w1 , w2 } deben w2 ∈ N ( N (B − 6I ) = E (6) ser LI. En calidad de C entonces entonces tomamos
0 0 0
2 3 −1 3 −1 −1 1 −1 −6 1 2 3 0
0 y de esta forma: −
1
1 1 7 1 2 2 0 2 3 −1 6 0 1 1 0 0 1 4 −1 −1 0 −1 3 −1 1 6 −3 3 = 2 1 1 5 −1 0 −1 −6 1 0 1 −9 −3 0 −2 1 9 1 1 2 8 1 2 3 0 0 0 −1 −1 −1 0 2 2 14. Sea T Sea T : C → C una transformaci´on on lineal con un solo valor propio λ. λ . Demostrar que es nilpotente. T − λI es 15. Sea T : V → V on lineal invertible en un espacio V V una transformaci´on V complejo de dimensi´on on finita. Demostrar que existe una transformaci´on on S : V → V V tal que S 2 = T ız cuad cu adrad rada a de T (sugerencia: use la forma can´onica onica de Jordan). Se dice que S es de T .. S es la ra´ız 16. Encontrar la ra´ ra´ız cuadrada de la siguiente matriz
2 −1
1 −1 2 −1 2 −1 −1
17. Determinar si la siguiente matriz es triangulable. En caso afirmativo calcular una
matriz C triangulante: triangulante:
1 −1 −2
1 0 0 −1 2 −2 1 1 −1
0 0 1 0
18. Calcular la forma can´onica onica racional de la transformaci´on on T : R3 → R3 definida por
( x,y,z ) = (4z, (4z, y − x + 2z, 2z, 3x − z ). ). T (x,y,z 19. Para la matriz real
−1 1 A = 0
−1 1 1 0 0
0 −8 0 4 0 −5 1 4
determinar: (a) A (a) A es diagonalizable ?. En caso afirmativo, calcular una matriz diagonalizante. 5
0 0 6 0
0 0 0 6
(b) A (b) A es triangulable ?. En caso afirmativo, calcular una matriz triangulante. (c) A es diagonalizable en bloques ?. En caso afirmativo calcular una matriz que la convierta en matriz diagonal en bloques. (d) La forma racional de A y una matriz racionalizante. (e) A es diagonalizable en bloques de Jordan ?. En caso afirmativo calcular una matriz que la diagonalice en bloques de Jordan. (f) Resuelva (a)-(e) pero considerando A como matriz compleja. Soluci´ on. on. (a) Calculamos el polinomio m´ınimo de A: para esto podemos realizar operaciones ciones element elementales ales sobre la matriz matriz xE − − A y obtenemos
(x
2
+ 1)(x 1)(x − 2)2 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
,
por lo tanto para la matriz A matriz A se se encuentra que P que P A (x) = (x2 +1)(x +1)(x − 2)2 = q A(x). Se tiene que A que A no es una matriz diagonalizable. (b) A (b) A no es una matriz triangulable (considerada como matriz real). (c) Puesto que q que q A(x) tiene dos factores, entonces A entonces A es diagonalizab diagonalizable le en bloques (si q (si q A(x) tuviera solo un factor irreducible, no podr´ıamos ıamos todav´ todav´ıa decidir nada respecto a la diagonalizaci´on on en bloques). Calculamos ker(A ker(A2 + E ) =< (8, (8 , −4, 1, 0), 0), (28, (28, −12, 12, 0, 1) > 1) > ker[(A ker[(A − 2E )2 ] =< (1, (1 , 0, 1, 0), 0), (−1, 1, 0, 1) > 1) > La matriz que diagonaliza en loques es
8 −4 C = 1
28 −12 0 0 1
1 −1 0 1 1 0 0 1
,
y se puede comprobar que C −1
−4 1 AC = 0
−17 4 0 0 0
0 0 0 0 0 −4 1 4
.
(d) La forma racional de A de A se se calcula con los factores invariantes. Seg´un un la parte (a), solo 4 3 hay un factor invariante, invariante, el polinomio m´ınimo q A(x) = x − 4x + 5x 5 x2 − 4x + 4. Por lo tanto, la forma racional de A de A es
0 1 R = 0
0 0 1 0 0 6
0 −4 0 4 0 −5 1 4
.
Puesto que pA (x) = q A(x), entonces A tiene un vector c´ıclico v, y para ´el el se tiene que 2 3 4 4 {v,Av,A v, A v } es una base de R de tal forma que R = [v]. Se puede verificar que v se puede tomar como uno cualquiera de los 4 vectores can´onicos de R4. Si tomamos v tomamos v = e = e 1 , entonces la matriz que racionaliza es
1 0 C = [v A v A v A v] = 0 2
−1 1 0 0 0
3
0 0 1 0
0 0 0 1
,
y se comprueba que C −1 AC = R. R . (e) A no es diagonalizab diagonalizable le en bloques de Jordan Jordan ya que su polinomio polinomio caracter caracter´´ıstico ıstico no puede factorizar completamente en factores lineales reales. (f) Vamos a considerar ahora la matriz A matriz A sobre sobre el cuerpo de n´umeros umeros complejos. Entonces, )(x + i + i)( )(x A no es diagonalizable pero si es triangulable. En efecto, q A(x) = (x − i)(x x − 2)2 . Calculemos una matriz C matriz C que que triangule a la matriz A matriz A.. Elegimos un vector propio v propio v 1 de A de A.. Primero calculemos E calculemos E (i) =< ( −4 + 8i, 4 − 4i, −4 + i, 1) > 1) >,,E (−i) =< ( −4 − 8i, 4 + 4i, −4 − (2) =< =< (−3, 1, −2, 1) > 1) >.. Escogemos v1 = (−3, 1, −2, 1) y buscamos ahora un i, 1) > y E (2) vector v2 ∈ ( A − λE )v2 ∈< v1 >, siendo λ alg´ un un valor propio de A. / < v1 > pero tal que (A Tomemos λ Tomemos λ = = 2, debemos entonces resolver el siguiente sistema:
−3 1 0
0 −8 −1 0 4 −1 1 −2 −5 0 0 1 2
a −3 b = θ 1 c −2 d
1
para alg´ un θ. Tomando θ = 1, encontramos que a = 1 − 3d, b = d, c = 1 − 2d, podemos un entonces elegir d elegir d = = 0, con lo cual v cual v 2 = (1, (1, 0, 1, 0). Necesitam Necesitamos os ahora un vector vector v v 3 tal que (A − αE )v3 ∈ < v 1 , v2 >, un un valor propio α propio α.. Ya hemos utilizado v3 ∈ / < v1 , v2 > pero > pero (A > , para alg´ el valor propio 2 en dos ocasiones, por lo tanto, elegimos otro valor propio, digamos α digamos α = = i i.. Entonces, debemos resolver el sistema + δ −(1 + i)a − b − 8d = − 3θ + δ 4d = θ = θ a + (1 − i)b + 4d + δ b − ic − 5d = − 2θ + δ = θ c + (4 − i)d = θ escogemos θ escogemos θ = = 0 y δ = resulta a = = − (4 − 8i)d − (1 − i), b = (4 − 4i)d + 1, c = − (4 − i)d. δ = 1, resulta a Tomando d = 0, encontramos que v3 = (−1 + i, 1, 0, 0). El vector v3 satisface las dos condiciones requeridas ya que el rango de {v1 , v2, v3 } es 3. Finalmente, buscamos un cuarto vector v4 tal que v4 ∈ (A − τ E )v4 ∈< v1 , v2 , v3 >. Debemos / < v1 , v2 , v3 > pero (A
7
ahora elegir al valor τ valor τ = −i, con lo cual debemos resolver el sistema + δ + + ( −1 + i + i))ρ −(1 − i)a − b − 8d = − 3θ + δ + i))b + 4d 4d = θ = θ + + ρ a + (1 + i ρ + ic − 5d = − 2θ + δ + δ b + ic + i))d = θ = θ c + (4 + i Escogemos θ Escogemos θ = = 0, δ = = 0, ρ = 1 y obtenemos a obtenemos a = = 1 − ( 4 + 8i 8i)d, b = (4 (4 + 4i)d, c = − (4 + i)d. Tomando d = 0 encontramos v4 = (1, (1, 0, 0, 0), donde el rango de v1 , v2 , v3 , v4 es 4. La matriz triangulante es + i 1 −3 1 −1 + i 1 0 1 0 C = , 0 0 −2 1 1 0 0 0
y se comprueba que C −1
2 0 AC = 0
1 2 0 0 0
0 0 1 0 i 1 0 −i
.
La diagonalizaci´on on en bloques real que obtuvimos es v´alida, alida, pero en el caso complejo podemos refinar los bloques con la descomposici´on q on q A(x) = (x − i)(x )(x + i)(x )(x − 2)2 . Obtenemos entonces tres bloques, y podemos usar los c´alculos alculos ya realizados para determinar una matriz C matriz C que que permita esta nueva diagonalizaci´on on en bloques:
−4 + 8i8i 4 − 4i C = −4 + i + i
−4 − 8i 4 + 4i 4i −4 − i 1 1
1 −1 0 1 1 0 0 1
,
se comprueba que C −1
i 0 AC = 0
0 −i 0 0 0
0 0 0 0 0 −4 1 4
.
La forma racional para A es unica, u ´ nica, y no depende si extendemos el cuerpo de escalares. En efecto, sea A ∈ M n (K ) y sea F ⊇ K , si R es la forma racional de A relativa a K , entonces existe una matriz C ∈ GLn (K ) tal que C −1 AC = R. Teniendo en cuenta que GLn (K ) ⊆ GLn (F ), F ), entonces R es la forma racional de A considerada como matriz de M n(F ). F ). Por lo tanto, la matriz que obtuvimos en el caso real es la misma que en el caso complejo. 8
Para terminar, notemos que los c´alculos alculos ya realizados nos permiten obtener en forma inmediata la forma de Jordan para A para A:: el n´umero umero de bloques de Jordan es 3, para el valor i el bloque es de orden 1 × 1, lo mismo ocurre para el valor − i. Para el valor 2 el bloque es de tama˜no no 2 × 2, adem´as a s el n´umero umero de celdas para este bloque es la dimensi´on de (2) = 1, luego la forma es E (2) i 0 0 0 0 −i 0 0 J = . 0 0 2 0 0 0 1 2
Para el c´alculo alculo de la matriz C matriz C se se tiene: C4 = ker(A ker(A − iE ) ⊕ ker(A ker(A + iE ) ⊕ ker[(A ker[(A − 2E )2 ]. Ya sabemos que ker(A ker(A − iE ) =< ( −4 + 8i, 4 − 4i, −4 + i, 1) > 1) >,, ker(A ker(A + iE ) =< ( −4 − 8i, 4 + 4i, −4− i, 1) > 1) >.. Sea W Sea W = = ker[(A ker[(A − 2E )2 ] =< (1, (1, 0, 1, 0), 0), (−1, 1, 0, 1) > 1) >.. Consideremos ahora la transformaci´on on nilpotente de ´ındice 2, N = A − 2E : W −→ W , W , debemos encontrar un vector w ∈ W (1, 0, 1, 0) de W tal que W = [w] =< w, w, Nw >, >, escogemos el vector w = (1, tal forma que N que N w = (−3, 1, −2, 1). Notemos que estos dos vectores son LI, luego son una base de W . W . Se comprueba entonces que para la matriz
−4 + 8i8i 4 − 4i C = −4 + i + i
−4 − 8i 4 + 4i 4i −4 − i 1 1
1 −3 0 1 1 −2 0 1
.
se tiene que C −1
i 0 C J = 0
0 −i 0 0 0
0 0 2 1
0 0 0 2
.
Una observaci´on on final: notemos que la matriz racional de A tiene un solo bloque, pero la matriz de Jordan tiene tres bloques. Por lo tanto, un solo bloque racional no garantiza una sola celda de Jordan. Adem´as, as, este ejemplo muestra que la forma de bloques de una matriz no es ´unica. unica. 20. Sea A ∈ M n (K ) una matriz tal que su forma de Jordan es una celda de Jordan. Demostrar que la forma racional de A es la compa˜ nera nera del polinomio m´ınimo de A (en consecuencia, la forma racional de A tiene un solo bloque racional). Soluci´ on. on. Sea J onica de Jordan de A, la cual es una celda de Jordan J la forma can´onica correspondiente al valor a valor a . . Sabemos que A que A es es similar a J a J ,, por lo tanto, la forma racional de y J coinciden. co inciden. Pero una celda c elda de Jordan tiene como co mo vector c´ıclico ıclico a e1, y en consecuencia, A y J la forma racional de J de J es es la compa˜nera nera de su polinomio poli nomio m´ınimo q ınimo q A (x) = p A (x) = (x − a)n. 21. Sea A ∈ M n (K ) una matriz tal que su forma de Jordan es una celda de Jordan. Demostrar que A que A no es diagonalizable en bloques.
9
Soluci´ on. on. Supongamos que A que A es diagonalizable en dos bloques A 1 , A2 , de tama˜ nos m nos m i <
que q A(x) = m.c.m( n, i = i = 1, 2. Sabemos que q m.c.m(q A (x)q A (x)), pero esto es contradictorio con los resultados del problema anterior ya que q A (x) = (x − a)n , para un cierto a. a . 1
10
2
Cap´ıtulo 7
Espacios Duales Introducci´ on on La colecci´on on de transformaciones lineales de un K-espacio vectorial V en K constituye un nuevo espacio vectorial con propiedades similares a las de V, y es muy ´util util para el estudio geom´etrico etrico de los l os espacios con producto interno que ser´an an abordados en lo que resta del curso.
7.1. 7.1.
El Dua Duall de un un Espa Espaci cio o Vec Vector toria iall
Sea V Sea V un un espacio vectorial sobre un cuerpo K . K . Puesto que K que K es es un K un K -espacio -espacio vectorial, tiene sentido considerar transformaciones lineales de V en K . El presente cap´ıtulo ıtulo estudia tales transformaciones lineales. Definici´ on on 7.1. Una transformaci´ on lineal T : V Algunos ejemplos de funcionales son los siguientes.
→ K se K se dice que es un funcional un funcional del del espacio V . V .
Ejemplo 7.1. Sea M n (K ) el espacio de matrices cuadradas de orden n funci´ on traza on traza definida definida por tr : tr : M M n (K ) A = [aij ]
−→ −→
K tr( tr(A) =
n k=1
≥ 1 sobre el cuerpo K. La
akk
es un funcional sobre el espacio M n (K ). ). De otra parte, sea K [x] es espacio de los polinomios con coeficientes en K K y sea a un elemento fijo de K . Entonces, la funci´on on que evalua cada polinomio de K [x] en el punto a es un funcional. Finalmente, sea C [a, b] el espacio de funciones continuas en el b intervalo cerrado [a, [a, b], la integral definida a f ( f (x)dx establece dx establece un funcional sobre el espacio C [ C [a, b].
En el Cap´ Cap´ıtulo 3 estudiamos el espacio LK (V, W ) W ) de transformaciones lineales del espacio V V en el espacio W espacio W ;; tomando W tomando W = K se K se obtiene obtiene el espacio espacio de funcionales funcionales de V de V en K en K el el cual denotamos por V ∗ y se conoce con el nombre de espacio dual del dual del espacio V espacio V .. Si V Si V es de dimensi´on on finita n finita n 1, entonces ∗ seg´ un un el Corolario1 del Cap´ Cap´ıtulo 3 se tiene que dim(V dim( V ) = n, n , y en consecuencia, V ∗ = V. V . La siguiente ∗ proposici´on on muestra de manera expl´ıcita ıcita una base de V a partir de una base de V . V .
∼
≥
{
≥
}
Proposici´ on on 7.1. Sea V un V un espacio de dimensi´ on finita n 1 y sea X = v1 , . . . , vn una base de V . V . Entonces, existe una ´ unica base X ∗ = v 1∗ , . . . , vn∗ en V en V ∗ tal que
{
v∗ (v (vj ) = i
}
1, si j j = i 0, si j j = i
125
CAP ´ ITULO ITULO 7. ESPAC ESPACIOS IOS DUALES DUALES
126
∈ ∈ V ∗ se cumple que
Adem´ as, para cada funcional f
f = y para cada v cada v = a = a 1 .v1 +
··· +a
n .vn
n k=1
f (vk ).vk∗ ,
∈ V V se tiene que
n k=1
v =
vk∗ (v ).vk ,
f ( f (v ) =
X ∗ se conoce como la base dual de de X .
n k=1
f ( f (vk )ak .
Ejericicio 7.1. Sea X = v1 , v2 , v3 la base de R3 definida por v1 = (1, (1, 0, 1), 1), v2 = (1, (1, 1, 1), 1), v3 = (2, (2, 2, 0). Si v Si v = (a,b,c) a,b,c) es un vector cualquiera de R de R 3 , demostrar que v que v 1∗ (v) = a b, v2∗ (v) = a b + c, v3∗ (v) = b 21 (a + c).
{
}
−
−
−
−
Soluci´ on: Sabemos on: Sabemos que v = v = v 1∗ (v ).v1 + v2∗ (v ).v2 + v3∗ (v ).v3 , luego (a,b,c) a,b,c) = v 1∗ (v ). (1, (1, 0, 1) + v2∗ (v ). (1, (1, 1, 1) + v3∗ (v ).(2, (2, 2, 0)
−
de donde
v1∗ (v) + v2∗ (v) + 2v 2 v3∗ (v) = a v2∗ (v) + 2v 2 v3∗ (v) = b v1∗ (v) + v2∗ (v) = c
(1) (2) (3)
−
Suma Sumand ndoo (1) (1) con con el opue opuest stoo de (2) (2) se obti obtien enee que que v1∗ (v ) = a v2∗ (v) = c + a b. Finalmente, v Finalmente, v 3∗ (v) = b 21 (a ( a + c).
−
−
Ejericicio Ejericicio 7.2. Sea V Sea V = R 2 [x] el espacio de polinomios de grado
1
f 1 ( p( p(x)) =
2
p( p(z )dz ,
f2 ( p( p(x)) =
0
− b. b .
De (3) resulta resulta enton entonces ces que
≤ 2. Probar que los funcionales
p( p(z )dz ,
f3 ( p( p(x)) =
0
−1
p( p(z )dz
0
conforman una base del dual de R 2 [x]. Soluci´ on: La base canonica de R2 [x] es 1, x , x2 , la cual tiene dimension 3, con lo cual la base del espacio dual de R2 [x] tambi´ en en tiene dimension 3. Por lo tanto, basta determinar si los funcionales f 1 ( p( p(x)), f )), f 2 ( p( p(x)) y f 3 ( p( p(x)) son linealmente independientes.
{
}
Sea af Sea af 1 + bf 2 + cf 3 = 0 , aplicamos esta relaci´on on a los vectores dela base canonica 1, x , x2 :
{
}
af 1 (1) + bf 2 (1) + cf 3 (1) = 0 af 0 af 1 (x) + bf 2 (x) + cf 3 (x) = 0 af 1 (x2 ) + bf 2 (x2 ) + cf 3 (x2 ) = 0 Para el polinomio 1 tenemos:
1 dz = 0 dz =
f 1 (1) =
2 dz = 0 dz =
1 2
2 zdz = 0 zdz =
Para el polinomio x polinomio x tenemos: f 1 (x) =
1 0
zdz = zdz =
f 2 (x) =
Para el polinomio x polinomio x 2 tenemos: f 1 (x2 ) =
1 2 z dz = dz = 31 0
1 f 2 (1) =
f 2 (x2 ) =
2 f 3 (1) =
1 1 2 1 3
2 2
2 2 z dz = dz = 38 0
8 3
−11 − 213
a b c
−1 dz = dz = −1
0
2 f 3 (x) =
f 3 (x2 ) =
A partir de lo anterior podemos construir el sistema matricial
−1 zdz = zdz =
0
1 2
−1 z 2 dz = dz = − 1
0
3
=0
El rango de la matriz de este sistema es igual a 3 con lo cual a = b = b = = c c = = 0 y entonces los funcionales f 1 , f 2 y f 3 son linealmente independientes y conforman una base para el espacio dual de R 2 [x].
127
7.2. EL SUBESPACIO SUBESPACIO ANULADOR
7.2. 7.2.
El Subesp Subespac acio io Anul Anulad ador or
En esta lecci´on on queremos establecer una relaci´on on entre algunos subespacios del espacio V V y ciertos subespacios subespacios del espacio espacio dual V dual V ∗ . Definici´ on on 7.2. 7.2. Sea V un espacio espacio vectorial vectorial y sea sea S S un subconjunto no vac´ıo ıo de V , V , se denomina anulador de S al S al conjunto S ◦ = f
{ ∈ ∈ V ∗ | f ( f (x) = 0, para cada x ∈ S }.
Proposici´ on on 7.2. Es muy f´ acil probar que S que S ◦ tiene las siguientes propiedades: a) S ◦ es un subespacio de V de V ∗ b) 0 ◦ = V ∗ c) V ◦ = 0
⊆ S 2, entonces S 1◦ ⊇ S 2◦
d) Si S 1
e) Si V es V es de dimensi´ on finita y W W es un subespacio de V , V , entonces
∼
dim(W dim(W )) + dim( W ◦ ) = dim(V dim(V )) V ∗ / W ◦ = W ∗ f) f ) Si V V es de dimensi´ on finita y W 1 , W 2 son subespacios de V , V , entonces W 1 = W 2 si y s´ olo si ◦ ◦ W 1 = W 2 . Demostraci´ on: Las on: Las cuatro primeras propiedades son evidentes. Veamos la prueba de las dos restantes. e) Sea V V de dimensi´on on finita n. Si W W = 0, entonces W 0 = V ∗ y en este caso dim(V dim( V )) = dim( dim(W ) W ) + 0 dim( dim(W ).
{
}
Sea pues W no W no nulo y w1 ,...,wk una base de W . W . Entonces, completamos esta base hasta una base de V de V :: X = w1 ,...,wk , z1 ,...,zr de tal forma que k + k + r = n = n.. Definimos ahora la transformaci´on on lineal
{
}
α : V : V ∗ W ∗ α (f ) f ) = f (w ( w1 ) .w1∗ +
→
· · · + f (w ( w ) .w∗ k
k
N´ otese otese que N que N (α ( α) = W 0 . (En forma complemen complementaria taria podemos demostrar demostrar que z 1∗ ,...,zr∗ es una base de 0 W : la independencia lineal es clara ya que estos funcionales son parte de la base dual X ∗ . Sea f W 0 , entonces el funcional f funcional f se se puede expresar en la forma f = f (w ( w1 ) w1∗ + + f (w ( wk ) wk∗ + f (z ( z1 ) z1∗ + + f (z ( zr ) z1∗ = 0 + f + f (z ( z1 ) z1∗ + + f (z ( zr ) z1∗ = f (z ( z1 ) z1∗ + + f (z ( zr ) z1∗ . Esto garantiza que la envolvente lineal de z1∗ ,...,zr∗ coincide con W con W 0 ).
∈ ∈
···
···
···
···
Adem´ as, as, α es sobreyec sobreyectiv tiva. a. En efecto, efecto, sea h W ∗ , entonces entonces h = h (w1 ) .w1∗ + + h (wk ) .wk∗ , definimos f V ∗ por f (w ( wi ) = h (wi ) , i = 1, 2,...,k y f (z ( zj ) = 0, j = 1, 2,...,r. ,...,r. Es claro que α (f ) f ) = h. Podemos ahora aplicar el teorema fundamental de homomorfismo del ´algebra lineal (ver el Problema 13 de la Secci´on on de Ejercicios Ejercicios del Cap´ Cap´ıtulo 2), de tal manera manera que V ∗ /W 0 = W ∗ , pero dim V ∗ /W 0 = dim dim (V ∗ ) dim W 0 = dim dim (W ∗ ). Esto completa la prueba de la parte e).
∈
∈
−
·· · · ·
∼
f) La condici´on on necesaria es evidente. Ahora, si W 10 = W 20 , entonces seg´un u n la parte parte e) dim dim (W 1 ) = dim(W dim(W 2 ). Basta entonces demostrar que W que W 2 W 1 . Supongamos lo contrario, entonces existe un vector no nulo v nulo v W 2 pero v pero v / W 1 . Sea w1 ,...,wk una base de W 1 , entonces w1 ,...,wk , v es LI y podemos completar este conjunto hasta una base de V : V : w1 ,...,wk , v , wk+2 ,...,wn ; consideremos la dual de esta base. Para cada vector x = x = a a 1 .w1 + + ak .wk W 1 se tiene que v que v ∗ (a (a1 .w1 + + ak .wk ) = 0 ∗ ∗ ∗ 0 0 0 0 y v (v (v) = 1, de donde v donde v W 1 y v / W 2 , es decir, W decir, W 1 = W 2 .
∈
∈
{
∈
∈
⊆ } ···
{
{
∈
}
} ···
CAP ´ ITULO ITULO 7. ESPAC ESPACIOS IOS DUALES DUALES
128
Ejericicio Ejericicio 7.3. Sea W Sea W la la envolvente lineal de los vectores w 1 = (2, (2, 2, 3, 4, 1), 1), w2 = ( 1, 1, 2, 5, 2), ◦ w3 = (0, (0, 0, 1, 2, 3), w 3), w 4 = (1, (1, 1, 2, 3, 0). Calcular Calcular W W .
− −
−
−
−
−
Soluci´ on: Soluci´on Primero calculemos calculemos la dimensi´ dimensi´ on on de W de W :: on. Primero
−
2 1 0 1
−2 1 0 1
4 5 2 3
1 0 0 0
−1
−1 2 3 0
− −
−
row echelon form :
{
3 2 1 2
0 1 0 0
0 0 0
−1 2 0 0
0 0 1 0
− − }
}
Por Por tanto, tanto, dim (W ) W ) = 3 y X = v1 = (1, (1, 1, 0, 1, 0) , v2 = (0, (0, 0, 1, 2, 0) , v3 = (0, (0, 0, 0, 0, 1) es una base de W . W . Esto implica que dim W 0 = 2. La base X X se puede completar hasta una base de R5 : Y = X v4 = (0, (0, 1, 0, 0, 0) , v5 = (0, (0, 0, 0, 1, 0) . Seg´ un un se vi´o en la demostraci´on on de la propiedad e) en la ∗ ∗ 0 Lecci´ on on 2 del de l Cap´ C ap´ıtulo ıtu lo 7, v4 , v5 es una base de W de W . As A s´ı pues, pu es, un eleme e lemento nto f f de W de W 0 es de la forma f forma f = ∗ ∗ av4 + bv5 . Queremos ahora calcular en forma expl´ expl´ıcita la imagen de un vector ( x1 , x2 , x3 , x4 , x5 ) R5 a trav´ tr av´es es de f : f : f (x ( x1 , x2 , x3 , x4 , x5 ) = av 4∗ (x ( x1 , x2 , x3 , x4 , x5 ) + bv5∗ (x ( x1 , x2 , x3 , x4 , x5 ). Debemos entonces expresar (x (x1 , x2 , x3 , x4 , x5 ) a trav´es es de la base Y , Y , es decir, expresar los vectores can´onicos e1 ,...,e5 a trav´es es de la base bas e Y . Y . Para esto debemos calcular la inversa de la matriz
∪{
{
}
∈
− − 1 1 0 1 0
inverse :
entonces
0 0 1 2 0 1 0 0 1 1
0 0 0 0 1 0 0 0 1 0
0 1 0 0 0 0 1 0 0 2
−
0 0 0 1 0 0 0 0 0 1
0 0 1 0 0
e1 = v = v 1 + v4 + v5 e2 = v = v 4 e3 = v = v 2 2v5 e4 = v = v 5 e5 = v = v 3
−
Con esto completamos el ejercicio: f (x ( x1 , x2 , x3 , x4 , x5 ) = av 4∗ (x ( x1 , x2 , x3 , x4 , x5 ) + bv5∗ (x (x1 , x2 , x3 , x4 , x5 ) = ∗ ∗ ∗ ∗ ax1 v4 (e ( e1 ) + ax2 v4 (e ( e2 ) + ax3 v4 (e (e3 ) + ax4 v4 (e (e4 ) + ax5 v4∗ (e (e5 ) + ∗ ∗ ∗ ∗ ∗ bx1 v5 (e (e1 ) + bx2 v5 (e ( e2 ) + bx3 v5 (e (e3 ) + bx4 v5 (e ( e4 ) + bx5 v5 (e ( e5 ) = ax1 + ax2 + bx1 2bx3 + bx4 = (a + b) x1 + ax2 2bx3 + bx4 .
−
−
129
7.3. 7.3. EL DOBLE DOBLE DUAL DUAL
7.3. 7.3.
El Do Dobl ble e Dual Dual
Dado un espacio V espacio V sobre sobre un cuerpo K hemos K hemos definido el espacio dual V ∗ , al cual a su vez se le define ∗∗ su dual V dual V ; queremos queremos conocer la relaci´ relaci´on on de V de V ∗∗ con V . V . Por otro lado, cada base de V de V determina determina una ∗ ∗ base en V en V , deseamos ahora saber si cada base de V es la dual de alguna base de V . V .
∼ ∼
Si V Si V es es de dimensi´on on finita n finita n 1, entonces vimos en la Proposici´on 7.2 on 7.2 que V = V ∗ = V ∗∗ ; queremos enseguida presentar de manera directa el isomorfismo entre V y V ∗∗ para identificar cada elemento de V ∗∗ con un elemento de V . V . El espacio V espacio V ∗∗ se conoce como el doble dual de dual de V . V .
≥
Proposici´ on on 7.3. Sea V V un espacio de dimensi´ on finita n V v donde V ∗ f es un isomorfismo.
F
−→ −→ F v
−−→ −→
V ∗∗ F ( F (v) = F v
K F v (f ) f ) = f ( f (v )
Corolario 7.1. Sea V on finita n V un espacio de dimensi´ a) Dado t
≥ 1. Entonces la funci´ on
≥ 1. Entonces
∈ V ∗∗ existe un ´ unico v unico v ∈ V V tal que t(f ) f ) = f ( f (v ) para cada f cada f ∈ ∈ V ∗. t
t
b) Cada base base de V V ∗ es dual de alguna base de V de V .. Demostraci´ on: La on: La parte a) es consecuencia directa de la Proposici´on 2. Veamos la prueba de la parte b). Sea f 1 , . . . , fn una base de V ∗ y sea t1 = f 1∗ , . . . , tn = f n∗ su base dual, entonces ti (f j ) = 1 si i = j y ti (f j ) = 0 si i = j . Sea v1 , . . . , vn los vectores definidos en la parte a), es decir, tales que ti (f j ) = f = f j (vi ). Usando la notaci´on on de la Proposici´on on 2, v 2, v i = F = F −1 (ti ), con lo cual v1 , . . . , vn es una base de V de V .. Resulta entonces que f 1 , . . . , fn es la base dual de v1 , . . . , vn . En efecto, v i∗ = f i para cada 1 i n, ya que
{
}
{
{
≤ ≤
}
}
f i (vi ) = F vi (f i ) = F ( F (vi )(f )(f i ) = t i (f i ) = f i∗ (f ( f i ) = 1 f i (vj ) = F vj (f i ) = F ( F (vj )(f )(f i ) = t j (f i ) = f j∗ (f (f i ) = 0.
{
}
{
}
Seg´ un un lo anterior anterior podemos identificar identificar los funcionale funcionaless de V ∗∗ con los vectores de V , V , as´ı: t V ∗∗ se identifica con el vector vt V V tal que t(f ) f ) = f ( f (vt ) para cada f V ∗ ; de esta e sta manera podr pod r´ıamos reemplazar t reemplazar t por p or v cada f V ∗ . v t y escribir que v t (f ) f ) = f ( f (vt ) para cada f
∈
∈
∈ ∈ ∈ ∈ Corolario Corolario 7.2. Sea V V un espacio de dimensi´ on finita n ≥ 1 y sea S = ∅ un subco subconjunto njunto de V . V . Entonces, S Entonces, S ◦◦ = S . En particular, si W W es un subespacio de V , V , entonces W W ◦◦ = W. Demostraci´ on: Por on: Por definici´on on S ◦ = f
{ ∈ ∈ V ∗ | f ( ∈ V ∗∗ | T ( ∈ S ◦}, f (x) = 0 para cada x ∈ S }, S ◦◦ = {T ∈ T (f ) = 0 para cada f ∈
pero de acuerdo a la identificaci´on on acordada podemos escribir que S ◦◦ = v
{ ∈ V | | f ( ∈ S ◦}. f (v ) = 0 para cada f cada f ∈ En este orden de ideas, veamos que S ⊆ S ◦◦ : sea v sea v = = a a 1 .x1 + · · · + a .x ∈ S , donde a donde a ∈ K y x y x ∈ S ◦ ∈ S se tiene que f para cada 1 ≤ i ≤ n, entonces para cada f ∈ que f ((v) = a 1 .f ( .f (x1 ) + · · · + a .f ( .f (x ) = 0, es decir, v decir, v ∈ S ◦◦ . De otra parte, n´otese otese que S ◦ = S ◦ ; por la propiedad e) en Lecci´on on 2 se tiene entonces que n
n
i
n
i
n
CAP ´ ITULO ITULO 7. ESPAC ESPACIOS IOS DUALES DUALES
130
dim( S ◦ ) + dim( S ) = dim(V dim(V )) = dim(V dim(V ∗ ) = dim(S dim(S ◦ ) + dim(S dim(S ◦◦ ),
con lo cual dim( S ) = dim(S dim(S ◦◦ ) y, por lo probado arriba, S = S ◦◦ .
7.4.
Traspues raspuesta ta de de una Transfor ransformac maci´ i´ on on Lineal
Sean V y W dos K -espacios -espacios y sea T : V funci´ on T on T t : W ∗ V ∗ definida por
→
→ W W una transformaci´on on lineal. Entonces T T induce una
T t : W ∗ f
V ∗ T t (f ) f ) = T f t
−→ −→
donde T f t : V v
−→ −→
K T f t (v ) = f ( f (T ( T (v ))
Se puede probar probar muy facilmen facilmente te que T que T t es una transformaci´on on lineal la cual se conoce con el nombre de transpuesta de transpuesta de T . T . Algunas propiedades de la transpuesta son las siguientes. Proposici´ on on 7.4. Sea T : V T . T . Entonces,
t
→ W W una transformaci´ on lineal y sea T
: W ∗
→ V ∗ la transpuesta de
a) N ( N (T t ) = Im(T Im( T ))◦ b) Si V y W son W son de dimensi´ on finita, entonces entonces rank( rank(T t ) = rank( rank(T ) T ). c) Im(T Im(T t ) = N ( N (T ) T )◦ . t
t f
∈ ∈ N ( N (T ) si y s´olo olo T = 0 si y s´olo olo si f ( f (T ( T (v)) = 0 para cada v ∈ V V si y s´olo olo si
Demostraci´ on: a) f ◦ f Im(T Im(T )) .
∈ ∈
b) rank( rank(T t ) = dim(Im(T dim(Im(T t )) = dim(W dim(W ∗ ) dim(N dim(N ((T t )) = dim(W dim(W ∗ ) (dim(W (dim(W ∗ ) dim(Im(T dim(Im(T ))∗ ) = dim(Im(T dim(Im(T )) )) = rank( rank(T ). T ).
−
−
− dim(Im(T dim(Im(T ))◦ ) = dim(W dim(W ∗ ) −
c) dim(Im(T dim(Im(T t )) = rank( rank(T t ) = rank( rank(T ) T ) = dim(Im(T dim(Im( T )) )) = dim(V dim(V )) dim(N dim(N ((T )) T )) = dim(N dim(N ((T ) T )◦ ). Solo ◦ resta probar que Im(T Im( T t ) N ( N (T ) T ) : sea g Im(T Im(T t ), entonces g = T t (f ), f ), y por lo tanto, para cada t = f ((T ( decir, g N ( v N ( N (T ) T ) se tiene que g (v) = T f (v ) = f T (v)) = 0, es decir, g N (T ) T )◦ .
⊆
∈
−
∈
∈
La siguiente proposici´on on justifica el nombre que hemos dado a la transformaci´on T on T t . Proposici´ on on 7.5. Sean V V y W dos K -espacios -espacios de dimensi´ on n y m respectivamente, con bases X = ∗ ∗ v1 , . . . , vn , Y = w1 , . . . , wm . Sean X y Y sus bases duales respectivas. Sea T : V W una transformaci´ on lineal y sea A la matriz de T T en las bases X, Y (v´ease ease el Teorema Teorema 1 del Cap´ıtulo ıtul o 3). Entonces la matriz de T de T t en las bases Y Y ∗ , X ∗ es la transpuesta AT de la matriz A matriz A..
{
}
{
}
Demostraci´ on: Sea B Sea B = m Y
∗
T ( T (vj ) T t (wi∗ ) T wt i (vj ) T wt i (vj ) ∗
∗
→
t ,X ∗ (T ), entonces
m = k=1 akj .wk n ∗ t = k=1 bki .vk = T wi = wi∗ (T ( T (vj )) = w i∗ ( m k=1 akj .wk ) = a ij n ∗ = ( k=1 bki .vk )(v )(vj ) = b ji . ∗
≤ j ≤ n ≤i≤m
´ LINEAL 7.4. TRASPUESTA TRASPUESTA DE UNA TRANSFORMAC TRANSFORMACI I ON
131
Corolario 7.3. Sean V y W -espacios de dimensi´ on n y m respectivamente, sean LK (V, W ) W dos K -espacios W ) y ∗ ∗ LK (W , V ) los respectivos espacios de transformaciones lineales. Entonces a) (T 1 + T 2 )t = (T 1t + T 2t ), para cualesquiera T cualesquiera T 1 , T 2
∈ L
b) (a.T ) a.T )t = a.T t , para cada a
∼
K (V,
∈ K y K y cada T cada T ∈ L
K (V,
W ) W ).
W ) W ).
c) LK (V, W ) W ) = LK (W ∗ , V ∗ ). d) Sea U U un espacio de dimensi´ on finita y T : V t t t entonces ( entonces (ST ST )) = T S
→ W , W , S : W → U U transformaciones lineales,
Ejemplo Ejemplo 7.2. Sea V = R[x] el espacio de polinomios reales y a, b elementos fijos de R. Sea f el funcional f ( f ( p( p(x)) =
b p( p (z )dz. a
t f
→ V V es el operador derivaci´on, on, entonces D entonces D ( p( p(x)) = p( p (b) − p( p(a). Soluci´ on: Sea p Sea p((x) = p0 + p + p1 x + p2 x2 + · · · + p x . La transpuesta del operador derivaci´on on viene dada − 1 por D por D ( p ( p((x)) = f (D ( D( p( p(x)) = p1 + 2 p 2 p2 x + · · · + np x dx = dx = p1 x + p2 x2 + · · · + p x | = p1 b + p2 b2 + · · · + p b − p1 a − p2 a2 − · · · − p a = p( p(b) − p( p(a). Ejemplo Ejemplo 7.3. Sea V = R [x] el espacio de polinomios reales de grado ≤ n y sea D el operador derivaci´on on sobre V sobre V.. Entonces (x ( x )∗ es una base del n´ucleo ucleo de D de D , adem´as, as, (x (x )∗ (a0 + a1 x + · · · + a x ) = Si D Si D : V : V
n
n
b a
t f
n
n b a
n
n
n
n
n
n
n
n
t
n
n
n
an .
Soluci´ on: Soluci´on o n es Im(D Im(D) = Rn−1 [x] = 1,x,...,xn−1 . Esta on. La imagen del operador derivaci´on ∗ 0 base puede ser completada 1,x,...,xn−1 , xn y sabemos que que una base de Im ( D) es (x ( xn ) . Pero seg´ un un ∗ 2 t n n la Proposici´ on 3, esta es una base para N ( on N (D ) y adem´as as (x ) a0 + a1 x + a2 x + + an x = a n .
{
}
···
´ Algebra Lineal Cap´ Cap´ıtulo 7. Espacios Espaci os Duales Ejercicios. 1. Sea X = {v1 = (1, 0, 1) , v2 = (0, 1, −2) , v3 = (−1, −1, 0)} una base de R3 . Calcular vi (a,b,c), para cada i = 1, 2, 3, donde (a,b,c) ∈ R3 . 2. Sea V un un espacio de dimensi´on on finita y sean W 1 , W 2 subespacios de V . Demostrar que 0 0 0 (W 1 + W 2 ) = W 1 ∩ W 2 , (W 1 ∩ W 2 )0 = W 10 + W 20 . 3. Sea K un cuerpo. Demostrar que cada elemento de ( K n ) es de la forma f ( (x1 ,...,xn ) = a1 x1 + · · · + an xn , para ciertos escalares fijos ai ∈ K , i = 1, 2,...,n. 4. Sea W =< (1 , 2, 1, 0, 0) , (0, 1, 3, 3, 1) , (1, 4, 6, 4, 1) > . Hallar una base de W 0 y calcular la acci´on on de cada uno de los funcionales de dicha base sobre un vector ( a,b,c,d,e). 5. Sean f, g ∈ V . Demostrar que g es m´ ultiplo ultiplo escalar de f si y s´olo olo si N (f ) ⊆ N (g). 6. Sean f 1 ,...,f r ∈ V . Demostrar que el funcional g ∈ V es combinaci´ on on lineal de f 1 ,...,f r si y s´olo olo si N (f 1 ) ∩ · · · ∩ N (f r ) ⊆ N (g ). 7. Sean V y W espacios de dimensi´ on on finita y sea T : V → W una transformaci´on on lineal. lineal. t 0 t 0 Demostrar que Im( T ) = N (T ) , N (T ) = Im(T ) . 8. Sea V = W 1 ⊕ · · · ⊕ W r . Si V i = W 1 + · · · + W i 1 + W i+1 + · · · + W r , demostrar que V = V 1 0 ⊕ · · · ⊕ V r 0 . ∗
∗
∗
∗
∗
−
∗
1
´ Algebra Lineal Cap´ Cap´ıtulo 7. Espacios Espaci os Duales Ejercicios. 1. Sea X = {v1 = (1, (1, 0, 1) , v2 = (0, (0, 1, −2) , v3 = (−1, −1, 0)} una base de
3 R .
Calcular
cada i = = 1, 2, 3, donde (a,b,c (a,b,c)) ∈ R3 . vi (a,b,c), a,b,c), para cada i 2. Sea V un on finita y sean W sean W 1 , W 2 subespacios de V de V . . Demostrar que V un espacio de dimensi´on 0 0 0 0 0 0 (W 1 + W + W 2 ) = W 1 ∩ W 2 , (W 1 ∩ W 2 ) = W 1 + W 2 . 3. Sea K Sea K un un cuerpo. Demostrar que cada elemento de (K ( K n ) es de la forma f forma f (x (x1 ,...,xn ) = a1 x1 + · · · + an xn , para ciertos escalares fijos a i ∈ K , i = i = 1, 2,...,n. ,...,n. 4. Sea W Sea W =< (1, (1 , 2, 1, 0, 0) , (0, (0, 1, 3, 3, 1) , (1, (1, 4, 6, 4, 1) > 1) >.. Hallar una base de W de W 0 y calcular la acci´on on de cada uno de los funcionales de dicha base sobre un vector ( a,b,c,d,e). a,b,c,d,e). 5. Sean f Sean f , g ∈ V . Demostrar que g que g es m´ ultiplo ultiplo escalar de f de f si si y s´olo olo si N si N ((f ) f ) ⊆ N (g). Soluci´ on. on. ⇐) Si N Si N ((g ) = V , , entonces g entonces g = = 0 y de esta forma g forma g = = 0.f . pues N ((g ) = V , , y .f . Sea pues N 1 sea x sea x0 ∈ otesis x0 ∈ sea f (x (x0 ) = entonces f (f ( f ((x0 ) .x0 ) = / N (g ), entonces por hip´otesis x / N (f ); f ); sea f 0; entonces f 1, es decir, existe x existe x1 ∈ que f (x (x1 ) = 1; para cada x cada x ∈ V se que x − f (x ( x) .x1 ∈ / N (f ) f ) tal que f V se tiene que x ( x − f (x ( x) .x1 ) = f ( ( x1 ) = 0. Nuevamente por hip´otesis, x otesis, x − N ( N (f ), f ), en efecto, f (x f (x) − f (x)f (x (x) .x1 ∈ N (g), luego g (x − f (x ( x) .x1 ) = 0, de donde, g (x) = f (x (x) g (x1) = g(x1).f ( f (x .f (x), es decir, g decir, g = g = g (x1 ) .f . .f . Si g = a.f = a.f ,, entonces claramente N ( ⇒) Si g N (f ) f ) ⊆ N (g). 6. Sean f 1 ,...,f r ∈ V . Demostrar que el funcional g ∈ V es combinaci´ on on lineal de olo si N si N ((f 1 ) ∩ · · · ∩ N ( f 1 ,...,f r si y s´olo N (f r ) ⊆ N ( N (g ). 7. Sean V Sean V y W on finita y sea T sea T : V → W on lineal. lineal. W espacios de dimensi´on W una transformaci´on t 0 t 0 Demostrar que Im(T Im(T )) = N ( Im(T ) . N (T ) , N (T ) T ) = Im(T Soluci´ on. on. Veamos la prueba de la primera igualdad. Tenemos el isomorfismo ∗
∗
∗
−
∗
∗
F : W −→ W
∗∗
definido por F ( F (w) = F w ∈ W , donde F w : W −→ K se K se define a su vez por F w (f ) f ) = f ( f (w), para cada funcional f ∈ W . En este isomorfismo identificamos los elementos de de W , de tal forma que dado t ∈ W existe un ´unico unico vector w vector w t ∈ W tal W con W con los de W W tal que decir, t((f ) cada f ∈ W . La identificaci´on on es entonces t entonces t ≡ wt . F ( F (wt ) = t, t, es decir, t f ) = f ( f (wt ) para cada f De otra parte, recordemos que si T : V −→ W es on lineal entonces su W es una transformaci´on t t t t transpuesta se define por T por T : W −→ V , T (f ) y T f (v ) = f ( cada v ∈ V . . f ) = T f , y T f (T ( T (v)) para cada v En este orden de ideas, lo que probaremos realmente es la igualdad F ( ker(T t )0 . F (I m(T )) T )) = ker(T Comencemos con la inclusi´on on F ( ker(T t )0 . Sea T ( F (I m(T )) T )) ⊆ ker(T T (v ) ∈ I m(T ), T ), con v ∈ V , , y t 0 sea F ( ker(T ) . Sea f ∈ ker(T ker(T t ), entonces F (T ( T (v )) = F T T (v) , la idea es mostrar que F T T (v) ∈ ker(T As´ı pues, pues , F T f ) = f (T ( T (v)), pero como T t (f ) f ) = 0, entonces T f t (v) = 0 = f ( f (T ( T (v )). As´ T (v ) (f ) t ker(T ). La otra inclusi´on o n la probamos por la igualdad F T f ) = 0 para cada f ∈ ker(T T (v ) (f ) de las dimensiones. Es claro que dim F ( dim(ker( T t )0 ) = F (I m(T )) T )) = dim I m(T ), T ), pero dim(ker(T dim W − dim ker( ker(T T t ) = dim W − T )0 = dim I m(T ). T ). Esto completa la prueba de − dim I m(T ) la primera identidad del problema. ∗∗
∗
∗
∗∗
∗∗
∗
∗
∗
∗
1
Pasemos a la segunda igualdad. Sea ahora F : V −→ V , probemos que F (ker( )) = F (ker(T T )) t 0 t 0 )) ⊆ I m(T ) : sea v ∈ ker(T ker(T ), ), veamos I m(T ) . Mostramos en primer lugar que F (ker( F (ker(T T )) t 0 t t que F v ∈ I m(T ) , sea f ∈ I m(T ), entonces f = T (h), con h ∈ W , y de esta forma )(v ) = h(T ( f = T ht . Se tiene, F v (f ) f ) = F v (T t (h)) = T t (h)(v T (v )) = h(0) = 0. Para completar pletar la prueba prueba de la iguald igualdad ad podemos podemos razonar razonar como como en la primer primeraa parte parte en t´ ermierminos nos de las las dime dimens nsio ione nes. s. Note Notemo moss que que dim dim F (ker( )) = dim dim ker(T r(T ), ), y de otra parte, F (ker(T T )) t 0 t 0 dim I m(T ) = dim V − dim I m(T ) = dim V − dim ker( ker(T dimker(T ). ). Esto comT )) = dimker(T pleta todo el problema. 8. Sea V = W 1 ⊕ · · · ⊕ W r . Si V Si V i = W = W 1 + · · · + W i 1 + W + W i+1 + · · · + W r , demostrar que 0 0 V = V 1 ⊕ · · · ⊕ V r . ∗∗
∗
∗
−
∗
2
Cap´ıtulo 8
Producto Interno Introducci´ on on El producto interno en espacios reales y complejos permite manejar conceptos geom´etricos etricos tales como distancia, distancia, angulo, a´ngulo, perpendicularidad, etc. Las transformaciones lineales actuando sobre tales espacios ocupan un lugar importante en el estudio de la geometr´ geometr´ıa ortogonal y simpl´ectica. ectica.
8.1. 8.1.
Espa Espaci cios os Eucl Euclid idia iano noss
En el espacio R2 se define un producto producto interno interno entre entre sus vectore vectoress a trav´ trav´ es es del cual se establece establece la longitud de cada vector, el ´angulo angulo entre dos vectores, la distancia entre vectores, etc. En efecto, en geometr´ıa ıa vectorial vectori al se define defi ne el pro ducto interno inter no entre dos vectores vect ores u = u = (u1 , u2 ), v = (v1 , v2 ) en la forma (u, v ) = u 1 v1 + u + u2 v2 , la longitud del vector u de define por u = (u, u) = u21 + u22 , la distancia entre los vectores u, v viene dada por u v y el ´angulo angulo entre dos vectores no nulos u, v se define (u,v) por cos θ = uv . En el presente cap´ıtulo ıtulo estudiamos estos conceptos geom´ etricos etricos y las propiedades derivadas de ellos en espacios vectoriales reales y complejos de dimensi´on finita. La primera lecci´on on est´ a dedicada a repasar el caso real el cual seguramente ya conocen la mayor´ mayor´ıa de nuestros visitantes.
−
Definici´ on on 8.1. Sea V un V un espacio vectorial real, un producto un producto interno en V en V es una funci´ on ( , ) : V que asigna a cada par de vectores u, v propiedades:
× × V −→ −→ R
∈ V un V un real denotado por (u, v) y que satisface las siguientes
a) (u, v + w) = (u, v) + (u, ( u, w) b) (a.u,v) a.u,v) = a( a (u, v) c) (u, v) = (v, u) d) Si u = 0, entonces (u, u) > 0 > 0
∈
∈
para para cualesquiera cualesquiera vectores vectores u, u, v,w V V y cualquier escalar a R. Un espacio vectorial real se dice que es euclidiano si en V V est´ a definido un producto interno. Veamos algunos ejemplos de espacios euclidianos. Ejemplo 8.1. El producto interno de R2 se generaliza a Rn de la siguiente manera: si x si x = = (x1 , . . . , xn ), y = (y1 , . . . , yn ) Rn , entonces (x, ( x, y) = x 1 y1 + + xn yn . Este se conoce como el producto interno can´ onico. onico. Existen Existen otros productos productos internos internos sobre Rn , por ejemplo, en R2 se puede probar f´acilmente acilmente que la relaci´on on (x, y) = 2x1 y1 + x1 y2 + x2 y1 + 2x 2 x2 y2 define un producto interno.
∈
···
135
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
136
Ejemplo 8.2. Sea C [a, b] el espacio de funciones continuas en el intervalo [ a, b] y sean f ( f (x), g (x) b
C [a, b], entonces (f, (f, g) =
∈
f ( f (x)g(x)dx define dx define un producto interno.
a
Ejemplo 8.3. En el espacio M n (R) de matrices cuadradas reales de orden n n
producto interno can´onico onico dado por (A, (A, B ) =
∈ M (R).
aij bij donde A, donde A, B
i,j =1
≥ 1 est´a definido un
n
−→ −→
Ejemplo Ejemplo 8.4. Sea V Sea V un un espacio vectorial real y W y W un un espacio euclidiano, sea T sea T : V W una W una transformaci´ on lineal inyectiva. Entonces, V on Entonces, V es es un espacio euclidiano con el producto ( u, v ) = (T ( T (u), T ( T (v )), )), con u, con u, v V . V .
∈
Algunas propiedades de un producto interno en un espacio euclidiano son las siguientes: 1) (0, (0, v) = 0, para cada v cada v
∈ V.
2) (v, v) = 0 si y s´ olo olo si v si v = 0.
∈ V. 4) Desigualdad Desigualdad de CauchyCauchy-Sch Schwart wartz: z: (u, v)2 ≤ 3) u = 0 si y s´ olo olo si (u, (u, v) = 0 para cada v
(u, u)(v, )(v, v) para cualesquier cualesquieraa vectore vectoress u, v Adem´ as, la igualdad se da si y s´olo as, olo si u, si u, v son LD.
∈
V.
Demostraci´ on: La prueba se puede realizar para el caso unitario que veremos en la Lecci´on 4 del presente presente cap´ cap´ıtulo y observ observar que el conjugado conjugado de un n´umero umero real c coincide con c y que 2 2 adem´ as as c = c , donde c denota el m´odulo odulo del complejo c complejo c..
| |
| |
Sea V Sea V un espacio unitario, u, unitario, u, v V V y sean a, sean a, b C. N´ otese otese que si v = 0 entonces la desigualdad (igualdad!) se cumple trivialmente. En este caso se tiene que u, v son LD.
∈
∈
≥
Sea v = 0, entonces, (au (au + bv,au + bv) bv ) = aa (u, u) + ab (u, v) + ba (v, u) + bb (v, v) 0. Tomemos a = (v, v) y b = (u, v), entonces (v, (v, v)2 (u, u) (v, v) (u, v ) (u, v) (u, v) (v, v) (v, u) + (u, v) (u, v) (v, v) 0, y entonces (v, ( v, v)2 (u, u) 2 (v, v) (u, v ) 2 + (u, v) 2 (v, v) 0. Puesto que a = (v, v) = 0, entonces (v, (v, v) (u, u) (u, v) 2 0, por tanto (v, ( v, v) (u, u) (u, v) 2 .
−
≥
− |
− |≥
−|
| |
− | ≥ ≥| |
N´ otese que si la igualdad se da entonces al devolvernos se tiene que (au otese ( au + bv,au + bv) bv ) = 0, es decir, au + au + bv bv = = 0, o sea que u y v son LD. Sup´ongase ongase rec´ rec´ıprocamente ıpro camente que u, v son LD. Sea 2 2 2 C, entonces (u, u = kv, kv , donde k (u, v) = (kv,v) kv,v) = k (v, v) 2 = k 2 (v, v) ; (u, u) (v, v) = (kv,kv) kv,kv) (v, v) = k 2 (v, v)2 .
∈ | |
|
| |
| | |
Definici´ on on 8.2. Se dice que el espacio vectorial real V real V es normado si normado si existe una funci´ on norma
· : V −→ −→ R+ ∪ {0} que satisface las siguientes condiciones: a) Si u = 0 entonces u > 0
b) a · u = |a| u
c) Desigualdad triangular: u + v
≤ u + v
donde u, v son vectores de V y a R. En un espacio normado V V se define la la distancia entre distancia entre dos vectores u, v por d(u, v) = u v .
∈ −
Proposici´ on on 8.1. Todo espacio euclidiano V es V es normado con norma can´ onica dada por
u =
(u, u).
137
8.1. ESPACIOS ESPACIOS EUCLIDIANOS EUCLIDIANOS
Ejemplo 8.5. En el espacio euclidiano Rn la norma viene dada por u = u21 + u = (u1 , . . . , un ). La desigualdad desigualdad de CauchyCauchy-Sch Schwart wartzz en este caso toma la forma forma
··· + u
(u1 v1 +
n vn )
2
· · · + u2 , donde n
≤ (u21 + · · · + u2 )(v )(v12 + · · · + v 2 ) n
n
y la desigualdad triangular se escribe como
(u1 + v1
)2
+
· · · + (u (u
n +
vn
)2
≤
··· ···
u21 +
v12 +
+ u2 + n
+ vn2 .
b
f ( f (x)2 dx, dx, la desigualdad de
Ejemplo Ejemplo 8.6. En 8.6. En el espacio C espacio C [[a, b] la norma viene dada por f ( f (x) =
a
Cauchy-Schwartz toma la forma 2
b
f ( f (x)g(x)dx
a
≤ ≤ b
b
2
a
y la desigualdad triangular es b
a
b
(f (x) +
g (x))2 dx
a
g (x)2 dx
f (x) dx
b
f ( f (x)2 dx +
a
g(x)2 dx.
a
Los conceptos de vectores ortogonales y base ortonormal del espacio R 2 pueden extenderse a espacios euclidianos arbitrarios. Sea V Sea V un un espacio euclidiano con producto interno (, ( , ), dos vectores u, vectores u, v se dicen ortogonales si ortogonales si (u, v) = 0. Un subconjunto subco njunto no vac´ vac´ıo S ıo S de V de V se se dice que es un conjunto ortogonal de vectores si (u, v) = 0 para cada par de vectores u = v en S . El conjunto S conjunto S se se dice que es ortonormal es ortonormal si S si S es es ortogonal y adem´as as u = 1 para cada u cada u S . Por ultimo, u ´ ltimo, sean u, sean u, v vectores no nulos de V , V , se angulo entre u define el ´ el ´ entre u y v como el ´unico unico n´ umero umero real θ real θ [0, [0 , π] que satisface la ecuaci´on. on.
∈
cos θ =
∈
(u, v) . u v
N´ otese que dos vectores no nulos en V son ortogonale otese ortogonaless si y s´ olo olo si el ´angulo angulo entre ellos es π/ es π/2. 2. Adem´as, as, en V en V se se cumple el teorema de Pit´agoras, agoras, es decir, si u si u 1 , . . . , un son vectores ortogonales, entonces
u1 + · · · + u 2 = u12 + · · · + u 2 n
n
Proposici´ on o n 8.2. 8.2. Sea V V un espacio espacio euclidiano euclidiano y S S un conjunto conjunto ortogonal ortogonal de vector vectores es no nulos. nulos. Entonces, S es S es LI. En particular, si V V es de dimensi´ on finita n 1 entonces cada conjunto de n vectores ortogonales no nulos conforman una base de V de V .
≥
A cada producto interno en un espacio euclidiano podemos asignar una matriz invertible con ciertas condiciones de simetr´ simetr´ıa y positividad, como veremos a continuaci´ continuaci´on. on.
≥
{
}
Proposici´ on on 8.3. Sea V V un espacio euclidiano de dimensi´ on finita n 1 y sea X = x1 , . . . , xn una base de V de V .. Entonces la matriz A A = [aij ] definida por a a ij = (xi , xj ) se conoce como la matriz la matriz del producto interno ( , ) y tiene las siguientes propiedades: n
a) Si u = b = b 1 x1 +
·
b) AT = A.
··· +b · x n
= c 1 n , v = c
· x1 + · · · + c · x n
n,
entonces (u, v) =
i,j =1
aij bi cj .
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
138 c) Para Para cada vector vector no nulo Y = (y1 , . . . , yn )
n
∈R
se cumple que
Y AY T > 0. 0 . d) A es invertible. e) Si la base X es X es ortogonal, entonces las coordenadas b1 , . . . , bn del vector u en la base X X vienen dadas por (u, xi ) bi = (xi , xi ) n
f) f ) Si X X es ortonormal, entonces ( entonces (u, u, v) =
b i cj .
i,j =1
Con una matriz real que cumpla b) y c) de la proposici´on anterior podemos definir un producto interno en un espacio real V V de dimensi´on on finita.
≥
{
}
Proposici´ on on 8.4. Sea V un V un espacio de dimensi´ on finita n n 1 y sea X X = x1 , . . . , xn una base de V de V .. Sea A = [aij ] una matriz real de tama˜ no n n que satisface las condiciones b) y c) de la proposici´ on anterior. Entonces V V es un espacio euclidiano con producto interno dado por
×
(u, v) = Y AZ T , donde Y = (y1 , . . . , yn ) Rn , Z = (z1 , . . . , zn ) base X, X, respectivamente.
∈
n
∈ R
son las coordenadas de los vectores u y v en la
Ejericicio 8.1. Sea C Sea C [[ 1, 1] con producto interno definido como en el Ejemplo 2, calcular el ´angulo entre las funciones f funciones f ((x) = x y g( g (x) = 1 + x
−
≤
Ejericicio 8.2. Sea Rn [x] el espacio de polinomios reales de grado n. n . Se define en este espacio el n producto interno entre dos polinomios f ( f (x) = a 0 + a1 x + + an x , g (x) = b 0 + b1 x + + bn xn por
···
n
(f ( f (x), g (x)) =
ak bk . Determinar un polinomio h polinomio h((x) de grado
k=0
polinomios f polinomios f 1 (x) = 3x2 + 2x 2x + 1, f 1, f 2 (x) = en el espacio R2 [x]
···
≤ 2 que este a igual distancia de los
−x2 + 2x 2x + 1, f 1, f 3 (x) = 3x2 + 2x 2x + 5 y f 4 (x) = 3x2 + 5x 5x + 2
Soluci´ on: Sea h(x) = ax2 + bx + bx + c c.. La distancia entre este polinomio y los polinomios f 1 (x), f 2 (x), f 3 (x) y f 4 (x) es:
− 3)x 3)x2 + (b (b − 2)x 2)x + (c (c − 1) 2 (a + 1)x 1)x + (b (b − 2)x 2)x + (c (c − 1) 2 (a − 3)x 3)x + (b (b − 2)x 2)x + (c (c − 5) 2 (a − 3)x 3)x + (b (b − 5)x 5)x + (c (c − 2)
d(h(x), f 1 (x)) = (a d(h(x), f 2 (x)) = d(h(x), f 3 (x)) = d(h(x), f 4 (x)) =
en donde se debe cumplir que d( d (h(x), f 1 (x)) = d( d (h(x), f 2 (x)) = d( d (h(x), f 3 (x)) = d( d(h(x), f 4 (x)). Estas ecuaciones pueden resolverse de la siguiente forma: (a
− 3)2 + (b(b − 2)2 + (c(c − 1)2 = (a ( a + 1)2 + (b (b − 2)2 + (c (c − 1)2 a2 − 6a + 9 = a 2 + 2a 2a + 1 a = 1
139
8.2. SISTEMAS DE VECTORES VECTORES ORTOGONALES ORTOGONALES
(a + 1)2 + (b (b
− 2)2 + (c(c − 1)2 = (a ( a − 3)2 + (b (b − 2)2 + (c (c − 5)2 4 + c2 − 2c + 1 = 4 + c2 − 10 10cc + 25 c = 3
(a
− 3)2 + (b(b − 2)2 + (c(c − 5)2 = (a ( a − 3)2 + (b (b − 5)2 + (c (c − 2)2 b2 − 4b + 4 + 4 = b = b 2 − 10 10bb + 25 + 1 b = 3
De acuerdo a esto, el polinomio obtenido es h( h (x) = x = x 2 + 3x 3x + 3 y la distancia com´un un es d(h(x), f 1 (x)) =
− − −
√ √ √ − √
2x2 + x + 2 =
d(h(x), f 2 (x)) = 2x2 + x + 2 = d(h(x), f 3 (x)) = d(h(x), f 4 (x)) =
2x2 + x 2x2
9= 3
9= 3
2 =
− 2x + 1
=
9= 3 9= 3
a partir de lo cual se determina que los polinomios f 1 (x), f ), f 2 (x), f ), f 3 (x) y f 4 (x) se encuentran a la misma distancia del polinomio h polinomio h((x).
8.2.
Sistema Sistemass de de Vect Vectores ores Ortogona Ortogonales les
En la lecci´on on anterior definimos las bases ortonormales de un espacio euclidiano V, nos proponemos ahora demostrar la existencia de dichas bases para espacios de dimensi´on finita. El algoritmo que permite la construcci´on on de tales bases se conoce cono ce como el m´etodo etodo de ortogonalizaci´on on de Gram-Schmidt. Este m´etodo etodo se puede sin embargo aplicar para la construcci´on on de conjuntos ortogonales de tama˜no no infinito enumerable. Teorema 8.1. Sea V un V un espacio euclidiano y sea u1 , u2 , . . . , un , . . . una . una sucesi´ on de elementos de V . V . Entonces existe en V una V una sucesi´ on de vectores v v 1 , v2 , . . . , vn , . . . que . que satisface las siguientes propiedades:
≥ 2 el vector v es ortogonal a cada vector de la envolvente lineal v1, . . . , v −1. b) Para Para cada k cada k ≥ 1 v1 , . . . , v = u1 , . . . , u .
a) Para Para cada k
k
k
k
k
c) La sucesi´ sucesi´ on v1 , v2 , . . . , vn , . . . es unica ´ salvo factores escalares. Demostraci´ on: La on: La construcci´on on de la sucesi´on on v1 , v2 , . . . se realiza en forma recurrente.
{
}
Paso Paso 1 Si la sucesi´ sucesi´ on dada tiene un solo vector u1 entonces on entonces se toma v1 = u1 y las condiciones a) c) se cumplen trivialmente.
∼
∼
Paso 2 . Sup´ongase ongase que ya han sido sido constr construid uidos os k vectores v1 , . . . , vk que cumplen a) c). Para Para construir el vector v vector v k+1 hacemos vk+1 = u = u k+1
−
k i=1
Veamos entonces que a) se cumple: sea j
ai .vi ,
ai =
≤ k, entonces
(uk+1 ,vi ) (vi ,vi )
0,
si v si v i = 0 si v si v i = 0
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
140 (vk+1 , vj ) = (uk+1 , vj )
−(
k i=1
− a (v , v ) = (u +1, v ) − ( (
ai .vi , vj ) = (uk+1 , vj )
j
j
j
k
j
uk+1 ,vj ) (vj , vj ) vj ,vj )
=0
Paso 3 Veamo eamoss que v1 , . . . , v +1 = u1 , . . . , u +1 . Sea v ∈ v1 , . . . , v +1 , existen b1 , . . . , b +1 ∈ R · · · + b .v + b +1.v +1, pero por construcci´on tales que v = b1 .v1 + ·· on v +1 ∈ u +1 , v1 , . . . , v = u +1, u1, . . . , u . Sea ahora v ∈ u1 , . . . , u +1 , entonces existen c 1 , . . . , c +1 ∈ R tales que v = (c1 .u1 + · · · + c .u ) + c +1 .u +1 , pero por construcci´on on u +1 ∈ v +1 , v1 , . . . , v , luego v ∈ u1 , . . . , u , v1 , . . . , v +1 = v1, . . . , v +1. Hemos probado b).
en el caso en que v j = 0, si v si v j = 0 entonces enton ces tambi´en en (vk+1 , vj ) = 0. Hemos probado la condici´on on a). k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
k
Paso 4 Por recurrenc recurrencia ia suponemos suponemos que los k vectores construidos satisfacen c). Sean w1 , . . . , wk+1 vectores que tambi´ en en satisfacen a) y b). Entonces, w1 , . . . , wk+1 = u1 , . . . , uk+1 = v1 , . . . , vk+1 , luego w luego w k+1 = z + e.v + e.vk+1 , donde z v1 , . . . , vk = w1 , . . . , wk ; seg´ un un a), wk+1 , z = 0 = vk+1 , z , luego wk+1 e.vk+1 , z = 0 = z, z , de donde z donde z = 0 y w k+1 = e.vk+1 . Esto completa la prueba de c) y del teorema.
−
∈
Los vectores v vectores v 1 , v2 , . . . , vn , . . . se . se construyen de manera recurrente en la siguiente forma:
v1 = u = u 1 k
vk+1 = u = u k+1
−
·
ai vi
i=1
Donde, ai =
(uk+1 ,vi ) (vi ,vi )
si v si v i = 0 si v si v i = 0
0
Corolario 8.1. Sea V un V un espacio euclidiano de dimensi´ on finita n 1 y sea X = u1 , . . . , un una base de V . V . Entonces, el conjunto de vectores v1 , . . . , vn definido por el teorema anterior conforma una base ortogonal de V . V . Una base ortonormal de V se obtiene normalizando ´esta: definimos wi = vi vi , 1 i n.
{ {
}
≥
{
}
≤ ≤
Ejemplo Ejemplo 8.7 (Polonomios de Legendre). Legendre). Sea R[x] el espacio espacio de polinomios polinomios reales y consid´ consid´erese erese el producto producto interno interno dado por
1
( p( p(x), q (x)) =
p( p(t)q (t)dt.
−1
Sea X Sea X = = 1, x , x2 , x3 , . . . la base can´onica onica de R [x], entonce entoncess la sucesi´ sucesi´ on on de polinomios v0 , v1 , v2 , . . . construida en el teorema anterior viene dada por
{
}
{
}
141
8.2. SISTEMAS DE VECTORES VECTORES ORTOGONALES ORTOGONALES
v0 (x) = 1 v1 (x) = x
− 13 3 v3 (x) = x 3 − x 5 6 3 v4 (x) = x 4 − x2 + 7 35 10 5 v5 (x) = x 5 − x3 + x 9 21 v2 (x) = x 2
.. . vn (x) =
n ! dn 2 (x (2n (2n)! dxn
n
− 1)
,n
≥ 0,
La sucesi´on on anterior de polinomios se conoce como los polinomios de Legendre, Legendre, y la f´ormula ormula dada por P n (x) =
1 dn v ( x ) = x2 n 2 2n n! dxn 2n (n!) (2n (2n)!
− 1
n
se conoce como la f´ ormula ormul a de Rodr Ro dr´ ´ıguez ıgu ez.. Ejericicio Ejericicio 8.3. Construir Construir una base ortonormal ortonormal en el espacio espacio R 4 del subespacio u1 , u2 , u3 , u4 , donde u1 = (2, (2, 3, 4, 6), u 6), u 2 = (1, (1, 8, 2, 16), u 16), u 3 = (12, (12, 5, 14 14,, 5) y u 4 = (3, (3, 11 11,, 4, 7)
− −
− −
−
−
Soluci´ on: Usamos on: Usamos el m´ etodo etodo de Gram-Schmidt: Gram-Schmidt : v 1 = u1 = (2, (2, 3, 4, 6),
− −
v1 v1
w1 =
√
. = ) 8 −2 −16)·(2 3 −4 −6) (1, 8, −2, −16) − (1 (2, 3, −4, −6) = (−3, 2, 6, −4), es ) v1 = (1, (2 3 −4 −6)·(2 3 −4 −6) (2,
,v1 Ahora, v2 = u 2 ((uv12,v 1 decir, v decir, v 2 = ( 3, 2, 6, 4); de donde
−
−
−
w2 =
v3
√ − 4 √ − 6 √ 65 65,, 65 65 65
2 3 65 65,, 65 65,, 65 65
v2 v2
=
, , , ,
−
√
, ,
√
, , , ,
, ,
√ − 4 √ 65 65
3 2 6 65 65,, 65 65,, 65 65,, 65 65 65
( u3 , v1 ) (u ( u3 , v2 ) − (u v1 − v2 (v1 , v1 ) (v2 , v2 ) (12, (12 , 5, −14 14,, 5) · (2, (2, 3, −4, −6) (12, (12 , 5, −14 14,, 5) · (−3, 2, 6, −4) =(12, =(12, 5, −14 14,, 5) − (2, (2, 3, −4, −6) − (−3, 2, 6, −4) (2, (2, 3, −4, −6) · (2, (2, 3, −4, −6) (−3, 2, 6, −4) · (−3, 2, 6, −4)
=u3
= (4, (4, 6, 2, 3)
es decir, v decir, v 3 = (4, (4, 6, 2, 3). Por tanto w3 =
v3 v3
=
√
√
√
√
4 6 2 3 65 65,, 65 65,, 65 65,, 65 65 65 65 65
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
142
( u4 , v1 ) (u ( u4 , v2 ) (u ( u4 , v3 ) − (u v1 − v2 − v3 (v1 , v1 ) (v2 , v2 ) (v3 , v3 ) (3, (3, 11 11,, 4, −7) · (2, (2, 3, −4, −6) = (3, (3, 11 11,, 4, −7) − (2, (2 , 3, −4, −6) (2, (2, 3, −4, −6) · (2, (2, 3, −4, −6) (3, 11 11,, 4, −7) · (−3, 2, 6, −4) − ((3, −3, 2, 6, −4) · (−3, 2, 6, −4) (−3, 2, 6, −4) (3 , 11 11,, 4, −7) · (4, (4, 6, 2, 3) − (3, (4, (4, 6, 2, 3) (4, (4, 6, 2, 3) · (4, (4, 6, 2, 3)
v4
=u4
= (0, (0, 0, 0, 0)
es decir, v decir, v 4 = (0, (0, 0, 0, 0). En este caso no definimos w definimos w 4 .
{
}
Lo anterior indica que dim( u1 , u2 , u3 , u4 ) = 3 y w1 , w2 , w3 es una base ortonormal de esta envolvente lineal. De otra parte, y como complemento a este ejercicio, el SWP produce la descomposici´on QR on QR de de una matriz cuyos vectores columna son los vectores dados de tal forma que la matriz Q tiene en sus columnas la base ortonormal buscada:
√ 65 6 √ 65 √ 65 2√ 65 √ 65 √ 65 √ 65 −654 √ 65 √ 65 −2√ 65 √ 65 0 √ 65 365√ 65 √ 65 √ 65 = − − 0 0 65 √ 65 − 2 √ 65 − − 0 0 0 0 65 √ 65,, − 4 √ 65 √ 65,, − 2 √ 65 que N´ otese otese que en la matriz Q aparece un cuarto vector columna 6 65 65,, 3 65
− −
2 3 4 6
1 8 2 16
12 5 14 5
3 11 11 4 7
√ √ − √ − √
2 65 3 65 4 65 6 65
65 65 65 65
− 653√ √ 65 2 65 √ 65 6 65 65 √ 4 − 65 65
4 65 6 65 2 65 3 65
65
65
65
65
tambi´ en en es ortogonal a los otros 3 vectores: las cuatro columnas constituyen una base ortonormal de 4 omo se calcula este cuarto vector? En otras palabras, dado un sistema R . La pregunta que surge es, c´omo de m de m vectores vectores ortogonales en un espacio euclidiano (unitario) V de V de dimensi´on n on n > m, m , como se completa este sistema hasta una base ortonormal de V ? V ? En el presente ejercicio, buscamos un vector w 4 = (a,b,c,d) a,b,c,d) tal que w 4 Entonces, (a,b,c,d) a,b,c,d) (a,b,c,d) a,b,c,d) (a,b,c,d) a,b,c,d)
· √ · − √ · √
√ − √ − 6 √ 65 65 √ √ − 4 √ 65 65 √ √ √
2 3 4 65 65,, 65 65,, 65 65,, 65 65 65 3 2 6 65 65,, 65 65,, 65 65,, 65 65 65 4 6 2 3 65 65,, 65 65,, 65 65,, 65 65 65 65
65
√
∈ w1, w2, w3⊥ y w 4 = 1.
√ − √
√ − √ −
√
2 3 4 6 a 65 + b 65 c 65 d 65 =0 65 65 65 65 2 3 6 4 = b 65 a 65 + c 65 d 65 =0 65 65 65 65 4 6 2 3 = a 65 + b 65 + c 65 + d 65 =0 65 65 65 65 =
√ −
√
√
√
√
√
(a,b,c,d) a,b,c,d) (a,b,c,d) a,b,c,d) = a 2 + b2 + c2 + d2 = 1
·
√ 65 + 3 b√ 65 − 4 c√ 65 − 6 d√ 65 = 0 √ 65 − 653 a√ 65 + 656 c√ 65 − 654 d√ 65 = 0 √ 65 + 656 b√ 65 + 652 c√ 65 + 653 d√ 65 = 0
2 65 a 2 65 b 4 65 a
65 2
√
65
65
a + b2 + c2 + d2 = 1
− √
√
6 4 3 Con el SWP la soluci´on on es: a = 65 65 65,, b = 65 65 65,, c = 65 65 65,, d = cuarta columna dada por el SWP en la descomposici´on QR on QR..
− 652 √ 65 , que es exactamente la
.
143
8.3. COMPLEMENTO ORTOGONAL ORTOGONAL Y PROYECCIONES PROYECCIONES
8.3.
Complem Complemen ento to Ortogo Ortogonal nal y Proy Proyecc eccione ioness
Definici´ on on 8.3. Sea V un V un espacio euclidiano y S y S un un subconjunto no vac´ıo ıo de V de V .. Se dice que el vector v V es ortogonal ortogonal al al conjunto S si (v, u) = 0 para cada u S . Se define el ortogonal de S por
∈
∈
S ⊥ = v
{ ∈ V | | (v, u) = 0, para cada u ∈ S }.
Proposici´ on on 8.5. Sea V V un espacio euclidiano y S un S un subconjunto no vac´ vac´ıo de V . V . Entonces a) S ⊥ es un subespacio de V . as, S as, S V . Adem´
⊆ ⊆ (S ⊥)⊥. {
}
b) Si W es W es un subespacio de V de V de de dimensi´ on finita con base ortonormal X X = w1 , . . . , wm , entonces ⊥ V = W W , cada vector v vector v V tiene V tiene una representaci´ on unica ´ en la forma v forma v = w = w + w⊥ , donde 2 2 2 m w = i=1 (v, wi ).wi W, w⊥ = v = v w W ⊥ y tal que v = w + w⊥ .
⊕
∈
∈
− ∈
Adem´ as, W = (W ( W ⊥ )⊥ . El subespacio W ⊥ se denomina el complemento el complemento ortogonal de W . W .
∈
La proposici´ proposici´ on anterior permite definir las proyecciones. Sea V un on V un espacio euclidiano y sean u, w V (u,w) con w con w = 0. El vector p vector p = = (w,w) w se denomina la proyecci´ la proyecci´ on on de u de u sobre sobre w Sea W un un subespacio de V de V w.. Sea W m de dimensi´on on finita y sea X sea X = = w1 , . . . , wm una base ortonormal de W. de W. El El vector p vector p = = i=1 (u, wi ).wi ⊥ se denomina la proyecci´ la proyecci´ on on ortogonal de u sobre W y W y el vector p vector p = u p W ⊥ se denomina la perpendicular de u al subespacio W . W .
· {
}
− ∈
Proposici´ on on 8.6. Sea V V un espacio euclidiano y W W un subespacio de V V de dimensi´ on finita. Sea u V , V , entonces el vector m´ as pr´ oximo de W a u es la proyecci´ on ortogonal p de u sobre W. Mas exactamente, u p u w para cada w cada w W. Adem´ W. Adem´ as, u p = u w si y s´ olo si w = p = p..
∈
− ≤ −
∈
− −
Demostraci´ on: Sea p⊥ la perpendicular de u sobre W W de tal forma que u = p + p + p p⊥ ; sea w un vector cualquiera de W de W ,, entonces u entonces u w = (u p) p) + ( p ( p w) y se tiene que u p = p = p p ⊥ W ⊥ y p w W . W . 2 2 2 2 2 De acuerdo a la Proposici´on on 5 u w = u p + p w , luego u p u w , es decir, u p u w . La igualdad se da si y s´olo olo si p w 2 = 0, es decir, si y s´olo olo si w si w = p. = p.
− ≤ −
− − − − − − −
− ∈ − ∈ − ≤ −
Ejericicio 8.4. Determinar la funci´on on polin´ omica de primer grado m´as omica as pr´oxima oxima a la funci´on f on f ((x) = e x en el intervalo [ 1, 1].
−
1
Soluci´ on: on: Consideremos el producto interno can´onico onico f ( f (x), g (x) =
1 , 2
3 x 6
f ( f (x)g (x)dx, dx, y sea W sea W el el subes-
−1
pacio de funciones funciones polin´omicas omicas de grado 1 y X = X = √ √ una base ortonormal para W . W . Seg´ un un la Proposici´ on on 6, la funci´on on m´as as pr´oxima oxima de W a f ( f (x) es la proyecci´on on ortogonal p ortogonal p((x) de f (x) sobre W definida W definida de la siguiente manera:
≤
p( p(x) = (ex ,
x
√ √ −
1 = 2 =
1
3 3 √ 12 ) · √ 12 + (e (e , √ x) · √ x 6 6
−1
1 2 e 2
1 x 3 e dx + x 2 2
1
−1
1 e−1 + 3e 3e−1 x.
xex dx
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
144
8.4. 8.4.
Espa Espaci cios os Unita Unitari rios os
Esta lecci´on on est´a dedicada a estudiar los espacios complejos dotados con un producto interno. Las propiedades de estos espacios son similares a las de los espacios euclidianos que consideramos en las Lecciones 1,2 y 3. La diferencia m´as as important importantee radica radica en el cam cambio bio de la simetr simetr´ıa corrient corrientee a la simetr´ sim etr´ıa ıa de Hermite Her mite.. Definici´ on on 8.4. Sea V un V un espacio vectorial sobre el cuerpo de n´ umeros complejos C, se dice que V es un espacio unitario si unitario si existe en V V un producto interno ( , ) que asigna a cada par de elementos u, v V V un n´ umero complejo (u, v) de tal forma que se cumplen las siguientes propiedades:
∈
a) (u, v + w) = (u, v) + (u, ( u, w) b) (a.u,v) a.u,v) = a( a (u, v) c) (u, v) = (v, u) (simetr´ (sime tr´ıa ıa de Hermit Her mite) e)
d) Si u = 0, entonces (u, u) > 0 > 0 para cualesquiera vectores u, v
∈ V V y cada escalar a ∈ C.
En los espacios unitarios se tiene que (u,a.v ( u,a.v)) = a = a((u, v), donde la barra indica conjugaci´on on compleja. Ejemplo 8.8. El producto interno can´onico onico en Cn se define de la siguiente manera: si x = (x1 , . . . , xn ), y = (y1 , . . . , yn ) Cn , entonces (x, (x, y) = x1 y1 + + xn yn .
∈
···
Ejemplo 8.9. Sea C∗ [a, b] el espacio de las funciones continuas definidas en el intervalo real [a, [ a, b] y ∗ con valores complejos, es decir, cada funci´on f on f ((t) C [a, b] es de la forma f ( f (t) = f 1 (t) + if 2 (t), donde b ∗ f 1 (t), f 2 (t) C [a, b]. En C [a, b] se define el producto interno can´onico por (f, (f, g) = a f ( f (t)g(t)dt. dt.
∈
∈
Ejemplo 8.10. En el espacio M n (C) de matrices cuadradas complejas de orden n n
el producto interno can´onico onico dado por (A, ( A, B ) =
i,j =1
aij bij donde A, donde A, B
∈ M (C).
≥ 1 est´a definido
n
La gran may mayor or´´ıa de las propiedades de los espacios euclidianos se mantienen para los espacios unitarios. A continuaci´on on presentamos un resumen de las propiedades estudiadas en las lecciones anteriores pero un su versi´on on compleja. 1) (0, (0, v) = 0, para cada v cada v
∈ V . V .
2) (v, v) = 0 si y s´ olo olo si v si v = 0.
∈ V. 4) Desigualdad de Cauchy-Sch Cauchy-Schwartz: wartz: |(u, v)|2 ≤ (u, u)(v, )(v, v ) para cualesquiera vectores u, v ∈ V . V . Las 3) u = 0 si y s´ olo olo si (u, (u, v) = 0 para cada v
barras indican el m´odulo odulo de un complejo. Adem´as, as, la igualdad se da si y s´olo olo si u, si u, v son LD.
5) Todo espacio unitario es normado. 6) Los conceptos conceptos de ortogonalid ortogonalidad ad y ortonormal ortonormalidad idad se definen definen como en el caso euclidiano. euclidiano. 7) Se cumple cumple el teorema de Pit´ agoras. agoras. 8) La Proposici´ Proposici´ on on 2 se cumple. 9) El m´ etodo etodo de Gram-Schmidt para la construcci´on on de bases ortonormales se mantiene. 10) Los conceptos conceptos y propiedades propiedades de la Lecci´ Lecci´on on anterior se mantienen.
145
8.5. TRANSFORMAC TRANSFORMACIONES IONES Y MATRICES MATRICES ADJUNTAS ADJUNTAS
11) Las Proposiciones Proposiciones 3 y 4 toman toman la siguiente siguiente forma: forma:
≥
{
}
Definici´ on on 8.5. Sea V V un espacio unitario de dimensi´ on finita n 1 y sea X = x1 , . . . , xn una base de V . V . Entonces la matriz A = [aij ] definida por aij = (xi , xj ) se conoce como la la matriz matriz del producto interno ( , ) y tiene las siguientes propiedades: n
a) Si u = b = b 1 .x1 +
··· + b
= c 1 .x1 + n .xn , v = c
··· +c
n .xn , entonces (u, v ) =
aij bi cj .
i,j =1
b) AT = A. A . c) Para Para cada vector vector no nulo Y = (y1 , . . . , yn )
n
∈C
se cumple que
Y AY T > 0. 0 . d) A es invertible. e) Si la base X es X es ortogonal, entonces las coordenadas b1 , . . . , bn del vector u en la base X X vienen dadas por (u, xi ) bi = . (xi , xi ) n
f) f ) Si X X es ortonormal, entonces ( entonces (u, u, v) =
b i cj .
i,j =1
Con una matriz compleja A compleja A que que cumpla b) y c) podemos definir un producto interno en un espacio complejo V plejo V de de dimensi´on on finita mediante (u, (u, v) = Y AZ T , donde Y donde Y = (y ( y1 , . . . , yn ) Rn , Z = (z ( z1 , . . . , zn ) n X . R son las coordenadas complejas respectivas de los vectores u y v en una base ortonormal X .
∈
∈
Para terminar, veamos como se puede definir el ´angulo angulo entre dos vectores no nulos u, v de un es(u,v)+(v,u) (u,v)+(u,v) (u,v)+(u,v) R, luego pacio unitario V unitario V : N´ otese otese que = (u, v ) u v (por 2 2 2 | (u,v)+(v,u)| (u,v)+(v,u) la desigualdad de Cauchy-Schwartz). Por lo tanto, 2uv 1, es decir, 1 1. Se 2uv define entonces el ´angulo angulo entre u entre u y v como el ´unico unico real 0 θ π tal que
∈
cos(θ cos(θ) =
8.5.
| ≤ ≤ ≤
| ≤ | | ≤ − ≤ ≤
(u, v) + (v, ( v, u) . 2 u v
Transfor ransformac macione ioness y Matric Matrices es Adjun Adjuntas tas
Para el estudio de los espacios con producto interno, ya sean euclidianos o complejos, es importante considerar la adjunta de una transformaci´on lineal. Veremos en esta lecci´on on que en bases ortonormales la adjunta de una transformaci´on on lineal corresponde a la matriz adjunta. Denotaremos por V un espacio euclidiano o unitario de tal manera que K ser´ K ser´a el cuerpo de n´umeros umeros reales o complejos. Nos referiremos entonces a V como V como un espacio con producto interno. Proposici´ on on 8.7. Sea V un V un espacio con producto interno y sea v un vector fijo de V . V . Entonces la funci´ on f v : V u
−→ −→
K f v (u) = (u, v)
es un funcional de V , V , es decir, f v V ∗ . Si V es V es de dimensi´ on finita, entonces es v´ alido al ido el rec´ rec´ıproco, ıproco, es ∗ decir, dado f V existe un ´ unico vector v vector v V V tal que f = f v , luego f ( f (u) = (u, v) para cada u cada u V . V .
∈ ∈
∈
∈
∈
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
146
Demostraci´ on: on: Claramente f Claramente f v es una transformaci´on on lineal. Sea X Sea X = v1 , . . . , vn una base ortonormal n ∗ de V de V ,, entonces dado f dado f V definimos el vector v vector v = = i=1 f ( f (vi ).vi ; se tiene pues que f que f v (vj ) = (vj , v) =
n i=1
{
∈ ∈
}
(vj , f ( f (vi ) vi ) = f ( f (vj ) = f ( f (vj ) para cada 1 j n. Esto implica que f que f = f v . Sea w Sea w otro vector tal que f que f = f w , entonces f entonces f v (u) = f = f ((u) = (u, v) = f w (u) = (u, w) para cada u cada u V , luego v = w = w.. V , luego v
·
≤ ≤
∈
≥
Proposici´ on o n 8.8. 8.8. Sea V un espacio espacio con prod producto ucto interno de dimensi´ dimensi´ on finita n 1. Entonces, Entonces, ∗ para para cada transformaci´ on lineal T : V V V existe una ´ unica transformaci´ transformaci´ on T : V V V tal que (T ( T (u), v) = (u, T ∗ (v )) )) para cualesquiera vectores u, vectores u, v V . V .
→
∈
→
Demostraci´ on: Cada vector v V V define un funcional hv V ∗ dado por h por h v (u) = (T ( T (u), v ) para cada u V ; V ; seg´ un un la Proposici´on on 7 existe un ´unico unico vector w V V tal que h que h v (u) = (u, w) para cada u V . V . Se define entonces entonces la aplicaci´ aplicaci´ on on
∈
∈
∈ ∈
T ∗ : V : V v
−→ −→
As´ı pues pu es,, T ∗ (v) = w (T ( T (u), v ) = (u, w) para cada u lineal: lineal: sean u, sean u, v1 , v2 V , V , entonces
⇔ ∈
∈
V w
∈ V . V . Veamos que T ∗ es una transformaci´on on
(u, T ∗ (v1 + v2 )) = (T (T ((u), v1 + v2 ) = (T ( T (u), v1 ) + (T ( T ((u), v2 ) = (u, T ∗ (v1 )) + (u, (u, T ∗ (v2 )) = (u, T ∗ (v1 ) + T ∗ (v2 )). )). Seg´ un la propiedad 3) de la Lecci´on un on 1 T ∗ (v1 + v2 ) = T ∗ (v1 ) + T ∗ (v2 ); de manera similar se demuestra que T que T ∗ (a.v) a.v) = a.T ∗ (v) para cada a K y y cada v cada v V . V . Sea S Sea S otra otra transformaci´on on lineal de V de V tal que ∗ (T ( T (u), v) = (u, S (v)) para cada u, v V , V , entonces (u, (u, T (v)) = (u, (u, S (v)) para cada u, v V , V , luego T ∗ (v) = S (v), para cada v cada v V , V , es decir, S decir, S = = T ∗ .
∈
∈ ∈
∈
∈
La proposici´ proposici´ on on anterior anterior induce la siguiente siguiente definici´ on. on.
→
Definici´ on on 8.6. Sea T : V V V una transformaci´ on lineal de un espacio V V con producto interno de dimensi´ on finita n 1, 1 , la unica ´ transformaci´ on T ∗ : V V definida V definida anteriormente se denomina la adjunta de T de T .. De otra parte, sea A sea A una matriz cuadrada de orden n orden n 1 sobre el cuerpo K , K , la matriz ∗ T A = A = A se denomina la adjunta de la matriz A matriz A (la barra indica conjugaci´ on compleja; en el caso real la adjunta de A coincide con su transpuesta).
≥
→
≥
Corolario Corolario 8.2. Sea V un V un espacio con producto interno de dimensi´ on finita n n ∗ ∗ base ortonormal X de V V se tiene que mX (T ) = m X (T ) T ) .
≥ 1. Entonces para cada
Demostraci´ on: Sea B = [bij ] = mX (T ∗ ), entonces por la ortonormalidad de X X se tiene que aji = ∗ T (T ( T (vi ), vj ) = (vi , T (vj )) = b ij , luego B luego B = A = A . .
→
La demostraci´on on del corolario anterior muestra que si T : V V V es una transformaci´on on lineal de un espacio V espacio V con producto interno interno de dimensi´ dimensi´ on on finita n finita n 1 y X = X = v1 , . . . , vn es una base ortonormal de V de V ,, entonces para la matriz A = A = [aij ] = m X (T ) T ) se cumple que a ij = (T ( T (vj ), vi ). Otras consecuencias directas de este corolario son las siguientes propiedades para la adjunta. Sean T , U : V V V transformaciones lineales de un espacio V V con producto interno de dimensi´on on finita n 1 y sea a K , entonces
≥
{
}
≥
1) (T + U ) U )∗ = T = T ∗ + U ∗ 2) (a.T ) a.T )∗ = a.T = a.T ∗ 3) (T U ) U )∗ = U = U ∗ T ∗ 4) (T ∗ )∗ = T . T .
→
∈
´ 8.6. TRANSFORMAC TRANSFORMACIONES IONES HERMITIANAS HERMITIANAS Y SIM ETRICAS
147
Ejericicio Ejericicio 8.5. Sea T : C2 transformaci´ aci´ on on lineal definida por T ( C2 la transform T (x, y) = (x iy, 2ix) ix) y ∗ 2 consid´ cons id´erese eres e en C el producto interno can´onico. onico. Calcular Calcular T . Adem´as, as, sea X = (1, (1, 1), 1), ( 2, 2) una base ortogonal ortogonal no ortonorma ortonormall de C2 . Demostrar que m que m X (T ∗ ) = m X (T ) T )∗ .
→
{
− −
}
Soluci´ on: Sea Y onica de C2 , la cual es obviamen obviamente te ortonormal ortonormal.. Entonces Entonces,, T (1, (1 , 0) = Y la base can´onica (1, (1, 2i) , T (0, (0 , 1) = ( i, 0) y as´ı
−
mY (T ) T ) =
−i
1 2i
0
Se tiene entonces que mY (T (T ))∗ =
1 2i
∗
−i
0
=
1 i
− 2i 0
x
− 2iy
= m Y (T (T ∗ ).
Esto implica que T ∗ (x, y) =
1 i
−2i
x y
0
=
ix
= (x (x
− i2y,ix) y,ix) .
De otra parte, sea C la C la matriz de cambio de Y a X , X , entonces mX (T ( T )) = C −1 mY (T ) T ) C = =
−
−2
1 1
1 2 + 1 4 +
2
1 2i 3 4i
−1
−2 2
=
− 213 i −11 − 13i
.
−i
1 2i
0
1 1
=
−11 − 13i 2 − 2 i
luego
∗ (mX (T (T )) )) =
1 2
− 21 i − 141 − 431 i
−1 + 3i 3i
2 + 2 i
De otro lado, mX (T (T ∗ ) =
1 1
−1
−2 2
1 i
1 1
− 2i
0
∗
−2 2
1 1
−1
1 mY (T ∗ )
−2 2
=
−
1
1 2 1 4 +
−2 2
4i
2 + 2 i
Esto muestra que m X (T ( T ∗ ) = (mX (T (T )) )) .
8.6.
Transformaciones Hermitianas y Sim´ etricas etricas
Consideraremos en esta lecci´on on transformaciones lineales que coinciden con su adjunta, las cuales se conocen con el nombre de autoadjuntas. autoadjuntas. En espacios espacios unitarios unitarios estas transform transformacione acioness se denominan denominan tambi am bi´´en en hermitianas, hermitianas, y en espacios euclidianos se conocen como transfor tr ansformacion maciones es sim´ etricas. etricas . Definici´ on on 8.7. Sea T : V es hermitiana hermitiana si si
→ V V una transformaci´ on lineal de un espacio unitario V , V , se dice que T T ( T (u), v = u, T ( T (v ) ∈ V . V . En otras palabras, T es T es hermitiana si T si T ∗ = T = T .. La transformaci´ on
para cualesquiera vectores u, vectores u, v T T se dice antihermitiana dice antihermitiana si si
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
148
T ( T (u), v = −u, T ( T (v )
∈ V . V . En otras palabras, T es T es antihermitiana si T ∗ = −T . T .
para cualesquiera vectores u, v Sea T : V ca si
→ V V una transformaci´ on lineal de un espacio euclidiano
V , V , se dice que T es s es sim im´ ´ etri et ri--
T ( T (u), v = u, T ( T (v )
para cualesquiera vectores u, v T T se dice dice antis ant isim im´ ´ etri et rica ca si si
∈ V . V . En otras palabras, T e T ess sim´etrica etr ica si T ∗ = T . La transformaci´ on T ( T (u), v = −u, T ( T (v )
∈ V . V . En otras palabras, T T es antisim´ ant isim´etrica etr ica si s i T ∗ = −T . T . Si V es V es de dimensi´ on finita n n ≥ 1 con base { {v1, . . . , v }, entonces las condiciones anteriores se pueden para cualesquiera vectores u, v
n
expresar de la siguiente manera:
T es hermitiana hermiti ana (sim´etrica) etrica) T ( T (vi ), vj = vi , T ( T (vj ) T es T es antihermitiana antiher mitiana (antisim´ (antis im´etrica) etrica) T ( T (vi ), vj = vi , T ( T (vj )
⇔
para 1 para 1
⇔
−
≤ i, j ≤ n.
La siguiente proposici´on on muestra como se comportan los valores propios de las transformaciones introducidas. Proposici´ on on 8.9. Sea V un V un espacio con producto interno (unitario o euclidiano) y T : V transformaci´ on lineal con valor propio α. Entonces a) Si T T es hermitiana, entonces α entonces α b) Si T T es sim´etrica, etr ica, entonces ent onces α α
→ V una
∈R
∈R
c) Si T T es antihermitiana, entonces α entonces α es imaginario puro d) Si T es antisim´etrica, etrica, entonces enton ces α = 0
Demostraci´ on: Sea on: Sea v un vector propio correspondiente al valor propio α. Entonces, T ( T (v ), v = α.v,v = α v, v , de donde
α = Si T Si T es es hermitiana, entonces α =
T ( T (v ), v) v, v
T ( T (v ), v ) v, T ( T (v ) T ( T (v ), v) = = v, v v, v v, v = α,
con lo cual α es un n´umero umero real. Si T T es e s sim´etrica, etrica, entonces T T actua por definici´on on en un espacio euclidiano y α y α es un n´ umero umero real. Sup´ongase ongase que T que T es es antihermitiana, entonces α =
T ( T ( T (v ), v) v, T ( T (v ) T (v ), v) = =− v, v v, v v, v = −α,
y en consecuencia la parte real de α es nula. Si T e T ess antisim´ antis im´etrica etri ca α es por definici´on on real y adem´as as α = α, es decir, α decir, α = 0.
−
´ 8.6. TRANSFORMAC TRANSFORMACIONES IONES HERMITIANAS HERMITIANAS Y SIM ETRICAS
149
Sabemos Sabemos que vectores vectores propios correspondie correspondiente ntess a valores valores propios diferent diferentes es son LI. Para transfortransformaciones hermitianas, antihermitianas y sim´ etricas etricas los vectores propios son adem´as as ortogonales. Proposici´ on on 8.10. Sea T T una transformaci´ on lineal hermitiana, antihermitiana o sim´ etrica. etrica. Sean α, β valores valores propios de T de T diferentes diferentes con vectores propios u, v respectivamente. respectivamente. Entonces, u, v = 0. 0.
Demostraci´ on: Se tiene que T ( T (u), v = α.u,v = αu, v y u, T ( T (v ) = u,βv = β u, v . Si T es hermitiana hermiti ana o sim´etrica, etrica, entonces αu, v = β u, v = β u, v ya que β β es real (Proposici´on on 9). Esto implica que u, v = 0. Si T T es antihermitiana, entonces β = −β y β y entonces α u, v = −(−β u, v) y nuevamente u, v = 0.
A continuaci´on on veremos como son las matrices de las transformaciones definidas en la presente lecci´on relativas a bases ortonormales arbitrarias.
→
Proposici´ on on 8.11. Sea V V un espacio con producto interno (unitario o euclidiano) , T : V V una transformaci´ on lineal y X = v1 , . . . , vn una base ortonormal de V . V . Sea A = [aij ] la matriz de T en la base X base X .. Entonces,
{
}
a) T es T es hermitiana si y s´ olo si a a ij = a ji b) T es T es antihermitiana si y s´ olo si aij =
−a
ji
c) T es sim´etrica etrica si y s´ olo si aij = a ji d) T e T ess antisim´etrica etrica si y s´ olo si a a ij = para cada 1 cada 1
−a
ji
≤ i, j ≤ n.
Demostraci´ on: Se on: Se tiene que
n
T ( T (v ), v = j
i
k=1
akj .vk , vi
= a ij .
Analogamente, T ( T (vi ), vj = aji . Entonces, T T es hermitiana si y s´olo olo si T ( T (vj ), vi = vj , T ( T (vi ) = T ( T (vi ), vj = a ij = a ji (para el caso sim´ etrico etrico la conjugaci´on on sobra). Los casos antihermitiano y antisim´etrico etrico se demuestran d emuestran de manera ma nera an´aloga. aloga.
La proposici´on on anter anterior ior define define los siguie siguient ntes es tipos tipos de matric matrices: es: Sea A = [aij ] una matriz con en∗ tradas complejas, se dice que A es hermitiana siA siA = A, cuando A∗ = A se dice entonces que A es antihermitiana es antihermitiana.. Sea A = [aij ] una matriz con entradas reales, se dice que A es sim´ si m´ etri et rica ca si a ntisi sim´ m´ etri et rica ca.. Una consecuencia directa de AT = A, cuando AT = A se dice entonces que A es anti estas definiciones y de la proposici´on on inmediatamente anterior es el siguiente corolario.
−
−
→
Corolario Corolario 8.3. Sea T T : V V V una transformaci´ on de un espacio con producto interno de dimensi´ on finita. Entonces, T es T es hermitiana (antihermitiana) si y s´ olo si la matriz de T T en cualquier base ortonormal es hermitian he rmitiana a (antihermiti (ant ihermitiana). ana). Tambi´ en, en, T es T es sim´etrica etr ica (ant ( antisim´ isim´etrica) etr ica) si y s´ s ´ olo si la matriz de T e T en n cualquier base ortonorm o rtonormal al es sim´etrica etrica (antisim´ (antis im´ etrica). etrica). Ejemplo 8.11. Algunos ejemplos de las matrices definidas anteriormente son los siguientes:
−
0 i 2
−
i 2 0 3 3 4i
es antiherm antihermitiana itiana pero no es hermitiana hermitiana
La matriz nula es hermitiana y antihermitiana
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
150
− −− − 2 i i 4
0 i 2
es hermitiana pero no es antihermitiana
i 2 0 3 3 0
no es hermitiana hermitiana ni tampoco antiherm antihermitiana itiana
1 2 2 3
es sim´etrica etri ca pero per o no es antisim´ antis im´etrica etri ca
La matriz nula es sim´etrica etrica y antisim´etrica etrica
0 1 1 0
−
es antisim´ anti sim´etrica etri ca pero pe ro no es sim´etrica etri ca
0 2 4 0
no es sim´etrica etri ca ni antisim´etrica etri ca
En una matriz hermitiana hermitiana los elemento elementoss diagonales diagonales son reales, reales, en una antiherm antihermitiana itiana son imaginarios imaginarios puros y en una antisim´ anti sim´etrica etrica son nulos. nulo s.
8.7. 8.7.
Diago Diagona nali liza zaci ci´ on o ´n
Ahora estudiaremos la diagonalizaci´on on de matrices y transformaciones hermitianas y sim´ etricas. etricas. Teorema 8.2. Sea T : V V V una transformaci´ on lineal hermitiana , antihermitiana (sim´ etrica) etrica) de un espacio unitario (euclideano) V V de dimensi´ dime nsi´on on finit fi nita a n 1. Entonces, T T es diagonalizable. Mas exactamente, V exactamente, V tiene una base ortonormal de vectores propios de T de T ..
→
≥
Demostraci´ on: La prueba se hace por inducci´on on sobre n. Si n = 1 entonces V = v , con v = 0. Sea v w = v , entonces V entonces V = w y T ( T (w) = a.w con a con a C (a R). De esta manera, w es un vector propio de T de T y w es una base ortonormal de V . V .
{ }
∈
∈
Sup´ongase ongase que el teorem teoremaa ha sido sido demost demostrad radoo para para espaci espacios os de dimens dimensi´ i´on on n, y sea V V de dimensi´on on n + 1. Si V es V es unitario, entonces podemos garantizar la existencia de valores y vectores propios para T . etri ca. Sea X una T . Sea V V euclidiano y T sim´etrica. X una base ortonormal de V , V , entonces A = mX (T ) T ) es sim´etrica etrica (v´ease ease el Corolario Corola rio 3 ). ) . Podemos Po demos considerar conside rar la matriz A como hermitiana, de donde, A tiene al menos un valor propio a 1 C, sin embargo sabemos que a que a 1 es necesariamente real (proposici´on on 9). Sea Z Sea Z Cn+1 el vector propio asociado al valor a 1 de tal forma que (A ( A a1 .E )Z = = 0; el vector Z vector Z puede puede escribirse en la forma Z = Z 1 + iZ + iZ 2 , donde Z donde Z 1 , Z 2 Rn+1 . Se tiene entonces que (A ( A a1 .E )Z i = 0, i = 1, 2. Adem´as, Z as, Z 1 = 0 ´o Z 2 = 0. As´ı pues pu es,, Z 1 ´o Z 2 es un vector propio real de A con valor propio real a real a 1 .
∈
∈ ∈
∈
−
−
As´ As´ı pues, en cualquiera cualquiera de los tres casos T tiene tiene al menos menos un vecto vectorr propio propio u1 con valor valor propio propio a1 . Sea v 1 = uu11 , entonces T entonces T ((v1 ) = a 1 .v1 , es decir v decir v 1 es un vector propio de T de T de norma 1. Sea W = v1 , sabemos que V = W W ⊥ (Proposici´ on on 5), de donde dim(W dim( W ⊥ ) = n. Notemos que W ⊥ es T -invariante: T -invariante: en efecto, sea x W ⊥ , entonces (T (T ((x), v1 ) = (x, T ∗ (v1 )) = (x, (x, T ( T (v1 )) en el caso en que T T sea Hermitiana o sim´ etrica. etrica. En el caso antihermitiano ( T ( T (x), v1 ) = (x, T ( T (v1 )). Entonces, ⊥ (T ( T (x), v1 ) = (x, a1 .v1 ) = 0, lo cual indica que T ( T (x) W . Podemos entonces definir la restricci´on T on T 0 de T de T al al subespacio W subespacio W ⊥ . Es obvio que T que T 0 es Hermitiana Hermiti ana (antihermiti (anti hermitiana, ana, sim´ si m´ etrica, etrica, respectivamente). resp ectivamente). Por inducci´ on, on, existen v2 , . . . , vn+1 vectores propios ortonormales que conforman una base de W ⊥ . Resulta entonces que v 1 , v2 , . . . , vn+1 es una base ortonormal de vectores propios de T . T .
±
⊕ ⊕ ∈
∈
−
´ 8.7. DIAGONALIZAC DIAGONALIZACI I ON
151
El teorema anterior no es v´alido alido para transforma transformacione cioness y matrices matrices antisim antisim´´etricas, etricas, ya que en caso contrario todas estas ser´ ser´ıan nulas (ver la Proposici´on on 11). Las siguientes proposiciones permiten caracterizar las matrices diagonalizantes a que hace referencia el Teorema 2. Proposici´ on on 8.12. Sea A una matriz compleja hermitiana (antihermitiana) de orden n. Entonces existe una matriz compleja invertible C de C de orden n orden n tal que C −1 AC = =
a1
0 .. .
0 0
0 0
0 an
,
donde a a 1 , . . . , an son los valores propios de A de A y para C se C se tiene que C que C −1 = C ∗ . Demostraci´ on: Sea X X la base can´onica onica de Cn , existe existe una transform transformaci´ aci´ on on T : Cn Cn tal que mX (T ) T ) = A. Puesto que X X es ortonorma ortonormall entonce entoncess T es hermitiana hermitiana (antihermitia (antihermitiana); na); existe una n base ortonormal Y ortonormal Y de de vectores propios de T en C tal que m que m Y (T (T )) = diag( diag(a1 , . . . , an ), donde a donde a 1 , . . . , an son los valores propios de T, y en consecuencia, los de A. Se tiene entonces que mY (T (T )) = C −1 AC , n − 1 donde C donde C es es la matriz de cambio de X a Y : y i = k=1 cki .xk . Resta ver que C que C = C ∗ .
→
n
y , y = j
i
n
n
ckj .xk ,
k=1
n
=
cki .xk
s=1 k=1
k=1
csi ckj xk , xs .
Para k Para k = s se s se tiene que xk , xs = 0. Por lo tanto,
n
y , y = j
i
n
cki ckj =
k=1
∗ .ckj = cik
k=1
1, i = j = j 0, i = j
Entonces, C Entonces, C ∗ C = E. E . De manera an´aloga aloga se establece que C C ∗ = E . Proposici´ on on 8.13. 8.13. Sea A una matriz real real sim´ etrica etrica de orden n. Entonces existe una matriz real invertible C de C de orden n orden n tal que C −1 AC = =
a1
0 2
0 0
0 .. .
0 0
0 an
,
donde a a 1 , . . . , an son los valores propios de A de A y para C se C se tiene que C que C −1 = C T . Ejericicio Ejericicio 8.6. Para A =
calcular una matriz C matriz C tal tal que C que C −1 AC sea sea diagonal.
−2 0
,
Soluci´ on: A es una matriz matriz antisim antisim´´etrica etrica no nula, nula, por lo tanto tanto no puede ser diagonaliza diagonalizada da por medio de una matriz real. Si consideramos a la matriz A como una matriz matriz antiherm antihermitinan itinana, a, entonces entonces A puede ser diagonalizada por medio de una matriz compleja C . C . Los valores propios de A de A son 2i 2i y 2i; E (2i (2i) = a.( a.(i, 1) a C 0 , E ( 2i) = a.( a.( i, 1) a C 0 . Entonces Entonces,, los vectores vectores u1 = (i, 1) y u 2 = ( i, 1) son vectores propios correspondientes a valores propios diferentes, luego de acuerdo a la 1 Proposici´on on 10 estos vectores son LI y ortogonales. Resulta entonces que w1 = uu11 = √ (i, 1), 1), w2 = 2
{ −
| ∈ − { }}
−
{ −
−
| ∈ − { }}
{
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
152
u2 1 2 de A. La La prueba de la Proposici´on on u2 = √ 2 (−i, 1)} es una base ortonormal de C de vectores propios de A.
{ } − √ 12 i √ 12
12 12 C C es es la matriz de cambio de base de la can´onica onica a la base w1 , w2 , es decir,
C = =
√ 12 i √ 12
− √ 12 i √ 12
C ∗ =
,
√ 12 i
√ 12
.
N´ otese que efectivamente C C ∗ = E otese = E y C −1 AC =
8.8.
2i 0
0 2i
−
.
Transfor ransformac macione ioness Unitari Unitarias as y Ortogo Ortogonal nales es
Estudiaremos es esta lecci´on on las transformaciones lineales cuya inversa es su adjunta. Definici´ on on 8.8. Sea T : V V V una transformaci´ on lineal de un espacio unitario (euclidiano), se (ortogonal) si dice que T que T es unitaria (ortogonal) si
→
T ( T (u), T ( T (v ) = u, v ∈ V.
para cada u, cada u, v
Proposici´ on on 8.14. Sea T T : V V V una transformaci´ on lineal de un espacio unitario (euclidiano) de dimensi´ on finita n n 1. Entonces las siguientes condiciones son equivalentes:
→
≥
(a) T T es unitaria (ortogonal)
{v1, . . . , v } de V V se cumple que T ( T (v ), T ( T (v ) = v , v , para para cada ≤ ≤ (c) Si { {v1, . . . , v } es una base de ortonormal de V , V , entonces { {T ( T (v1 ), . . . , T ( v )} es tambi´ tam bi´en en una (b) Para Para cada cada base base X = 1 i, j n.
n
i
j
i
n
j
n
base ortonormal de V.
{ {
}
{ {
}
(d) Existe una base ortonormal ortonormal v1 , . . . , vn de V V tal que T ( T (v1 ), . . . , T ( vn ) es tambi´en en una base ortonormal de V de V .. (e) Para Para cada v
∈ V se V se cumple que T ( T (v ) = v
(f) (f ) T −1 existe y T −1 = T ∗ . Demostraci´ on: (a)
⇒ (b) es evidente. (b) ⇒ (c): Basta observar que {T ( T (v1 ), . . . , T ( v )} es un conjunto ortonormal de vectores no nulos. (c) ⇒ (d): Evidente. (d) ⇒ (e): Sea v Sea v = a = a 1 .v1 + · · · + a .v , entonces n
n
n
n
T ( T (v ), T ( T (v ) =
k=1
n
ak .T ( .T (vk ),
l=1
n
al .T ( .T (vl )
n
=
k=1 l=1
ak al T ( T (vk ), T ( T (vl ) = v, v ,
(e) ⇒ (f ): f ): Basta probar que T es T es inyectiva para garantizar la existencia de T −1 . Si T ( T (v) = 0, entonces T ( T (v ) = v = 0, luego v luego v = 0. luego T ( T (v ) = v .
153
8.8. TRANSFORMAC TRANSFORMACIONES IONES UNITARIAS UNITARIAS Y ORTOGONAL ORTOGONALES ES
on: on: Vamos ahora a probar que T que T preserva preserva productos, usando las siguientes identidades siguientes identidades de polarizaci´
u, v = 14 u + v2 − 14 u − v2
(caso real)
u, v = 14 u + v2 − 14 u − v2 + 4i u + i.v2 − 4i u − i.v2
(caso complejo).
Entonces en el caso real se tiene que
T ( T (u), T ( T (v )
1 1 2 T ( T (u) + T ( T (v ) T ( T (u) T ( T (v ) 4 4 1 1 2 2 T ( T (u + v ) T ( T (u v ) 4 4 1 1 2 u+v u v 2 4 4 u, v .
= = = =
− − − − − −
2
El caso complejo se demuestra usando la segunda identidad de polarizaci´on. De lo anterior resulta, T ( T (u), v = T ( T (u), T ( T (T −1 (v )) = u, T −1 (v ) , es decir, T decir, T ∗ = T = T −1 .
(f ) f )
⇒ (a): Sean u, Sean u, v ∈ V , V , entonces T ( T (u), T ( T (v ) = u, T ∗ (T ( T (v )) = u, T −1 (T ( T (v ) = u, v .
Algunas de las propiedades expuestas en la proposici´on on anterior son v´alidas alidas para transformaciones lineales sobre espacios de dimensi´on on infinita. Sea T Sea T : V V V una transformaci´on on lineal de un espacio V , V , entonces
→
(i) T T es unitaria (ortogonal) si y s´olo olo si T T preserva la norma si y s´olo olo si T T preserva distancias, es decir, T ( T (v ) T ( T (u) = v u , para cada u, cada u, v V . V .
−
−
∈
(ii) (ii) Sea T Sea T es es unitaria (ortogonal), entonces T ( T (u), T ( T (v ) = 0 si y s´olo olo si u, v = 0. (iii) Toda transform transformaci´ aci´ on unitaria (ortogonal) es inyectiva. Adem´as, on as, T −1 : T ( T (V ) V ) V V preserva el producto interno. En consecuencia, si T es T es una transformaci´on on unitaria (ortogonal) biyectiva, − 1 entonces T es tambi´en en unitaria unitari a (ortogonal). (ortogon al).
→
(iv) La composici´ composici´ on de transformaciones unitarias (ortogonales) es nuevamente una transformaci´on on unitaria (ortogonal). En consecuencia, el conjunto de transformaciones unitarias (ortogonales) biyectivas es un grupo. Una matriz compleja C se C se dice unitaria dice unitaria si si C C ∗ = E = E (es (es decir, C decir, C es es invertible y su inversa es igual a T su adjunta). Una matriz real C se dice ortogonal si si C C = E (es C se dice ortogonal E (es decir, C es C es invertible y su inversa es su transpuesta).
→
Corolario Corolario 8.4. Sea T : V V V una transformaci´ on lineal de un espacio unitario (euclidiano) de dimensi´ on finita n 1. 1 . Entonces, T es T es unitaria (ortogonal) si y s´ olo si la matriz de T en T en cada base ortonormal de V de V es unitaria (ortogonal).
≥
{
}
Demostraci´ on: Sea X Sea X = = v1 , . . . , vn una base ortonormal de V V y sea C sea C = [c [ cij ] = m X (T ). T ). Entonces, n
T ( T (vj ) =
n
clj .vl ,
l=1
T ( T (v ), T ( T (v ) = j
i
T ( T (vi ) =
cki .vk ,
k=1
n
n
clj .vl ,
l=1
cki .vk
k=1
=
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
154 n
ckj .cki = vj , vi =
k=1
1, i = j = j 0, i = j
Se tiene entonces que CC ∗ = E . La prueba en sentido contrario funciona para probar la afirmaci´on rec´ re c´ıpro ıp roca ca.. La diagonalizaci´ on de las transformaciones (matrices) unitarias ser´a probada en la pr´oxima on oxima lecci´on. on. El siguiente ejemplo ilustra que no toda transformaci´on (matriz) ortogonal es diagonalizable.
0 1 Ejemplo 8.12. La matriz real A = 1 0 reales, por lo tanto, A tanto, A no es diagonalizable.
−
es ortogonal, sin embargo A no tiene valores propios
Ejemplo 8.13. Sea T Sea T una una transformaci´on on unitaria (ortogonal). Sea a Sea a un valor propio de T , T , entonces a = 1. En efecto, T ( T (u) = a.u, a.u , con u con u = 0, luego T ( T (u), T ( T (u) = u, u = a.u, a.u, a.u = aa u, u , por lo tanto, aa = 1, es decir, a = 1.
||
8.9.
| |
Transfor ransformac macione ioness Normale Normaless
N´ otese otese que las transformaciones Hermitianas, antihermitianas, sim´ etricas, etricas, antisim´ etricas, etricas, unitarias y ortogo ortogonal nales, es, tienen tienen la propie propiedad dad de conmu conmutar tar con su adjun adjunta. ta. Estudi Estudiare aremos mos en esta esta lecci´ lecci´on o n las transformaciones con tal propiedad. Definici´ on on 8.9. Sea T : V V V una transformaci´ on lineal de un espacio unitario (euclidiano). Se ∗ ∗ dice que T que T es normal normal si T T T = T T . Una matriz compleja (real) A se dice normal dice normal si si AA∗ = A = A ∗ A.
→
Corolario Corolario 8.5. Sea T : V on lineal de un espacio unitario (euclidiano) de V V una transformaci´ dimensi´ on finita n 1 y X una X una base ortonormal de V . V . T es T es normal si y s´ olo si la matriz de T T en la base X es X es normal.
→
≥
Corolario Corolario 8.6. Los 8.6. Los siguientes tipos de transformaciones son normales: hermitianas, antihermitianas, sim´etricas, etricas, antisim´etricas, etricas, unitarias unitari as y ortogonales. ortogonales . Proposici´ on on 8.15. Sea T : V V V una transformaci´ on normal de un espacio unitario (euclidiano) de dimensi´ on finita n 1. u V es V es un vector propio de T T con valor propio a si y s´ olo si u u es vector ∗ propio de T con valor propio a.
≥
∈
→
Demostraci´ on: Para on: Para cada transformaci´on T on T normal normal se tiene que T ( T (u) = T ∗ (u) , para cada u cada u V . V . 2 ∗ ∗ ∗ ∗ ∗ En efecto, T ( )), u = T (u), T (u) = T (u) = T ( T (u), T ( T (u) = u, T (T ( T (u)) = u, T ( T (T (u)) = T ( T (T (u)), 2 ∗ ∗ ∗ T (u), T (u) = T (u) .
Sea U Sea U = T a.I , entonces U entonces U e ess tambi´ t ambi´en en normal nor mal (a es cualquier n´ umero umero real o complejo): U complejo): U ∗ = T ∗ entonces U U ∗ = (T a.I ) (T ∗ a.I ) = (T ∗ a.I ) (T a.I ) = U ∗ U . U .
−
− −
−
∈
− aI ,
− − − − − a.I ) (u) = 0 si De lo anterior se tiene entonces que (T − a.I ) (u) = (T ∗ − a.I ) (u), luego (T (T − ∗ y s´olo olo si (T (T − a.I ) (u) = 0. −→ V un Teorema 8.3. Sea V V un espacio unitario de unitario de dimensi´ on finita n n ≥ 1 y sea T : V −→ V un operador normal. normal. Entonces, Entonces, existe existe una base base ortonormal ortonormal X = {v1 , . . . , v } de vector vectores es propio propioss de T T tal que n
mX (T ) T ) es diagonal.
Demostraci´ on: La on: La prueba se realiza por inducci´on on sobre n sobre n.. Para n Para n = 1 sea V = v , entonces normav lizamos el vector v vector v , y obtenemos w obtenemos w = v . Es claro que V que V = w y w es una base ortonormal de V tal que la matriz de T de T en en esta base es diagonal.
{ }
155
8.9. TRANSFORMAC TRANSFORMACIONES IONES NORMALES NORMALES
Supongamos que el teorema ha sido probado para n y sea V on n + 1. Como V un espacio de dimensi´on complejo, podemos asegurar la existencia de al menos un vector suponemos que estamos en el caso complejo, u V V y un escalar a C tal que T ( T (u) = a.u. a.u . Sea W = u y W ⊥ el complemento ortogonal de W . W . ⊥ ⊥ ∗ Veamos que W es T -invariante. T -invariante. En efecto, sea x W , entonces (T ( T ((x), u) = (x, T (u)) = (x,a.u (x,a.u), ), donde la ultima u ´ ltima igualdad se tiene por la Proposici´on on 15. Se tiene entonces que (x,a.u ( x,a.u)) = 0, y por lo tanto, T ( T (x) W ⊥ . Como V = W W ⊥ y dim(W dim(W ⊥ ) = n, n , entonces para aplicar inducci´on on debemos ⊥ ⊥ garantizar que la restricci´on T on T 0 de T de T a W sea nuevamente un operador normal. En W construimos una base ortonormal, de tal manera que al reunir esta base con u obtenemos una base ortonormal de V de V y y en esta base la matriz de T es T es normal y tiene dos bloques, uno de tama˜no no 1 1 y el segundo B de tama˜no n no n n. Es claro que B es una matriz normal, con lo cual T 0 es tambi´en en normal. nor mal.
∈
∈
∈
∈
⊕ ⊕
{ }
×
×
Por inducci´ inducci´ on, on, existe existe una base base ortono ortonorma rmall X 0 = u1 , . . . , un en W ⊥ de vecto vectores res propio propioss de T 0 tal que la matriz de T de T 0 en esta base es diagonal. diagonal. Notemos que los vectores vectores de X de X 0 son so n tambi´en en vectores vecto res propios para T para T .. Se tiene en total que X = X 0 u es una base ortonormal de vectores propios de T y la matriz de T en T en esta base es diagonal.
{
}
∪{ }
Corolario 8.7. Toda matriz normal compleja es diagonalizable por medio de una matriz unitaria. De los l os resultados del presente cap´ cap´ıtulo se pueden sacar las siguientes si guientes conclusiones: Matrices (transformaciones) diagonalizables por medio de matrices unitarias: Hermitianas, antihermitianas,unitarias. Matrices (transformaciones) diagonalizables por medio de matrices ortogonales: sim´ etrietricas. Matrices (transformaciones) no siempre diagonalizables: antisim´ etricas, etricas, ortogonales. Cerramos este cap´ cap´ıtulo con un ejemplo y un ejercicio. Ejemplo 8.14. La siguiente matriz es normal A =
1 i i 1
Entonces, seg´ un el Teorema 3 existe una matriz unitaria C un C tal que C −1 AC AC es diagonal. Vamos a calcular la matriz C . (Notemos que A no es Hermitiana, ni antihermitiana, ni sim´ etrica, etrica, ni unitaria). 2 Se tiene que p que pA (x) = x 2x +2 y sus s us ra´ ra´ıces son 1 i, 1+i 1+ i. Los espacios propios son E son E (1 (1 i) = ( 1, 1) , 1 E (1 (1 + i + i)) = (1, (1, 1) . Los vectores propios son ortogonales y debemos normalizarlos: v1 = √ ( 1, 1), 2 1 v2 = √ (1, (1, 1). Entonces la matriz C es 2
−
−
C = =
−
−
√ 12 √ 12
√ 12 √ 12
− −
y satisface C −1 AC =
1
−i
0 0 1+i
.
Notemos que C que C es es ortogonal, y por lo tanto unitaria. Ejericicio 8.7. Para cada matriz compleja A existe unitaria U tal tal que U que U −1 AU es es triangular A existe una matriz unitaria U superior. Cn es la Soluci´ on: Sabemos que toda matriz compleja se puede triangular, es decir, si T : Cn : n transformaci´ on on de A de A en en la base can´ onica X onica X ,, entonces existe una base Y base Y en C tal que la matriz de T de T en esta base es triangular superior. Podemos aplicar el m´etodo etodo de Gram-Schmidt Gram-Schmidt a esta base Y Y y obtener una nueva base ortonormal Z en Z en la cual la matriz de T T es tambi´ ta mbi´ en en triangular tri angular superior. super ior. Notemos que
−→
156
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
mZ (T ) T ) = U −1 AU , donde U donde U es es la matriz de cambio de X a Z , Z , por lo tanto, las columnas de U de U son son vectores ortonormales n de C , es decir, U decir, U es unitaria.
Álgebra Lineal Capítulo 8. Espacios con Producto Interno Ejercicios. Iniciamos esta sección de ejercicios repasando algunos conceptos de geometría vectorial. a. Sean u ; v vectores no nulos de Rn. Probar que u ; v son ortogonales si y sólo si
! !
! ! u + ! v k =k ! u k + k ! v k k! 2
2
2
:
!u ; ! v vectores de Rn. Probar que b. Sean
u + ! v k + k ! u ! v k = 2(k ! u k + k ! v k ): k! u ; ! v vectores no nulos de R . Demostrar que pr v ) = ( k ! v k cos ) :e c. Sean ! que pr (! !u . e es un vector de norma 1 en la dirección de !u ; ! v vectores no nulos de R . Probar que d. Sean u ! v k =k ! u k + k ! v k 2 k ! u kk ! v k cos ; k! 2
2
2
n
2
!
!
u
u
, donde
!
u
n
2
2
2
donde donde es el ángulo entre u entre u y v. v . e. Sean u ; v vectores no nulos. Se dice que u y v son paralelos, paralelos, lo cual denotamos denotamos por u v , si el ángulo ángulo entre ellos es 0 es 0 ó . . Demostrar que u v u = : v , donde donde es un escalar de R. f. Sean u = u1 i + u2 j + u3 k ; v = v1 i + v2 j + v3 k R3 , donde i ; j ; k son los vectores canónicos unitarios. Se de…ne el producto vectorial de u con v por
! !
! k! !
! !
!
!
!
! k ! ,! ! ! ! ! 2 ! ! ! ! ! 2 !i ! j !k 3
! u ! v = det 4 u
1
v1
u2 u3 v2 v3
5:
Demostrar que se tienen las siguientes propiedades del producto vectorial: (u v ; u ) = 0; 0; ( u v ; v ) = 0; 0; u v = (v u); u u = 0 , : ( u v ) = (: u ) v = u (: v ), ) , ( u + v ) w = u w+ v w, u ( v + w) = u v + u w, i j = k ; j k = i ; k i = j , 2 2 2 2 u v = u v ( u ; v ) . g. Sean u ; v vectores no nulos. Demostrar que u v = u v sen, sen, donde es el angulo entre u y v . Esto corresponde al área del paralelogramo determinado por los vectores u y v , cuando éstos no son paralelos h. Sean u ; v dos vectores de R3 no nulos y no paralelos. Demostrar que el área del triángulo cuyos lados son estos dos vectores viene dada por
! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! k k! k k! k ! ! k! ! ! ! ! k k! kk ! k k ! ! ! ! ! ! u ! v k k! : 2
1
i. Demost Demostra rarr que el volum volumen en de un parale paralelep lepípedo ípedo confor conforma mado do por tres tres vecto vectores res no
! ! ! 2
! ! !
coplanares u ; v ; w R3 viene dado por ( por ( u v ; w ). 3 j. Líneas rectas en R : en este ejercicio repasamos la de…nición de recta en de sus más importantes caracterizaciones y propiedades.
j1. Concepto : la recta que pasa por el punto P = ( p1 ; p2; p3 ) 2
0 se de…ne por !a = (a ; a ; a ) =6 ! como vector director ! + :! a ) = fOP a j 2 Rg = L (P; ! f( p ; p ; p ) + : + : (a ; a ; a ) j 2 Rg = f( p + a + a ; p + a + a ; p + a + a ) j 2 Rg: 1
1
1
2
2
1
2
y algunas
y tiene
3
3
1
R3
R3
2
2
3
3
3
Esta se conoce como la caracterización vectorial de la recta. Algunas propiedades son las siguientes:
! b , donde ! a = :! j2. L (P; a ) = L P; b , ! donde es un cierto escalar no nulo, !a y !b son paralelos. es decir, si y sólo si a ) = L (Q; ! a ) , Q 2 L (P; ! a ) , P 2 a ) j3. L (P; ! 2 L (Q; ! ! b son paralelos. Demostrar ! a y ! Decimos que L que L (P; a ) k L Q; b si y sólo si ! a ) y a ), que dadauna recta L recta L (P; ! ) y un punto P punto P 2 =L (P; ! ), existe una única recta ! ! ! a ). L Q; b tal que P que P 2 L Q; b y L Q; b k L (P; ! ). 0
0
j4. Dos puntos distintos determinan una única recta, es decir, demostrar que
dados dos puntos P puntos P = Q existe Q existe una única recta que los contiene a ambos. Esta recta es L es L P; P Q .
6 ! 6
j5. Ecuaciones paramétricas de la recta: notemos que un punto (x;y;z ( x;y;z)) de la
!
recta L recta L (P; a ) satisface ) satisface (x;y;z) x;y;z) = ( p1 ; p2 ; p3) + : + : (a1 ; a2 ; a3 ) es decir x = p = p 1 + a + a1 y = p = p 2 + a + a2 z = p = p 3 + a + a3 :
k. Líneas rectas en
R2 :
una recta en R2 se de…ne en forma similar a como se hizo en el espacio, la recta que pasa por el punto P = ( p1 ; p2 ) R2 y tiene como vector director director
2
2
0 se de…ne por ! a = (a 6! (a ; a ) = 1
2
! f!
! j 2 Rg = j 2 Rg = j 2 Rg:
L (P; a ) = OP + : a ( p1 ; p2 ) + : + : (a1; a2 ) ( p1 + a + a1 ; p2 + a + a2 )
f
f
De manera particular se tienen las ecuaciones paramétricas: x = p = p 1 + a + a1 y = p = p 2 + a + a2 : Eliminando el parámetro parámetro se obtiene la ecuación cartesiana de la recta: a2 x = a = a2 p1 + a + a1a2 a1 y = a = a1 p2 + a + a1a2 luego a2 x a2 p1 = a = a1 y a1 y = a = a 2x + a + a1 p2
a p a p
1 2
2 1
Si a Si a 1 = 0, 0 , entonces obtenemos la ecuación explícita de la recta:
6
y =
a2 a 1 p2 a2 p1 x + ; a1 a1
en donde aa es la pendiente y a p aa p es el corte con el eje y . Si a1 = 0, entonces la ecuación en este caso es simplemente x = p1 , es decir, es la recta paralela al eje y que pasa por el punto ( punto ( p p1 ; p2 ). Ecuación normal de la recta: notemos que el vector n = (a ( a2 ; a1 ) es ortogonal al vector director a = (a1; a2 ) de la recta L recta L (P; a ), ), podemos entonces caracterizar la recta como el conjunto de puntos z = (x; ( x; y) tales que 1
2 1
!
2
2
1
1
!
!
!
!z OP ! ; ! 0 n = ! ! ! ! ! ( z ; n ) = OP ; n : Si utilizamos la notación del producto punto, entonces la ecuación normal de la recta es
! ! ! z ! n = OP n De aquí resulta a2 x a1 y = a2 p1 a1 p2, y nuevamente, si a1 = 0, entonces obtenemos nuvamente la ecuación punto-pendiente.
6
3
!
Distancia de un punto a una recta L recta L (P; a ): ): sea Q sea Q un punto que no pertenece a la recta, entonces la distancia d distancia d de de Q Q a a L L (P; a ) es ) es la norma de la proyección del vector OP OQ OQ = = QP sobre QP sobre el vector normal n , por lo tanto
!
!
!
! !
! ! QP ; n ! n k = d =k proj QP k= k :! ! k nk QP !; ! !; ! n n j j QP !
n
2
n k= ! j k! n k j k ! k n k = j (( p q ; p p q ) ; (a ; a )) j ) 2
1
d =
!
1
2
2
2
a21 + a + a22 q 1 ) a1 ( p2 a21 + a + a22
ja ( p p 2
1
1
q ) j 2
!a ; b vectores de Rn. Demostrar que l. Sean
! ! ! ! ! ! k a + b k k a b k = 4 a ; b : 2
2
m. Demostrar que un paralelogramo es un rectángulo si y sólo si las dos diagonales tienen la misma longitud. n. Sea a = (1; (1; 2) ; b = (3; (3; 4) R2. Calcular vectores p = ( p1 ; p2 ) y q = (q 1 ; q 2 ) R2 tales que a = p + p + q , , p b y q b . 3 o. Una recta L de R contiene al punto P = ( 3; 1; 1) y es paralela al vector a = (1; (1; 2; 3). 3). Cuáles de los siguientes puntos pertenecen a L a L?? (i) (0 (i) (0;; 0; 0) (ii) 0) (ii) (2 (2;; 1; 4) (iii) 4) (iii) ( ( 2; 1; 4) (iv) 4) (iv) ( ( 4; 3; 2) (v) (2 (v) (2;; 9; 16). 16). p. Sean a ; b ; c vectores no nulos de R3 tales que el ángulo entre a y c es igual al ángulo entre b y c . Demostrar que c es perpendicular al vector b : a a : b . q. Sea a = 2 i j + 2 k y c = 3 i + 4 j k . Encontrar un vector b tal que a b = c y a ; b = 1.
! ! 2 ! ! ! ! ! k ! ? !
!
!
2 !
! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !
! ! k! k ! k! k! !
r. Ecuaciones del plano : en este ejercicio repasamos la de…nición de plano en
R3
y algunas
de sus más importantes caracterizaciones y propiedades.
r1. Descripción vectorial del plano: un plano M plano M en en el espacio R3 se de…ne por medio de un punto P = ( p1 ; p2 ; p3 ) que lo contiene y dos vectores directores u = (u ( u1 ; u2 ; u3 ) y v = (v ( v1 ; v2 ; v3 ) linealmente independientes (lo cual implica que son no nulos), en la siguiente forma
!
!
! ! f! f f
!
! j
M ( M (P; u ; v ) = OP + : u + : v ; R = ( p1 ; p2 ; p3 ) + (u (u1 ; u2 ; u3 ) + (v (v 1 ; v 2 ; v 3) ; R = ( p1 + u + u1 + v + v 1; p2 + u + u2 + v + v 2 ; p3 + u + u3 + v + v 3 ) ; 4
2 2 g
j
2 2 g j 2 2 Rg:
! ! ! !u ; ! v >=< ! u ; ! v ) = son iguales si y sólo si < u ; v >: en efecto, si M ( M (P; ! ! ! entonces ! :! u + :! v 2 M ( M (P; u ; v ), enton ces dados dados ; 2 R se tiene que OP + : ! ! ! ! u + :! ! ! u ; ! v ), v 2 M ( M ( M (P; ! ) , luego OP + : ! M (P; u ; v ), por lo tanto, OP + u + :! v para ciertos escalares ; 2 R, en conse! + :! u + : ! v = OP :! u + :! v . Esto muestra que < u ; ! v >. u + : ! v = :! u ; ! v >< ! cuencia : cuencia : ! que < ! ! ! !u ; ! v >. Por la simetría del problema, se tiene también que < u ; v >< u ; ! v >, entonces claramente u ; ! v >=< ! Supongamos ahora que < que < ! ! + :! u ; ! v ) = fOP u + : v j ; 2 2 Rg = M ( M (P; ! :! u + : ! v j ; 2 ! ! ! + :! fOP 2 Rg = M ( M (P; u ; v ): u ; ! v ) = M ( u ; ! v ) , P 2 u ; ! v ) , Q 2 M ( u ; ! v ). 2 M ( r3. M ( M (P; ! M (Q; ! M (Q; ! M (P; ! ) . ! ! u ; ! v ) y r4. Se dice que dos planos M ( M (P; ! ) y M ( M (Q; u ; v ) son paralelos si y sólo u ; ! v >. Se tiene entonces la siguiente propiedad: u ; ! v >=< ! si < si < ! u ; ! v ) un u ; ! v ) un r5. Sea M Sea M ((P; ! ) un plano y Q y Q 2 = M (P; ! ) un punto por fuera de dicho plano. Entonces, existe un único plano M plano M que que contiene a Q a Q y y es paralelo a M a M .. ! ! Este plano es por supuesto M supuesto M (Q; (Q; u ; v ). ). u ; ! v ) y M ( r2. Dos planos M (P; ! M (P; u0 ; v 0 ) que pasan por el mismo punto P 0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
r6. Sean Sean P;Q:R tres puntos distintos de
R3
que no están sobre una misma recta, es decir, no son colineales. Entonces, existe un único plano que contiene a estos tres puntos, dicho plano es M P;: OQ OP + : OR OP .
! ! ! !
!u ; ! v y ! r7. Tres vectores w son linealmente dependientes si y sólo si están
en un mismo plano que pasa por el origen. En efecto, supongamos que los tres vectores son LD, entonces uno de ellos, por ejemplo u , está en la envolvente lineal lineal de v y w , es decir, u < v ; w >. Si v y w son LI, entonces tenemos que los tres están en el plano que pasa por el origen y tiene como vectores directores a v y w , es decir, los tres vectores están en el plano M (0 M (0;; v ; w ). Si por el contrario v y w son LD, entonces v = : w , para un cierto escalar escalar R. Esto hace que los tres vectores estén en la recta L recta L (0; (0; w ), pero esta recta está contenida por ejemplo en el plano M (0; (0 ; w ; z ), ) , siendo z cualquier vector LI con w . Probemos la a…rmación recíproca. Supongamos que los tres vectores u ; v y w están en el plano M 0; a ; b , entonces
! !
! !
! 2 ! ! ! ! ! !
! ! !
!
! ! 2 ! ! ! ! ! ! ! ! ! b >, pero sabemos por de…nición que !a y !b son LI, luego ! u ; ! v ; ! w 2< ! a ; ! ! u ; ! v y ! w son LD.
r8. Ecuaciones paramétricas del plano: un punto cualquiera ( cualquiera (x;y;z x;y;z)) del plano
! !
M (P; (P; u ; v ) satisface las siguientes ecuaciones 5
x = p = p 1 + u + u1 + v + v 1 y = p = p 2 + u + u2 + v + v 2 z = p = p 3 + u + u3 + v + v 3 :
r9. Ecuación Cartesiana del plano: eliminando los parámetros y de las ecuaciones parámetricas del plano obtenemos la ecuación cartesiana, veamos un ejemplo: consideremos el plano M (P; ( P; u ; v ), ) , donde P = (1; (1; 2; 3), 3), u = (1; (1; 1; 0) y v = (0; (0 ; 1; 1). 1). Entonces, las ecuaciones paramétricas son
! !
!
!
x = 1 + + y = 2 + + + + z = 3 + + luego y
2 = z = z 3
con lo cual y
2 x + 1 = z 3
es decir, la ecuación cartesiana es x
y + z + z = = 2: u ; ! v ) un n 2 R r10. Ecuación normal del plano: sea M sea M (P; (P; ! ) un plano, un vector ! u ; ! v ) si !n es perpendicular tanto a !u se dice perpendicular al plano M plano M (P; ( P; ! !v . Si además !n es no nulo, entonces se dice que !n es normal a como a u ; ! v ). !n es perpendicular a M u ; ! v ) si !n M (P; (P; ! ) . Notemos que a M (P; ( P; ! ) si y sólo si u ; ! v >. Se tiene la siguiente propiedad: es perpendicular a cada vector de < de < ! ! u ! v es normal al plano M (P; u ; ! v ) y el plano se puede describir por la (P; ! 3
siguiente ecuación normal:
! ! ! ! ! ! M (P; (P; u ; v ) = fX = (x;y;z) x;y;z) 2 R j OX OP ; u v = 0g ! ! ! ! ! ! ! ! M (P; (P; u ; v ) = fX = (x;y;z) x;y;z) 2 R j OX; OX ; u v = OP ; u v g 3
3
6
usando la notación de producto punto también podemos escribir
! (! ! (! ! ! f u ! v ) = OP u ! v )g 2 R j OX !u y !v son LI, entonces !u ! v es no nulo y sabemos que En efecto, como ! u ! v es perpendicular tanto a !u como a !v . ! ! u + ! ! u ; ! v ), v , luego OX 2 Sea ahora X ahora X 2 M (P; ( P; ! ) , entonces OX = OP + :! ! 2< ! ! OP !; ! u ; ! v >, con lo cual OX u ! v = 0. Recíprocamente, sea OP 2 ! ! ! ! v y !u ! v son 2 R tal que OX OP ; u v = 0, sabemos que !u ; ! X 2 ! ! u +: v +: (! u ! v ), LI, luego generan R , por lo tanto OX OP = : ! + : ! ) , luego ! ! el producto interno de este vector con ( u v ) es nulo, y en consecuencia, ! ! u + : ! ! = OP ! + :! v , es decir, OX u + : ! v , = 0. Resulta, OX OP = : ! u ; ! v ). 2 M (P; de donde X donde X 2 (P; ! ) . 1. Sea V un V un espacio vectorial real tal que V = W W . Supóngase que cada W es euclidiano con producto interno hi . De…nir sobre V sobre V un un producto interno y demostrar que V que V es euclidiano. 2. Pruebe que si los vectores v = (x ; x ; : : : ; x ), 1 i n conforman una base ortogonal de R , donde x = 0 para i > j , entonces x 6 = 0 para i = j y x = 0 para 6 j: i= 3. De…nir en el espacio R [x] un producto interno tal que f1; x; ; : : : ; g sea una base 3
M (P; (P; u ; v ) = X = (x;y;z ( x;y;z))
3
3
1
k
i
i
i
n
i1
i2
ij
in
ij
ij
x2
n
2!
x n!
n
ortonormal. 4. Sea V Sea V un espacio espacio euclidiano euclidiano y W 1; W 2 subespacios de V de V de de dimensión …nita. Demostrar ? ? que V que V = W 1 W 2 si y sólo si V = W 1 W 2 : 5. Sea V V un espacio unitario de dimensión …nita y sea T : V V V una transformación 1 1 lineal. Si T Si T es es invertible, entonces T entonces T es invertible y ( y (T T ) = (T ( T ) : 6. Sea V V un espacio unitario de dimensión …nita y sea T : V V V una transformación lineal hermitiana. Demostrar que la composición de dos transformaciones hermitianas es hermitiana si y sólo si ellas conmutan para la composición. 7. Sea V V un espacio unitario de dimensión …nita y sea T : V V V una transformación 2 lineal tal que T que T = T : Demostrar que T que T es es hermitiana si y sólo si T T = T T : 8. Demuestre que una matriz compleja A de tamaño n n es unitaria si y sólo si las columnas de A de A conforman conforman una base ortonormal de Cn , si y sólo si, las …las de A conforman A conforman n una base ortonormal de C : 9. Sea T n+ ( C) el conjunto de matrices cuadradas complejas de orden n tales que los elementos diagonales son números reales positivos y los elementos por encima de la diagonal son nulos. Demostrar que T que T n+ ( C) es un grupo respecto al producto. 10. Sea T : V V V una transformación lineal de un espacio unitario. Entonces T se puede descomponer en la forma T forma T = U 1 + iU 2 , donde U donde U 1 ; U 2 : V V son V son transformaciones hermitianas.
! ! !
!
!
7
11. En el espacio R2[x] de polinomios reales de grado 2 se de…ne el producto interno 1
R p( p(x)q (x)dx
(f; g ) =
1
Si D Si D es el operador derivación de…nido sobre R2 [x], encontrar matriz del operador D en la base canónica de R2 [x]. 12. En el espacio Rn [x] de polinomios reales de grado n se de…ne el producto interno
n k=0
P
p( p(k )q (k )
Si D es el operador derivación de…nido sobre Rn [x], encontrar un subespacio invariante de dimensión n dimensión n respecto del operador D operador D . 13. Sea v Sea v un vector propio del operador T operador T con con valor propio a propio a y y sea u sea u un un vector propio de T con valor propio b propio b de tal forma que b que b = a. a. Demostrar que v que v y u son ortogonales. 14. Sea T Sea T un un operador normal sobre un espacio V espacio V .. Demostrar que V que V = N ( N (T ) T ) I m(T ) T ). 15. Ilustrar dos operadores normales T y S tales S tales que S que ST T y T S sean sean normales y distintos. 4 C . Encontrar una base ortonormal de U ? y 16. Sea U = ( 1; i; 0; 1) ; (i; 0; 2; 0) extenderla hasta una base ortonormal de C4 . 17. Encontrar una matriz compleja C tal C tal que C que C 1 AC sea sea diagonal, donde
6
h
i
A =
2 i . i 4
Veri…car además que C que C 1 = C . 18. Determinar los valores de a; b
2 C tales que 2 ip 2 (1 + i) i) p 3 a 3 p 1 A = p 4 p 8 b 2 5 p 2 3 2 (1 + i + i)) 3 2
sea una matriz unitaria. 19. Encontrar una matriz ortogonal Q tal que
2 25 p Q 4 2p 5 T
sea diagonal.
5
2p 5 p 5 3 18 14 5 Q 3 14
8
´ Algebra Lineal Cap´ Cap´ıtulo 8. Espacios con Producto Interno Ejercicios.
Iniciamos esta secci´on on de ejercicios repasando algunos conceptos de geometr´ geometr´ıa vectorial. a. Sean u , v vectores no nulos de Rn . Probar que u , v son ortogonales si y s´ olo olo si
−→ −→
−→ −→ −→u + −→v = −→u + −→v 2
−→ −→
2
2
.
b. Sean u , v vectores de Rn . Probar que
−→u + −→v + −→u − −→v = 2( −→u + −→v ). →u , −→v vectores no nulos de R . Demostrar que pr−→ (−→v ) = ( −→v cos θ) .e−→, donde c. Sean − →u . → es un vector de norma 1 en la direcci´on de − e− →u , −→v vectores no nulos de R . Probar que d. Sean − −→u − −→v = −→u + −→v −2 −→u −→v cos θ, 2
2
2
n
2
u
u
u
n
2
2
2
donde θ donde θ es el ´angulo angulo entre u entre u y v. e. Sean u , v vectores no nulos. Se dice que u y v son paralelos, paralelos, lo cual denotamos denotamos por angulo θ entre ellos es 0 ´o π. u v , si el ´angulo π . Demostrar que u v u = λ. v , donde λ es un escalar de R. f. Sean u = u1 i + u2 j + u3 k , v = v1 i + v2 j + v3 k R3 , donde i , j , k son los vectores can´onicos onicos unitarios. Se define el producto vectorial de u con v por
−→ −→
−→ −→ −→
−→ −→
−→
−→
−→
−→ −→ ⇔ −→ −→ −→ −→ −→ ∈ −→ −→ −→ −→ −→ −→i → − j → −k
−→u × −→v = det
u1 u2 u3 v1 v2 v3
.
Demostrar que se tienen las siguientes propiedades del producto vectorial: (u v , u ) = 0, ( u v , v ) = 0, u v = (u v ) , u u = 0, λ. ( u v ) = (λ. u ) v = u (λ. v ), ( u + v ) w = u w+ v w, u ( v + w) = u v + u w, i j = k , j k = i, k i = j , 2 2 2 2 ( u , v ) . u v = u v g. Sean u , v vectores no nulos. Demostrar que u v = u v senθ, senθ, donde θ es el angulo entre u y v . Esto corresponde al ´area area del paralelogramo determinado por los vectores u y v , cuando cuan do ´estos estos no son paralelos paralel os 3 h. Sean u , v dos vectores de R no nulos y no paralelos. Demostrar que el ´area area del tri´angulo angulo cuyos lados son estos dos vectores viene dada por
−→ × −→ −→ −→ × −→ −→ −→ × −→ − −→ × −→ −→ × −→ −→ −→ × −→ −→ × −→ −→ × −→ −→ −→ × −→ −→ × −→ −→ × −→ −→ × −→ −→ −→ × −→ −→ × −→ −→ × −→ −→ −→ × −→ −→ −→ × −→ −→ −→ × −→ −→ −→ −→ −→ − −→ −→ −→ × −→ −→ −→ −→ −→ −→ −→ −→ −→ −→u × −→v . 2
1
i. Demostr Demostrar ar que el volum volumen en de un parale paralelep lep´´ıpedo ıpedo confor conformad madoo por tres tres vecto vectores res no
−→ −→ −→ ∈
−→ × −→ −→
coplanares u , v , w R3 viene dado por ( u v , w ). 3 j. L´ıneas ınea s rectas rect as en R : en este ejercicio repasamos la definici´on de recta en de sus m´as as importantes caracterizaciones y propiedades. j1. Concepto : la recta que pasa por el punto P = ( p1 , p2 , p3 ) como vector director a = (a1 , a2 , a3 ) = 0 se defi define ne por por
−→ −→ + λ.−→a | λ ∈ R} = →a ) = {OP L (P, − {( p , p , p ) + λ. + λ. (a , a , a ) | λ ∈ R} = {( p + λa + λa , p + λa + λa , p + λa + λa ) | λ ∈ R}. −→
1
1
2
3
1
1
2
2
2
∈ R
3
R3
y algunas
y tiene
3
3
3
Esta se conoce como la caracterizaci´on on vectorial de la recta. Algunas propiedades son las siguiente siguientes: s:
→a ) = L j2. L (P, −
−→ ⇔ −→ P, b
−→
a = λ. b , donde λ es un cierto escalar no nulo,
−→ −→ →a ) = L (Q, −→a ) ⇔ Q ∈ L (P, −→a ) ⇔ P ∈ ∈ L (Q, −→a ) j3. L (P, − →a ) L Q, −→b si y s´olo →a y −→b son paralelos. Demostrar Decimos que L que L (P, − olo si − →a ) y un punto P →a ), existe una ´unica que dada una recta L recta L (P, − punto P ∈ unica recta / L (P, − − → − → − → →a ). que P ∈ L Q, b y L Q, b L (P, − L Q, b tal que P es decir, si y s´olo olo si a y b son paralelos.
j4. Dos puntos distintos determinan una unica u ´ nica recta, es decir, demostrar que
dados dos puntos P puntos P = Q existe unica recta que los contiene a ambos. Esta Q existe una ´unica recta es L es L P, P Q .
−→
j5. Ecuaciones param´ etricas etricas de la recta: notemos que un punto (x,y,z ( x,y,z ) de la
−→
recta L recta L (P, a ) satisface (x,y,z ) = ( p1 , p2 , p3) + λ. + λ. (a1 , a2 , a3 ) es decir = p 1 + λa + λa1 x = p = p 2 + λa + λa2 y = p = p 3 + λa + λa3 . z = p k. L´ L´ıneas ınea s rectas rect as en R2 : una recta en R2 se define en forma similar a como se hizo en el espacio, la recta que pasa por el punto P = ( p1 , p2 ) R2 y tiene como vector director
∈
2
−→a = (a , a ) = −→0 se defi define ne por por 1
2
−→ {−→
−→ | ∈ R} = | ∈ R} = | ∈ R}.
L (P, a ) = OP + λ. a λ ( p1 , p2 ) + λ. + λ. (a1 , a2 ) λ ( p1 + λa + λa1 , p2 + λa + λa2 ) λ
{
{
De manera particular se tienen las ecuaciones param´etricas: etricas: = p 1 + λa + λa1 x = p = p 2 + λa + λa2 . y = p Eliminando el par´ametro λ ametro λ se obtiene la ecuaci´on on cartesiana de la recta: = a2 p1 + λa + λa1 a2 a2 x = a = a1 p2 + λa + λa1 a2 a1 y = a luego = a1 y a2 x a2 p1 = a = a 2 x + a + a1 p2 a1 y = a
−
− a p − a p
1 2
2 1
Si a Si a 1 = 0, entonces obtenemos la ecuaci´on on expl´ expl´ıcita de la recta:
y =
a2 a 1 p2 a2 p1 x + , a1 a1
−
en donde aa es la pendiente y a p a−a p es el corte con el eje y. y . Ecuaci´on on normal de la recta: notemos que el vector n = (a2 , a1 ) es ortogonal al vector director a = (a1 , a2 ) de la recta L (P, a ), podemos entonces caracterizar la recta como el conjunto de puntos z = (x, y) tales que 1
2 1
−→
2
2
1
1
−→
−→
−→
−
−→ − −→ −→ −→ −→ −→ −→ −→ z
OP , n = 0
( z , n ) = OP , n .
Si utilizamos la notaci´on on del producto punto, entonces la ecuaci´on on normal de la recta es
−→ · · −→n −→z · −→n = OP →a ): sea T Distancia de un punto a una recta L (P, − sea T un un punto que no pertenece a la recta, −→ −→ − → entonces la distancia d distancia d de T de T a L (P, a ) es la norma de la proyecci´on on del vector OP − OT 3
−→
sobre el vector normal n , por lo tanto
− → − → − → − − − → − → −→ − − − → −→ − − −→ −→ | −→ − − −→ −→ |
→ d = proj− OP n OP
| −→ −→
=
OT
OT , n
OP
OP
2
.n =
2
n
| −→n =
−→n
OT , n
OT , n
−→n
l. Sean a , b vectores de Rn . Demostrar que
−→a + −→b − −→a − −→b = 4 −→a , −→b 2
2
.
m. Demostrar que un paralelogramo es un rect´ angulo angulo si y s´olo olo si las dos diagonales diagonales tienen
la misma longitud. n. Sea a = (1, (1, 2) , b = (3, (3, 4) R2 . Calcular vectores p = ( p1 , p2) y q = (q 1 , q 2 ) R2 tales que a = p + p + q , , p b y q b . 3 o. Una recta L de R contiene al punto P = ( 3, 1, 1) y es paralela al vector a = (1, (1, 2, 3). Cu´ales ales de los siguientes puntos pertenecen a L? (i) (0, (0, 0, 0) (ii) (2, (2 , 1, 4) (iii) ( 2, 1, 4) (iv) ( 4, 3, 2) (v) (2, (2, 9, 16). p. Sean a , b , c vectores no nulos de R3 tales que el ´angulo angulo entre a y c es igual al angulo ´angulo entre b y c . Demostrar que c es perpendicular al vector b . a a . b . q. Sea a = 2 i j + 2 k y c = 3 i + 4 j k . Encontrar un vector b tal que a b = c y a , b = 1.
−→ −→ ∈ −→ −→ −→ −→ −→ −→ ⊥ −→
−
− − → −→ −→ −→ −→ −→ −→ − −→ −→ × −→ −→ −→ −→
−→
−
− −
−→ −→
−
−→
−→
−
−→ − −→
−→
−
∈ −→
−→ −→ −→ −→− −→ −→ −→
r. Ecuaciones del plano : en este ejercicio repasamos la definici´on de plano en R3 y algunas
de sus m´as as importantes caracterizaciones y propiedades. r1. Descripci´ on vectorial del plano: un plano M on plano M en en el espacio R3 se define por
medio de un punto P = ( p1 , p2 , p3 ) que lo contiene y dos vectores directores u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) linealmente independientes (lo cual implica que son no nulos), en la siguiente forma
−→
−→
−→ −→ {−→ −→ −→ | ∈ ∈ } { | ∈ ∈ } { | ∈ ∈ R}. −→ →u , −→v ) y M (P, −→ r2. Dos planos M (P, − u , v ) que pasan por el mismo punto P −→ →u , −→v >=< −→ →u , −→v ) = son iguales si y s´olo olo si < − u , v >: en efecto, si M ( M (P, − −→ −→ −→ α .−→u + β .−→v ∈ M ( M (P, u , v ), entonces dados α, β ∈ R se tiene que OP + α. −→ −→ −→ → →u + β .−→v ∈ M ( −→ − → →u , −→v ), luego − M ( M (P, − OP + α. − M (P, u , v ), por lo tanto, OP + M ( M (P, u , v ) = OP + α. u + β. v α, β R = ( p1 , p2 , p3 ) + (αu ( αu1 , αu2 , αu3 ) + (βv ( βv 1 , βv 2 , βv 3) α, β R = ( p1 + αu + αu1 + βv + βv 1 , p2 + αu + αu2 + βv + βv 2 , p3 + αu + αu3 + βv + βv 3 ) α, β
4
−→
−→ −→ −→ −→
−→ −→
−→ −→
α. u + β. β . v = OP + α . u + β . v para ciertos escalares α , β R, en consecuencia α. cuencia α. u + β. v = α . u + β . v . Esto muestra que < que < u , v > < u , v >. Por la simetr´ıa ıa del problema, problem a, se tiene tambi´en en que < u , v > < u , v >. Supongamos ahora que < que < u , v >=< u , v >, entonces claramente
∈
−→ −→ ⊆ −→ −→ −→ −→ ⊆ −→ −→
−→ −→ −→ −→ −→ + α.−→u + β. →u , −→v ) = {OP →v | α, β ∈ ∈ R} = M ( M (P, − β .− −→ ∈ R} = M ( −→ −→ −→ + α.−→ {OP u + β. v | α, β ∈ M (P, u , v ). →u , −→v ) = M ( →u , −→v ) ⇔ P ∈ →u , −→v ) ⇔ Q ∈ M ( →u , −→v ). r3. M ( ∈ M ( M (P, − M (Q, − M (Q, − M (P, − −→ −→ →u , −→v ) y M ( r4. Se dice que dos planos M ( olo M (P, − M (Q, u , v ) son paralelos si y s´olo − → − → − → − → si < si < u , v >=< u , v >. Se tiene entonces la siguiente propiedad: →u , −→v ) un plano y Q →u , −→v ) un punto por fuera de dicho r5. Sea M Sea M ((P, − y Q ∈ / M (P, − plano. Entonces, existe un ´unico unico plano M plano M que que contiene a Q a Q y y es paralelo a M a M .. − → − → Este plano es por supuesto M supuesto M (Q, (Q, u , v ). r6. Sean P,Q.R tres puntos distintos de R3 que no est´ an an sobre una misma
recta, es decir, no son colineales. Entonces, existe un ´unico unico plano que contiene a estos tres puntos, dicho plano es M es M P,α. OQ OP + β. OR OP .
−→ −→ −→
−→ − −→ −→ − −→
r7. Tres vectores u , v y w son linealmente dependientes si y s´olo olo si est´an an
en un mismo plano que pasa por el origen. En efecto, supongamos que los tres vectores son LD, entonces uno de ellos, por ejemplo u , est´a en la envolvente lineal lineal de v y w , es decir, u < v , w >. Si v y w son LI, entonces tenemos que los tres est´an an en el plano que pasa por el origen y tiene como vectores directores a v y w , es decir, los tres vectores est´an a n en el plano M (0 M (0,, v , w ). Si por el contrario v y w son LD, entonces v = λ. w , para un cierto escalar λ escalar λ R. Esto hace que qu e los tres vectores est´en en en la recta rect a L (0, (0, w ), pero esta recta est´a contenida por ejemplo en el plano M (0, (0 , w , z ), ), siendo on rec re c´ıproca. ıpro ca. Sup S upong ongamo amoss z cualquier z cualquier vector LI con w . Probemos la afirmaci´on que los tres vectores u , v y w est´an a n en el plano M 0, a , b , entonces
→ − → −
−→ −→
→ − ∈ → − −→ → − → − −→ −→
−→ → − → −
−→
−→ −→ ∈ −→ −→ −→ −→ −→ −→ → − −→ −→ −→u , −→v , −→ →a , −→b >, pero sabemos por definici´on →a y −→b son LI, luego on que − w ∈ < − −→u , −→v y −→ w son LD.
r8. Ecuaciones param´etricas etricas del plano: pl ano: un punto cualquiera cualqui era (x,y,z ( x,y,z ) del plano
−→ −→
(P, u , v ) satisface las siguientes ecuaciones M (P,
= p 1 + αu + αu1 + βv + βv 1 x = p = p 2 + αu + αu2 + βv + βv 2 y = p = p 3 + αu + αu3 + βv + βv 3 . z = p 5
r9. Ecuaci´ on Cartesiana del plano: eliminando los par´ametros on ametros α y β β de las
ecuaciones par´ametricas ametricas del plano obtenemos la ecuaci´on on cartesiana, veamos un ejemplo: consideremos el plano M (P, (P, u , v ), donde P = (1, (1, 2, 3), u = (1, (1, 1, 0) y v = (0, (0, 1, 1). Entonces, las ecuaciones ecuacio nes param´ p aram´etricas etricas son
−→ −→
−→
−→
+ α x = 1 + α + α + + β y = 2 + α β = 3 + β + β z = luego y
− 2 − α = z = z − 3
con lo cual y
− 2 − x + 1 = z − 3
es decir, la ecuaci´on on cartesiana es
− y + z + z = = 2. →u , −→v ) un plano, un vector −→n ∈ R r10. Ecuaci´ on on normal del plano: sea M sea M (P, ( P, − →u , −→v ) si −→n es perpendicular tanto a −→u se dice perpendicular al plano M (P, (P, − →v . Si adem´as →n es no nulo, entonces se dice que −→n es normal a como a − as − →u , −→v ). Notemos que −→n es perpendicular a M →u , −→v ) si y s´olo →n (P, − a M (P, ( P, − olo si − M (P, →u , −→v >. Se tiene la siguiente propiedad: es perpendicular a cada vector de < − −→u × −→v es normal al plano M (P, →u , −→v ) y el plano se puede describir por la (P, − x
3
siguiente ecuaci´on on normal:
−−→ − OP −→, −→u × −→v = 0} →u , −→v ) = {X = (x,y,z ) ∈ R | OX (P, − M (P, −−→, −→u × −→v = OP −→, −→u × −→v } →u , −→v ) = {X = (x,y,z ) ∈ R | OX (P, − M (P,
3 3
usando la notaci´on on de producto punto tambi´en en podemos escribir
−→ −→ {
(P, u , v ) = X = (x,y,z ) M (P,
−−→ · (−→u × −→v ) = OP −→ · · (−→u × −→v )} ∈ R | OX 3
6
−→ −→
−→ × −→ −→ × −→ −→ −→ −→ = OP −→ + α.−→u + β −→v , luego −OX −→ − →u , −→v ), entonces −OX ∈ Sea ahora X ∈ ( P, − M (P, −→ ∈< −→u , −→v >, con lo cual OX −−→ − OP −→, −→u × −→v = 0. Rec´ıproc ıpr ocament amente, e, sea OP ∈ −−→ − OP −→, −→u × −→v = 0, sabemos que −→u , −→v y −→u × −→v son ∈ R tal que OX X ∈ −−→ −→ →u +β. →v + γ. (−→u × −→v ), luego LI, luego generan R , por lo tanto tanto OX − OP = α. − + β. − →u × −→v ) es nulo, y en consecuencia, el producto interno de este vector con ( − −−→ −→ →u + β. −→v , es decir, −OX −→ = OP −→ + α.−→u + β. −→v , = 0. Resulta, OX − OP = α. − γ = →u , −→v ). ∈ M (P, de donde X donde X ∈ (P, − 1. Sea V un ongase que cada W cada W es V un espacio vectorial real tal que V = W ⊕ · · · ⊕ W . Sup´ongase euclidiano con producto interno . Definir sobre V V un producto interno y demostrar que V que V es euclidiano. 2. Pruebe que si los vectores v = (x , x , . . . , x ), 1 ≤ i ≤ n conforman una base ortogonal de R , donde x = 0 para i > j , entonces x = 0 para i = j y x = 0 para j. i= 3. Definir en el espacio R [x] un producto interno tal que {1, x, , . . . , } sea una base En efecto, como u y v son LI, entonces u v es no nulo y sabemos que u v es perpendicular tanto a u como a v .
3
3
1
k
i
i
i
n
i1
i2
in
ij
ij
ij
x2
n
2!
x n!
n
ortonormal. 4. Sea V Sea V un espacio espacio euclidiano euclidiano y W 1 , W 2 subespacios de V de V de de dimensi´on on finita. Demostrar ⊥ ⊥ que V que V = W 1 W 2 si y s´olo olo si V = W 1 W 2 . 5. Sea V on finita y sea T : V on V un espacio unitario de dimensi´on V V una transformaci´on ∗ 1 − lineal. Si T Si T es es invertible, entonces T ∗ es invertible y (T ( T ∗ ) = (T −1) . 6. Sea V on finita y sea T : V on V un espacio unitario de dimensi´on V V una transformaci´on lineal hermitiana. Demostrar que la composici´on on de dos transformaciones hermitianas es hermitiana si y s´olo olo si ellas conmutan para la composici´on. on. 7. Sea V on finita y sea T : V on V un espacio unitario de dimensi´on V V una transformaci´on 2 ∗ ∗ lineal tal que T = T . Demostrar que T que T es es Hermitiana si y s´olo olo si T si T T = T T . Soluci´ on. on. Es claro que si T si T es es Hermitiana, entonces T es T es normal. De otra parte, existe una base ortonormal X en V V tal que la matriz de T T en dicha 2 base es diagonal, mX (T ) T ) = diag( diag (λ1 , . . . , λn ). Tenemos que T = T , T , luego mX (T ) T )2 = mX (T 2) = m X (T ), T ), es decir, diag( diag (λ21 , . . . , λn2 ) = diag( diag (λ1 , . . . , λn). Entonces, λi2 = λ i , para cada 1 i n, con lo cual, λ cual, λi = 1 ´o λi = 0. Esto garantiza que m que mX (T ) T ) tiene solo entradas ∗ ∗ reales en su diagonal, con lo cual, m cual, m X (T ) T ) = m X (T ) = m X (T ), T ), es decir, T = T ∗ ya que mX es inyectiva. 8. Demuestre que una matriz compleja A de tama˜ no no n n es unitaria si y s´olo o lo si las columnas de A de A conforman conforman una base ortonormal de Cn , si y s´olo olo si, las filas de A de A conforman conforman n una base ortonormal de C . Soluci´ on. on. Sea A Sea A una matriz compleja de tama˜no n no n n:
⊕
⊕
→ → →
≤ ≤
×
×
7
A =
c11 .. .
··· .. .
c1n .. .
cn1
···
cnn
Entonces, A es uni unita tari riaa si y s´olo olo si A−1 = A ∗ , es decir, AA∗ = E = A ∗ A, donde E es E es la id´entica. entica. Estas relaciones se pueden expresar en la siguiente forma:
c11 .. .
···
c1n .. .
cn1
··· ···
cnn
c11 .. . c1n
.. .
.. .
cn1 .. .
···
cnn
c11 .. .
···
cn1 .. .
c1n
··· ···
cnn
.. .
c11 .. . cn1
.. .
c1n .. .
···
cnn
=
=
1 .. .
···
0 .. .
0
··· ···
1
1 .. . 0
.. .
.. .
0 .. .
···
1
.
Entonces, A eess unit unitar aria ia si y s´olo o lo si ((c ((ci1 , . . . , cin ) , (c j 1 , . . . , c jn )) = δ ij ij , donde δ ii ii = 1 y para i = j. otese entonces que A que A es es unit unitari ariaa si y s´ olo olo si las filas de A de A conforman conforman δ ij j . N´otese ij = 0 para i n un conjuntos ortonormal de n de n vectores vectores de C , es decir, si y s´olo olo si las filas de A de A conforman conforman n una base ortonormal de C . Al considerar la segunda igualdad matricial de arriba se obtiene obtiene la afirmaci´ afirmaci´on on an´aloga aloga por columnas. + 9. Sea T n ( C) el conjunto de matrices cuadradas complejas de orden n tales que los elementos mentos diagonales son n´ umeros reales positivos y los elementos por encima de la diagonal umeros son nulos. Demostrar que T que T n+ ( C) es un grupo respecto al producto. 10. Sea T : V on lineal de un espacio unitario. Entonces T se V V una transformaci´on puede descomponer en la forma T forma T = U 1 + iU 2, donde U donde U 1 , U 2 : V : V V son V son transformaciones hermitianas. 11. En el espacio R2 [x] de polinomios reales de grado 2 se define el producto interno
→
→
≤
1
(f, g ) = −1 p( p(x)q (x)dx. dx. Si D Si D es el operador derivaci´on on definido sobre R2 [x], encuentre la matriz del operador D ∗ en la base can´onica onica de R2 [x]. 12. En el espacio Rn [x] de polinomios reales de grado n se define el producto interno
≤
n k=0
p( p(k )q (k )
Si D es el operador derivaci´on on definido sobre Rn [x], encontrar un subespacio invariante de dimensi´ dimensi´on n on n respecto del operador D ∗ . 13. Sea v Sea v un vector propio del operador T con propio a y y sea u sea u un un vector propio de T con valor propio a ∗ T con valor propio b de tal forma que b = a. a. Demostrar que v y u son ortogonales. 14. Sea T un espacio V .. Demostrar que V que V = = ker(T ker( T )) I m(T ). T un operador normal sobre un espacio V T ).
⊕
8
15. Ilustrar dos operadores normales T normales T y S tales que ST sean normales y distintos. S tales que S T y T S sean 4 16. Sea U = ( 1, i, 0, 1) , (i, 0, 2, 0) C . Encontrar una base ortonormal de U ⊥ y
−
⊂
extenderla hasta una base ortonormal de C4 . Soluci´ on. on. Inicialmente buscamos vectores (a,b,c,d (a,b,c,d)) , (x , y , z , w) w)
4
∈C
tales que
(a,b,c,d) a,b,c,d) ( (a,b,c,d) a,b,c,d) (x , y , z , w) w) ( (x , y , z , w) w)
· −1, i, 0, 1) = d − ib − a = 0 · (i, 0, 2, 0) = 2c 2c − ia = ia = 0 · −1, i, 0, 1) = w − x − iy = iy = 0 · (i, 0, 2, 0) = 2z 2z − ix = ix = 0
Resolvemos
− ib − a = 0 2c − ia = ia = 0 w − x − iy = iy = 0 2z − ix = ix = 0 Con el SWP la soluci´on o n es [a [a = −2ic,b = ]. Podemos enic,b = 2c − id,w = id,w = iy iy − 2iz,x = iz,x = −2iz ]. tonces dar valores para que los vectores encontrados sean LI: c = 0, d = 1, z = 1, y = 1, entonces resultan los vectores (0, (0 , −i, 0, 1) , (−2i, 1, 1, −i). Comprobemos que estos vectores efectivamente pertenecen a U ⊥ : (0, (0, −i, 0, 1) · (−1, i, 0, 1) = 0, 0, (0, (0, −i, 0, 1) · (i, 0, 2, 0) = 0, 0, (−2i, 1, 1, −i) · (−1, i, 0, 1) = 0, 0, (−2i, 1, 1, −i) · (i, 0, 2, 0) = 0. d
Ahora veamos que los dos vectores encontrados son LI: la matriz
0 2i
−
0 1
−i 1
1 i
−
es de rango 2. Debemos ahora normalizar esta base de U ⊥ : (0, i, 0, 1) = v 1 u1 = (0, ,−i,0,1) = 0, 12 i 2, 0, 12 2 w1 = (0 (0,−i,0,1) u2 = ( 2i, 1, 1, i) √ √ 2 (−2i,1,1,−i)·(0,− i 2,0, )√ √ √ √ = ( 2i, 1, 1, i) v2 = ( 2i, 1, 1, i) (0,− i 2,0, 2)·(0,− i 2,0, 2) luego 2i,1,1,−i) 2 1 1 1 w2 = ((− −2i,1,1,−i) = 7 i 7, 7 7, 7 7, 7 i 7 . Se tiene pues que w1 , w2 es una base ortonormal de U de U ⊥ , la cual debemos completar hasta una base ortonormal de C4 . A partir de los dos vectores dados en U podemos U podemos generar los dos vectores vectores que faltan: faltan:
−
− −
− − − {
− √
√
1
1
2
1
1
1
2
2
2
2
− √ }
−
2
1
√ √ − √
9
−
z 1 = ( 1, i, 0, 1) = y 1 1,i,0,1) 1 1 1 t1 = ((− −1,i,0,1) = t1 = 3 3, 3 i 3, 0, 3 3 z 2 = (i, 0, 2, 0) ·(−1,i,0,1) ( 1, i, 0, 1) = 2 i, 1 , 2, 1 i , y2 = (i, 0, 2, 0) ((−i,10,i,,20,0) ,1)·(−1,i,0,1) 3 3 3 2 − i, , , i ( ) 1 1 1 = 21 14, 42 3 14, 14, 17 3 14, 14, 42 t2 = i 3 14, i 3 14 . i, , 2 , i − ( ) Veamos finalmente que los 4 vectores son LI:
−
2
1
1
3
3
3
2
1
1
3
3
3
− √
−
√
√
− − √ √ − √ √ √ √
√ √
√ √ − 2 0 2 i √ √ √ √ − √ − √ 7 7 i 7 √ −√ √ 3 0√ 3 i √ √ √ √ √ − 3 14 3 14 i 3 14
0 2 i 7 7 1 3 3 1 i 3 14 21
1 2 1 7 1 3 1 42
1 7
1 7
1 42
1 2 1 7 1 3
esta matriz es de rango 4. Estos 4 vectores son la base ortonormal buscada. 17. Encontrar una matriz compleja C tal que C −1 AC sea sea diagonal, donde C tal que C A =
2 i . i 4
−
Verificar adem´as as que C que C −1 = C ∗ . Soluci´ on. on. N´ otese otese que la matriz A matriz A es hermitiana, hermitiana, y por tanto, tanto, diagonalizable diagonalizable (Teorema (Teorema 2 de la Lecci´on on 7 del Cap Cap´´ıtulo 8). Vamos inicialmente a intentar verificar con el Teorema 3 de la Lecci´on 2 del Cap Cap´´ıtulo 6 que A que A es efectivamente diagonalizable:
minimum polynomial: X polynomial: X 2
2 i i 4
−
√ − √ 3
− 6X + + 7, roots:
eigenvectors:
2 2+3
√ − ↔ √ − √ − ↔ i 2 1
i
i 2 1
2 + 3, 3,
i
3
−
√
2
Los dos valores alores propios propios son diferent diferentes es y son por supuesto supuesto las dos ra´ ra´ıces distintas distintas del m´ınimo. Esto garantiza que A es diagonalizable. La diagonalizaci´on on del Cap Cap´´ıtulo 6 se hace a trav´ trav´es es de la base de vectore vectoress propios propios disponiendo disponiendo estos vectores vectores en las columnas columnas 1 − de una matriz C matriz C y y calculando C calculando C AC :
− √ − i 2
√ − i
i i 2 1
1
−1
2 i i 4
−
10
− √ − i 2
√ − i
i i 2 1
1
Usando el SWP para este c´alculo alculo se obtiene una matriz F = [f ij ij ] con entradas suficientemente complicadas, sin embargo estas entradas se pueden simplificar con el comando Simplify y obtenemos lo siguiente : f 11 11
√ 2 √ i √ √ = 4 + 2i + i 2 + 2i 4 2+4 4 2+4 √ 2 √ √ 2 √ √ −i 2 − i −i 4 2 + 4 + 4 2 + 4 i 2 + 2i2i √ = 3 − 2.
f 12 12
√ 2 √ i = 4 √ + √ 2i + i 2 + 2i 4 2+4 4 2+4 √ 2 √ √ −i 4√ 2 + 4 + 4√ 22+ 4 i 2 + 2i 2i i 2−i
= 0.
√
√
− √ − − √ − √ − − √ −
5 2+ f 21 21 = 4
f 22 22 =
i 2
5 2+ i 2 4
3 i 2 4
i
3 i 2 4
i
1 0. i + 2 = 0. 2
1 i +2 = 2
√
2 + 3. 3.
Con lo cual, C −1 AC =
3
− √ 2 √ 0 0 2+3
.
Vamos ahora a aplicar la Proposici´on on 12 de la Lecci´on on 7 del Cap Cap´´ıtulo 8 mediante la cual se encuentra tambi´en en una matriz C C que diagonaliza a la matriz A, pero A, pero esta matriz es unitaria: las columnas de la matriz C matriz C son son los vectores propios de A pero normalizados:
11
− √ − √ √ − √ − √ − − √ √ √ − √ − √ − √ √ − √ √ × −√ − √ − √ √ − √ √ i 2
i 2
i, 1
i, 1
=
=
1 √ 2 2+4
2 2 + 4,
4
2 2,
1 √ 2 2+4
i 2
1
i 2 − √
i, 1
4 2 2
i 2
i, 1
1
√ i 2 4−2 2
i
1 √ 2 2+4
i
1
√ 4−2 2
−1
×
2 i i 4 1 √
2 2+4
i 2
1 i 2 − √
i
4 2 2
1 √ 2 2+4
i
1
− √
4 2 2
Al realizar el producto anterior con el SWP obtenemos una matriz cuyas entradas deben ser simplificadas:
√ √ 2 + 2 + 2√ 2 √ √ 2 + 2 + √ i 2i √ √2 + 2 + 2i2i√ 2 √ √ 2 + 2 2 √ √ √√ 2+2 − 2 4 2+4 √ 2 √ 2 − i 1 i √ √ 2 + 2 − 1 i√ 2 √ √2 + 2 + √ 2 2i √ √ 2 + 2 + 2i2i√ 2 − + 12 √ √ i √2+2 2 2 4 2+4 1 2
√ √ √ − √ √ √ √ √ √ √ √ √ √ √ − √ √ √ √ √ √ √ √ √ √ √ √ − − −√ √ −√ √ √ √ √ √ √ − − − − − − −√ √ −√ √ √ √ − − −√ − √ −√
=3
2;
√ 2 1 i 2 2+2+2 2 2 + 2 + 4√ 2+4 2i 2 + 2 + 2i 2i 2 2+2 √ 2 − 2+2 √ 2 + 12 2 + 2 12 i 2 2 + 2 + 4√ 22+4 2i 2 + 2 + 2i 2i 2 i 2 i 12 i √ − 2+2
= 0; 1 2 1 2
1 2 1 2
=
2+2
√ 2 √ √2+2 √ 2 √ √2+2
5 2
2+2+2 2
i 2
√ 2 5 √ − 2+2 2 √ 2 i 2 −√ 2+2
i
3 i 2
2+2 +
2+2+2 2
i
3 i 2
1 i 2
2+2
2
2 + 2 = 0;
2+2 +
2+2
1 i 2
√ 2 + 3
12
2
2+2
2+2
=
Lo cual coincide con el procedimiento del Cap Cap´´ıtulo 6. Veamos finalmente que C que C es es unitaria:
√ − √ − √ 1 √ 2 2+4
i 2
√ − √ i√ 2 − i √ − √ 1
i
4 2 2
1
√ 2 2+4
1
4 2 2
trasponemos esta matriz y la conjugamos, para luego multiplicarla con A:
√ √ √√ i√ 2 + i + i √ √ √ −√ −i 2 + i + i 1 2
1 2
2
2+2 2 2+2
√ √ √√ √ −√ √
1 2
1 2
2
√ − √ − √ 1
2+2 2 2+2
√
2 2+4
i 2
i
1
√ 2 2+4
1 0 0 1
√ − √ i√ 2 − i √ − √ 1
4 2 2
1
4 2 2
.
18. Determinar los valores de a, b
∈ C tales que √ (1 + i) √ a i√ 2 i) 3 1 A = √ 2 b √ 28 (−1 + i √ 2 3 + i)) 3 −2
sea una matriz unitaria. Soluci´ on. on. La definici´ on de unitaria implica que AA ∗ = E , luego on
√ √ √ − √ √ √ √ √ √ √ √ − − − √ − √ − √ −− − √ − − − − − √ − 1
2 3 =
=
(1 + i) i 2 i) 3 8 b 2 ( 1 + i + i)) 3
1 a + 6
1 aa + aa + 23 12 1 1 i b 12 12 1 a + 13 i 6
3
a 2 2
1 i 3
i 2 (1 i) 3 a
1
2 3
1 a + 6
1 1 + 12 i b 12 1 bb + bb + 1 12 1 1 i b 12 12
1 0 0 0 1 0 0 0 1
Entonces, 1 aa + aa + 23 = 1 12 1 1 1 + 12 + 12 i b 3 + 13 i = 0 6a 1 a 13 i = 0 6
− −
√
13
8 b ( 1 2
3 + 13 i 3
2 i) 3 2 1 a 6
1 i 3
1 1 + 12 i 12
1
b 3
=
− √ − √ − − − − √
1 1 1 + 12 3 13 i = 6a 12 i b 1 luego b = 0 bb + 1 = 1, luego 12 bb + 1 1 + 12 i b 3 = 0 12 1 + 13 i = 0, luego a luego a = = 2i 6a 1 1 3 = 0. 12 12 i b
0
En total, b total, b = = 0 y a = a = 2i. 19. Encontrar una matriz ortogonal Q tal que
−
QT
−2√ 5 −√ 5 18 14 −3 14
√ −−√
25 2 5 5
Q
sea diagonal. Soluci´ on. on. Seg´ un un la Proposici´on on 13 de la Lecci´on on 7 del Cap´ıtulo ıtulo 8 tal matriz existe y sus columnas son la base ortonormal de vectores propios de la matriz dada.
√ − √ −√ −−√ − √ −√ ↔ − ↔ ↔ 25 2 5 5
− √ √ √ 0
1 2
eigenvectors:
1 5 2 5
=
0 5 5
1 2
1 2
√ 2 − √ 2 1 2
√ 210 √ 110
10 0 0 0 20 0 0 0 30
5 2 1
10, 10,
1 0, = 5 5, 2, 1 = 10 5, 2, 1 = 10 1 ,1 2
√ − √ − √ − √ −
√ 210 √ 110
−1
2 5 18 14
√ − √ −
Veamos finalmente que la matriz
25 2 5 5
√ − √ 1 5 2 5
0 5 5
5 14 3
5
20, 20,
2 1
−2√ 5 −√ 5 18 14 −3 14
1 2
√ 2 − √ 2
√ 210 √ 110
14
1 2
√ 210 √ 110
√ − √ 1 5 2 5
0 5 5
30
1 2
√ 2 − √ 2
√ 210 √ 110
es ortogonal:
1 2
√ 210 √ 110
√ − √ 1 5 2 5
0 5 5
1 2
√ 2 − √ 2
√ 210 √ 110
1 2
√ 210 √ 110
√ −√ √ √ √ √ √ √ − √ √ − √ − √ −1
0
1 2
=
1 5 2 5
=
15
1 2
0 5 5
2 2
1 5 1 5
1 2
2
√ 210 √ 110
1 5
5 10 10
2 5 1 10 1 10
1 2
2
√ 210 √ 110
5 10 10 T
180
CAP ´ ITULO ITULO 8. PRODUC PRODUCTO TO INTERNO INTERNO
Cap´ıtulo 9
Formas Bilineales Introducci´ on on El producto interno en espacios euclidianos y unitarios constituye un caso particular de un concepto m´ as general como es el de forma bilineal sobre un cuerpo arbitrario. El enfoque generalizado de los as espacios euclidianos que se plantea en el presente cap´ıtulo ıtulo permite hacer estudios geom´ etricos etricos sobre cuerpos arbitrarios.
9.1. 9.1.
Formas ormas Bilin Bilinea eales les
Definici´ on on 9.1. Sea V un Una forma bilineal bilineal f V un espacio vectorial sobre un cuerpo K K cualquiera. Una forma sobre V V es una funci´ on
× ×
f : V V (u, v)
−→ −→
K f ( f (u, v)
tal que i) f ( f (u1 + u2 , v ) = f ( f (u1 , v) + f (u2 , v) ii) ii) f ( f (a u, v) = af ( af (u, v)
·
iii) iii) f ( f (u, v1 + v2 ) = f = f ((u, v1 ) + f ( f (u, v2 )
·
iv) iv) f ( f (u, a v) = af ( af (u, v) para cualesquiera u cualesquiera u 1 , u2 , u , v , v1 , v2
∈ V, a ∈ K.
El conjunto L(V , V , K ) de las formas bilineales sobre el K -espacio -espacio vectorial V constituye V constituye un espacio vectorial con las operaciones siguientes: Adici´ on: on: (f (f + + g)(u, )(u, v) = f ( f (u, v) + g (u, v) Producto: Producto: (a.f )( a.f )(u, u, v ) = af ( af (u, v)
{
}
Definici´ on on 9.2. Sea V un K -espacio -espacio de dimensi´ on finita y X = v1 , . . . , vn una base ordenada de V . V . Sea f una f una forma bilineal sobre V , V , la matriz matriz de f en f en la base X se X se define por: A = m = m X (f ) f ) = (aij ), 181
aij = f ( f (vi , vj )
CAP ´ ITULO ITULO 9. FORMAS FORMAS BILINEA BILINEALES LES
182
Teorema 9.1. Sea V un K -espacio on finita n. Entonces K -espacio de dimensi´
∼
L(V , V , K ) = M n (K ) Demostraci´ on: Fijemos on: Fijemos una base ordenada cualquiera X = v1 , . . . , vn en V en V y y consideremos al funci´on on
{
mX : L( L (V , V , K ) f
−→ −→
}
M n (K ) mX (f )
es K -lineal -lineal ya que (f (f + + g)(v )(vi , vj ) = (f )( (g )(v )(vi , vj ) y m X (a f ) mX es K f )(vvi , vj ) + (g f ) = a mX (f ). f ).
·
·
N´ otese otese que la forma f f puede escribirse matricialmen matricialmente te con ayuda de su matriz matriz A = mX (f ). f ). En efecto, sean Y = [a1 , . . . , an ], Z = [b1 , . . . , bn ], las coordenadas de u, v respectivamente en la base X . Entonces,
f ( f (u, v) = f ( f (a1 .v1 + n
=
n
··· + a
n .vn , b1 .v1 +
··· +b
n .vn )
ai bj f (vi , vj )
i=1 j =1
es decir, f ( f (u, v) = Y AZ T mX es sobreyectiva: Sea A
∈ M (K ) y f definida f definida como antes. Entonces, n
f (u + u , v) = (Y + Y )AZ T = Y AZ T + Y AZ T = f ( f (u, v) + f (u , v); T
f (u, v + v ) = Y A(Z + + Z )T = Y AZ T + Y AZ = f ( f (u, v) + f ( f (u, v ); f (a.u,v) a.u,v) = (aY ) aY )AZ T = a( a (Y AZ T ) = af ( af (u, v), f (u,a.v) u,a.v) = Y A(a.Z )T = a( a (Y AZ T ) = af ( af (u, v) Adem´ as, as, claramente m claramente m X (f ) = A. A . mX es inyectiva: Si mX (f ) f ) = 0, entonces f (vi , vj ) = aij = 0 para cada 1 f ( f (u, v) = 0 para cada u, v V, es decir, f = 0.
∈
≤
i, j
≤ n. Entonces
Corolario 9.1. Sea V un K -espacio -espacio de dimensi´ on finita n. n . Entonces, di Entonces, dim m(L(V , V , K )) ) ) = n 2
9.2 9.2.
Rango
En la lecci´on on anterior asignamos una matriz a una forma bilineal. Esto permitir´a en la presente lecci´on on desarrollar desarrollar una noci´ on de rango para formas bilineales. on
∈ ∈ L(V , V , K) . Sean X X = {v1 , . . . , v }, X =
Proposici´ on on 9.1. Sea V V un K K -espacio -espacio de dimensi´ on finita n y n y f f u1 , . . . , un bases ordenadas de V de V .. Entonces
{
}
mX (f (f )) = C T mX (f ) f )C,
donde C es C es la matriz de cambio de X de X a X .
n
183
9.2. 9.2. RANGO RANGO
Demostraci´ on: Sea C Sea C = = (cij ), con u j =
n
f ( f (ui , uj ) = f
n i=1 cij
· v . Entonces, i
· n
cki vk ,
k=1
entonces,
·
n
clj vl
=
l=1
n
bij =
n
cki clj f ( f (vk , vl )
k=1 l=1
n
cki clj akl ,
k=1 l=1
donde B donde B = m = m X (f ( f ) y A = m = m X (f ). f ). Resulta Resulta b b ij =
n l=1 (
n t k=1 cik akl ) clj ,
es decir, B decir, B = C = C T AC .
Teniendo en cuenta que las matrices de cambio de base son invertibles, se tiene entonces el siguiente corolario de la proposici´ on on anterior. Corolario 9.2. rank mX (f (f )) = rank mX (f ).
Notemos sin embargo que mX (f ( f )) y m X (f ) f ) no son necesariamente matrices similares (no po− 1 T demos asegurar que C = C )
Definici´ on on 9.3. Sea f una f una forma bilineal sobre un espacio V V de dimensi´ on finita. Se llama rango de rango de f al f al rango de su matriz (en cualquier base ordenada). La siguiente proposici´on on permitir´a definir una noci´on on de forma bilineal no degenerada. Proposici´ on on 9.2. Sea f una f una forma bilineal sobre un espacio V de V de dimensi´ on n. n. Entonces las siguientes condiciones son equivalentes: (i) rank rank (f ) f ) = n
∈ V V si y s´ olo si u = 0. (iii) f (u, ( u, v) = 0 para cada u ∈ V olo si v = 0. V si y s´ (ii) f ( f (u, v) = 0 para cada v
Demostraci´ on: Sean on: Sean L L f y R f las funciones definidas por Lf : V u
−→ −→
u Lf
V ∗ : V v
Rf : V v
−→ −→
v Rf
V ∗ : V u
∈ V ∗ ∀u, v ∈ V , V , y L
u v Evidentemente L f , R f
f
−→ −→
K f (u, v);
−→ −→
K f (u, v)
y R f son transformaciones lineales.
En este lenguaje, n´otese otese que la parte (ii) del enunciado de la proposici´on on es equivalente a que N que N ((Lf ) = 0, al igual que la parte (iii) es equivalente a que N ( N (Rf ) = 0. La proposici´on on estar´ıa ıa probada si logramos establecer que rank( rank(Lf ) = rank( rank(Rf ) = rank( rank(A) = rank( rank(f ) f ) o lo que es lo mismo, dimN (Lf ) = dimN ( dimN (Rf ) = dimN ( dimN (A).
CAP ´ ITULO ITULO 9. FORMAS FORMAS BILINEA BILINEALES LES
184
Sea X X una base ordenada de V , V , Z = [a1 , . . . , an ], Y = [b1 , . . . , bn ] las coordenadas de los vectores u, v V V en la base X base X ;; y A = A = m m X (f ). ). Entonces u Entonces u N ( N (Lf ) f ( f (u, v) = 0, v V ZAY T = 0 para n T T T t todo vector Y vector Y K Z A = 0 A Z = 0 Z N ( N (A ), entonces
∈
∈
⇔
⇔
∈
⇔
⇔
∈
∀ ∈ ⇔
dimN (Lf ) = dimN (AT ) = dimN ( dimN (A). An´ alogamente, v alogamente, v N ( N (Rf ) T Y N ( N (A); entonces
⇔
∈
∈
⇔ f ( f (u, v ) = 0 ∀u ∈ V ⇔ Z AY
T
= 0 para todo vector z
n
∈ K ⇔ AY
T
=0
dimN (Rf ) = dimN ( dimN (A). Definici´ on o n 9.4. 9.4. Sea f f una forma bilineal sobre un espacio V . V . f f se dice dice no degen degener erada ada (o no singular) si f cumple f cumple alguna de las condiciones (ii) o (iii) de la proposici´ on anterior. En el caso de dimensi´ on finita esto es equivalente a que la matriz de f de f en en cualquier base ordenada sea invertible, es decir, que det( que det(A A) = 0, con A la matriz de f f en cualquier base.
Ejemplo 9.1. Sea V Sea V un un espacio vectorial real con producto interno ( , ). Entonces
× ×
f : V V (u, v)
−→ −→
R
f ( f (u, v) = (u, v)
∈
es claramente una forma bilineal tal que f ( f (u, v) = f ( f (v, u) para todo u, todo u, v V y V y adem´as f as f ((u, u) > 0 > 0 para cada u cada u = 0. Rec´ Rec´ıprocamente, ıpro camente, cada c ada forma for ma bilineal bi lineal f sobre f sobre V V que que cumpla las dos condiciones anteriores, define un producto interno.
Ejemplo 9.2. En el espacio V = R 2 consideremos la forma bilineal definida por el producto interno y las bases X bases X = = (1, (1, 0), 0), (0, (0, 1) , X = (1, (1, 1), 1), (1, (1, 1) , X = (1, (1, 2), 2), (3, (3, 4) . Entonces se tiene que
{
}
mX (f ) f ) =
9.3.
1 0 0 1
{ −
}
, mX (f ( f )) =
2 0 0 2
{
}
, mX (f ) f ) =
5 11 11 25
Formas Bilineales Sim´ etricas etricas
Definici´ on on 9.5. Una forma bilineal f bilineal f sobre sobre un espacio V sim´ ´ etrica tr ica si si f V se dice sim f ((u, v) = f ( f (v, u) para cualesquiera u, v V . V . Una matriz A M n (K ) se dice sim´etrica etr ica si AT = A. A .
∈
∈
Corolario 9.3. Sea V un K -espacio -espacio de dimensi´ on finita n y X X una base ordenada cualquiera de V . V . Sea f f una forma sobre sobre V , V , entonces f es f es sim´etrica etrica si y s´ olo si mX (f ) f ) es sim´ si m´etri et rica. ca. Demostraci´ on: Sean u, v V y Y, Z Z sus coordenadas en la base X (Ver X (Ver la demostraci´on on del Teorema 9.1). 9.1). f ( As´ı pues, f es sim´etrica etrica si y s´olo olo si Y AZ T = ZAY T para cualesquiera f (u, v) = Y AZ T . As´ Y, Z K n . Teniendo en cuenta que Y AZ T es de orden 1 1, entonces (Y (Y AZ T )T = Y AZ T , es decir, Z AT Y T = Y AZ T . Por lo tanto, f f es sim´etrica etrica si y s´olo olo si ZA T Y T = Z AY T para cualesquiera n T Z, Y K , lo cual significa que A que A = = A A . .
∈
∈ ∈ ∈ ∈
×
Presenta Presentamos mos ahora uno de los teoremas teoremas centrale centraless del presente presente cap´ cap´ıtulo acerca acerca de la diagonlizac diagonlizaci´ i´on on de las la s formas for mas bilineal bi lineales es sim´ si m´ etricas etricas en cuerpos cue rpos de caracter´ car acter´ıstica ıstica diferente de 2. Teorema 9.2. Sea dim V V = n y sea K K un cuerpo tal que char (K ) = 2. Sea f f una forma bilineal sim´ si m´etrica et rica sobre so bre V , V , entonces existe una base X en V V tal que mX (f ) f ) es diagonal.
Demostraci´ on: Si f Si f = 0 ´o n = n = 1 no hay nada que probar. Sea f = 0 y n > 1. Si f Si f ((u, u) = 0 para cada u V , V , entonces f entonces f = = 0. En efecto, como char(K char( K ) = 2, 4 = 1 + 1 + 1 + 1 = 0 en K en K y y por lo tanto existe − 1 4 = 1/4. Se tiene la siguiente identidad de polarizaci´on: on:
∈
f ( f (u, v) =
1 f ( f (u + v, u + v ) 4
− 14 f ( f (u − v, u − v ).
´ 9.3. FORMAS FORMAS BILINEA BILINEALES LES SIM ETRICAS
185
De esta identidad se desprende entonces lo afirmado.
| f ( W ⊥ = {v ∈ V | f (u, v) = 0} . Claramente W Claramente W ⊥ ≤ V . V . Veamos que V que V = W ⊥ ⊕ W . W . Sea v Sea v ∈ V . V . Hagamos
Se puede entonces asumir la existencia de u = 0 en V en V tal que f que f ((u, u) = 0. Sea W Sea W = u y
z = v = v
f (v, u) − f ( · u. f (u, u)
Entonces
f ( f (u, z) = f ( f (u, v)
−
− = f ( f (u, v) − = f ( f (u, v)
·
f ( f (v, u) f u, u f ( f (u, u) f ( f (v, u) f ( f (u, u) f ( f (u, u) f ( f (v, u) = 0.
∈ W ⊥, luego v luego v ∈ W ⊥ + W , W , as´ı, V = W ⊥ + W . W . Sea ahora a · u ∈ W W tal que a · u ∈ W ⊥ . Entonces f ( f (u, a · u) = af ( af (u, u). Pero como f ( f (u, u) = 0, entonces a = a = 0 y as´ı W ⊥ ∩ W = 0. f f restringida a W ⊥ es una forma bilineal bili neal sim´ etrica. etrica. Como dim W dim W ⊥ = n − 1, podemos aplicar inducci´ on y suponer que existe una base {u2 , . . . , u } en W ⊥ tal que f on que f ((u , u ) = 0 para i para i = j e i, j ≥ 2. Sea X Sea X = {u1 = u, = u, u2 , . . . u }, X es X es pues la base buscada. Entonces, z Entonces, z
n
i
j
n
El resultado anterior se puede especificar m´as as para el caso complejo. Corolario Corolario 9.4. Si 9.4. Si dim C V = n y n y f f es es una forma bilineal sim´etrica etrica sobre V sobre V con con rank (f ) f ) = r, r , entonces existe una base ordenada X ordenada X = = v1 , . . . vn en V V tal que
{
}
(a) mX (f ) es diagonal. (b) f ( f (vi , vi ) = 1 para 1
≤ i ≤ r, f ( f (v , v ) = 0 para i para i > r. r. i
i
Demostraci´ on: Seg´ un un el Teorema 9.2, 9.2, existe una base X = u1 , . . . , un en V V tal que mX (f ( f )) es diagonal. Como rank(f rank(f )) = r, r , entonces entonces rank (mX (f ( f )) )) = r. r . Reordenando la base X base X podemos suponer que f que f ((uj , uj ) = 0 para 1 j r y f ( f (uj , uj ) = 0 para j para j > r. Resta definir
{
≤ ≤
vj = donde
}
√
1
f (uj ,uj )
uj ,
·u , j
1
≤ j ≤ r j>r
f ( f (uj , uj ) es una cualquiera de las ra´ ra´ıces cuadradas de f ( f (uj , uj ).
La ultima u ´ ltima parte de la demostraci´on on anterior no puede ser aplicada al caso real. Por eso en su lugar tenemos: Corolario 9.5. Si dim di mR V = n y f una f una forma bilineal sim´etrica etrica sobre V V con rank (f ) f ) = r. Entonces, r. Entonces, existe una base ordenada X ordenada X = = v1 , v2 ,...,vn en V en V tal que
{
}
(a) mX (f ) es diagonal. (b) f ( f (vi , vi ) =
±1 para 1 ≤ i ≤ r, y r, y f f ((v , v ) = 0 para i > r. i
i
CAP ´ ITULO ITULO 9. FORMAS FORMAS BILINEA BILINEALES LES
186
(c) El n´ umero de vectores de la base X para X para los cuales en (b) se da el signo positivo es independiente de dicha base. Demostraci´ on: Existe una base X = u1 , u2 ,...,un en V V tal que f ( f (ui , uj ) = 0 para i = j. Como rank(f rank(f )) = r, r, entonces rank(m rank(mX (f ( f )) )) = r y podemos reordenar X de tal manera que f ( f (ui , ui ) = 0 para 1 i r y f ( f (ui , ui ) = 0 para para i > r.
{
}
≤ ≤
Sea vi =
{
√ |
1
| .ui
1
f (ui ,ui )
ui
≤i≤r i > r.
}
N´ otese otese que entonces X = v1 , v2 ,...,vn cumple (a) y (b). Sea p el n´ umero umero de vectores vi de la base X X para los cuales f (vi , vi ) = 1. Se debe probar que p es independiente de la base X base X que que satisface (a) y (b). Sean V X+ = vi
∈ X | f (v , v ) = 1 , i
− = vi V X
∈ X |
i
f (vi , vi ) =
−1 .
As´ı, dim( dim(V X+ ) = p. p . Sea Y Y otra base de V que V que satisface (a) y (b). Queremos probar que dim( dim(V Y +) = + p = p = dim dim((V X ). Si v Si v = 0 est´a en V en V X+ , entonces f (v, v) > 0, > 0, es decir, f decir, f es es definida positivamente sobre V X+ . An´ alogaaloga − − mente, si v si v = 0 esta en V en V X entonces f entonces f ((v, v) < 0 < 0 , es decir, f decir, f es es definida negativamente en V X .
Sea ahora V X⊥ = vi X f (vi , vi ) = 0 . N´ otese otese que si v x V. Teniendo en cuenta que X que X es es una base de V de V ,, entonces
∈ |
∈
V = V X+
∈
V X⊥ entonces f ( f (v, x) = 0 para cada
⊕ V − ⊕ V ⊥ X
X
(9.1)
Sea W Sea W cualquier cualquier subespacio de V de V en en el que f que f es es definida positivamente. Entonces la suma W + W + V X− + V X⊥ − es directa. En efecto, sea u W, v V X y z V X⊥ tales que u + v + z = 0. Entonces,
∈
∈
∈
0 = f ( f (u, u + v + z ) = f ( f (u, u) + f ( f (u, v ) + f ( f (u, z), tambi am bi´´en en 0 = f ( f (v, u + v + z ) = f ( f (v, u) + f ( f (v, v) + f ( f (v, z ). Como z V X⊥ , entonces f (u, z) = f ( f (v, z ) = 0. Adem´as, as, en vista de la simetr´ simetr´ıa se tiene que f ( f (u, v) = f ( f (v, u). Puesto que f que f ((u, u) 0 y f ( f (v, v ) 0, entonces f entonces f ((u, u) = f ( f (v, v) = 0. Como f Como f es es positivamente definida en W en W y y negativamente definida en V X− entonces u entonces u = = v = 0 ; de donde tambi´en en z = 0. v =
∈
≥
≤
Seg´ u n lo probado y de acuerdo a (9.1 un ( 9.1)) se tiene dim W dim V X+ . En otras palabras, si W W es un + subespacio de V de V en en el cual f cual f est´a definida positivamente, entonces dim W dim V X . Sea entonces Y − , V ⊥ , V + definidos otra base de V de V que que cumple (a) y (b), y sean V Y como para la base X base X .. Por lo tanto Y Y definidos como dim V Y + dim V X+ , y por simetr´ıa, ıa, dim V X+ dim V Y +, as´ı se tiene que dim V X+ = dim V Y + .
≤
≤
≤ ≤
≤
De la demostrac demostraci´ i´ on on del corolario anterior anterior se pueden pueden sacar las siguiente siguientess conclusiones conclusiones::
´ 9.4. FORMAS FORMAS BILINEALES BILINEALES ANTISIM ANTISIM ETRICAS
187
(i) dim V X+ es independient independientee de la base X base X..
− es independien (ii) (ii) dimV dim V X independiente te de la base X base X.. − = rank( (iii) (iii) dimV dim V X+ + dim V X rank(f ) f ) (iv) V X⊥ es unico . M´as a s a´ un, un, V ⊥ = u V f (u, v) = 0 , v V = V X⊥ . En efecto, u V ⊥ ⊥ ⊥ u N ( N (Lf ) ,es decir, V = N ( N (Lf ), luego dim V = dim N ( N (Lf ) = dim V rank( rank(f ) f ) = dim V − + ⊥ ⊥ ⊥ (dim V X + dim V X ) = dim V X , pero como V como V X V , entonces se tiene la igualdad V ⊥ = V X⊥ .
{ ∈ | |
∈
∀ ∈ }
≤
(v) Se define define la signatura la signatura de de f como f como sig sig((f ) f ) = dim V X+
9.4.
∈
− −
⇔ − −
− dim V − . X
Formas Bilineales Antisim´ Antisim´ etricas etricas
Definici´ on on 9.6. Una forma bilineal f bilineal f sobre sobre un espacio V espacio V se se dice antis ant isim im´ ´ etri et rica ca si f si f ((u, v) = para cualesquiera u, cualesquiera u, v V. Una matriz A M n (K ) se dice antis ant isim im´ ´ etri et rica ca si si A = AT .
∈
∈
−
−f ( f (v, u)
Adaptando la prueba del Corolario 9.3 se pueden establecer los siguientes resultados para el caso antis ant isim´ im´etric etr ico. o. Corolario 9.6. Sea V un V un K-espacio de dimensi´ on finita n y X X una base ordenada cualquiera de V. Sea f sobre V . Entonces, f a ntis isim´ im´etri et rica ca ant isim´etrica. etr ica. f una forma sobre V f es ant mX (f ) es antisim´
⇔ ⇔
∈ ∈
Corolario Corolario 9.7. Sea f f L(V , V , K ) una forma bilineal antisim´ antisi m´ etrica etrica sobre s obre un K un K -espacio -espacio de dimensi´ on finita, donde char( char (K ) = 2. 2 . Entonces, en cualquier base ordenada X ordenada X de V V , los elementos diagonales de mX (f ) f ) son nulos.
∈ ∈
Proposici´ on on 9.3. Si char( char (K ) = 2 y f L( L (V , V , K ) , entonces f es f es suma de una forma sim´ etrica etrica y una antisim´etrica. etrica. Tal representaci´ represent aci´ on de f es unica. ´ Demostraci´ on: En on: En efecto, para u, v
∈ V se V se define g (u, v) =
1 [f [ f ((u, v) + f ( f (v, u)] 2
1 [f [ f ((u, v) f ( f (v, u)] 2 N´ otese otese que g que g es sim´ si m´etric etr ica, a, h antisim´ antis im´etrica etri ca y adem´ a dem´as f as f = g + g + h. h(u, v) =
−
Sean g Sean g , h sim´ si m´ etrica etrica y antisim´etrica etrica respectivamente, resp ectivamente, tales que f = g + h . Entonces, f ( f (u, v) = g (u, v ) + h (u, v) f ( f (v, u) = g (v, u) + h (v, u) = g (u, v)
⇒ ⇒ De manera manera similar similar resulta resulta h h = h = h..
− h(u, v)
2g (u, v ) = f ( f (u, v) + f (v, u)
g (u, v ) =
1 [f [ f ((u, v) + f (v, u)] = g( g (u, v). 2
Ahora presentamos los an´alogos alogos del Teorema 9.2, 9.2, Corolario 9.4 y Corolario 9.5 del caso sim´etrico etrico para el caso antisim´etrico. etrico.
CAP ´ ITULO ITULO 9. FORMAS FORMAS BILINEA BILINEALES LES
188
Teorema 9.3. Sea dimV y f L(V , V , K ) una forma bilineal antisim´etrica, etrica, donde char donde char((K ) = 2. dimV = n y f Entonces el rango de f f es par, rank( rank(f ) = 2k . Adem´ as, existe una base ordenada X en V V tal que la matriz de f es f es “suma directa” de la matriz nula de orden ( n ( n 2k ) y k k matrices 2 2 de la forma
∈ ∈
−
0 1 1 0
−
×
Demostraci´ on: Si f f = 0 el teorema es verdadero. Sea f = 0. Existen u1 , v1 V 0 tales que f ( f (u1 , v1 ) = 0. Multiplicando u Multiplicando u 1 por f por f ((u1 , v1 )−1 podemos suponer (s.p.) que f ( f (u1 , v1 ) = 1.
∈ −{ }
u1 , v1 son L.I: sean α, sean α, β
∈ ∈ K tales tales que αu que αu 1 + βv 1 = 0. Entonces 0 = f ( f (αu1 + βv 1 , u1 ) = αf ( αf (u1 , u1 ) + βf ( βf (v1 , u1 ) =
−β
tambi´ tam bi´en, en, 0 = f ( f (αu1 + βv 1 , v1 ) = α f ( f (u1 , v1 ) + βf ( βf (v1 , v1 ) = α. α .
{ ∈ | | −
Sea ahora W ahora W 1 = u1 , v1 , por lo probad probado o antes antes se tiene tiene que la dim (W 1 ) = 2. Sea W 1⊥ = z V f ( f (z, w) = 0, para cada w W 1 . Veamos que V = W 1 W 1⊥ : Sean x V , V , ⊥ w = f = f ((x, v1 ).u1 f ( f (x, u1 ).v1 y z = x w. Claramente w. Claramente w w W 1 y x = w = w + + z. Veamos que z que z W 1 :
∈ }
−
−
∈
⊕
∈
∈
−
f ( f (z, u1 ) = f ( f (x w, u1 ) = f ( f (x f ( f (x, v1 ).u1 + f (x, u1 ).v1 , u1 ) = f ( f (x, u1 ) f ( f (x, v1 )f ( f (u1 , u1 ) + f ( f (x, u1 )f ( f (v1 , u1 ) = f ( f (x, u1 ) f ( f (x, u1 )f ( f (u1 , v1 ) = 0. Tamb Tambi´ i´en, f ( f (z, v1 ) = 0. Resulta, z Resulta, z Sea z Sea z
− −
∈ W 1⊥.
∈ W 1⊥ ∩ W 1, entonces
z = α.u = α.u 1 + β.v 1
⇒
0 = f ( f (z, v1 ) = f ( f (α.u1 + β.v 1 , v1 ) = αf ( αf (u1 , v1 ) = α 0 = f ( f (z, u1 ) = f ( f (α.u1 + β.v 1 , u1 ) = βf β f ((v1 , u1 ) = β luego z luego z = 0. La restricci´on on f 1 de f a W 1⊥ es una forma bilineal antisim´etrica. etrica. Si f 1 es nula hemos terminado. Tenemos en este caso que el bloque nulo es de orden n 2, y el rango de f f es 2, de tal forma que tenemos un solo bloque de la forma
−
0 1 1 0
−
Si f 1 no es nula nula existe existen n vecto vectores res no nulos nulos u2 , v2 en W 1⊥ tales que f ( f (u2 , v2 ) = 1. Sea W 2 = ⊥ u2 , v2 W 1 . Como Como vimos vimos ante antess se gene genera ra la desc descom ompos posic ici´ i´ on on V = W 1 W 2 W 2⊥ , donde W 2⊥ = z W 1⊥ f ( f (z, u2 ) = 0 = f = f ((z, v2 ) .
⊆ ∈
⊕ ⊕
|
Si la restriccion f 2 de f 1 a W 2⊥ es nula nula hemos hemos termin terminado ado.. En este este caso caso tendre tendremos mos dos bloques bloques de tama˜ no no 2 2 y un bloque nulo de tama˜no no (n 4 n 4) de tal forma que rank (f ) f ) = 4. Si f Si f 2 no es nula podemos continuar de esta manera y consegir una sucesi´on finita (dim V es V es finita ) de pareja de vectores (u (u1 , v1 ) ,(u ,(u2 , v2 ),..., (u (uk , vk ) tales que:
×
(a) f ( f (uj , vj ) = 1 para 1
− × −
≤ j ≤ k.
(b) f ( f (ui , uj ) = f ( f (vi , vj ) = f ( f (ui , vj ) = 0 para para i i = j.
189
9.5. FORMAS SESQUILINEALES
(c) Si W Si W j = uj , vj entonces
V = W 1
⊕ · · · ⊕ W ⊕ W 0 k
donde todo vector de W 0 es ortogonal ortogonal a todos los uj , vj y la restricci´on on de f a W 0 es nula. Sea X Sea X 0 = w1 , w2 ,...,ws una base de W 0 .
{
}
Entonces, X Entonces, X = = u1 , v1 , u2 , v2 ,...,uk , vk , w1 , w2 ,...,ws es una base de V de V ..
{
N´ otese otese que s que s = n = n
}
− 2k y la matriz de f de f en X en X es:
− − m{u1 ,v1 } (f ) f )
mX (f ) f ) =
0
..
.
..
.
0
m{uk ,vk } (f ) f )
mX0 (f )
0 1 1 0
..
=
k bloques
.
0 1 1 0
0
0 0 0 0
0
N´ otese otese finalmente que rank( rank(mX (f )) f )) = 2k 2k .
Mediante un simple reordenamiento de la base X X de la prueba del Teorema anterior en la forma X = = u1 , u2 , .....u .....uk , v1 , v2 , .......v .......vk se obtiene la siguiente conclusi´on. on.
{
}
Corolario Corolario 9.8. Toda forma bilineal antisim´etrica etrica f f no singular es de grado par. Si dim V = 2k , entonces existe una base X X en V V tal que mX (f ) f ) =
0 L L 0
−
donde L es de orden k de la forma
L =
9.5.
0
1 0
1 .. .
1 1
0 0
Formas ormas Sesquil Sesquiline ineale aless
Esta lecci´on on estudia las formas sesquilineales sobre espacios reales o complejos que posean producto interno. Se estudia adem´as as la relaci´on on de estas formas con las transformaciones lineales. En adelante un espacio espacio con producto interno denotar´ denotar´a a un espacio unitario o a un espacio euclidiano.
CAP ´ ITULO ITULO 9. FORMAS FORMAS BILINEA BILINEALES LES
190
Definici´ on on 9.7. Sea V un forma sesquilineal f sobre on V un espacio real o complejo. Una forma sesquilineal f sobre V es V es una funci´
× ×
f : V V (u, v) tal que
−→ −→
K (K = = C, ´ o R) f ( f (u, v)
f ( f (u1 + u2 , v) = f ( f (u1 , v) + f ( f (u2 , v) f ( f (a.u,v) a.u,v) = af ( af (u, v) f ( f (u, v1 + v2 ) = f ( f (u, v1 ) + f ( f (u, v2 ) f ( f (u,a.v) u,a.v) = af ( af (u, v).
∈ V, a ∈ K .
Para cualesquiera cualesquiera u u 1 , u2 , u , v1 , v2 , v
Observaci´ on. on. N´ otese que las formas sesquilineales reales coinciden con las formas bilineales reales otese estudiadas en las lecciones anteriores. De otra parte, con las mismas operaciones definidas en la Lecci´on on 1, la colecci´on on de formas sesquilineales constituyen un espacio vectorial S . S . Establecemos enseguida el isomorfismo de este espacio con el de las matrices cuadradas complejas (o reales) para el caso de espacios de dimensi´on on finita.
{
}
Definici´ on on 9.8. Sea V un V un espacio de dimensi´ on finita n y sea X = v1 , . . . , vn una base ordenada cualquiera de V . V . Sea f una f una forma sesquilineal sobre V sobre V ,, la matriz matriz de f en f en la base X se X se define por A = m = m X (f ) f ) = (aij ) , aij = f ( f (vi , vj ) Teorema 9.4. Sea V un V un espacio real o complejo de dimensi´ on finita n y sea S el S el espacio de formas sesquilineales sesquilineales sobre V . V . Entonces,
∼
S = M n (K ) con K = K = C ´ o R. En consecuencia, dim S = = n2 .
{
}
Demostraci´ on: Fijemos on: Fijemos una base ordenada cualquiera X = v1 , . . . , vn en V en V y y consideremos la funci´on on mX : S f
−→ −→
M n (K ) mX (f ) f ) = A
mX es claramente K claramente K -lineal. -lineal. f f puede puede escribirse matricialmente con ayuda de A, A , en la siguiente forma: sean Y sean Y = (a1 ,...,an ), Z = = (b1 , . . . , bn) las coordenadas de u de u y y v v respectivamente respectivamente en la base X. Entonces, n
f ( f (u, v ) =
n
ai bj f ( f (vi , vj ),
i=1 j =1
f (u, v) = Y AZ ∗ , Z ∗ = Z mX es sobreyectiva: sea A sea A
T
∈ M (K ) y f definida f definida como en (9.2 ( 9.2). ). Entonces, n
f ( f (u + u, v) = f ( f (u, v) + f ( f (u, v) f ( f (u, v + v) = f ( f (u, v) + f ( f (u, v ) f ( f (a.u,v) a.u,v ) = af = af ((u, v) f ( f (u,a.v) u,a.v ) = af = af ((u, v) y adem´as m as m X (f ) f ) = A = A..
(9.2)
191
9.5. FORMAS SESQUILINEALES
Finalmente n´otese otese que m X es inyectiva: si mX (f ) un (9.2), 9.2), f ( f ) = 0 entonces, seg´un f (u, v) = 0 es decir, f decir, f = 0.
∀u, v ∈ V , V ,
La siguiente propiedad estudia el cambio que sufre la matriz de una forma sesquilineal cuando se produce un cambio de base (comp´arese arese con la Proposici´on on 9.1 para 9.1 para el caso bilineal). Esto permitir´ permitir´ıa definir los conceptos de rango de una forma sesquilineal y de forma sesquilineal no singular. Sin embargo, en la literatura cl´asica asica sobre formas sesquilineales estos conceptos no son tratados con suficiente atenci´ on. on. Proposici´ on on 9.4. Sea V un V un espacio real o complejo de dimensi´ on finita n, n , y sea f f una forma sesqui lineal sobre V . V . Sean X = X = v1 , . . . , vn y X X = u1 ,...,un bases ordenadas de V . V . Entonces,
{
}
{
}
mX (f ) f ) = C T mX (f ) f ) C
donde C es C es la matriz de cambio de la base X base X a a la base X base X . Veremos a continuaci´on on la manera de asociar a cada forma sesquilineal definida sobre un espacio con producto interno una cierta transformaci´on on lineal cuya matriz es la transpuesta de la matriz de la forma. Proposici´ on o n 9.5. 9.5. Sea V V un espacio espacio de dimensi´ dimensi´ on finita n con pro producto interno, interno, y f f una forma sesquilineal sesquilineal sobre V V . Entonces, existe una unica ´ transformaci´ on lineal S : : V V V tal que
−→ −→
∀u, v ∈ V (9.3) Sea Sea v un elemento fijo de V V y sea X = {v1 , · · · , v } una base ortonormal de f ( f (u, v) = u, S (v )
Demostraci´ on: Paso Paso 1 V , V , definimos definimos
n
·
w = f = f ((v1 , v) v1 +
···
· · · + f ( f (v
n , v)
·v
n
y sea u = a1 .v1 + + a n .vn un elemento cualquiera de V . V . Entonces, f ( f (u, v) = a1 f ( f (v1 , v ) + an f ( f (vn , v) y tambi ta mbi´´en en u, w = a 1 f ( f (v1 , v) + + an f (vn , v), es decir, f decir, f ((u, v) = u, w u V . V .
···
∀ ∈
··· +
Paso 2 De la correspondenc correspondencia ia anterior anterior se tiene que la funci´ on on S : : V v
−→ −→
V S (v) = w
cumple f cumple f ((u, v) = u, w
, ∀u ∈ V y V y adem´as S as S es K es K −lineal y cumple (4). Paso Paso 3 Sean Sean S 1 , S 2 que cumplan (9.3 (9.3), ), entonces para todo u, v ∈ V u, S 1 (v ) = u, S 2 (v ), es decir, u, (S 1 − S 2)(v )(v ) = 0, entonces (S (S 1 − S 2 )(v )(v) = 0 ∀v ∈ V , V , es decir, S decir, S 1 = S = S 2 .
Corolario Corolario 9.9. Sea V V un espacio con producto interno de dimensi´ on finita n, y sea f f una forma sesquilineal sesquilineal sobre V V . Entonces existe una ´ unica transformaci´ transformaci´ on lineal T lineal T f V V tal que f : V
−→ −→
∀u, v ∈ V
f (u, v) = T f f (u), v ,
La transformaci´ on S de S de la proposici´ on anterior es la adjunta de T de T f S = T f ∗ . f , es decir, S = Demostraci´ on: Sea T Sea T f := S ∗ , donde S donde S es es la transformaci´on on definida en la proposici´ on on anterior. Entonf := S ∗ ces, f ces, f ((u, v ) = u, S (v ) = S (v ), u = v, S (u) = v, T f f (u) = T f f (u), v .
Observaci´ on. on. (a) La transformaci´on on T f 9.9 podr´ıa ıa denominarse denomina rse la transformaci´ transform aci´on on de f del Corolario 9.9 la forma sesquilineal f . f . Sea X = v1 ,...,vn una base ortonormal de V . V . Veamos qu´e relaci´ relaci ´on on existe entre m entre m X (f ) f ) y m X (T f sea A = (aij ) = m X (T f ), B = m = m X (f ). ). Entonces, f ): sea A f ), B
{
}
CAP ´ ITULO ITULO 9. FORMAS FORMAS BILINEA BILINEALES LES
192
n
bij = f ( f (vi , vj ) = T f f (vi ), vj =
por lo tanto,
aki vk vj
k=1
= a ji
T mX (f ) f ) = m X (T f f )
(9.4)
(b) Sea ahora V un V un espacio real o complejo (no necesariamente con producto interno) y X una X una base de V . V . Sea f una f una forma sesquilineal sobre V . V . f determina f determina una matriz A = m X (f ); f ); A determina una transformaci´ on U on U : V V V as´ as´ı: U ( U (x) = A T Z T , con Z con Z = [a1 , , an ] coordenadas de x de x en X . X . N´ otese otese T que m que m X (U ) U ) = A .
−→ −→
···
(c) Combinando (a) y (b) para un espacio V con V con producto interno y X ortonormal X ortonormal se tiene: mX (T f f )T = A T = m X (U ) U ) f ) = m X (f ) luego, U = T f f . En la Lecci´ Leccion o´n 3 vimos que las formas bilineales sim´etricas etricas (ya sean reales o complejas) son diagonalizadi agonalizables. Veremos ahora como las formas sesquilineales definidas sobre espacios unitarios son triangulables.
≥ 1. 1 .
Teorema 9.5. Sea f f una forma sesquilineal sobre un espacio unitario V V de dimensi´ on finita n Entonces existe una base ortonormal X ortonormal X en V V tal que la matriz de f f es triangular superior.
Demostraci´ on: Seg´ un el Ejercicio 7 de la Lecci´on un on 9 del Cap´ Cap´ıtulo 8, existe una base ortonormal X = v1 ,...,vn en V tal V tal que la matriz de la transformaci´on T on T f a f es es triangular superior. Seg´un un f asociada a f (9.4) 9.4) m X (f ) f ) es triangular triangular inferior. Siendo Y Siendo Y = vn , , v1 entonces se tiene la afirmaci´on. on.
{
}
9.6. 9.6.
Formas ormas Hermi Hermitia tiana nass
{ ··· }
Esta lecci´on on estudia las formas sesquilineales hermitianas sobre espacios reales o complejos. Se debe resaltar que las formas sesquilineales hermitianas sobre espacios reales coinciden con las formas bilineales reales sim´ etricas etricas estudiadas en la Lecci´on on 3. Definici´ on on 9.9. Una forma sesquilineal f sesquilineal f sobre sobre un espacio real o complejo V V se dice hermitiana dice hermitiana si si f ( f (u, v ) = f ( f (v, u)
∀u, v ∈ V ≥
Proposici´ on on 9.6. Una 9.6. Una forma sesquilineal f sobre f sobre un espacio V espacio V de de dimensi´ on finita n n 1 con producto ∗ interno es hermitiana si, y s´ olo si, T f f es autoadjunta, es decir, T f = T f f . En otras palabras, f es hermitiana si y s´ olo si T T f es hermitiana. f Demostraci´ on: Supongamos on: Supongamos que T que T f f es autoadjunta, por lo tanto
∗ (v) = u, T f f (v) f ( f (u, v) = T f f (u), v = u, T f (v
∀u, v ∈ V = T (v ), u = f ( f (v, u), f f
as´ı, f es f es hermitiana. Rec´ıproc ıpr ocament amente, e, si f f es hermitiana, entonces f ( f (u, v) = f ( f (v, u), luego T f f (u), v = T f f (v ), u , por ∗ lo tanto, T f u, v V , V , por consiguiente, T consiguiente, T f = T f decir, T f f (u), v = u, T f f (v ) f , es decir, T f es autoadjunta.
∀ ∈
193
9.6. FORMAS HERMITIANAS HERMITIANAS
Proposici´ on on 9.7. Una forma sesquilineal f sobre f sobre un espacio unitario V V es hermitiana si y solo si f ( f (u, u) es real para cada u cada u V . V .
∈
⇒) Evidente a partir de la definici´on. on. ⇐) Sean u, Sean u, v ∈ V , V , entonces
Demostraci´ on:
f ( f (u + v, u + v) = f ( f (u, u) + f ( f (u, v) + f (v, u) + f ( f (v, v )
∈R
∈ R entonces f entonces f ((u, v) + f ( f (v, u) ∈ R. An´ alogamente, alogamente, f (u + iv,u + iv) iv) = f ( f (u, u) − if ( if (u, v ) + if ( if (v, u) + f ( f (v, v) ∈ R entonces −if ( if (u, v) + if ( if (v, u) ∈ R. Resulta, Resulta, y como f como f ((u, u), f ( f (v, v)
f ( f (u, v) + f ( f (v, u) = f ( f (u, v) + f ( f (v, u)
−if ( if (u, v) + if ( if (v, u) = if = if ((u, v ) − if ( if (v, u) Multiplicand Multiplicandoo la segunda segunda por i por i y sumando resulta 2f 2 f ((u, v) = 2f ( f (v, u), entonces f entonces f ((u, v) = f ( f (v, u).
Cerramos Cerramos la lecci´ on on con el teorema teorema sobre diagonaliza diagonalizaci´ ci´ on. on. Teorema 9.6. Sea V un V un espacio con producto interno (real o complejo) de dimensi´ on finita n n y f y f una forma sesquilineal sesquilineal hermitiana sobre V . V . Entonces existe una base ortonormal X en V V tal que mX (f ) f ) es diagonal real. Demostraci´ on: Se´ un un la Proposici´on 9.6, on 9.6, T f f es hermitiana, entonces existe una base ortonormal X en V V tal que m que m X (T f f ) es diagonal real. f ) es diagonal real, por lo tanto, m X (f )
´ Algebra Lineal Cap´ Cap´ıtulo 9. Formas Bilineales Bilinea les Ejercicios. 1. Demostrar el Corolario 8 de la Lecci´on 4 del presente cap´ cap´ıtulo. 2. Demostrar la Proposici´ on on 4 de la Lecci´on on 5 del presente cap´ cap´ıtulo. 3. Sea f una forma bilineal sim´ etrica etrica definida por la matriz
A
=
4 2 2 5 −2 0
2 0 3
−
Demostrar que existe una base Z en R3 tal que la matriz de f en dicha base es la matriz id´ id ´enti entica ca.. 4. Sea f una forma bilineal sim´ etrica etrica definida por la matriz A =
Demostrar que existe una base Z en
R2
4 2 2 1
tal que la matriz de f en dicha base es
1 0 0 0
Cu´al al es el rango de f ? 5. Sea f una forma bilineal sim´ etrica etrica definida por la matriz A =
Demostrar que existe una base Z en
R2
0 2 2 0
tal que la matriz de f en dicha base es
1
0 0 −1
Cu´al al es el rango de f ? 6. Sea n un entero positivo y sea V el espacio de todas las matrices n × n sobre el cuerpo C de n´ umeros complejos. Demostrar que la relaci´on umeros on f ( ( A, B ) = ntr (AB ) − tr (A) tr (B )
define una forma bilineal. Esta forma es sim´etrica? etrica? Esta forma es no degenerada? 7. En el problema anterior, sea W el subespacio de V que consta de todas las matrices A tales que tr (A) = 0 y A es antihermitiana, es decir, A = −A. Consideremos la restricci´on on f de f al subespacio W . Probar que f (A, A) < 0 para cada matriz A ∈ W . 8. Sea V un espacio vectorial sobre un cuerpo K , y sean f 1 , f 2 ∈ V funcionales. Demostrar que la ecuaci´on on ∗
∗
1
(u, v ) = f 1 (u) f 2 (v ) − f 2 (u) f 1 (v ) f ( define una forma f orma bilineal bilinea l antisim´ antis im´etrica etrica sobre V . Demostrar que f = 0 si y s´ olo olo si f 1 f 2 son linealmente dependientes. ,
2
196
CAP ´ ITULO ITULO 9. FORMAS FORMAS BILINEA BILINEALES LES
Cap´ıtulo 10
Formas Cuadr´ aticas Introducci´ on on Las ideas y resultados expuestos en los dos cap´ cap´ıtulos anteriores son ahora considerados para el estudio de las llamadas formas cuadr´aticas aticas que tienen amplias aplicaciones en diferentes ´areas areas de matem´aticas aticas y estad´ es tad´ısti ıs tica ca..
10.1. 10.1.
Formas ormas Cuad Cuadr´ r´ aticas aticas
En este cap´ıtulo, ıtulo, salvo que se advierta lo contrario, K contrario, K denotar´ denotar´a un cuerpo arbitrario arbitrar io de caracter´ıstica ıstica diferente de 2, char 2, char((K ) = 2, y V y V un K un K -espacio -espacio vectorial.
Definici´ on on 10.1. Sea f f una forma bilineal sim´etrica etrica sobre V . V . La forma cuadr´ atica asociada atica asociada a f es la funci´ on definida por q : V : V u
K q (u) = f ( f (u, u)
−→ −→
N´ otese otese que q que q ((βu) βu ) = f = f ((βu,βu) βu,βu) = β 2 f ( f (u, u) = β 2 q (u), para β para β De otra parte,
∈ ∈ K, u ∈ V , V , en particular q (−u) = q (u).
q (u + v) = f ( f (u + v, u + v) = f ( f (u, u + v ) + f ( f (v, u + v) = f ( f (u, u) + f ( f (u, v) + f (v, u) + f ( f (v, v ) por po r la l a sime s imetr´ tr´ıa ıa de f de f tenemos: tenemos: q (u + v) = q (u) + 2.f 2 .f ((u, v ) + q (v)
(10.1)
(2 denota denota 1+ 1 en K en K ). ). La ecuaci´on on anterior muestra que si 1+1 = 0 , entonces f entonces f queda queda completamente determinada por q por q mediante mediante la relaci´on: on: 1 [q [ q (u + v ) q (u) 2 1 f (u, v) = [f [ f ((u + v, u + v ) 2 f (u, v) =
−
− q (v)] − f (u, u) − f ( f (v, v)]
−v en (1) obtenemos: q (u − v) = q (u) − 2.f ( .f (u, v ) + q (v) y de (10.1 (10.1)-( )-(10.3 10.3)) se tiene q tiene q ((u + v ) − q (u − v) = 4f ( f (u, v), es decir,
(10.2)
Si reemplazamos v reemplazamos v por
197
(10.3)
´ CAP ´ ITULO ITULO 10. FORMAS FORMAS CUADR CUADR ATICAS
198
1 [f [ f ((u + v, u + v ) f (u v, u v )] 4 Esta es la identidad de polarizaci´on on que vimos vi mos en Teorema 2 del Cap´ Cap´ıtulo 3.
−
f (u, v) =
−
{
−
(10.4)
}
Si V V es un espacio de dimensi´on on finita n y X = v1 , . . . , vn es una base de V , V , entonces se define la matriz y, consecuentemente, el rango de la forma cuadr´atica q (u) = f (u, u), como la matriz y el rango de la respectiv respectivaa forma forma bilineal. bilineal. Una forma cuadr´atica atica se dir´a no degenerada degenerada,, o tambi´ tambi´ en en no singular, singular, si su matriz matriz es invertib invertible. le. La forma forma cuadr´ cuadr´atica f atica f ((u, u) puede pued e escribirse escr ibirse tambi´en en en la forma: for ma: n
f ( f (u, u) =
aij αi αj = Z AZ T
(10.5)
i,j =1
donde Z donde Z = = [α1 , . . . , αn ] son las coordenadas de u de u en la base X base X ,, y A = [aij ] = m X (f ). f ).
10.2 10 .2..
Suma Suma de Cuad Cuadra rado doss
Definici´ on on 10.2. Sea f ( f (u, u) una forma cuadr´ atica sobre un espacio V V de dimensi´ on finita n. Se dice que f ( f (u, u) es reducible a una suma una suma de cuadrados, cuadrados, si existe una base X y X y escalares d1 , . . . , dn en K tales K tales que: n
dk α2k
(10.6)
k=1
donde α α 1 ,...,αk son la coordenadas de u de u en la base X . X . Los coeficientes de f de f ((u, u) en (3) se denominan can´ onicos. Uno de los teoremas centrales sobre formas cuadr´ aticas es debido a Lagrange. Teorema 10.1. (M´etodo etodo de Lagrange). Toda Toda forma cuadr´ atica sobre un K -espacio -espacio V V de dimensi´ on finita n n es reducible a una suma de cuadrados. Demostraci´ on: Si f Si f ((u, u) = 0 para cada u
∈ V , V , entonces en cualquier base X de V de V se se tiene que
1 [q [ q ((u + v ) q ( q (u) q ( q (v)] = 0, 0, 2 para cualesquiera u, cualesquiera u, v V . V . Por lo tanto, la matriz A matriz A de la forma cuadr´atica atica es nula y de esta manera q (u) = 0 para cada u V . V . Es decir, q decir, q = = 0 es una suma de cuadrados. f ( f (u, v) =
−
−
∈ ∈
{
}
Supongamos que q que q = 0, y sea Y sea Y = v1 , . . . , vn una base de V . V . Se tiene que k
q (u) =
aij αi αj
(10.7)
i,j =1
Se puede siempre suponer que f ( f (v1 , v1 ) = a = a 11 = 0. En efecto, consideremos dos casos:
≤ ≤
Caso Caso 1. Si a11 = 0 pero aii = 0 para alg´ un un 2 i n , entonces podemos reordenar la base Y (cambiando v (cambiando v 1 por v por v i ) de tal forma que el coeficiente correspondiente al primer cuadrado sea no nulo.
≤ ≤
Caso Caso 2. Si aii = 0 para cada 1 i n, entonces alg´ un un coeficiente aij = 0 y, con un reordenamiento, miento, podemos p odemos suponer que dicho dicho coeficiente coeficiente es a 12 (cambiando v (cambiando v 1 por v por v i y v 2 por v j ). Buscamos una nueva base Z base Z = z1 , . . . , zn de tal forma que f ( f (z1 , z1 ) = 0,
{
}
199
10.2. SUMA DE DE CUADRADO CUADRADOS S
Se introduce entonces el siguiente cambio de coordenadas:
α11 = α1 + α2 α12 = α1 + α2 αi1 = αi ,
−
3
≤i≤n
(10.8)
N´ otese que este cambio de coordenadas corresponde al siguiente cambio de base: sea Z = z1 , . . . , zn otese otra base de V de V y u = erdese que las coordenadas coord enadas de u de u en en estas dos bases est´an an u = α α11 z1 + + αn1 zn . Recu´erdese relacionados por
···
α1 .. .
=
αn
c11 .. .
···
cn1
···
..
α11 .. .
c1n .. .
.
{
}
,
αn1
cnn
donde C = [c [cij ] es la matriz de cambio de Y a Z . Z . En este caso se tiene
− − − α11 .. .
α1 .. .
= C −1
αn1
Hacemos
.
αn
1 1 1 1
0
1
C −1 :=
..
0
.
1
1 2 1 2
1 2 1 2
C = =
0
1
..
0
.
1
de donde
α1 .. .
αn
y
z1 = 21 v1 + 21 v2
α11
= C
.. . αn1
z2 =
=
1 1 2 α1 1 1 2 α1 + α13
1 1 2 α2 1 1 2 α2
.. . αn1
− 12 v1 + 21 v2 z = v = v i
3
i
≤i≤n
N´ otese que en con el cambio de coordenadas (10.8 otese ( 10.8)) el coeficiente de (α (α11 )2 es 21 a12 = 0.
As´ As´ı pues, en (10.7 10.7)) podemos suponer que el la base Y = v1 , . . . , vn , a11 = 0. Se tiene entonces que
{
}
´ CAP ´ ITULO ITULO 10. FORMAS FORMAS CUADR CUADR ATICAS
200 (α1 )2 + 2a 2a12 α1 α2 + f (u, u) = a 11 (α
· · · + 2a 2 a1
n α1 αn +
Pero 2
−
a13 2 a12 a11
a2 1n a11
n i,j =2
a12 α + a11 2
a11 (α (α1 ) + 2a 2a12 α1 α2 + ..... + 2a 2a1n α1 αn = a 11 (α1 + a2 12 a11
− (α2)2 − · · · − (α )2 − · · · α2 α3 − · · · − 2 α2 α − · · · − 2 a12 a1n a11
aij αi αj .
··· +
a1n α )2 a11 n
n
a1n−1 a1n αn 1 αn . a11
n
−
Podemos entonces escribir q (u) = a 11 (α1 +
a12 α + a11 2
..... +
a1n α )2 a11 n
+
donde
a1i )2 a11 a1i a1j a11
−( −
= a aii = a ii aij = a ij
n i,j =2
≤ ≤ ≤ ≤ n
2 i n i = j, 2 i, j
αi αj aij
(10.9)
Introducimos entonces el siguiente cambio de coordenadas:
β 1 = α = α 1 +
a12 α + a11 2
..... +
β i = α = α i
a1n α a11 n
, 2
≤i≤n
(10.10)
Como antes, este cambio de coordenadas corresponde a un cambio de base para V V cono matriz de cambio dada por
1 0 C := : = 0 .. . 0
−
a12 a11
1 0 .. . 0
−
a13 a11
··· −
a1n a11
0 1
... ... .. .
0 0 .. .
0
...
1
.
As´ As´ı pues, existe una base Y base Y en V en V en en la cual la forma tiene el aspecto (β 1 )2 + q (u) = a 11 (β
n i,j =2
β i β j . aij
n ] de orden Seg´ un (10.9 un (10.9), ), i,j atica atica (asociada a la matriz sim´etrica etrica [aij =2 aij β i β j es una forma cuadr´ n 1). Si esta forma for ma es id´enticamente enticamente nula nul a el teorema teo rema est´ est ´a demostrado. De no ser nula podemos repetir el razonamiento anterior mediante cambio de las coordenadas β 2 , . . . , βn no cambiando β 1 . Esto corresponder´a a cambiar la base Y base Y dejando siempre fijo el vector x 1 . Es claro que al cabo de un n´umero umero finito de pasos se llega a la forma deseada.
−
De la prueba que acabamos de efectuar se deben hacer las siguientes aclaraciones: (a) Si la forma cuadr´atica atica q q viene definida por la forma bilineal bili neal sim´ etrica etrica f f con co n matriz sim´etrica etrica A en una base X = v1 , . . . , vn , entonces
{
}
q (u) = Z AZ T donde Z = [α1 . . . αn ] son las coordenadas del vector u en la base X . La reducci´on o n a una suma de cuadrados implica un cambio de base (o lo que es lo mismo, de coordenadas), de tal forma que si X = = x1 , . . . , xn es la nueva nueva base a trav´ es es de la cual q es q es una suma de cuadrados, entonces
{
}
201
10.2. SUMA DE DE CUADRADO CUADRADOS S
q (u) = Z = Z DZ T = [α [ α1 . . . αn ] 2
= d 1 (α (α1 ) +
d1
0 ..
.
0
dn
2 · · · + d (α (α ) n
n
T
[α1 . . . αn ]
donde Z donde Z = [α1 . . . αn ] son las coordeandas del vector u vector u en en la base X base X . Seg´ un un la Lecci´on on 2 del Cap´ıtulo ıtu lo T 9, las matrices A matrices A y D est´an an relacionado relacionadoss por D por D = C AC , donde C donde C es es la matriz de cambio de la base X a a la base X base X . Reiteramos que A que A y D no son necesariamente similares, pero si tienen por supuesto el mismo rango. (b) La base a trav´ es es de la cual la forma cuadr´atica atica se reduce a una suma de cuadrados no est´a definida univocamen univocamente, te, y por lo tanto, tanto, los coeficiente coeficientess d 1 , . . . , dn tampoco son ´unicos. unicos. (c) Adem´as, as, si una forma cuadr´atica atica est´a reducida a la forma can´onica onica (10.6 (10.6), ), no necesariamente todos los coeficientes d1 , . . . , dn son diferentes de cero. Sin embargo, en cualquier base X de V la cantidad de coeficientes no nulos es la misma, y coincide con el rango de la forma cuadr´atica, Ejemplo 10.1. Sea V Sea V un espacio vectorial sobre R, y sea q sea q la la forma cuadr´atica atica sobre V sobre V cuya matriz con respecto a una base X = X = v1 , v2 , v3 es
{
}
−
1 2 2 1 3 4
−3 4 0
Mostramos ahora un algoritmo para reducir q a q a una suma de cuadrados cuadrados siguiendo siguiendo el procedimien procedimiento to de la prueba del teorema anterior. La idea es entonces calcular los coeficientes d: d : Paso 1. d1 = a = a 11 = 1. Paso 2. 2. Construimo Construimoss la matriz matriz A en la forma A = definiendo
1 0 0 0 a22 a23 a 0 a32 33
2
a 4 = a a22 = a 22 − 12 = 1 − = −3
= a a33 = a 33
− = a a23 = a 23 −
a11 1 2 a 13 9 =0 = 9 a11 1 a 12 a13 6 =4 = 10 10 = a = a 32 1 a11
−
− − −
es decir, A =
1 0 0
0 3 10
−
0 10 9
−
´ CAP ´ ITULO ITULO 10. FORMAS FORMAS CUADR CUADR ATICAS
202
= Paso 3. d2 = a = a 22
−3.
Paso 4. 4. Construimo Construimoss la matriz matriz A en la forma
A = definiendo
( a23 ) − (a a
a33 = a 33 Paso 5. d3 = a = a33 =
1 0 0
−
=
73 −9 − 100 = −3 3
0 0 3 0 0 a33
2
22
73 3 .
Paso 6. Entonces, Entonces, q ( q (u) = (α1 )
2
− 3 (α2)2 + 733 (α3)2 .
Ejemplo 10.2. Reducir a una suma de cuadrados la siguiente forma cuadr´atica: q (u) = 3α21
− 2α2α3 − 2α1α2 + 2α 2 α22 + 3α 3 α23 {
Notemos en primer lugar que la matriz de esta forma cuadr´atica en la base can´onica X onica X = e1 , e2 , e3 3 de R es: A =
−
3 1 0
−1 0 2 −1 −1 3
Ejecutamos entonces el algoritmo del ejemplo anterior: Paso 1. d1 = a = a 11 = 3.
Paso 2. 2. Calculamos Calculamos la matriz matriz A A definiendo
= a a22 = a 22
2
− aa1211 = 2 − 13 = 53 2
a 0 = a a33 = a 33 − 13 = 3 − = 3
= a = a 23 a23
−
a11 3 a 12 a13 = 1 a11
− − 03 = −1 = a32
es decir, A = Paso 3. d2 = 35 .
3 0 0
0 5 3
−1
0 1 3
−
0 0 a33
Paso 4. 4. Construimo Construimoss la matriz matriz A en la forma A =
3 0 0
0 5 3
0
}
203
10.2. SUMA DE DE CUADRADO CUADRADOS S
definiendo
)2 (a ( a23 1 12 a33 = a 33 − = 3− 5 = a22
Paso 5. d3 = a = a33 =
5
3
12 5 .
Paso 6. Entonces, Entonces, 5 2 12 2 2 q ( q (u) = 3(α 3(α1 ) + (α ( α ) + (α3 ) . 3 2 5 En este ejemplo vamos a mostrar adicionalmente los cambios de coordenadas y de base que hemos realizado. Entonces, de acuerdo con la prueba del Teorema 1 se tiene que: α1 = α = α 1 +
−
a 12 a 13 1 0 α2 + α3 = α1 + α2 + α3 = α = α 1 a11 a11 3 3
− 13 α2
α2 = α = α 2 α3 = α = α 3 Matricialmente este cambio de coordenadas es:
α1 α2 α3
− 13
1 0 0
=
0 0 1
1 0
y el correspondiente cambio de base es:
α1 α2 α3
e1 = e = e 1 1 e2 = e1 + e2 3 e3 = e = e 3 con matriz
1 0 0
3 1 0
−1 2 −1
C =
1 3
1 0
− 0 0 1
Sabemos Sabemos que (Proposici´ (Proposici´ on on 1 de la Lecci´on on 2, Cap´ıtulo ıtu lo 9):
1
3 0 0
mX (q ( q ) = C T AC = =
1 3
0
0 0 1 0 0 1
−
0 1 3
1 0 0
1 3
1 0
0 0 1
=
3 0 0
0 5 3
−1
0 1 3
−
Debe ser claro que esta nueva matriz para la forma q no q no es similar a la matriz A matriz A.. Veamos como es la forma cuadr´atica atica asociada esta nueva matriz:
α1
α2
α3
0 5 3
−1
lo cual corresponde a la matriz A matriz A .
0 1 3
−
α1 α2 α3
= 3(α 3( α1 )2
Finalmente, el ultimo u ´ ltimo cambio de coordenadas efectuado fue
− 2α2α3 + 53 (α2)2 + 3(α 3(α3 )2
´ CAP ´ ITULO ITULO 10. FORMAS FORMAS CUADR CUADR ATICAS
204
α1 = α1 α2 = α2 +
a 23 α3 = α = α2 + a22
−1 α = α − 3 α 3
5 3
2
5
3
α3 = α3 lo cual matricialmente se puede expresar como
α1 α2 α3
1 0 0 1 0 0
=
0
− 35 1
El correspondiente cambio de base es:
α1 α2 α3
e1 = e1 e2 = e2 3 e3 = e2 + e3 5 con matriz C =
1 0 0 1 0 0
0 3 5
1
Por lo tanto, la matriz de q de q en en esta nueva base es:
T
mX (q (q ) = (C ) C T ACC
=
=
1 0 0
0 1
3 0 0
0
3 5
0 0 1 0 0
5 3
12 5
0
3 0 0
0 5 3
−1
0 1 3
−
1 0 0 1 0 0
0 3 5
1
Nuevamente, no sobra recordar que la matriz inicial A no es similar a esta matriz diagonal. diagonal. Veamos como es la forma cuadr´atica asociada esta nueva matriz:
α1 α2 α3
3 0 0
0
0 0
0
12 5
5 3
α1 α2 α3
5 12 = 3(α 3(α1 )2 + (α2 )2 + (α3 )2 3 5
lo cual corresponde a la matriz A matriz A , y por supuesto a la reducci´on on encontrada.
10.3. 10.3.
Formas ormas Cuad Cuadr´ r´ aticas ati cas y Formas orm as Herm Her m´ıticas ıti cas
Sea V Sea V un un espacio real o complejo y f y f una una forma sesquilineal hermitiana. La forma cuadr´atica atica asociada a f es f es la funci´on q on q ((u) = f ( f (u, u), para cada u cada u V . V . Notemos que en este caso se tiene que
∈
| | |2 q (u),
q ( q (β.u) β.u ) = β
para para cada cada β β real o complejo.
´ 10.3. FORMAS FORMAS CUADR CUADR ATICAS Y FORMAS HERM ´ ITICAS
205
Sea X Sea X una una base de V , por m X (q ( q ) = m X (f ( f ). ). Notemos V , entonces se define la matriz de q en q en la base X por m que esta matriz A matriz A es herimitiana y adem´as, as, q (u) = Z AZ ∗ donde Z donde Z = = [α1 . . . αn ] son las coordenadas del vector u en la base X base X y A = A = m m X (f ( f ). ). Si el espacio V viene V viene dotado con un producto interno, entonces la forma q puede q puede ser reducida a una suma de cuadrados mediante una t´ ecnica ecnica m´as as simple que la de Lagrange y en la cual los coeficientes son los valores propios de A. A . Teorema 10.2. Sea V un V un espacio con producto interno de dimensi´ on finita n n y f y f una una forma sesquilineal hermitiana sobre V . V . Entonces existe una base ortonormal X ortonormal X = v1 ,...,vn en V en V y reales λ reales λ 1 ,...,λn tales que
{
}
n
f ( f (u, u) =
| |2
λk αk
k=1
donde α α 1 ,...,αn son las coordenadas de u en la base X X . Demostraci´ on: Seg´ on: Seg´ un el Corolario 9 y la Proposici´ un on on 6 del cap´ cap´ıtulo anterior, anter ior, existe ex iste una un a transformaci´ transfo rmaci´on on lineal hermitiana hermiti ana (sim´etrica) etrica) T f f tal que
∀u, v ∈ V
f ( f (u, v) = T f f (u), v ,
{
}
Seg´ un un el Teorema 2 del Cap´ıtulo ıtulo 8, existe exis te una base b ase ortonormal orto normal X = v1 ,...,vn en V en V tal tal que m que m X (T f f ) es diagonal con elementos diagonales λ diagonales λ 1 ,...,λn , de tal forma que v que v 1 ,...,vn son vectores propios y λ y λ 1 ,...,λn son los valores propios de T f consecuencia, λ 1 ,...,λn R y adem´as as f . En consecuencia, λ T f f (vk ) = λ k vk ,
·
Entonces
∈ 1 ≤ k ≤ n.
n
T f f (u) =
αk λk vk
k=1
f ( f (u, u) = T f f (u), u
=
n
λk αk αk =
k=1
n
αk λk vk ,
k=1 n
=
| | αk vk
k=1 n
λk αk 2 .
k=1
De la prueba que acabamos de efectuar se deben hacer las siguientes aclaraciones: (a) Si la forma cuadr´atica atica q q viene definida por la forma sesquilineal hermitiana f f con matriz hermitiana A mitiana A en una base X = X = v1 , . . . , vn , entonces
{
}
q (u) = Z AZ ∗ donde Z = [α1 . . . αn ] son las coordenadas del vector u en la base X . La reducci´on o n a una suma de cuadrados implica un cambio de base (o lo que es lo mismo, de coordenadas), de tal forma que si X = x1 , . . . , xn es la nueva nueva base a trav´ es es de la cual q cual q es es una suma de cuadrados, entonces
{
}
´ CAP ´ ITULO ITULO 10. FORMAS FORMAS CUADR CUADR ATICAS
206
∗
q (u) = Z D (Z )
= [α [ α1 . . . αn ]
λ1
0 ..
0
α1 . . . αn
. λn
T
= λ1 | α |2 + · · · + λn | α |2 1
n
donde Z = [α1 . . . αn ] son las coordeandas del vector u en la base X . Seg´ un un Proposici´ on o n 4 de la Lecci´ on on 5 del Cap´ Cap´ıtulo 9, las matrices matrices A y D est´an an relacionados por D = C T AC , donde C C es la matriz de cambio de la base X a X a la base X . Pero en la prueba del teorema se vio que la base X es precisamente la base de vectores propios de T f C de cambio de X a X es, f , por lo tanto la matriz C seg´ un un la Proposici´ on on 12 de la Lecci´on on 7 del Cap´ıtulo ıtulo 8, una matriz unitaria, es decir, C −1 = C ∗ . Se
tiene pues en este m´ etodo, etodo, a diferencia del m´ etodo etodo de Lagrange, que C Por lo tanto, D tanto, D y A en este caso si son similares.
−1
= (C −1 ) = C T = C = C T .
Ejemplo 10.3. Consideremos la forma cuadr´atica atica definida en el Ejemplo 2 de la Lecci´on on anterior, 2 2 2 q (u) = 3α1 2α2 α3 2α1 α2 + 2α2 + 3α3 . Reducir q a q a una suma de cuadrados cuadrados usando usando el m´ etodo etodo del teorema anterior. En la demostraci´on on del teorema vimos que la base X a trav´ trav´es es de la cual se diagonaliza la forma cuadr´atica q atica q definida definida por la matriz
−
−
A =
−
−1 0 2 −1 −1 3
3 1 0
viene dada por la base ortonormalizada de vectores propios de la transformaci´on lineal T f f , pero saT 3 bemos que para cualquier base X de R se cumple mX (f ( f )) = m X (T ( T f X la base can´onionif ) . Sea pues X la 3 T ca de R , entonces A = mX (f ( f )) y A = mX (T ( T f f ) = A, ya que A es hermitiana (realmente, A es sim´ etrica). etrica). Deb emos entonces calcular los valores y vectores propios de A: E (1) (1) = (1, (1, 2, 1) , E (3) (3) = ( 1, 0, 1) , E (4) (4) = (1, (1, 1, 1) . La base normalizada es entonces
−
−
X = Se tiene entonces que
√
1 1 1 (1, (1, 2, 1) , ( 1, 0, 1) , (1, (1, 1, 1) 6 2 3
√ −
√
−
mX (q ( q ) = C T AC
=
=
√ 16 −1 √ 2 √ 13
√ 26
√ 16 √ 12 √ 13
0
−1 √ 3
1 0 0 0 3 0 0 0 4
−
3 1 0
−1 0 2 −1 −1 3
√ 16 √ 26 √ 16
−1 √ 2 0
√ 12
√ 13 −1 √ 3 √ 13
y la forma cuadr´atica atica q en q en esta nueva base es una suma de cuadrados donde los coeficientes son los valores propios de A de A:: 2
2
2
q (u) = (α1 ) + 3 (α2 ) + (α (α3 ) . Se contrast contrastaa este resultado resultado con el obtenido obtenido por p or el m´ etodo etodo de Lagrange Lagrange en el Ejemplo Ejemplo 2 de la lecci´ lecci´on on − 1 T anterior: como anotamos arriba, en este caso C = C , es decir, A y la matriz diagonal de valores propios son similares.
´ 10.3. FORMAS FORMAS CUADR CUADR ATICAS Y FORMAS HERM ´ ITICAS
207
Corolario 10.1. Sea V on finita n. Sean f, g formas sesquiV un espacio real o complejo de dimensi´ lineales hermitianas sobre V V tales que g (u, u) > 0, 0 , u V 0. Entonces existe una base ortonormal X = = v1 ,...,vn en V V tal que
{
∀ ∈ −
}
n
f ( f (u, u) =
k=1
donde α α 1 ,...,αn
∈ R y α y α 1 ,...,α
n son
n
| |2
λk αk
,
g(u, u) =
|
αk
k=1
|2
(10.11)
las coordenadas de u de u en la base X .
Demostraci´ on: En on: En efecto, definimos en V el V el producto
u, v = g( g (u, v), ∀u, v ∈ V N´ otese otese que entonces V es V es un espacio con producto interno. Seg´un un la proposici´ on on anterior existe una base ortonormal X = v1 ,...,vn en V y λ 1 ,...,λn R tales que la forma cuadr´atica atica asociada a f es como en (10.11).
{
}
∈
Tamb Tambi´ i´en,
n
u, u = g( g (u, u) =
k=1
| n
αk vk
,
n
αk vk
k=1
αk 2 .
=
k=1
|
´ Algebra Lineal Cap Ca p´ıtulo ıtu lo 10. Formas Forma s Cuadr Cua dr´ ´ atica at icass Ejercicios. 1. Usar la demostraci´ on on de la Proposici´on o n 1 de la Lecci´on on 3 del presente cap´ıtulo ıtulo para
expresar la forma cuadr´atica atica q : :
3
R
→R
(x,y,z ) = 3x2 + 2y 2 + 3z 2 − 2xy − 2yz q ( como una suma de cuadrados. Realizar tambi´en en el ejercicio por p or el m´etodo etodo de Lagrange y comparar los resultados. 2. Sup´ ongase ongase que q : V → R es una forma cuadr´atica atica asociada al producto interno ( , ) de V . Probar que para cualesquiera vectores u, v ∈ V se se tiene que 1 (u, v) = ( q ( (u + v ) − q ( (u) − q ( (v )) 2 3. Sea q : : V → R es una forma cuadr´atica atica y sup´ongase ongase que q ( (u) = (u, T (u)) q (u) = (u, S (u))
para un par T , S de transfor t ransformacione macioness sim´ s im´etricas etricas del espacio V . Demostrar que T = S . 2 2 4. Sea q ( (x, y) = ax +bxy +cy la forma cuadr´atica atica asociada asoc iada a una forma bilineal bilinea l sim´etrica etrica olo olo si b2 − 4ac = 0. f definida sobre R2. Demostrar que f es no degenerada si y s´
1
´ Algebra Lineal Cap Ca p´ıtulo ıtu lo 10. Formas Forma s Cuadr Cua dr´ ´ atica at icass Ejercicios. 1. Usar la demostraci´ on on de la Proposici´on o n 1 de la Lecci´on on 3 del presente cap´ıtulo ıtulo para
expresar la forma cuadr´atica atica q : :
3
R
→R
(x,y,z ) = 3x2 + 2y 2 + 3z 2 − 2xy − 2yz q ( como una suma de cuadrados. Realizar tambi´en en el ejercicio por p or el m´etodo etodo de Lagrange y comparar los resultados. 2. Sup´ ongase ongase que q : V → R es una forma cuadr´atica atica asociada al producto interno ( , ) de V . Probar que para cualesquiera vectores u, v ∈ V se se tiene que 1 (u, v) = ( q ( (u + v ) − q ( (u) − q ( (v )) 2 3. Sea q : : V → R es una forma cuadr´atica atica y sup´ongase ongase que q ( (u) = (u, T (u)) q (u) = (u, S (u))
para un par T , S de transfor t ransformacione macioness sim´ s im´etricas etricas del espacio V . Demostrar que T = S . Soluci´ on. on. Sean u, v vectores cualesqueira de V , entonces q (u + v, u + v ) =(u + v, T (u + v ))
=(u, T (u)) + (u, T (v )) + (v, T (u)) + (v, T (v )) =q (u) + ( T (v ), u) + ( v, T (u)) + q (v ) =q (u) + ( v, T (u)) + ( v, T (u)) + q (v ) =q (u) + ( v, T (u)) + (v, T (u)) + q (v ) =q (u) + q (v ) + 2(v, T (u)). ∗
De igual manera q (u+v, u+v ) = q (u)+ q (v )+2(v, S (u)), igualando se tiene que ( v, T (u)) = (v, S (u)), para cualesquiera vectores u, v ∈ V . Por lo tanto, T (u) = S (u), es decir, T = S . 4. Sea q ( (x, y) = ax 2 +bxy +cy2 la forma cuadr´atica atica asociada asoc iada a una forma bilineal bilinea l sim´etrica etrica 2 2 olo olo si b − 4ac = 0. f definida sobre R . Demostrar que f es no degenerada si y s´
1
210
´ CAP ´ ITULO ITULO 10. FORMAS FORMAS CUADR CUADR ATICAS
Cap´ıtulo 11
T´ opicos Especiales y Aplicaciones opicos
211
´ Algebra Lineal Cap Ca p´ıtulo ıtu lo 11. T´ opicos Especiales y Aplicaciones opicos 11.1. Formas cuadr´ atic at icas as y geome ge ometr´ tr´ ıa ıa anal´ an al´ ıtica ıti ca
Mostramos en esta lecci´on on una aplicaci´on on de las formas cuadr´atica at icass a geome geo metr´ tr´ıa ıa anal´ an al´ıtica ıt ica.. En el cap´ cap´ıtulo anterior vimos que toda to da forma sesquilineal hermintiana puede ser reducida a una suma de cuadrados mediante un cambio de base, o lo que es lo mismo, mediante un cambio cambio de coordenadas. En efecto, efecto, sea V es un espacio vectorial real o complejo de dimensi´ on on finita n y q una una forma cuadr´atica atica sobre V definida por una forma sesquilineal hermitiana f . Sea X = x1, . . . , xn una base cualquiera de V y sea A = m X ( f ), entonces sabemos que q (u) = Z AZ ∗
{
}
donde Z = [α1, . . . , αn ] es el vector de coordenadas de u respecto de la base X , es decir, u = α 1 .x1 + + αn .xn. Vimos que si X = x1, . . . , xn es la base de V conformada por vectores propios ortonormalizados de A, y C es es la matriz de cambio de X a X , es decir, las columnas de C son las coordenadas de los vectores de X es t´erminos erminos de la base X , entonces q en en la base X es diagonal:
···
{
q (u) = Z
0
λ1
... 0
λn
}
∗ 2 (Z ) = λ 1 α1 +
2
| | · · · + λ |α | n
n
donde λ i son los valores propios de A y Z = [α1 , . . . , αn ] es el vector de coordenadas de u respecto de la base X , es decir, u = α 1 .x1 + + αn .xn . Vimos adem´as as que C es unitaria y tal que 0 λ1 ... = C T AC 0 λn −1 es decir, C = C T . Note Notemo moss que que con la matr matriz iz C se puede expresar el cambio de coordenadas: α1 α1 .. .. − 1 = C . . α α
···
n
n
Si en particular estamos considerando un caso real, entonces C es una matriz ortogonal y C −1 = C T . As´ As´ı pues, pues, median mediante te un cambio cambio de base, base, o lo que es lo mismo, mismo, median mediante te un cambio cambio de coordenadas inducido por la matriz C de de vectores propios ortonormalizados de la matriz atica real puede ser reducida a una suma de cuadrados, donde los A, una forma cuadr´atica coeficientes de la suma son los valores propios de A y C es una matriz ortogonal. 1
a. C´ onicas. onicas. Usaremos los resultados anteriores para interpretar interpretar geom´etricamente etricamente los 2 puntos (x, y) del plano R que satisfacen una ecuaci´on on de orden 2 de la forma
ax2 + bxy + cy 2 + dx + ey + f = 0
(1)
Veremos a continuaci´on on que el conjunto soluci´on on de (1) es alguna de las siguientes curvas: (a) Una elipse (b) Una hip´erbola erb ola (c) Una par´abola abola (d) Vac´ıo (e) Un punto (f) Una recta (g) Dos rectas Consideremos en (1) la parte cuadr´atica atica q (x, y) = ax2 + bxy + cy 2, esta es una forma cuadr´atica atica con matriz sim´etrica etrica real b
a
A =
2
b
c
2
calculada en la base can´onica onica de R2 . Mediante Mediante la matriz matriz C de vectores propios ortonormalizados podemos reducir q a una suma de cuadrados con el respectivo cambio de coordenadas, digamos x , y . De esta esta manera, manera, la ecuaci´ ecuaci´on on (1) se transforma en otra de la siguiente forma 2 2 λ1 (x ) + λ2 (y ) + d x + e y + f = 0 (2) donde λ , λ son los valores proopios de A y d , e , f R. Notemos que λ , λ determinan 1
∈
2
1
2
que tipo de curva es la soluci´on on de (1): (i) si λ 1 λ2 > 0, entonces λ1 , λ2 son del mismo signo y tenemos en este caso una elipse, un punto pu nto o vac´ vac´ıo. ıo . (ii) Si λ1 λ2 < 0, entonces λ1λ2 son de d e signo sign o contrario contrari o y tenemos tenem os en este e ste caso una hip´ hi p´erbola, erbol a, o dos rectas. (iii) Si λ1 = 0 pero λ2 = 0 o´ bien λ1 = 0 pero λ2 = 0, entonces tenemos una par´abola, abola, una recta, rect a, o vac´ vac´ıo. (iv) Si λ1 = 0 = λ 2 entonces A = 0 y tenemos una recta o vac´ vac´ıo. Finalmente, calculemos el polinomio caracter´ caracter´ıstico de A:
b
− − p (z ) = − z − c , determinant: ac − az − cz − b + z = z − (a + c) z + + A
1
2
2
z a b
2
2
2
4
por lo tanto
λ1 λ2 =
ac
2
−
1 2 b . 4
ac
−
1
b2 = (z λ1 ) (z λ2 ), 4
−
−
4ac b 2 se conoce como el discriminante de la forma cuadr´atica atica q y y determina el tipo de c´onica onica que representa la ecuaci´on on (1). Ejemplo 1. Determinar la c´onica onica definida por la ecuaci´on on
−
19x2 + 4xy + 16 y 2
− 212x + 104y = 356
(3)
Mostrar Mostrar los cambios cambios de coordenadas coordenadas realizados. realizados. Soluci´ on. Consideremos la cuadr´ atica asociada a esta curva: atica 19x2 + 4xy + 16 y 2 Su discriminante es 4 ac b 2 = 4 19 16 16 = 1200 > 0, por lo tanto tenemos una elipse, un punto o vac´ vac´ıo. Su matriz sim´etrica etrica es
−
× × − A =
19 2 2 16
Calculemos la matriz diagonalizante conformada por los vectores propios de A normalizados: E (15) (15) =< ( 1, 2) > y E (20) (20) =< (2, 1) >, notemos que efectivamente λ1 λ2 = 1 2 ac 4 b ; normalizamos ahora los vectores propios:
−
−
√ (−1, 2) = √ 5 (2, 1) = 5
Por lo tanto,
− √
1 1 2 C = 2 1 5 Las nuevas coordenadas (x , y ) est´an an relacionadas con las coordenadas iniciales (x, y) en la siguiente forma −1 1 1 2 x x = y y 2 1 5 Teniendo en cuenta que queremos expresar (3) en forma cartesiana a trav´ trav´es es de las nuevas nuevas coordenadas, entonces 1 1 2 x x = y y 2 1 5 es decir, 1 x = √ ( x + 2 y ) 5 1 y = √ (2x + y ) 5
√ − √ − −
Reemplazando en (3) se tiene 19 16
2
√ − √ − √ − √ − 1 ( x + 2 y ) 5 2 1 (2x + y ) 5
+4
212
√ √
1 1 ( x + 2 y ) (2x + y ) + 5 5 1 1 ( x + 2 y ) + 104 (2x + y ) = 356 5 5 3
√
√
15(x )2 + 20(y )2 + 84x 5 64y 5 = 356 Podemos ahora completar cuadrados
√ 84 5
−
− √ − √
15 (x )2 +
15
x
+ 20 (y )2
√ 64 5 20
y = 356
14 2 8 2 15 x + + 20 y = 1200 5 5 Podemos Podemos asegurar que tenemos tenemos una elipse. elipse. Al realizar un nuevo nuevo cambio cambio de coordenadas mediante una traslaci´on, on, 14 x = x + 5 8 y = y , 5 la ecuaci´ ecuaci´on on (3) en este nuevo sistema de coordenadas se transforma en 15 (x )2 + 20 20 (y )2 = 1200.
√ − √
Notemos que el centro de la elipse en el sistema original de coordenadas es
√ − − √ √ √ − √ √ −
1 1 ( x + 2 y ) = x = 5 5 1 1 y = (2x + y ) = 2 5 5
√ − √
La gr´afica afica es
4
14 8 +2 = 6 5 5 14 8 + = 4. 5 5
Ejemplo 2. Determinar la c´onica onica definida por la ecuaci´on on
x2 + 4xy
2
− 2y − 12 = 0
(4)
Mostrar Mostrar los cambios cambios de coordenadas coordenadas realizados. realizados. atica atica asociada es Soluci´ on. La forma caudr´ q (u) = x 2 + 4xy
Su discriminante es 4 ac Su matriz mat riz sim´etrica etri ca es
− 2y
2
2
− b = −24 < 0, por lo tanto tenemos una hip´erbola erbola o dos rectas. A =
1 2
2 2
−
Los valores y vectores propios son E (2) (2) =< (2 , 1) >, E ( ( 3) =< ( 1, 2) > , con norma
√ (2, 1) = √ 5 (−1, 2) = 5
−
−
luego la matriz de cambio es
− √ √ − 1 C = 5
entonces
x y
es decir,
1 5
=
2 1
2 1
1 2
1 2
x y
1 (2 x y ) x = √ 5 1 ( x + 2 y ) y = √ 5
−
Reemplazando en (4) encontramos 2 1 (2x y ) + 4 5 2(x )2 3(y )2 = 12
√
−
−
√
1 (2x 5
−
√
y )
1 (x + 2 y ) 5
− √ 2
2
−
1 (x + 2 y ) 5
12 = 0
Notemos que el centro de la hip´erbola erbola en el sistema original de coordenadas co ordenadas es (0, 0). La
5
gr´afica afica es
Ejemplo 3. Determinar la c´ onica definida por la ecuaci´on onica on
9x2 + 24xy + 16 y 2
− 52x + 14y = 6
(5)
Mostrar Mostrar los cambios cambios de coordenadas coordenadas realizados. realizados. Soluci´ on. La cuadr´ atica atica asociada es q (u) = 9x2 + 24xy + 16 y 2
con discriminante 4ac b2 = 0, por lo tanto tenemos una par´abola, abol a, una recta o vac´ vac´ıo. La matriz sim´etrica etrica asociada aso ciada es 9 12 A = 12 16
−
con valores y vectores propios E (0) (0) =< ( 4, 3) >, E (25) (25) =< (3 , 4) > ; normalizando
− (−4, 3) = 5 ((3, 4)) = 5
por lo tanto la matriz de cambio es 1 C = 5
− 4 3 3 4
y el cambio correspondiente de coordenadas es
− x y
=
1 5
4 3 3 4
6
x y
es decir 1 ( 4x + 3 y ) 5 1 y = (3 x + 4 y ) 5
x =
−
Reemplazando en (5) se tiene que
−
2
−
1 9 ( 4x + 3 y ) 5 1 16 (3x + 4 y ) 5
+ 24
2
1 ( 4x + 3 y ) 5
−
1 52 ( 4x + 3 y ) + 14 5
−
1 (3x + 4 y ) + 5
es decir, 25(y )2 Completando cuadrados tenemos
− 20y + 50x = 6
− 4y + 10 x = 65 − 45 y + 10x = 65
5(y )2
− − − − 5 (y )2
4 y + 2x = 5 4 4 y + + 2x = 5 25
(y )2
(y )2
y
1 y 2
2 5
2
2 5
6 25 6 4 + 25 25
2 + 2x = 5
2
x
1 + x = 5
−
1 = 5
− −
Tenemos pues una par´abola. abola. Mediante la traslaci´on on
− 15 2 y = y − 5
x = x
resulta entonces x =
− 12 (y)
2
7
1 y 2
1 (3 x + 4 y ) = 6 5
2 5
2
Notemos que el v´ertice ertice de la l a par´ p ar´abola abola original est´a en el punto
−
1 1 2 2 x = 4 +3 = 5 5 5 25 1 1 2 11 y = 3 +4 = 5 5 5 25 La gr´afica afica de (5) es
El ´angulo angulo θ de rotaci´on on de los ejes viene dado por
x y
=
cos θ
−senθ cos θ
senθ
x y
es decir, x = x cos θ
− ysenθ
y = x senθ + y cos θ
En efecto, utilizando coordenadas polares para representar las coordanadas iniciales x, y tenemos x = rcosα rcosα,, y = rsenα
Entonces para el nuevo sistema de coordenadas x , y sus coordenadas polares son x = rcos(α + θ ) = rcosαcosθ senαsenθ = xcosθ ysenθ y = rsen(α + θ ) = rsenαcosθ + rcosαsenθ = ycosθ + xsenθ
−
8
−
De otra parte, tan(2θ) =
b a
(6)
− c
En efecto, reemplazando las identidades anteriores en (1) se tiene que el coeficiente para el t´ermi er mino no x y debe ser nulo, pero en el reemplazo este coeficiente es csen (2θ ) + b cos cos (2θ)
y de esto resulta (6). En el Ejemplo 1 se tiene que
− asen (2θ) = 0
4 tan tan (2θ) = . 3
9
´ Algebra Lineal Cap Ca p´ıtulo ıtu lo 11. T´ opicos Especiales y Aplicaciones opicos 11.2. Inversa Inversa generalizada generalizada
Definimos en esta lecci´on on la inversa generalizada de una matriz rectangular real cualquiera, probamos algunas propiedades, mostramos una manera de calcularla y finalmente mostramos una aplicaci´on. on. Para definir la inversa generalizada necesitamos algunos preliminares. Proposici´ on on 1. (i) Sea B ∈ M mk mk ( R) una matriz real, entonces rank B T B = rank (B ) .
(ii) Sea C ∈ M kn kn (R) una matriz real, entonces rank C C T = rank (C ) .
= ker( Basta probar que ker
B ). Sea Sea X ∈ ker B T B , entonces T B T BX = 0, luego X T B T BX = 0, de donde ( BX ) (BX ) = 0, por lo tanto, BX = 0, es decir, X ∈ ker(B ). Rec´ Rec´ıprocamente, ıpro camente, si X ∈ ker(B ) entonces BX = 0 y B T BX = 0, es decir, X ∈ ker B T B . Proposici´ on o n 2. Sea A ∈ M mn Entonces mn (R) una matriz real tal que rank (A) = k ≥ 1. Entonces existen matrices B ∈ M mk mk (R) y C ∈ M kn kn (R) tales que Demostraci´ on.
B T B
A = BC , y adem´ as as rank (B ) = k = rank(C ). ).
Por medio de operaciones elementales sobre las filas de A podemos encontrar una matriz invertible T 1 tal que T 1 A es escalonada con k filas no nulas; de igual forma, por medio de operaciones elementales sobre las columnas de T 1 A podemos encontrar una matriz Q 1 tal que T 1 AQ 1 es de la forma Demostraci´ on.
−
−
−
−
−
−1
−1
T AQ
−
=
E k,k k,k Om
Ok,n Om
k,k
−
k
−
k,n−k
−
Se tiene entonces que A = T
E k,k k,k Om
Ok,n
k
−
Om
k,k
−
k,n−k
−
1
Q
luego A
= = = =
T k,k k,k T m
T k,m k,m
k
−
T m
k,k
−
k,m−k
−
T k,k k,k
Ok,n
k
−
E k,k k,k Om
Ok,n Om
k,k
−
k
−
k,n−k
−
Q
Q
T m
Om
k,k
−
T k,k k,k T m
k,n−k
−
Ok,n Om
k,k
−
k,n−k
−
T k,k k,k Qk,k T m
k
−
T k,k k,k Qk,n
Qk,k Qn k
k,k Qk,k
T m
k,k Qk,n−k
−
k
−
Qn
k,k
−
−
−
Qk,n
k,n−k
−
Sea A11 = T k,k k,k Qk,k , A12 = T k,k k,k Qk,n
k
−
A21 = T m
k,k Qk,k , A22
−
= T m
k,k Qk,n−k
−
,
Salvo permutaci´on on de filas y columnas podemos asumir que A11 es invertible de orden k × k. En efecto, como T es invertible entonces
T k,k k,k T m
=
T k,m k,m T m
k,k
−
k,m−k
−
T k,k k,k T m
k
−
k,k
−
Ok,n
E k,k k,k Om
Ok,n
k
−
Om
k,k
−
k,n−k
−
k
−
Om
k,n−k
−
es de rango k , luego podemos intercambiar las filas de esta matriz y suponer que T k,k k,k es inverti invertible. ble. De igual manera, salvo permutaci´ permutaci´ on on de columnas, Qk,k es invertible, con lo cual A11 es invertible. Hemos demostrado que si P y R son productos de matrices de permutaci´on, on, entonces
P AR = B C
donde
B =
A11 A21
, C =
Entonces,
1 E k,k k,k A11 A12
A = BC
2
−
donde B = P 1 B y C = C R 1 cumplen las condiciones de la proposici´on. on. Definici´ on o n 1. Sea A ∈ M mn mn (R) una matriz real tal que rank (A) = k ≥ 1, y sean B, C como en la proposici´on on anterior. Definimos −
−
−1
A+ = C T C C T
B T B
−1
B T
no no n × m y tiene las siguientes propiedades b´asicas, asicas, las A+ es una matriz real de tama˜ cuales se verifican directamente de la definici´on. on. Proposici´ on on 3. (i) A+ AA+ = A+ (ii) AA+ A = A (iii) AA+ es sim´ si m´etri et rica ca + (iv) A A es sim´ si m´etrica etr ica.. Las propiedades anteriores caracterizan la matriz A+ tal como veremos a continuaci´on. on. Proposici´ on on 4. Si A es una matriz real de orden n × m tal que (i)’ A AA = A (ii)’ AA A = A (iii)’ AA es sim´ si m´etri et rica ca (iv)’ A A es sim´ si m´etri etrica ca + entonces A = A . Demostraci´ on. Se tiene
AA = AA+ A A
=
por (ii) por (iii)’ )
AA+ AA
T
T
T
= (AA AA+ = AA AA+ por (iii)’ y (iii) + = AA por (ii)’.
De igual manera, usando (ii), (ii)’,(iv),y (iv)’ se tiene que A A = A AA+ A
= A AA+ A
=
A+ A
T
T
T
( A A)
= A+ AA A = A+ A.
De las dos identidades probadas y usando (i) y (i)’ resulta A+ = A+ AA+
= A AA+ = A AA = A .
3
Definici´ on on 2. La matriz A+ caracterizada por las 4 propiedades de la proposici´on on anterior se denomina la inversa generalizada de A.
Otras propiedades de la inversa generalizada son las siguientes. Proposici´ on on 5. (i) rank (A+ ) = rank (A) (ii) (λA)+ = λ1 A+ , para λ = 0 + T (iii) (A+ ) = AT (iv) (A+ )+ = A (v) A es sim´etrica etrica si y s´olo olo si A+ es sim´ si m´etri et rica ca + 1 (vi) Si A es invertible, entonces A = A . (vii) 0+ = 0. propiedad dades es se prueba prueban n direc directam tamen ente, te, veamo veamoss por ejempl ejemploo Demostraci´ on. Todas las propie + + + + la prueba de (i): rank (A ) = rank (A AA ) ≤ rank (A A) ≤ rank (A), tamb ta mbi´ i´en en + + + rank (A) = rank (AA A) ≤ rank (A A) ≤ rank (A ). 1 (vi) Si A es invertible una descomposici´on on de A es A = AE , luego A+ = E T EE T AT A 1 A 1 AT AT = A 1 . La descomposici´on on de la Proposici´on on 2 da un m´etodo etodo para calcular la inversa generalizada de una matriz rectangular A. Ejemplo 1. Calcular la inversa generalizada de
−
−
−
−
−
A
Soluci´ on. En
=
−1 −1
0 0 1 1
0 1 2 1 0 −1 −1 1 3 1 −1 −3 −1 0 1 0 −1 −2
este caso A es de rango 2 y adem´as as A11 =
−1 0 −1 1
es tambi´ en en de rango 2, por lo tanto A = BC
con
1 1 0 = 0 1 1 1 0 − −
B
C =
0 1 −1 1 −1 0
−1 −2 0 1 −1 −3
4
−1
AT =
Luego −1
A+ = C T C C T
= =
B T B
− − −
11 17 7 17 4 17 1 17
7 − 17
−
6 17 1 17 4 17
1 = 102
13 102 5 102 1 34
B T
− 13 − 16 − 16 1 − 16 − 13 6
5 3 − 34 − 17 4 51 7 102 1 17
−1
−
−
1 34 5 102 1 51 3 34
1 − 34
5 102 1 51 3 34
− −
− −
3 17 13 102 5 102 1 34
1 6 1 3
−
1 3 1 6
5 34 4 51 7 102 1 17
15 15 8 7
− − −
−15 −18
8 7 6
1 6 1 6
3 −3 18 13 −5 5 −13 − 5 2 −2 −5 − −3 9 −9 3 −6
Podemos comprobar resultado:
−1 −1
0 0 1 1 −1 −1
0 0 1 1
1 102 2 1 3 3 1
0 1 2 1 0 −1 −1 1 3 1 −1 −3 −1 0 1 0 −1 −2
15 15 8 7 6
−15 −18
8 7 6
3 −3 18 13 −5 5 −13 − 5 2 −2 −5 − −3 9 −9 3 −
0 1 1 0 − −1 1 1 −1 − −1 0 0 −1 −2
−1 −1
0 0 1 1
0 1 2 1 0 −1 −1 1 3 1 −1 −3 −1 0 1 0 −1 −2
=
Ejemplo 2. Sea A ∈ M mn mn (R) y sean P y R permutaciones de orden m y n respectivamente. Si S = P AR, entonces A+ = RS + P
En efecto, sea A = BC con B ∈ M mk Notemo moss mk ( R) , C ∈ M kn kn (R) ambas de rango k . Note entonces que S es tambi´en en de rango ran go k y una factorizaci´on on de S es S = (P B ) (C R). Se
5
tiene entonces que +
S = (C R
−1
) ( ) ( T
CR CR
T
= RT C T C RRT C T = RC T C C T = RA+ P
−1
−1
B T B
T
P B ) (P B
B T P T P B
−1
B T P
−1
)
−1
(P B )T
B T P T
luego RS + P = RRA+ P P = A+ . Ejemplo 3. Calcular la inversa generalizada de
A
Soluci´ on. Notemos
=
1 1 2 −3 3 3 4 −1 2 15 4 5 1 1 18 −2 −3 3 −5 −12
que rank (A) = 3, pero el bloque superior izquierdo de orden 3 tiene
rango 2:
1 3
1 2 4 −1 4 5 1
Debemos entonces aplicar el ejemplo anterior y permutar filas y/o columnas para ubicar el bloque A11 inverti invertible. ble. Calculamos Calculamos la forma escalonada escalonada reducida reducida de la matriz A sin realizar intercambios de filas ni columnas :
1 0 0
0 9 0 −3 1 −7 0 6 0 0 1 0 0 0 0 0 0
Esto permite identificar identificar las filas y columnas columnas apropiadas: debemos entonces entonces considerar considerar las tres primeras filas y las columnas 1, 2 y 4:
AR = S
=
1 1 −3 2 3 3 4 2 −1 15 4 5 1 1 18 −2 −3 −5 3 −12
donde R = P 34 un el Ejemplo 2, debemos calcular S + y luego obtener A+ = RS + . un 34 . Seg´ Entonces, S =
S 11 S 12 11 12 S 21 S 22 21 22
6
luego = M N S = donde
M
13 41 = = 4 5 2 3 1 = = 0 S 11 11 S 21 21
−
N
2 1
−3
−
−5
0 0 9 −3 1 0 −7 6 0 0 1 0 0
E 3 S 111 S 12 12 −
Se tiene pues que S + = N T N N T
= =
−1
M T M
86 1265 81 1265
81 1265 91 1265
0 0 0 0 1 9 4 0 55 55 228 303 0 1265 1265 109 757 − 1518 − 7590 35 257 − 1518 − 7590 − 12 − 12 − 16 − 109 33 165 39 506
243 2530
−1
M T
− 14 − 19 3 3 23 6 1 2
31 6 1 2
−
313 2530 133 2530 1 2 41 55 141 2530
−
7 − 11 − 2 1 2
−
106 3795 41 3795
0 29 165 24 1265
−
5 3 4 3
0
Debemos ahora intercambiar la 3 y la 4 filas:
A+
=
109 757 − 1518 − 7590 35 257 − 1518 − 7590 − 16 − 109 33 165 − 12 − 12 39 506
1 = 7590
243 2530
−
313 2530 133 2530 41 55 1 2 141 2530
−545 −757 −175 −257 −3680 −5014 −3795 −3795
106 3795 41 3795 29 165
0
24 − 1265
939 2 12 399 82 5658 1334 3795 0 729 −423 −144
585
Finalmente vamos a comprobar la respuesta:
7
1 1 2 −3 3 4 −1 2 4 5 1 1 −2 −3 3 −5 −
3 15 18 12 3 15 18
1 7590
−545 −757 −175 −257 −3680 −5014 −3795 −3795
939 212 399 82 5658 1334 3795 0 729 −423 −144
585
1 1 2 −3 3 4 −1 2 4 5 1 1 −2 −3 3 −5 −12 Ejemplo 4. Si B ∈ M m ( R) y rank (B ) = k , entonces
1 1 2 −3 3 3 4 −1 2 15 4 5 1 1 18 −2 −3 3 −5 −12
k
B + = B T B
−1
B T
De igual manera, si C ∈ M kn kn (R) y rank (C ) = k , entonces C + = C T C C T
−1
= y por lo tanto = = . , luego =
En efecto, B = BE C + Tamb Ta mbi´ i´en, C = EC De lo anterior se tiene que
E T EE T
B+
C T C C T
−1
E T E
A+ = C + B + .
8
−1
−1
E T
B T B
−1
B T
C T C C T
B T B
−1
−1
B T .
=
´ Algebra Lineal Cap Ca p´ıtulo ıtu lo 11. T´ opicos Especiales y Aplicaciones opicos 11.3. Ecuaciones Ecuaciones diferenciales diferenciales
En esta lecci´on on mostramos algunas aplicaciones del algebra a´lgebra lineal a las ecuaciones diferenciales ordinarias con coeficientes constantes y a los sistemas de ecuaciones diferenciales lineales de primer orden. a. Ecuaciones Ecuaciones diferenciales diferenciales ordinarias ordinarias con coeficientes coeficientes constante constantes. s. ∞ Sea V = C (a, b) el espacio de las funciones de ( a, b) en R cuyas derivadas de cualquier
orden son continuas. Consideremos el operador lineal de derivaci´on on D : V → V.
Sea p (x) = a 0 + a1 x + · · · + an 1 xn 1 + xn un polinomio con coeficientes reales el cual se puede factorizar completamente en R en la forma −
−
p(x) = (x − α1 )r · · · (x − αk )r , 1
donde α i ∈
R,
k
1 ≤ ri ≤ n , 1 ≤ i ≤ k, 1 ≤ k ≤ n y sea
r r · · · (D − αk I V p(D) = a 0 I v + a1 D + · · · + an−1 Dn−1 + D n = (D − α1 I V V ) V ) 1
k
la transformaci´on on polinomial correspondiente. El n´ucleo ucleo de p(D) se conoce como el espacio soluci´on on de la ecuaci´on on diferencial ordinaria homogenea a0 y + a1 y (1) + · · · + an−1 y (n−1) + y (n) = 0,
(1)
donde y (k) denota la derivada de orden k de la funci´on on y = f (x) ∈ V . Pu Pues esto to que que on W = ker( p(D)) es D -invariante, entonces podemos redefinir D como una transformaci´on de W en W : D : W → W, de tal forma que p(x) se anula en este nuevo operador D. Querem Queremos os demostra demostrarr que la dimensi´ on on del espacio W es n. Seg´ un anotamos un anotam os despu´es es de d e la demostraci´ demostr aci´on on del teorema de descomposici´on on irreducible, las partes a) y b) de dicho teorema son v´alidas para espacios espacios de dimensi´on on infinita y para polinomios que se anulen en la transformaci´on. on. Por lo tanto, el espacio espacio W se descompone en la forma W = W 1 ⊕ · · · ⊕ W k , r donde W i = N [(D − αi I W on y = f (x) k . Visto de esta manera, cada soluci´on W ) ] , 1 ≤ i ≤ k. de la ecuaci´on on diferencial (1) se puede expresar de manera ´unica unica en la forma i
f (x) = f 1 (x) + · · · + f k (x),
1
donde f i (x) ∈ W i , 1 ≤ i ≤ k. Mejor an, reuniendo bases de W 1 , . . . , Wk obtenemos una base de W. El problema entonces se reduce a encontrar el espacio soluci´on de ecuaciones diferenciales de la forma (D − αI )r y = 0 (2). Mediante inducci´on on sobre r se puede probar fcilmente que (D − αI )r y = 0 ⇔ Dr (e
−αx
y ) = 0.
En efecto, para r = 1 se tiene que si ( D − αI )y = 0 , entonce entoncess dy = αy ⇒ dx dy = αdx ⇒ y dy = αdx ⇒ y ln (y ) = αx + c ⇒
eln(y) = e αx+c ⇒ y = be αx , b ∈ R ⇒ d (e−αx y) d (b) = =0 dx dx
Es decir, D(e αx y) = 0. Rec´ıprocame ıpro camente, nte, si D (e −
−αx
y ) = 0, entonces e−αx Dy − yαe −αx = 0 ⇒ Dy − yα = 0 ⇒
(D − αI ) y = 0 Supongamos que (2) es cierta para r y sea (D−αI )r+1 y = 0, entonces ( D−αI )r ((D − αI ) y) = 0; sea z = = (D − αI ) y , entonces ( D − αI )r z = = 0, y por inducci´on on se tiene que Dr (e αx z ) = 0. Po Porr lo tanto, tanto, Dr (e αx ((D − αI ) y)) = 0, es decir, Dr (e αx Dy − αe αx y) = 0. Puesto que D r es un operador lineal entonces se tiene que D r (e αx Dy ) − αDr (e αx y) = 0. Pero notemos notemos que −
−
−
−
−
Dr+1 e−αx y = D r D e−αx y
−
D r e−αx Dy − αye−αx = D r e−αx Dy −αDr ye−αx ,
=
es decir, que Dr+1 (e αx y) = 0. Rec´ Rec´ıprocamente, ıpro camente, supongamo sup ongamoss que Dr+1 (e αx y) = 0, entonces como acabamos de ver se tiene que Dr (e αx Dy ) − αDr (ye αx) = 0, es decir, Dr (e αx Dy − αye αx) = 0, lo cual −
−
−
−
−
2
−
significa que D r (e αx ((D − αI ) y )) = 0, o sea que Dr (e αx z ) = 0 con z = (D − αI ) y, por inducci´on on entonces se tiene que ( D − αI )r z = = 0, es decir, ( D − αI )r (D − αI ) y = 0, por lo tanto, (D − αI )r+1 y = 0. Tambi´en, en, mediante medi ante inducci´ indu cci´on on sobre r se demuestra que −
−
Dr y = 0 ⇔ y = b 0 + b1 x + · · · + br−1 xr−1 .
En consecuencia, el aspecto general de una soluci´on on de la ecuaci´on on (2) es y = f (x) = e αx (b0 + b1 x + · · · + br−1 xr−1 ),
es decir, el espacio soluci´on on de (2) es la envolvente lineal del conjunto de vectores
{eαx , xeαx , . . . , x r 1 eαx }, −
los cuale cualess son L I. Aplicando estas conclusiones a los espacios W i se tiene que dim( W i ) = r i y
{eα x , xeα x , . . . , x r i
1 αi x
i−
i
e
}
es una base para W i . Por lo tanto, dim( W ) = r 1 + · · · + rk = n y adem´as as
{eα x , xeα x , . . . , x r 1
1 α1 x
1−
1
e
, . . . , eα x , xeα x , . . . , xr k
k
1 αk x
k−
e
es una base de W . Ejemplo 1. (a) Calcular la soluci´ on on general de la ecuaci´on on diferencial y − 2y − 3y = 0
El polinomio asociado a esta ecuaci´on on es x3 − 2x2 − 3x
cuya factorizaci´on on completa es 1) (x − 3) x (x + 1) Por lo tanto, la soluci´on on general del la ecuaci´on on diferencial es y = c 1 + c2 e−x + c3 e3x .
(b) Calcular la soluci´on on general de la ecuaci´on on diferencial y + 4y + 6y + 4y + y = 0
El polinomio asociado a esta ecuaci´on on es x4 + 4x3 + 6x2 + 4x + 1
3
}
cuya factorizaci´on on completa es
(x + 1) 4
Por lo tanto, la soluci´on on general de la ecuaci´on on diferencial dada es c1 e−x + c2 xe−x + c3 x2 e−x + c4 x3 e−x . b. Sistemas Sistemas diagonalizables diagonalizables de ecuaciones ecuaciones diferenciales diferenciales lineales de primer orden. Considerem Consideremos os ahora sistemas sistemas de ecuaciones ecuaciones diferenciale diferencialess de tipo especial. especial. Sean y1 ,...,yn funciones diferenciables en un intervalo real ( a, b) , A ∈ M n (R) una matriz real de orden n ≥ 1 y sea B ∈ M n1 (R) una matriz columna real.
El sistema dY = AY definido por dx
... = · · · dy1 dx
· · · ...
a11 · · ·
··· · · · ann
an1
dyn dx
y1
a1n
(3)
yn
se denomina denomina sistema homogeneo de ecuaciones diferenciales lineales de primer orden . Notemos que el conjunto soluci´on on V de (3) es un subespacio vectorial de C (a, b) ⊕ · · · ⊕ ac´ıo ya que el arreglo nulo nulo 0 = (0, .. C (a, b), en efecto, V no es vac´ ..., ., 0) de funciones nulas satisface satisface el sistema homogeneo. homogeneo. De otra parte, si Y, U son soluciones del sistema homogeneo, entonces claramente el arreglo suma Y + U es nuevamente una soluci´on. o n. En la la misma forma si a es un real entonces a.Y ∈ V . Un sistem sistemaa homoge homogeneo neo se dice dice diagonalizable si la matriz A es es diag diagon onal aliz izabl able. e. Sea Sea dY 1 = AY un sistema diagonalizable tal que C AC = D = diag (d1 ,...,dn ). Entonces la dx soluci´on on general del sistema homogeneo es −
= ... = y1
Y
c1 ed
x
cn ed
x
1
.. .
C
yn
n
donde c 1 ,...,cn son constantes reales. En efecto efecto,, El sistem sistemaa dY = AY se puede escribir en la forma C 1 dY = DC 1 Y = dx dx d = dx ( C 1 Y ) = D (C 1 Y ), pero como C 1 tiene entradas constantes entonces C 1 dY dx Hacemos el cambio cambio W = C 1 Y y resulta el sistema dW = DW . Puesto Puesto que que D (C 1 Y ). Hacemos dx D es diagonal se obtiene el sistema −
−
−
−
−
−
... = · · · 0 dw1 dx
dwn dx
d1 · · ·
· ·· ··· 4
0 · · · ... w1
dn
wn
−
−
el cual tiene soluci´on on
... = w1
c1 ed
x
wn
cn ed
x
1
.. .
n
Teniendo en cuenta que Y = C W , la afirmaci´on on est´a probada. Ejemplo 2. Resolver el siguiente sistema de ecuaciones diferenciales: dy1 = y 2 dt dy2 = y 3 dt dy3 = −6y1 − 11y2 − 6y3 dt
donde adicionalment adicionalmentee se deben cumplir las condicione condicioness iniciales iniciales (0) = 0, y3 (0) = 0 y1 (0) = 1 , y2 (0) Soluci´ on. La versi´ on matricial de este sistema es on
dY dt
dy1 dt dy2 dt dy3 dt
= =
=
0 1 0 0 0 1 −6 −11 −6
y1 y2 y3
AY
Calculamos Calcula mos el polinom p olinomio io m´ınimo ınimo de A : x 3 + 6x2 + 11x + 6 = (x + 3) 3) (x + 2) 2) (x + 1), esto muestra que A es diagonalizable, y la matriz diagonalizante C es la matriz de vectores propios:
1 1 1 vectores propios : −1 ↔ −1 −2 ↔ −2 −3 ↔ −3 1 4 9 1 1 1 = −1 −2 −3 ,
,
C
1
4
9
La soluci´on on general del sistema dado es entonces
1 = ... = −1 1 y1
Y
1 1 −2 −3 4 9
yn
y1 = c 1 e−t + c2 e−2t + c3 e−3t
y2 = −c1 e−t − 2c2 e−2t − 3c3 e−3t y3 = c 1 e−t + 4c2 e−2t + 9c3 e−3t
5
c1 e−t c2 e−2t c3 e−3t
Por las condiciones iniciales adicionales se debe tener que 1 = c 1 + c2 + c3 0 = −c1 − 2c2 − 3c3 0 = c 1 + 4 c2 + 9 c3 cuya soluci´on o n es h1 = 3, h2 = −3, h3 = 1. Por lo tan tanto, to, la solc solcui ui´on o´ n del sistema de ecuaciones diferenciales es: y1 = 3e−t − 3e−2t + e−3t y2 = −3e−t + 6h2 e−2t − 3e−3t y3 = 3e−t − 12e−2t + 9e−3t . d. Sistemas Sistemas de Jordan de ecuacione ecuacioness diferenciales diferenciales lineales de primer orden. Un sistema homogeneo se dice de Jordan si si la matriz A es un bloque elemental de Jordan. dY Sea dx = AY un sistema de Jordan de la forma
··· 0 0 a ··· ... 1 ··· ... ··· a 0 ··· 1 0
a
1 ... = · · · 0 dy1 dx
dyn dx
0
0 0
0 ... 0 y1
(4)
yn
a
Entonces, la soluci´on on general del sistema es yk =
c1
(k − 1)!
k −1
x
+
c2
k−2
(k − 2)!
x
+ · · · + ck 1 x + ck eax , −
k = 1, 2,...,n
donde c 1 ,...,cn son constantes reales arbitrarias. En efecto, la primera ecuaci´on on en (4) es dy = ay 1 , luego dx 1
y1 = ce ax .
La segunda ecuaci´on on es
dy2 dx
= y 1 + ay2, pero consideremos
d (e−ax y2 ) dy2 = −ay2 e−ax + e−ax dx dx −ax −ax = −ay2 e + e (y1 + ay2 ) −ax
= −ay2 e = −ay2 e = c.
+ e ax (ceax + ay2) ax + c + ay2 e ax
−
6
−
−
(5)
Esto implica que e
−ax
y2 es de la forma e−ax y2 = c 1 x + c2 , de donde y2 = (c1 x + c2 ) eax .
Veamos un paso mas:
dy3 dx
= y 2 + ay3 y consideremos la derivada de e −ax
−ay3 e
+ e
−ax
−ax
y3 :
dy3 = −ay3 e−ax + e−ax (y2 + ay3 ) dx = e −ax y2 = e −ax (c1 x + c2 ) eax
= c 1 x + c2 , por tanto e
−ax
y3 =
c1
2 x
2
+ c2 x + c3 , es decir, y3
=
c1 2 x + c2 x + c3 eax .
2 Continuando de esta forma obtenemos la f´ormula ormula (5). Ejemplo 3. Resolver el siguiente sistema de ecuaciones diferenciales: dy1 dt dy2 dt dy3 dt dy4 dt
= 2y3 = y 1 + 2 y4 = 4y4 = y 3
donde adicionalment adicionalmentee se deben cumplir las condicione condicioness iniciales iniciales y1 (0) = 1 , y2 (0) = 0 , y3 (0) = 2, y4 (0) = 1 Soluci´ on. La forma matricial del sistema es
dY dt
=
dy1 dt dy2 dt dy3 dt dy4 dt
0 = 1 0
0 0 0 0 0
2 0 0 1
0 2 4 0
y1 y2 y3 y4
=
AY
Calculamos el polinomio m´ınimo de A: x4 − 4x2 = x2 (x − 2) (x + 2). 2). El sist sistem emaa de ecuaciones no es diagonalizable. Calculemos entonces la forma de Jordan de A, se tienen entonces 3 bloques de Jordan pertenecientes a los valores propios 0 , 2, −2. Caculemos los espacios propios:
0 2 2 1 2 −2 vectores propios: ↔ 0 00 −21 ↔ −2 21 ↔ 2 ,
,
7
Cada bloque tiene una sola celda elemental de Jordan, y para el valor 0 la celda es de tama˜ no no igual a 2. La matriz J de Jordan es entonces
J
0 1 = 0
0 0 0 0 0
0 0 0 0 2 0 0 −2
Existe entonces una matriz invertible invertible C tal tal que C 1AC = J , por lo tanto, A = C J C 1 con d(C − Y ) 1 1 dY 1 lo cual dY = = , luego = ( ( ), es decir, = J ( (C 1 Y ). AY C J C Y C J C Y dt dt dt Haciendo el cambio Z = C 1 Y −
−
1
−
−
−
−
−
se tiene que
dZ = J Z dt
y para este sistema de ecuaciones diferenciales la soluci´on se puede calcular usando (5) en cada celda de Jordan. Una vez se tengan las soluciones Z entonces podemos finalizar el ejercicio mediante la identidad Y = C Z. Por lo tanto, debemos calcular la matriz C : recordemos que 4 R
= W 1 ⊕ W 2 ⊕ W 3
donde W 1 = ker A2
W 2 = ker(A − 2E ) =< (2 , 2, 2, 1) > W 3 = ker(A + 2E ) =< (2 , −2, −2, 1) >
Para W 1 necesitamos la descomposici´on on c´ıcli ıc lica ca::
0 1 0
0 0 0 0 0
2 0 0 1
W 1 = ker( A2
2
0 0 0 8 = 0 0 4 0 0 0 4 0 0 0 0 4 1 0 0 1 )= 0 0
0 2 4 0
<
,
0
>
0
Pero Pero en este caso la descomposi´ descomposi´on on c´ıcli ıc lica ca de W 1 tiene un solo sumando ya que el operador (ker(N 1 )) = dim dim (E (0)) (0)) = 1. Por lo tanto, en este caso N 1 = A : W 1 → W 1 es tal que dim (ker( 8
necesitamos un vector w 1 ∈ W 1 tal que [w1 ] = W 1 , se puede entonces tomar w 1 = e 1 y de esta forma W 1 = [e1 ] =< e1 , Ae1 > =< (1 , 0, 0, 0) , (0, 1, 0, 0) > Se tiene entonces que C
Podemos ya calcular la soluci´on: on:
1 0 = 0
0 1 0 0 0
2 2 2 −2 2 −2 1 1
dZ = J Z ⇒ dt dZ dt
=
dz1 dt dz2 dt dz3 dt dz4 dt
Para cada celda aplicamos (5): z k z 1 z 2 z 3
0 = 1 0 0 = c1
0 0 0 0 k−1
(k−1)! t
0 0 0 0 2 0 0 −2 +
c2
k−2
(k−2)! t
z 1 z 2 z 3 z 4
+ · · · + ck 1 t + ck eat −
= = (1 − 1)! = + (2 − 1)! (2 − 2)! = = (1 − 1)! c1 c1 c1
z 4 =
c1
(1 − 1)!
t1−1 e0t
c 1
c2
t2−1
t1−1 e2t
t2−2 e0t = c 1 t + c2
c 3 e2t
t1−1 e−2t = c 4 e−2t
La soluci´on on general viene entonces dada por
y1 y2 y3 y4
1 0 2 2 = 0 1 2 −2 + 0 0 2 −2 0 0 +12 1 + 2 + + 2 − 2 = 2 −2 c1
c1 t c2 c3 e2t c4 e−2t
c1 c3 e2t c4 e−2t c2 tc1 c3 e2t c4 e−2t c3 e2t c4 e−2t c3 e2t + c4 e−2t
9
Finalmente, debemos considerar las condiciones iniciales 1 = c 1 + 2 c3 + 2 c4 0 = c 2 + 2 c3 − 2c4 2 = 2c3 − 2c4 1 = c 3 + c4 cuya soluci´on on es c 1 = −1, c2 = −2, c3 = 1, c4 = 0, por lo tanto y1 = −1 + 2 e2t y2 = −2 − t + 2e2t y3 = 2e2t y4 = e 2t .
10
Álgebra Lineal Capítulo 11. Tópicos Especiales y Aplicaciones 11.4. Producto tensorial de espacios vectoriales y matrices En esta lección de…nimos el producto tensorial de espacios vectoriales, transformaciones lineales y matrices . Dos preliminares son necesarios para esta de…nición.
a. Espacio Espacio cociente. cociente. De…nición 1. Sea V Sea V un K un K -espacio -espacio y sea W sea W un un subespacio de V de V ,, se de…ne en V en V la la relación de equivalencia inducida por W por W en en la siguiente forma v1 v v 2 , , v v 1 v2 2 W 2 W Esta relación particiona al conjunto V conjunto V en en clases de equivalencia denotadas por v por v,, es decir, v = f = fu u 2 V 2 V j u u v vgg = v = v + + W = fv f v + w j w j w 2 2 W W g g. El conjunto de estas clases de equivalencia se denota por V =W , =W , es decir, V =W = fv f v j v j v 2 2 V V g g: Notemos que v1 = v = v2 , , v v 1 v2 2 W 2 W v = 0 , , v v 2 2 W W .. Este conjunto cociente tiene estructura de K de K -espacio -espacio vectorial. Proposición 1. V =W es =W es un espacio vectorial sobre K respecto K respecto de las siguientes operaciones: v + v 0 = v + v + v0 , v; v 0 2 V a:v = a:v = a:v a:v,, a 2 K: 2 K: Veamos algunas propiedades de esta construcción. Proposición Proposición 2. (a) La función canónica J : V ! V =W v 7! v es una transformación lineal. (b) Si V Si V es es de dimensión …nita, entonces 1
dim(V dim(V =W ) =W ) = dim(V dim(V )) dim(W dim(W )): En forma más precisa, si X 0 = fx f x1; : : : ; xm g es una base de W y X = fx f x1 ; : : : ; xm ; xm+1; : : : ; xn g 00 es una base de V de V ,, entonces X entonces X = fx f xm+1 ; : : : ; xn g es una base de V de V =W . =W . (c) Sea T : V ! V V una transformación lineal y sea W un W un subespacio invariante de V . V . 00 0 Sean X Sean X ; X ; X como como en el literal anterior anterior.. Entonces, Entonces, la matriz de T en T en la base X es X es de la forma mX (T (T )) =
mX (T (T 0 )
0
mX T 00
donde T 0 es la restricción de T a W , W , y T : V =W ! V =W es =W es la transformación inducida de…nida por T (v ( v ) = T (v ( v )
b. Propiedad universal de las bases y K (X ) El Teorema 2 de la Lección 2 del Capítulo 2 establece la propiedad universal de una base X X de un espacio vectorial V V en el sentido que cada función t de X X en un espacio W se extiende en forma única a una transformación lineal T : V ! W , W , de tal forma que T ( T (x) = t(x), para cada x 2 X . De otra otra parte, parte, recordem recordemos os que si K es K es un cuerpo y X (X ) es un conjunto no vacío cualquiera, entonces K denota el espacio vectorial con base canónica X canónica X = fe f ex gx2X , donde e donde e x = (kz )z2X y k z = 0 si z 6 = x y x y k x = 1. Podemos ya emprender la construcción del producto tensorial de dos espacios vectoriales.
c. Producto tensorial de dos espacios vectoriales. Sean U; Sean U; V dos V dos espacios vectoriales sobre un mismo cuerpo K cuerpo K , sea X sea X el el producto cartesiano de los conjuntos U y V , V , es decir, X = U V . V . No Notem temos os que en el conjunt conjunto o X X hemos olvidado las estructuras de K -espacio -espacio que tienen U y V , V , a estos últimos los estamos tomando tomando simplemente simplemente como conjuntos conjuntos no vacíos. acíos. Considerem Consideremos os entonces entonces el K -espacio -espacio (X ) (X ) vectorial K con base canónica Z canónica Z = fe f ex gx2X , donde ex es un arreglo de K de…nido por ex = (kz )z2X y kz = 0 si z 6 = x y kx = 1. No Notem temos os que los elemen elementos tos de X son parejas, es decir, un elemento x 2 X es X es de la forma x = (u; v ). En otras otras palab palabra ras, s, el conjunto de índices X X es un producto cartesiano de dos conjuntos, y ex = e(u;v) denota el arreglo que tiene solamente una entrada no nula, la ubicada en la "posición (u; ( u; v )", en donde colocamos el escalar 1 2 K . No Notem temos os entonces entonces que un elemento elemento de K (X ) es una combinación lineal …nita en la forma r1 e(u
1
;v1 )
+ + rt e(u ;v ) : t
t
Observemos que el elemento anterior es un arreglo …nito que tiene ubicados en la posición (u1 ; v1 ) al escalar r escalar r1 , en la posición ( posición (u u2 ; v2 ) al escalar r escalar r2 ,..., en la posición (u (ut ; vt ) al escalar rt y en todas las demás posiciones al escalar cero. 2
Esta notación notación puede ser simpli…carla simpli…carla de la siguiente siguiente manera: manera: represent representemos emos el elemento elemento e(u;v) de la base canónica Z canónica Z simplemente simplemente por ( por (u; u; v ) de tal forma que veamos a U a U V V como (X ) la base canónica de K de K y a las parejas ( parejas (u; u; v ) como los elementos de esta base canónica. (U V ) Así pues, podemos pensar en K y considerar que la base canónica es U V . V . Con esta notación podemos decir que un elemento de K de K (U V ) es una combinación lineal …nita de la forma r1 (u (u1 ; v1 ) + + rt (u (ut ; vt ) donde r donde r 1 ; : : : ; rt 2 K 2 K .. Sea S Sea S el el subespacio de K de K (U V ) generado por todos los elementos de la siguiente forma (u + u0 ; v ) (u; v) (u0 ; v ) (u; v + v 0 ) (u; v ) (u; v 0 ) r (u; v ) (ru;v) ru;v ) r (u; v ) (u;rv) u;rv )
(1)
y sea U sea U V el K el K -espacio -espacio vectorial cociente correspondiente, es decir, U V = K (U V ) =S Denotemos por u v a la clase de equivalencia (u; v ) del cociente U V = K (U V ) =S . Entonces en U en U V V se tienen las siguientes propiedades fundamentales. Proposición Proposición 3. Para cualesquiera elementos u; elementos u; u0 2 U; U; v;v 0 2 V y r 2 K 2 K se se tiene que 0 0 (i) ( (i) (u u + u ) v = u = u v + u v 0 (ii) u (ii) u (v + v ) = u v + u v 0 (iii) r (iii) r (u v ) = ru v (iv) r (iv) r (u v ) = u rv Corolario 1. La función canónica t : U : U V ! U V (u; v ) 7! u v es bilineal en cada argumento. De…nición 2. El espacio vectorial U vectorial U V se V se denomina el producto tensorial de U con V con V .. Observemos como es un elemento cualquiera de U de U V : V : sea z sea z un elemento de U de U V , V , con (U V ) z 2 K , entonces z entonces z es de la forma z = r 1 (u (u1 ; v1 ) + + rt (u (ut ; vt ), por lo tanto en el (U V ) cociente U cociente U V = K =S se se tiene que z = r = r 1 u1 v1 + + rt ut vt 3
pero como r como r 1u1 ; : : : ; rt ut 2 U 2 U ,, entonces podemos siempre asumir que z es de la forma u1 v1 + + ut vt : El producto tensorial tiene la siguiente propiedad universal. Teorema 1. Sea W un K -espacio -espacio y sea f : U V ! U V V una funcion bilineal. Entonces, existe una única transformación lineal F : U U V ! W tal W tal que F que F t = f = f :: U V
t !
U V
f &
# F W
La tranformación lineal F viene F viene dada por F (u ( u v ) = f (u; ( u; v ) . función f función f de…nida de…nida sobre la base canónica U canónica U V de K de K (U V ) induce una única transformación lineal F lineal F 0 : K (U V ) ! W de…nida W de…nida por F por F 0 (u; v ) = f (u; (u; v ). De…nimos (U V ) 0 entonces la función F (z ( z ) = F (z ), donde z 2 K . En particu particular lar,, si z = (u; v ) es un 0 básico, entonces F (u ( u v ) = F (u; v ) = f (u; (u; v ). Debemo Debemoss ver que F está F está bien de…nida. (U V ) Sean z Sean z1 ; z2 2 K 2 K tales que z que z1 = z = z 2 , entonces z entonces z1 z2 2 S 2 S y y por lo tanto z tanto z1 z2 es una K una K combinación lineal de elementos como en (1). Como F 0 es K es K -lineal, -lineal, basta considerar cada una de las cuatro relaciones de (1) por separado. Si z 1 z2 = (u + u0 ; v ) (u; v ) (u0 ; v ), entonces Demostración. La
F 0 (z1 z2 ) = F 0 [(u [(u + u0 ; v ) (u; v) (u0 ; v )] = f (u ( u + u0 ; v) f (u; (u; v ) f (u (u0 ; v) = 0, ya que f es f es bilineal. De igual manera se consideran los otros tres casos de (1). Esto muestra que F 0 (z1 z2 ) = 0, es decir, F decir, F 0 (z1 ) = F 0 (z2 ), y F está F está bien de…nida. 0 De otra parte, como F es K es K -lineal, -lineal, entonces F es una transform transformación ación lineal. lineal. Además, Además, F t (u; v) = F (u ( u v ) = f (u; ( u; v ), esto muestra que F que F t = f = f .. Para Para termin terminar ar la prueba prueba,, sea G otra transformación lineal G : U V ! W W tal que G t = f = f ,, entonces como G es una transformación lineal basta considerar el caso u v . Así pues, G pues, G t (u; v ) = f (u; (u; v ), es decir, G decir, G (u v ) = f (u; ( u; v ) = F (u ( u v ). Presentamos a continuación otras propiedades interesantes del producto tensorial. Teorema 2. Sean U y V dos V dos espacios vectoriales de dimensión …nita n y m con bases X = fx1 ; : : : ; xn g y Y = fy1; : : : ; ym g, respectiv respectivamente. amente. Entonces, Entonces, X Y = fxi x j j 1 i i n; n; 1 j j mg mg es una base de U de U V , V , y en consecuencia, dim consecuencia, dim K (U (U V ) V ) = nm. nm.
4
Considerem Consideremos os el K -espacio -espacio vectoria vectoriall canónico canónico K nm de dimensión nm; nm; nm notemos que K está está conform conformado ado por arreg arreglos los …nitos …nitos de nm nm entradas de K K pegando nm en forma sucesiva m arreglos de tamaño n. La base base canónica canónica de K de K se puede entonces representar por Z = fe1;1 ; : : : ; e1;m ; e2;1 ; : : : ; e2;m; : : : ; en;1 ; : : : ; en;mg, donde el vector ei;j tiene ubicado al 1 al 1 en la entrada ( entrada (ii 1) m + j, j , y las demás entradas son nulas. De…nimos entonces la transformación lineal Demostración.
T : K nm ! K (U V ) ei;j 7! x i y j , 1 i i n; n; 1 j j m. m. De otra parte, consideremos la función f : U V ! K nm f (u; (u; v ) = a 1 b1 e11 + + a1 bm e1m + a2 b1 e21 + + a2 bm e2m .. . + an b1 en1 + + an bm enm donde u = a1 :x1 + + an :xn y v = b1 :y1 + + bm :ym . Es faci facill ver que que f es f es bilineal. nm Por Por el Teorema eorema 1 existe existe una transfo transform rmaci ación ón lineal lineal F : U V ! K de…nida por F (u ( u v ) = f (u; (u; v ) = a 1 b1 e11 + + a1 bm e1m + + an b1 en1 + + an bm enm. Pero notemos que F que F T = I K y también T también T F = I U que T es es un isomor…smo de K U V . Esto demuestra que T espacios vectoriales, con lo cual X cual X Y es Y es una base de U de U V y dim K (U (U V ) V ) = nm. nm. nm
d. Producto tensorial de transformaciones lineales y matrices
Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales donde X = fx1 ; : : : ; xn g es una base de U de U ,, X 0 = fx f x01 ; : : : ; x p0 g es una base de U 0 , Y = fy f y1 ; : : : ; ym g una base de V y 0 0 0 0 Y = fy f y1 ; : : : ; yq g una base de V de V . Entonces la función T F : U U V ! U 0 V 0 (u; v ) 7! T (u ( u) F (V ( V )) es bilineal y por lo tanto induce una transformación lineal T F : U U V ! U 0 V 0 u v 7! T (u ( u) F (V ( V )) La transformación T F F se conoce como el producto tensorial de T con F . F . Se ti tiene ene entonces la siguiente propiedad. 5
Teorema 3. Con la notación anterior se tiene que mX Y;X Y (T (T F ) F ) = 0
0
2 64
a11 B .. .
a1n B .. .
a p1 B
a pn B
3 75
donde A donde A = = [aij ] = mX;X (T (T )) y B y B = [bij ] = mY;Y (F (F )). La matriz de T de T F se F se conoce como el producto tensorial de las matrices A y B y se denota por A por A B , es decir, 0
0
A B =
2 64
a11 B .. .
a1n B .. .
a p1 B
a pn B
3 75
Notemos que A que A B es de orden pq orden pq nm. nm. Demostración. Basta aplicar T T F a a los vectores de la base X Y y Y y expresar los resultados 0 0 a través de la base X Y . Ejemplo 1. Sean T Sean T : R3 ! R2 y F : R2 ! R4 las transformaciones lineales de…nidas por T (x;y;z ( x;y;z)) = (2x (2x + 3y; 3y; 3x + 4z 4z ) F (x; ( x; y ) = (x; ( x; x + y ; y ; y x) Calcular la matriz de T F en F en las bases canónicas. Solución. Basta calcular las matrices A y B de las transformaciones T y F F en las bases canónicas: A = m = m (T ) T ) =
B = m = m (F ) F ) =
m (T F ) F ) = A B =
m (T F ) F ) =
2 66 66 64
2 2 0 2 3 3 0 3
2 64
2 3 0 3 0 4 1 1 0 1
2B 3B 0B 3B 0B 4B
0 3 2 3 2 0 2 3 0 0 3 0 3 0 3 0 6
0 1 1 1
3 75
0 0 3 0 3 0 3 0 0 4 0 4 0 0 0 4
0 0 0 0 0 4 4 4
3 77 77 75
e. Otras propiedade propiedadess del prodcuto tensorial tensorial En adelante consideraremos que los espacios vectoriales son de dimensión …nita. (i) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales lineales sobreyectivas. sobreyectivas. Entonces, 0 0 0 0 T F es F es sobreyectiva. En efecto, si u si u v 2 U V , entonces existe u existe u 2 2 U U y v 2 v 2 V V tales que T que T ( (u u) = u 0 ; F (v ( v ) = v 0 . Por lo tanto, (T ( T F ) F ) (u v ) = T (u ( u) F (v ( v ) = u 0 v 0 . (ii) Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales, entonces ker( entonces ker(T T F ) F ) = ker(T ker(T )) V + U ker(F ker(F )). Veamo eamoss la demostra demostración: ción: denotemos denotemos por W = W = ker ker (T ) T ) V + U ker(F ker(F )), este es un subespacio de U V . V . Es clar claro o que W ker ker (T F ) F ), probemos entonces entonces la inclusión inclusión recíproca. Para Para esto consideremos consideremos el espacio espacio cociente (U V ) V ) =W , =W , y la transfomración lineal canónica J : U V ! (U ( U V ) V ) =W z 7! z Para el producto tensorial I tensorial Im m (T ) T ) Im (F ) F ) consideremos el siguiente diagrama Im (T ) T ) Im (F ) F )
t0 !
Im (T ) T ) Im (F ) F )
f &
# H (U V ) V ) =W
donde f donde f (T ( T (u ( u) ; F (v ( v)) = J (u (u v ). Debemo Debemoss ver que f que f está bien bien de…nida. de…nida. Sea T (u ( u1 ) = T (u ( u) y F ( F (vv1) = F (v ( v ), por lo tanto, u 1 u = u = u 2 2 k 2 ker er (T ) T ) y v 1 v = v = v 2 2 k 2 ker er (F ) F ), luego u1 v1 = (u + u2 ) (v + v2 ) = u v + u v2 + u2 v + u2 v2 = u v + (u ( u v2 + u2 v + u2 v2 ) donde u donde u v2 + u2 v + u2 v2 2 U 2 U ker(F ker(F )) + ker ker (T ) T ) V = W , W , esto muestra que u1 v1 u v 2 W 2 W luego, J luego, J (u (u v) = J (u (u1 v1 ). Notemos que f que f es es bilineal, por lo tanto induce la transformación lineal H dada H dada por H (T (T (u ( u) F (v ( v )) = f (T ( T (u ( u) ; F (v ( v )) = J (u (u v ) ) H (T F ) F ) = J Sea entonces z entonces z 2 ker ker (T F ) F ), entonces H entonces H (T F ) F ) (z ) = H (0) (0) = 0 = J = J (z (z ) = z, z , lo cual indica que z que z 2 W . W . 7
(iii) Sean Sean T Sean T 1 : U 1 ! ! U U 2 ; T 2 : U 2 ! ! U U 3 y F 1 : V 1 ! ! V V 2 ; F 2 : V 2 ! V 3 transformaciones lineales, entonces (T 2 T 1) (F 2 F 1 ) = (T 2 F 2 ) (T 1 F 1 ) . En forma matricial, A2 A1 B2 B1 = (A2 B2 ) (A1 B1 ) (iv) Si I Si I U U es la idéntica de U de U e I V V , entonces U : U ! U es V : V ! V , I U U I V V = I U U V : En forma matricial, E n E m = E = E nm nm : (v) Sean T Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales biyectivas, entonces (T F ) F )1 = T 1 F 1 : Matricialmente, (A B )1 = A 1 B 1: (vi) Sean T Sean T y F 1 ; F 2 transformaciones lineales compatibles para las operaciones indicadas, entonces T (F 1 + F 2 ) = T F 1 + T F 2 : En forma matricial, A (B1 + B2 ) = A B1 + A B2 : En forma similar se tienen las distributivas por el lado derecho. (vii) Sean T Sean T : U ! U 0 y F : V ! V 0 transformaciones lineales y sea sea 2 2 K K ,, entonces (:T ) :T ) F = T (:F ) :F ) = : (T F ) F ) : (viii) Sean A Sean A 2 2 M M n (K (K ) y B 2 M m (K (K ), entonces tr (A B ) = tr (A) tr (B ) ; det(A det(A B ) = det det (A)m det(B det(B )n : (ix) Sean A; C 2 M n (K (K ) y B; D 2 M m (K (K ), tales que A que A y C son C son similares y B y D son similares, entonces 8
A B es similar a C a C D: (x) Sean A 2 M n (K (K ), B 2 M m (K (K ), un valor propio de A con vector columna propio u y un un valor propio de B con vector columna propio v . Entonces, Entonces, u v es un vector propio de A de A B con valor propio propio .. (xi) Sean A 2 M n (K (K ), B 2 M m (K (K ) matrices diagonalizables, entonces A B es diagonalizable. (xii) Sean U y V V espacios con bases X = fx1 ; : : : ; xn g y Y = fy1 ; : : : ; ym g, respectivamente. Entonces U V ( U V ) V ) = (U Veamos la prueba de este isomor…smo. Sean Sean 2 2 U U y 2 2 V , de…nimos entonces la función f ; V ! K ; : U f ; (u; v ) = (u) ( (v) ; (u; Notemos que f que f ; ; es bilineal, por lo tanto induce una única transformación lineal F ; ; : U V ! K F ; (u v ) = (u) ( (v ) ; (u Esto indica que F que F ; (U V ) V ) ; se de…ne entonces la función ; 2 (U
e
f f : U V ! (U ( U V ) V ) (; ) 7! F ; ;
e
Notemos que f es f es bilineal, y por lo tanto induce una transformación lineal
e
F F : U V ! (U ( U V ) V )
e
e
F F ( ( ) = F ; ; )
F F ( ( ) (u v ) = F ; (u v ) = (u) ( (v ) ; (u Sean X Sean X = fx f x1 ; : : : ; xn g y Y = fy f y1 ; : : : ; ym g las bases duales en U en U y V , respectivamente. respectivamente. Entonces,
9
e
F F xi y j (xr ys ) = x i (x ( xr ) y j (y ( ys ) = 1 si i = i = r r y j = s = 0, 0 , en otro caso
Sabemos que f que fx xi y j j 1 1 i i n; n; 1 j j mg mg es una base de U de U V y por lo anterior, F F xi y j = (xi y j ) ; 1 i i n; n; 1 j j m . m . Es decir, F es F es una transformación lineal que envía una base en una base, por lo tanto, F es F es biyectiva.
e
e
f. Una apliación del producto tensorial de matrices
e
Sean A; B y C matrices C matrices complejas de tamaños n n; m m y n m respectivamente. Supóngase que para cada valor propio de A y cada valor propio de B de B se cumple que + + 6 = 0. Demostra Demostrarr entonces que la ecuación ecuación matricial matricial AX + X + XB B = C C tiene solución única. Solución. Consideremos el C-espacio de matrices rectangulares M nm nm (C), de…namos la función T función T por T : M nm ! M M nm nm (C) ! nm (C) X 7! AX + + X B Notemos que T T es una transformac transformación ión lineal. Para Para resolver resolver el problema problema mostrarem mostraremos os que T es T es biyectiva, con esto, dada C 2 M nm nm (C) existe una única X 2 M nm nm (C) tal que AX + + X B = C = C .. La prueba de la biyectividad de T de T la la haremos a través de su matriz en la base canónica B = = fE 11 ::::E E 1m ; :::; :::; E n1 ;:::;E nm de M nm (T )) es invertible. 11 ; :::: nm g de M nm (C), es decir, probaremos que m B (T Notemos entonces que
mB (T (T )) =
2 64
a11 Em a1n Em .. .. .. . . . an1 Em annEm
32 75 64 +
T
B .. .
...
0
0 .. . B T
3 75
donde Em es la idéntica de orden m y B T es la transpuesta de B. B . Pero,
2 64
a11 Em a1n Em .. .. .. . . . an1 Em annEm
2 64
B T 0 .. . . . . .. . 0 B T 10
3 75 3 75
= A = A Em
=
En
B T
De esta forma mB (T (T )) = A Em + En B T Puesto que C es algebraicamente cerrado existen matrices invertibles F y G de tamaños n n y m m, respectivamente, tales que F 1 AF = S 1 y G1 B T G = S 2 son matrices triang triangula ulares res superiore superiores. s. No Notem temos os que en la diagonal diagonal de S 1 y S 2 están localizados los T valores propios de A y de B , respectivamente (notemos que los valores propios de B T son los mismos de B). B ). Ahora notemos que
S 1 Em = F 1 AF Em = F 1 Em (A Em) (F Em ) En
S 2 =
En
donde además
G1 B T G =
En
G1
En
B T (En G)
F 1 Em = (F Em )1
De esta forma se tiene que
En
G1 = (En G)1
S 1 Em = (F Em )1 (A Em ) (F Em ) En
S 2 = (En G)1
En
B T (En G)
Tenemos entonces que mB (T (T )) = A AEm +En B T , de donde ( donde (F F Em )1 mB (T (T )) (F Em ) = 1 (F Em) (A Em ) (F Em) + (F Em )1 En B T (F Em ) = (S 1 Em ) + (F (F 1 Em ) En B T (F Em ) = (S 1 Em ) + En B T . Ahora, ( Ahora, ( En G)1 (F Em )1 mB (T (T )) (F Em ) (En G) = 1 (En G) (S 1 Em ) (En G) + (En G)1 En B T (En G) = (S 1 Em ) + (En S 2 ). En total,
(En G)1 (F Em )1 mB (T (T )) (F Em ) (En G) = (S 1 Em ) + ( En S 2 ) es decir, (F G)1 mB (T (T )) (F G) = (S 1 Em ) + (En S 2 ) : Notemos que la matriz (S 1 Em ) + (En S 2 ) es triangular superior y en su diagonal están las sumas de la forma + + , las cuales por hipótesis son no nulas, es decir, esta matriz es invertible, o sea que, m que, m B (T (T )) es también invertible, y la prueba ha terminado. 11
´ Algebra Lineal Cap Ca p´ıtulo ıtu lo 11. T´ opicos Especiales y Aplicaciones opicos 11.5. Matrices y formas positivas
En esta secci´on on estudiamos matrices positivas, formas sesquilineales positivas, y formas cuadr´ aticas aticas positivas. a. Matrices complejas positivas. Definici´ on on 1. Sea A M n (C), se dice que A es positiva si
∈
X AX ∗ > 0
para cada vector X = [x1 , . . . , xn ] Ejemplo 1. La matriz
n
∈ C − 0, donde X ∗ = X .
A
T
2 = −
i
0
es positiva. En efecto,
a1 + ib1 a2 + ib2 a3 + ib3
−2
0 4 2i 2i 8
0
= 2a1 b2
2 1 2
−
− ib − ib − ib
−
i
i
0 4 2i 2i 8 i
2 2
a1 a2 a3
2 1
1 2 3
2 3 2 1
2 2 2 1
2 3 2 2
− 2a b + 4a b − 4a b + 2a + 4a + 2 b + 8 a + 4b + 8b = (a + b ) + (a − b ) + (2a − b ) + (a + 2 b ) + a + b + 2 b + 2 a + 4 a + 4 b > 0 para cada vector X = a + ib a + ib a + ib ∈ C − 0. Otras caracterizaciones de las matrices complejas positivas son las siguientes. Proposici´ on on 1. Sea A ∈ M (C), entonces las siguientes condiciones son equivalentes: 1
2 1
2
2
2
2 3 2 1
3 2 3
1
1
2
2
2
2
3
3
2
2 2
2 3
2 3
3
3
n
(a) A es positiva (b) La relaci´on on
< X, Y >= X AY ∗
define un producto interno en Cn . (c) A = A∗ y para el producto interno can´onico onico en Cn se tiene que ( X,XA) > 0 para cada vector no nulo X de Cn . (d) A = A ∗ y los menores principales de A son positivos, es decir, todos los determinantes de la forma
son positivos. positivos.
det
a11
.. .
ak1
···
a1k
···
akk
.. .
1
, 1 ≤
k
≤ n
Demostraci´ on. (a)
n
X, Y , Z ∈ ⇒ (b): sean X, ∈ C , entonces
∗
< X, X, Y + Z >= X A (Y + Z )
= X A (Y ∗ + Z ∗ ) = X AY ∗ + X AZ ∗ X, Z >; =< X, Y > + < X, < λ. λ.X,Y >= (λ.X ) AY ∗ = λ. λ. < X,Y >; < X, X, X >= X AX ∗ > 0 para para cada ada X no nulo de Probemos que < Y, Y, X >= < X, Y >. En efecto, sean X, Y
n
C
.
n
∈ C , entonces
< X + + Y, X + + Y >=< X + + Y , X > + < X + + Y , Y >
= (X + + Y ) AX ∗ + ( X + + Y ) AY ∗ = X AX ∗ + Y AX ∗ + X AY ∗ + Y AY ∗ Cn , por lo tanto < X + Y , X + Y > pero por hip´otesis otesis < Z, Z, Z > R para cada Z ,XAX ∗ , Y A Y ∗ Y , X > + < X, X, Y > R. De igual R, luego Y AX ∗ + X AY ∗ =< Y, manera,
∈
∈
∈
∈
< X + + iY,X + + iY >=< X + + iY, X > + < X + + iY,iY >
luego iY iY AX ∗
−
= (X + + iY ) AX ∗ + ( X + + iY ) A (iY )∗ = X AX ∗ + iY AX ∗ iXAY ∗ + Y AY ∗ R iXAY ∗ = i < Y,X > i < X, Y > R. Por lo tanto,
− −
∈
∈
< Y, Y, X > + < X, Y >= < Y, Y, X > + < X, Y > = < Y, Y, X > + < X , Y >
−i < X,Y
i < Y,X >
>= i < Y,X >
−i < X, Y > = −i< Y,X > + i< X, X, Y >.
Podemos multiplicar la segunda igualdad por i
− < Y,Y, X > + < X, Y
>= < Y, Y, X >
− < X, Y >
y sumarla a la primera 2 < X, Y >= 2< Y, Y, X > es decir < X, Y >= < Y, Y, X > .
Esto completa la prueba de que < X, Y > define un producto interno en Cn . (b) (c): Veamos primero que A es hermitiana, es decir, A = A ∗ . Probemos que aij = a ji para cada 1 i, j n . Consideremos los vectores can´onicos onicos ei y e j de Cn , entonces < e , e >= e Ae∗ = a
⇒
≤ ≤
i
j
i
j
ij
< e j , ei >= e j Ae∗i = a ji
⇒
aij =< ei , e j >= < e j , ei > = a ji .
2
Recordemos que el producto interno can´onico onico en Cn viene dado por ( X, Y ) = X Y ∗ , luego (X,XA) = X ( (X A)∗ = X A∗ X ∗ = X AX ∗ = < X, X > > 0, para X no no nulo de
C
n
.
(c) (d): solo hay que probar lo relativo a los menores principales de la matriz A. Para comenzar comenzar probemos probemos que det (A) > 0. Puesto que A es hermitiana, entonces A es diagonalizable, y los valores propios de A son reales. Sea Y un vector propio correspondiente al valor propio λ , entonces AY = λ.Y , entonces (AY )∗ = (λ.Y )∗ , luego Y ∗A∗ = λY ∗ = λY ∗ , de donde, (Y ∗ , Y ∗ A∗) = (Y ∗, λY ∗ ) = λ (Y ∗ , Y ∗ ) = λ (Y ∗ , Y ∗) > 0, y como tambi´en en ∗ ∗ (Y , Y ) > 0, entonces entonces λ > 0. Hemos probado que los valores propios son positivos. En consec consecuen uencia cia,, det (A) > 0. Ahora notemos que siendo A hermitiana, entonces cada submatriz
⇒
Ak
=
a11
.. .
ak1
···
a1k
···
akk
.. .
, 1 ≤
k
≤ n
es tambi´en en hermitiana. hermitia na. Adem´as as (X k , X k Ak ) > 0 para cada vector no nulo X k de Ck . En efecto, sea X k Ck un vector no nulo, completando con ceros construimos un vector no nulo X de Cn , X = [X k 0], puesto que ( X,XA) > 0, entonces
∈
x1
|
···
x1 a11 +
xk 0
···
0
···+ x a ··· k k1
···
a11
.. .
ak1
.. .
an1
x1 a1k
a1k
···
a1n
akk
···
akn
.. . .. .
.. . .. .
=
··· a · · · ∗ = X + · · · + x a ∗ ·· ank
nn
k kk
luego el producto interno can´onico onico de X con X es positivo y coincide con ( X k , X k Ak ). Por lo probado probado antes, antes, det (Ak ) > 0. pij ] con pkk = (d) (a): Paso 1. Veamos que existe una matriz triangular superior P = [ p 1, 1 k n , y para la cual se tiene que B =: AP es triangular inferior. La existencia de P se puede plantear de la siguiente manera:
⇒ ≤ ≤
bik = a i1 p1k + bik = a i1 p1k
···+ a + · · · + a
− − + aik pkk + aik+1 pk+1k + ik −1 pk−1k + aik para cada k > 1 . ik 1 pk 1k
···+ a
⇒
in pnk
Como se quiere que B sea triangular inferior entonces tambi´ en en se debe tener que bik = 0 para k > i, entonces se debe cumplir que ai1 p1k +
···+ a
− + aik = 0 para k > i
ik 1 pk 1k
−
3
es decir se tienen las siguientes relaciones a11 p1k + a21 p1k
ak−11 p1k +
···+a + · · · + a
···
1k−1 pk−1k + 2k−1 pk−1k +
a1k = 0 a2k = 0
.. . + ak−1k−1 pk−1k + ak−1k = 0
es decir el sistema
a11
.. . ak−11
··· ···
a1k−1
.. . ak−1k−1
p1k
.. . pk−1k
=
−a .. .
1k
−a −
k 1k
debe tener soluci´on on para cada k > 1. Pero esto est´a garan garantiz tizado ado ya que det (Ak−1 ) > 0. Luego la matriz P existe y AP es triangular inferior. ∗ ∗ ∗ e s tambi´ ta mbi´en en triangul tr iangular ar inferior. Sea D =: Paso 2. P es triangular inferior y P B = P AP es ∗ ∗ ∗ ∗ ∗ P AP , entonces D = P A P = P AP ya que A es hermitiana. Siendo D hermitiana y triangular inferior, entonces D = P ∗B es necesariamente diagonal,
D
=
0
d1
...
0
dn
.
Paso 3. Consideremos las columnas B (1) , . . . , B (n) de B y las columnas A(1) , . . . , A(n) de A; entonces B (r) = A (1) p1r +
= A (r)
(r)
· · · + A p + · · · + A + A p + · · · + A − p − (1)
rr
(r 1)
1r
(n)
pnr
r 1,r
De esto se obtiene que la columna r de la submatriz Bk es igual a la columna r de la submatriz Ak + una combinaci´on on lineal de las restantes columnas de esta ´ultima ultima matriz. Para efectos del c´alculo alculo del determinante se tiene entonces que det(Bk ) = det det (Ak ) , 1
≤ k ≤ n.
De igual forma, consideremos las filas de D y de B : D(r) = p ∗r1 B(1) +
= B (r) +
···
· · · + p∗ B rr
+ p∗
(r) +
rr 1 B(r 1)
−
4
−
· · · + p∗ B rn
(n)
De esto se obtiene que la fila r de la submatriz Dk es igual a la fila r de la submatriz on lineal de las restantes fila de esta ´ultima on ultima matriz. Para efectos del Bk + una combinaci´ c´alculo alculo del determinante se tiene entonces que det(Dk ) = det det (Bk ) , 1
≤ k ≤ n.
En total se tiene que det(Ak ) = det det (Dk ) , 1
≤ k ≤ n. > 0 para cada 1 ≤ k ≤
Pero Pero det (Dk ) = d1 dk = det(Ak ) n, entonces todos los elementos diagonales de D son positivos. Se tiene entonces que D = P ∗ AP es diagonal con elementos positivos por la diagonal. Esto implica que + y n 2 dn > 0 Y ∗ DY = y 1 2 d1 +
···
| |
· · · | |
para cada vector columna no nulo Y = (y1 , . . . , yn )T con entradas complejas. Paso 4. Para terminar probemos que A es una matriz positiva. Recordemos que P es una matriz matriz triangular triangular superior con pkk = 1, 1 k n , por lo tanto P es invertible. Sea X un vector no nulo de Cn, entonces X ∗ es tambi´en en un vector no nulo y existe e xiste Y Cn no nulo tal que P Y = X ∗ , luego X = (P Y )∗ = Y ∗ P ∗ y de esta forma
≤ ≤
∈
Y ∗ DY = Y ∗ P ∗ APY > 0
es decir, X AX ∗ > 0 .
Otra caracterizaci´on on de las matrices complejas complejas positivas positivas corresponde corresponde a la descomposici´ descomposici´ on on de Cholesky. Proposici´ on o n 2. Sea A M n (C). Entonces, A es positiva si y s´ olo olo si existe una matriz ∗ invertible P Gl n (C) tal que A = P P . Demostraci´ on. ) Si A es positiva entonces la relaci´on on
∈ ∈
∈
⇒
< X, Y >= X AY ∗
define un producto producto interno interno en Cn . Con este producto interno se puede construir una base ortonormal en Cn , los vectores de esta base se pueden disponer en las columnas de una matriz Q. De otra parte, notemos que A es la matriz de este producto interno en la base can´onica onica de Cn , por lo tanto las dos matrices est´an an relacionadas por QT AQ = E .
−1 −1 −1 Como Q es invertible, entonces A = QT . Definimos entonces P = Q , de Q −1 tal forma que QT = P ∗ . Es decir, A = P ∗ P . ) Supongamos que existe P invertible tal que A = P ∗ P , entonces para cada vector no nulo X de Cn se tiene que P X ∗ es no nulo, luego
⇐
5
∗
X AX ∗ = X P ∗ P X ∗ = (P X ∗ ) (P X ∗ ) > 0.
Las pruebas pruebas de las proposiciones proposiciones anteriores anteriores muestran muestran ciertas propiedades propiedades interesant interesantes es de las matrices complejas positivas. Proposici´ on on 3. Sea A M n (C) una matriz matriz positiva. positiva. Entonces Entonces,, (1) det(A) > 0 (2) A es invertible (2) Los valores propios de A son reales positivos (3) A es hermitinana y por lo tanto diagonalizable por medio de una matriz unitaria. (4) A−1 es tambi´ tamb i´en en posit po sitiva iva T (5) A es tambi´en en posit po sitiva iva (6) Para cada 1 k n , Ak es tambi´ tamb i´en en posit po sitiva. iva.
∈
≤ ≤
b. Matrices reales positivas.
Las matrices reales positivas se definen en forma similar al caso complejo pero con la siguiente modificaci´on: on: en la Proposici´on on 1 no es posible demostrar (a) (b) ya que no disponemos de un escalar i tal que su cuadrado sea nulo. Por lo tanto, debemos modificar la definici´ definici´ on de matriz real positiva de la siguiente manera. on Definici´ on on 2. Sea A M n (R), se dice que A es positiva si A = A T y
⇒
∈
X AX T > 0
para cada vector X = [x1 , . . . , xn ] Rn 0. Proposici´ on on 4. Sea A M n (R), entonces las siguientes condiciones son equivalentes: (a) A es positiva (b) La relaci´on on < X, Y >= X AY T
∈ −
∈
define un producto interno en Rn . (c) A = AT y para el producto interno can´onico onico en Rn se tiene que ( X,XA) > 0 para cada vector no nulo X de Rn . (d) A = A T y los menores principales de A son positivos, es decir, todos los determinantes de la forma
det
a11
.. .
ak1
···
a1k
···
akk
.. .
, 1 ≤
k
≤ n
son positivos. positivos. (e) Existe una matriz invertible P M n (R) tal que A = P T P . Proposici´ on on 5. Sea A M n (R) una matriz matriz positiva. positiva. Entonces Entonces,, (1) det(A) > 0 (2) A es invertible (2) Los valores propios de A son reales positivos
∈
∈ ∈
6
(3) A es sim´etrica etrica y por lo tanto diagonalizable por p or medio de una matriz ortogonal. − 1 (4) A es tambi´ tamb i´en en posit po sitiva iva T (5) A es tambi´en en posit po sitiva iva (6) Para cada 1 k n , Ak es tambi´ tamb i´en en posit po sitiva. iva. Ejemplo 1. La matriz 2 1 0 A = 1 4 2 0 2 8
≤ ≤
es positiva. Pero la matriz B
2 = 1
1 0 4 2 2 8
−
0
es sim´etrica etrica pero no es positiva: pos itiva:
0
1
2 0 1
0 1 = −4
1 0 4 2 2 8
−
0
.
0
De otra parte, la matriz real C =
es tal que
x1 x2
1 1 1 1
−
1 1 1 1
−
x1 x2
= x 21 + x22 > 0
para cada vector no nulo ( x1 , x2 ) R2 . Pero C no es sim´etrica. etri ca. Tambi´en en podemo po demoss observar obs ervar que la sola condici´on on de positividad positividad (sin simetr simetr´ıa !) en el caso real no garantiza garantiza valores valores propios propios positivos, positivos, en efecto los valores propios de C son 1 i, 1 + i (notemos que C no es una matriz positiva compleja ya que con x1 = i y con x2 = 1, se tiene que x21 + x22 = 0). Por ultimo, u ´ ltimo, veamos que en el caso real, la sola condici´on on de valores propios positivos no garantiza ser matriz positiva. En efecto, la matriz real
∈
−
D
=
0 0 1
−1 0 − −3
0 1 3
tiene como ´unico unico valor propio 1, sin embargo
1
1
1
0 0 1
−1 0 − −3 7
0 1 3
1 1 = −1 1
El problema radica en que D no es sim´etrica. etri ca. Ejemplo 2. Calculemos la descomposici´ on de Cholesky de la matriz A del ejemplo anteon rior: con el SWP obtenemos
√ √ 2 2 1 2
0
1 2 2 7
0 2 7 2 7
√ √ √ √
4 7
√ 2 √ √ 0 0 0 3 7
0
1 2
√ 2 0 √ 2√ 7 √ 2√ 7 √ 3√ 7 0 1 2
2 7 4 7
Comprobemos esta respuesta con el m´etodo etodo descrito en la demostraci´on on de la Proposici´on on 3 2. Podemos tomar la base can´onica onica de R y con el producto interno inducido por A construimos una base ortonormal de R3 a trav´es es del m´etodo eto do de Gram-Schm Gram -Schmidt: idt: v1 = e 1 = (1, 0, 0) < e2 , v1 v2 = e 2 < v1 , v1 < e3 , v1 v3 = e 3 < v1 , v1
− −
> v1 > > v1 >
− << ve ,, vv 3
2
2
2
> v2 >
Entonces, v1 = e 1
v2
v3
2 1 0 1 0 1 0 1 4 2 0 1 0 2 8 0 = (0 1 0) − (1 0 0) = − 1 0 2 2 1 0 1 1 0 0 1 4 2 0 0 2 8 0 2 1 0 1 0 0 1 1 4 2 0 0 2 8 0 = (0 0 1) − (1 0 0) 2 1 0 1 1 0 0 1 4 2 0 0 2 8 0 0 0 1 21 14 02 −1 1 0 2 8 0 − −2 1 0 − 2 1 0 − 1 0 1 4 2 1 2 4 0 2 8 0 , ,
, ,
, ,
, ,
1 2
1 2
1 2
=
7
,
−7, 1
8
, ,
, ,
Normalizand Normalizandoo se tiene (1, 0, 0)
√ − v = √ q = v 2
2
(1, 0, 0) 1 , 0, 0 = = < v1 , v1 > 2 2 1 1 , 1, 0 , 1, 0 1 1 2 2 = = 2 7, 2 7, 0 < v2 , v2 > 14 7 7
v1 q 1 = = v1 2
2
2 , 7
4 7
1
−, = √ < v , v3 >
v3 = q 3 = v3
√ −
3
2 , 7
4 7
− , 48 7
√
√ √ − 1 √ √ 1 =
3 7,
42
√ √
−
√ √
√ √
1 1 3 7, 3 7 21 12
Por lo tanto A
1
√ − √ 0 0 √ √ √ 2√ 7 = − √ 2√ 7 0 √ 0 √ √ √ 3 7 − 3 7 3 7 √ √ 2 √ 0√ 0 √ 2 √ √ √ 2 0 = 2 √ 2√ 7 √ 0√ 0 2 7 1 14 1 42
1 2
0
1 2
1 7
1 21
1 2 2 7
2 7
√ − √ √ √ 2 7
1 2
1 14 1 7
1 12
4 7
3 7
1 2
0
1 2
0
2 7 4 7
2 7 0
√ √ √ √ 0 2 7 3 7
√ 3√ 7 − − √ √ 3√ √ 7 3 7 1 42 1 21 1 12
1
.
c. Formas sesquilineales positivas Proposici´ on o n 6. Sea f una forma sesquilineal definida sobre un espacio complejo V de dimensi´ on on finita n. Si X es es una base de V tal que A = m X ( f ) es positiva, entonces para cualquier cualquier otra base Y de V se tiene que B = m Y (f ) es tambi´ tamb i´en en posit po sitiva. iva. es la matriz de cambio de X a Y entonces Demostraci´ on. Sabemos que si C es
B = C T AC. AC .
Sea X un un vector no nulo de
Cn ,
entonces
X BX ∗ = X C T ACX AC X ∗
= X C T AC X = X C T A C T T
T
= X C A = Y AY ∗ > 0
T
X C T
X
T
T
ya que Y = X C T es no nulo. Definici´ on o n 3. Sea f una forma sesquilineal definida sobre un espacio complejo V de dimensi´ on on finita n. Se dice que f es positiva si existe una base X en V tal que mX ( f ) es positiva. 9
Notemos que la matriz A de una forma sesquilineal compleja positiva f es siempre hermitiana, por lo tanto, para A valen las propiedades presentadas en las Proposiciones 1,2 y 3. d. Formas bilineales positivas Proposici´ on o n 7. Sea f una forma bilineal sim´etrica etrica definida sobre un espacio real V de dimensi´ on on finita n. Si X es es una base de V tal que A = m X ( f ) es positiva, entonces para cualquier cualquier otra base Y de V se tiene que B = m Y (f ) es tambi´ tamb i´en en posit po sitiva. iva. Si A es la matriz de una forma bilineal sim´etrica etrica positiva p ositiva f , entonces para A valen las
propiedades presentadas en las Proposiciones 4 y 5. e. Formas cuadr´ aticas aticas positivas Definici´ on on 4. (a) Sea q una una forma cuadr´atica atica definida a partir de una forma sequilineal hermitiana f sobre un espacio V , se dice que q es es positiva si existe una base X en V tal que la matriz de f en la base X es positiva. (b) Sea q una una forma cuadr´atica atica definida a partir de una forma bilineal sim´etrica etrica f sobre un espacio V , se dice que q es es positiva si existe una base X en V tal que la matriz de f en la base X es es positiva. Corolario Corolario 1. La diagonalizaci´ on on de una forma cuadr´atica atica positiva posi tiva mediante me diante el m´etodo etodo
de valores propios expuesto en el Teorema 2 de la Lecci´on 2 del Cap Cap´´ıtulo 10 tiene s´olo olo coeficientes positivos: los valores propios de la matriz de la forma cuadr´atica.
10
Álgebra Lineal Capítulo 11. Tópicos Especiales y Aplicaciones 11.6. Ejercicios 1. Determinar la cónica de…nida por la ecuación dada, indicando el vértice o el centro, según corresponda. Además, en cada caso indicar los cambios de coordenadas realizados para expresar la curva en su forma diagonal, es decir, como suma de cuadrados sin términos xy : (a) y 2 2xy + 5 x = 0 (b) y2 2xy + x2 5x = 0 (c) 2 (c) 2 x2 + 4xy + 5 y2 2x y 4 = 0 (d) x2 + 4xy + y 2 = 7 (e) 2 (e) 2 x2 + 3xy 2y2 = 10 10 2 2 (f) 16 x 24xy + 9 y 30x 40y = 0 (g) 11 (g) 11 x2 24xy + 4 y 2 + 6x + 8y = 15 2. Indicar para qué valores (valor) de c la grá…ca de la ecuación 2xy 4x + 7 y + c = 0 representa un par de rectas. Justi…que su respuesta. 3. Hallar la solución general de cada una de las siguientes ecuaciones diferenciales: (a) y 2y 3y = 0 (b) y y = 0 (c) y + 4y + 4y = 0 (d) y 3y + 3y y = 0 (e) y (4) + 4y + 6y + 4y + y = 0 4. Resolver Resolver los siguiente siguientess sistemas sistemas de ecuaciones ecuaciones diferenciales, diferenciales, justi…cando justi…cando su respuesta: respuesta: (a) y1 y1 2 1 1 d y2 = 1 y2 2 1 dt 1 1 y3 y3 2 000
000
000
000
00
0
00
0
0
00
000
0
00
0
2 3 2 4 5 4
32 3 54 5
(b)
2y d 6 64 yy
dt
1 2 3
y4
3 2 77 = 66 5 4
4 1 6 6
1 2 1 1
1 1 1 4
1 1 1 2
32 y 77 66 y 54 y
5. Calcular la inversa generalizada de las siguientes matrices: (a)
21 A = 4 1 1
1
1 1
1
1 1 1 1 1 1
3 5
1 2 3
y4
3 77 5
(b)
21 A = 4 1 1
1
1 1
1 1 1
1 1 1
3 5
6. Sea A una matriz cuadrada. Demostrar que ( A )+ = ( A+ ) . 7. Sea A una matriz normal. Demostrar que A+ es también normal. 8. Sea A una matriz hermitiana. Demostrar que A+ es también hermitiana. 9. Sean A; C 2 M (K ) y B; D 2 M (K ), tales que A y C son similares y B y D son
n
m
similares. Demostrar que A B es similar a C D:
10. Sean A 2 M (K ), B n
2
M (K ) matrices matrices diagonalizables. Demostrar que A B es m
diagonalizable.
2
P´ agina en blanco