a11
a12 ...
a12 .. . a1j .. a1k .. .
···
a1j
ajj .. ajk
··· ... ··· ···
···
a1k
···
a1n a2n .. . ajn .. akn .. .
ajk .. akk
a1,n−1 a1n a2n
a1,n−1
···
... an−1,n an−1,n ann
so
ALGEBRA LINEAL Autor MARIO ERROL CHAVEZ GORDILLO La Paz - Bolivia 03 de Junio del 2013
´Indice general
Matrices 1.
1
1.1. Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2. Matrices. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1. Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 5
1.2.2. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.3. Matrices cuadradas especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
1.4. Matriz escalonada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
1.5. Transformaciones elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Matrices equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7. Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35 35
38
1.8. Representaci´on matricial de un sistema de ecuaciones lineales . . . . . . . . . . . . 1.9. M´etodo de eliminaci´on de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10. M´etodo de eliminaci´ on de Gauss Jordan . . . . . . . . . . . . . . . . . . . . . . .
46
1.11. Sistemas homog´eneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
2.LamatrizInversa
39
41
77
2.1. Matrices Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.2. M´etodo de Escalonamiento de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 83 2.3. M´etodo de Leontief . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.Determinantes
99
105
3.1. Definici´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
i
105
ξ £vι
−
−o
ζℏ
so
z
ii
3.2. Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.2.1. Desarrollo de un determinante por Adjuntos . . . . . . . . . . . . . . . . . 119 3.2.2. M´etodo de Chio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 3.3. Matrices elementales y determinantes . . . . . . . . . . . . . . . . . . . . . . . . 133 3.4. Matrices invertibles y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 135 3.5. Determinante de un producto de matrices . . . . . . . . . . . . . . . . . . . . . . 137 3.6. C´alculo de la matriz inversa por determinantes . . . . . . . . . . . . . . . . . . . . 138 3.7. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 3.8. Determinante de Vandermonde . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 3.9. C´alculo del rango usando determinantes . . . . . . . . . . . . . . . . . . . . . . . 180
4.Espaciosvectoriales
183
4.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 4.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 4.3. Combinaci´on lineal y Subespacio generado . . . . . . . . . . . . . . . . . . . . . . 199 4.4. Dependencia e Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 207 4.5. Base de un espacio vectorial y dimen si´on . . . . . . . . . . . . . . . . . . . . . . . 214 4.6. Coordenadas de un vector respecto de una base . . . . . . . . . . . . . . . . . . . 240 4.7. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 4.8. Suma de Subespacios y Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . 253
5. Transformacioneslineales 5.1. Introducci´on . . . . . .
255 ......
.......
..... .......
.......
. 255
5.2. N´ucleo e imagen de una aplicaci´on lineal . . . . . . . . . . . . . . . . . . . . . . . 260 5.3. La matriz de una tra nsformaci´on . . . . . . . . . . . .
..... ......
....
263
5.4. Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . 268 5.5. Cambio de bas e en una transf ormaci´on lineal . . . . . . . . . . . . . . . . . . . . . 269
6. ValoresyVectoresPropios
271
6.1. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 6.2. Subespacios Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 6.3. Matrices Invertibles y Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . . 274 6.4. Producto de matrices y Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . 275 email
[email protected]
ii
βo
ξ £vι
−
−o
ζℏ
so
z
iii
6.5. Localizaci´on de Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 6.6. C´alculo de Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 6.7. C´alculo de Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279 6.8. Independencia lineal y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . 286 6.9. Valores propios de algunas matrices especiales . . . . . . . . . . . . . . . . . . . . 287 6.10. Semejanza de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288 6.11. Matrices diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 6.12. Valores y Vectores Propios de una Transformaci´on . . . . . . .
......
.....
296
7. Formas can´ onicaselementales 7.1. Introducci´on . . . . . .
......
299 .......
..... .......
.......
. 299
7.2. Multiplicidad algebraica y geom´etrica. . . . . . . . . . . . . . . . . . . . . . . . . 299 7.3. Matrices diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 7.4. Forma can´onica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 7.5. Matrices de Jordan para matrices diagonalizables . . . . . . . . . . . . . . . . . . 307
×× 23 .. .. .. .. .. .. .. .. .. .. Matrices de Jordan para mat rices 4 × 4 . . . . . . . . . .
7.6. Matrices de Jordan para mat rices 2 7.7. Matrices de Jordan para mat rices 3
.............. ..............
309 312
7.8.
..............
314
email
[email protected]
iii
βo
CAP´ITULO 1
Matrices
1.1.
Introducci´ on
Vamos a introducir unas notaciones para sistemas generales de m ecuaciones con n inc´ognitas que nos permitiran entender los grandes sistemas. Si se designan las inc´ ognitas por x1 ,...,x n , un sistema de este tipo se escribe en la forma
a11 x1 + a12 x2 + a21 x1 + a22 x2 + am1 x1 + am2 x2 +
··· + a ··· + a
··· + a
1n xn 2n xn
= b1 = b2 .. .
x
= bm
mn n
(1.1)
donde a11 , a12 ,..., amn con los coeficientes del sistema y b1 , b2 ,..., bm son los t´erminos independientes. N´otese cuidadosamente el orden de colocaci´on de los sub´ındices. Por ejemplo, a 12 es el coeficiente de la primera variable x1 en la segunda ecuaci´on. En general aij es el coeficiente de la variable j ´esima xj en la i-´esima ecuaci´on. Algunos o muchos de estos coeficientes pueden ser cero.
−
Una soluci´on del sistema (1.1) es un conjunto ordenado de n´ umeros s1 , s2 ,..., sn que verifica todas las ecuaciones simult´aneamente cuando se pone x 1 = s 1 , x 2 = s 2 ,..., xn = s n . Normalmente una soluci´on se designa por ( s1 , s2 ,...,s n ). Si el sistema (1.1) tiene al menos una soluci´ on se le llamar´a compatible caso contrario de le llamar´a incompatible. Hay programas de computador que comprueban que si un sistema como (1.1) es compatible y en caso afirmativo, hallan sus soluciones aunque tenga miles de ecuaciones e inc´ ognitas. A pesar de esto, los administradores necesitan entender la teor´ıa de estos sistemas de ecuaciones para poder 1
ξ £vι
−
−o
ζℏ
so
z
2
crear razonamient os te´oricos y sacar conclusiones en relaci´on con los modelos lineales de este tipo.
1.2.
Matrices. Operaciones con matrices
Las matrices aparecen por primera vez hacia el a˜ no 1850, introducidas por J.J. Sylvester. El desarrollo inicial de la teor´ıa se debe al matem´atico W.R. Hamilton en 1853. En 1858, A. Cayley introduce la notaci´on matricial como una forma abreviada de escribir un sistema de m ecuaciones lineales con n inc´ognitas. Las matrices se utilizan en el c´alculo num´ erico, en la resoluci´ on de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Adem´as de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en geometr´ıa, estad´ıstica, econom´ıa, inform´ atica, f´ısica, etc. La utilizaci´on de matrices (arrays) constituye actualmente una parte esencial de los lenguajes de programaci´on, ya que la mayor´ıa de los datos se introducen en los ordenadores como tablas organizadas en filas y columnas : hojas de c´alculo, bases de datos.
´ 1.1. Se llama matriz de orden m n a todo conjunto rectangular de n´umeros DEFINICION reales aij dispuestos en m l´ıneas horizontales (filas) y n verticales (columnas) de la forma:
×
A=
a11 a12 a21 a22 .. .. . . am1 am2
.. . a 1n .. . a 2n . . . .. . .. . a mn
Abreviadamente suele expresarse en la forma A = (aij ), con i = 1, 2,...,m , j = 1, 2,...,n . Los sub´ındices indican la posici´on del elemento dentro de la matriz, el primero denota la fila i y el segundo la columna j . Por ejemplo el elemento a25 ser´a el elemento de la fila 2 y columna 5. El conjunto de todas las matrices de orden m
× n, con entradas en R, se denota por
Mm×n (R).
EJEMPLO 1.1.
A=
−
−
1 2 3 1 2 0 42 3 1
41 1 21 0
,
son matrices. De ellas A es de orden 4
1
B=
−3
0 1
8 5 07
C=
× 4, B es 2 × 4, C es 4 × 3.
−
9 0 0 7
0 5
−
0 5
− 0 2 0 3
EJEMPLO 1.2. Escribir expl´ıcitamente las siguientes matrices: ①
A = (aij )
∈M
3×2 (
R) tal que aij = i + 2j .
email
[email protected]
2
βo
ξ £vι
−
∈M ③ C = (c ) ∈ M ④ D = (d ) ∈ M ②
−o
B = (bij )
3×3 (
ζℏ
so
z
3
R) tal que bij = 2i − j .
R) tal que cij = m´ın {i, j }.
ij
3×4 (
ij
4×3 (
R) tal que cij = 2i − (−1)j .
SOLUCION.´ SOLUCION.´ La matriz A = (aij ) de orden 3
× 2 cuyas entradas son dadas por la condici´on a A=
a11 a12 a21 a22 a31 a32
3 5 4 6 5 7
=
ij
= i + 2 j es:
.
×
EJEMPLO 1.3. Construya un ejemplo de una matriz de orden 3 3, ( cij ) que satisfaga cij = ´ SOLUCION.La condici´on cij = tal matriz es dada por
−c
ji
1 2 0 3 3 0
−
i + j, si i = j . 0 si i = j
´ SOLUCION.La matriz A = (aij ) de orden 3 anterior es:
A=
.
× 4, A = (a
EJEMPLO 1.4. Determine la matriz de orden 3
aij =
ji
es equivalente a cij + cji = 0, luego un ejemplo para una
− −
0 1 2
−c
ij
) para la cual
× 4 cuyas entradas son dadas por la condici´ on
a11 a12 a13 a14 a21 a22 a23 a24 a31 a32 a33 a34
=
0345 3056 4507
EJEMPLO 1.5. Una empresa produce cuatro productos A, B , C y D. El productor de cada art´ıculo requiere cantidades espec´ıficas de dos materiales primas X y Y , y tambi´ en cantidades determinadas de mano de obra. Suponga que la empresa desea comparar los n´ umeros de unidades de X y Y y de mano de obra que se requieren en la producci´on semanal de estos cuatro productos. En la tabla 1 aparece informaci´on muestral para tal caso. Por ejemplo, la producci´on de A requiere 250 unidades de X , 160 unidades de Y y 80 unidades de mano de obra
email
[email protected]
3
βo
ξ £vι
−
−o
ζℏ
so
z
4
A B C D Unidades de material X 250 300 170 200 Unidades de material Y 160 2 30 75 120 Unidades de mano de obra 80 85 120 100 Producto
Obtener una matriz que resuma todos estos datos.
´ SOLUCION.Observe que los datos de esta tabla aparecen en forma natural en un arreglo rectangular. Si se suprimen los encabezados, obtenemos el arreglo rectangular de n´ umeros siguientes:
250 300 170 200 160 230 75 120 80 85 120 1 00
Este arreglo es ejemplo de una matriz.
EJEMPLO 1.6. (Pol´ ıtica e Ingreso). Un n´umero de personas fueron entrevistadas acerca de sus convicciones pol´ıticas y su ingreso anual. Se obtuvo la siguiente informaci´on: 1. 517 eran ofici alistas y ganaban m´as de 15000 bs al a˜ no. 2. 345 eran oposi tores y ganaban m´as de 15000 bs al a˜ no. 3. 189 eran conservadores y ganaban m´as de 15000 bs al a˜ no. 4. 257 eran ofic ialistas y ganaban menos de 15000 bs al a˜no. 5. 284 eran opositores y ganaban menos de 15000 bs al a˜ no. 6. 408 eran cons ervadores y ganaban menos de 15000 bs al a ˜no. Represente la informaci´on anterior en una matriz. ¿Es ´ unica esta representaci´on?.
´ SOLUCION.ganan m´as de 15000 bs Oficialistas Opositores Conservadores
email
[email protected]
517 345 189
ganan menos de 15000 257 284 408
4
=A
βo
ξ £vι
−
1.2.1.
−o
ζℏ
so
z
5
Tipos de Matrices
Matriz cuadrada: Una matriz es cuadrada si el n´umero de filas es igual al numero de columnas, es decir n = m , en este caso se llama matriz cuadrada de orden n. Si A = aij n×n , los elementos a11 , a 22 ,..., ann forman la diagonal principal de la matriz. Por ejemplo
A=
−2
−
2 8 9 3 1 9
6 5
3×3
es una matriz cuadrada de orden 3 cuya diagonal principal consta de los n´ umeros 2, 3, 5.
n
Matriz columna: Es la que tiene una columna y m´ as de una fila, es decir, una matriz n > 1. Tambi´en recibe el nombre de vector. Por ejemplo
− 2 9 1
3×1
Matriz fila: Es la que tiene una fila y m´ as de una columna, es decir, una matriz 1 Tambi´ en recibe el nombre de vector fila. Por ejemplo 2 8
2
D=
a11 0 0 a22 .. .. . . 0 0
× m; m > 1.
1×3
− Matriz diagonal: Es una matriz cuadrada en la cual los
× 1;
aij = 0 para todo i = j . Es decir,
... ... .. . .. . a
0 0 .. . mn
Matriz identidad: Es una matriz diagonal con todos los elementos en la diagonal principal (i = j ) igual a 1. Generalmente esta matriz se denota con la letra I:
I=
0 ... 1 ... .. . . . . 0 0 ... 1 0 .. .
0 0 .. . 1
Matriz nula: Es una matriz en la cual todos los elementos son iguales a cero. Por ejemplo
A= es la matriz nula de orden 2
0 0 0 0 0 0
3×3
× 3.
Matriz Triangular: Es una matriz cuadrada que tiene nulos todos los elementos que est´ an a un mismo lado de la diagonal principal. Las matrices triangulares pueden ser de dos tipos: email
[email protected]
5
βo
ξ £vι ①
−
−o
ζℏ
so
6
Triangular Superior: Si los elementos que est´an por debajo de la diagonal principal son todos nulos. Es decir, aij = 0 , i < j . Por ejemplo
A= es una matriz triangular superior. ②
z
2 8 0 3 0 0
−2 6 5
3×3
Triangular Inferior: Si los elementos que est´an por encima de la diagonal principal son todos nulos. Es decir, aij = 0, j < i. Por ejemplo
− 2 0 0 9 3 0 1 9 5
A= es una matriz triangular inferior.
1.2.2.
3×3
Operaciones con Matrices Igualdad de Matrices
Sean A = aij , B = bij dos matrices ambos de orden n
⇐⇒
A=B
aij = b ij
× m, entonces
∀i = 1,...,n, ∀j = 1,...,m
As´ı dos matrices son iguales cuando tienen la misma dimensi´on y los elementos que ocupan el mismo lugar en ambas son iguales. ´ n y substracci o ´ n de matrices Adicio
±
Dos matrices A y B pueden ser sumadas o restadas para formar A B si tienen el mismo orden. Sean A = aij , B = bij dos matrices ambos de orden n m, entonces la matriz suma A + B es
×
A + B = (cij ), con cij = a ij + bij
− − − − − − 2 4
EJEMPLO 1.7. Dadas las matrices A =
A + B. ´ SOLUCION.-
A+B=
−
2 4
4
3
−3 −9
∀i = 1,...,n, ∀j = 1,...,m
+
7 1
4 3
4 9
3 9
2
−6
y B =
=
5 0 5 6
7 1
4 9
2 6
, hallar
5
−15
email
[email protected]
6
βo
ξ £vι
−
−o
ζℏ
so
z
7
TEOREMA 1.1. La suma de matrices verifica las siguientes propiedades
∈M
(R).
①
Conmutativa: A + B = B + A, para todo A, B
②
Asociativa: (A + B ) + C = A + (B + C ), para todo A, B, C
③
Existencia del neutro: Existe un elemento en Mn×m (R), denotado 0 y llamado llamado matriz nula, tal que para todo A en Mn×m (R) cumple que A + 0 = A.
④
Existencia del inverso: Para todo A = aij en Mn×m (R), existe un elemento en Mn×m (R), denotado y definido por A = aij , tal que A + ( A) = 0.
−
−
EJEMPLO 1.8. Dada la matriz A = d´e la matriz identidad.
5 8 4 3 2 5 7 6 0
n×m
∈M
n×m
(R).
−
. Hallar una matriz B tal que la suma A + B
´ SOLUCION.Es suficiente despejar B de la ecuaci´on A + B = I , esto es, B = I
B=
1 0 0 0 1 0 0 0 1
−
5 8 4 3 2 5 7 6 0
− − −
4 3
=
7
−8 −4 −1 −5 −6 1
´ mero por una matriz Producto de un n u
− A.
El producto de un n´umero real k por una matriz A = (aij ) es otra matriz B = (bij ) de la misma dimensi´on que A y tal que cada elemento bij de B se obtiene multiplicando aij por k , es decir, bij = kaij . El producto de la matriz A por el n´umero real k se designa por kA . Al n´umero real k se le llama tambi´en escalar, y a este pro ducto, producto de escalares por matrices.
EJEMPLO 1.9. Dada la matriz A = ´ SOLUCION.3A = 3
TEOREMA 1.2. Si A, B, C
∈
①
α(A + B ) = αA + αB.
②
(α + β )A = αA + βB.
③
(αβ )A = α (βA) = β (αA).
email
[email protected]
−2 4
−
2 4
4 3
4 3
3 9
− − 3 9
− −
12
∈
7
, hallar 3 A.
−6
=
Mn×m (R) y α, β
12
9 9
27
− −
R entonces se tiene
βo
ξ £vι
−
−o
ζℏ
so
z
8
EJEMPLO 1.10. Efect´ue las siguientes operaciones y simplifique
(a)
3
(b)
4
− − − − − − − − 2 1 1 3 4 7
1 2 3
1 2 3
2
0 1 2
3 5 0
´ SOLUCION.-
2 3 0
− − − − − − − − − 4 1 2
5
2 1 3
1 0 1
2 3 0
3 4 5
EJEMPLO 1.11. Sea las matrices A =
8 3
1 4
2 1
, B =
3 Hallar la matriz X en la ecuaci´on (X + A) = 2 X + (2B 2
3 2
y C =
1 4
2 3
.
C ) + A.
´ SOLUCION.Multiplicando por 2 ambos lados de la ecuaci´on dada se tiene: 3
(X + A) = 2 X + (2B C ) + A 2 3(X + A) = 4 X + 2B C + 2 A
− − 4X + 8B − 4C + 2A 8B − 4C + 2A − 3A −A + 8B − 4C A − 8B + 4C
3X + 3A = 3X
− 4X −X
= =
X =
Reemplazado datos tenemos:
− − − − − − − − − − − − − − − − − −− −
X =
8 3
1 4
=
8 3
1 4
=
EJEMPLO 1.12. SiA =
−
2(X + B ) = 3 A
12 27
3 5 2 1
2 1
8
16
8
24 16
1 4
+4
4 16
+
2 3
8 12
17 8
,B =
2 4
7 1
9 10 7 4
2(B + X ) + C . Sol.- X =
email
[email protected]
3 2
8
yC =
11 1 10 5
. Resolver la ecuaci´on
.
βo
ξ £vι
−
−o
´ SOLUCION.-
ζℏ
so
z
9
EJEMPLO 1.13. Hallar x , y , z y w si 3
x y
=
z w
x
6
1 2w
−
´ SOLUCION.-
4
x+y
z+w
3
+
EJEMPLO 1.14. (Matriz de producci ´on) Una empresa que fabrica calzados produce tres modelos con distintas caracter´ısticas en tres tama˜nos diferentes. La capacidad de producci´on (en miles) en su plata de Cochabamba est´a dada por la matriz A . Modelo 1 Modelo 2 Modelo 3 Tama˜ n1o 5 3 3 Tama˜ n2o 7 4 5 Tama˜ n3o 10 8 4
En otras palabras, la capacidad de planta es de 5000 calzados de tama˜
=A
no 1 del modelo 1, 3000
calzados tama˜ del modelo Alto est´ade dada pornola1matriz B . 2, etc. La capacidad de producci´ on en la planta de la ciudad El
Tama˜ n1o 4 Tama˜ n2o 9 Tama˜ n3o
Modelo 1 Modelo 2 Modelo 3 5 3 6 4 8 12 2
(a) ¿Cu´al es la capacidad de producci´on total en las dos plantas?
=B
(b) Si la empresa decide incrementar su producci´ on en la ciudad de Coch abamba en un 20 %, ¿cu´al ser´a la nueva producci´on en su planta?. ´ SOLUCION.(a) La producci´on combinada en miles en las dos plantas est´a dada por la suma de las matrices A y B.
A+B =
5 3 2 7 4 5 10 8 4
+
4 5 3 9 6 4 8 12 2
=
9 8 5 16 10 9 18 20 6
Por ejemplo, las dos plantas producen 9000 calzados de tama˜ no 1 del modelo 1. email
[email protected]
9
βo
ξ £vι
−
−o
ζℏ
so
z
10
(b) Si la producci´on en Cochabamba se incrementa en un 20 %, la nueva producci´on (en miles) estar´a dada por la matriz:
A + 20 % A = A + 0.20 A = (1 + 0.20) A = 1.20 A = 1.2
5 3 2 7 4 5 10 8 4
=
6 3.6 2.4 8.4 4.8 6 12 9.6 4.8
Por consiguiente, se producir´an 4800 calzados modelo 2, etc.
EJEMPLO 1.15. (Costos de Transporte.) Una compa˜n´ıa tiene plantas en tres localidades X , Y y Z y cuatro almacenes en los lugares A, B , C y D. El costo en d´olares de transportar cada unidad de su pro ducto de una planta a un almac´en est´a dado por la siguiente matriz A
De
\
A B C D
X Y Z 10 12 15 13 10 12 8 1 5 6 16 9 10
En otras palabras, el costo de transportar una unidad de producto de la localidad A es de 10 d´olares, etc.
X al almac´en
(a) Si los costos de transportaci´on de incrementan uniformemente en 1 d´olar por unidad. ¿Cu´al es la nueva matriz?. (b) Si los costos de transportaci´on se elevan en un 20 %, escriba los costos en forma matricial. ´ SOLUCION.(a) Si los costos de transportaci´ on de incrementan uniformemente en 1 d´ olar por unidad, los nuevos costos en d´olares estar´ a dada por la matriz:
10 13 8 16
12 10 15 9
15 12 6 10
+
1 1 1 1
1 1 1 1
1 1 1 1
=
11 14 9 17
13 11 16 10
14 13 7 11
Por ejemplo, ahora el nuevo costo de transportar una unidad de producto de la localidad al almac´en A es de 10 d´olares, etc.
email
[email protected]
10
βo
X
ξ £vι
−
−o
ζℏ
so
z
11
(b) Sea ∆ la matriz de costos iniciales. Si los costos de transportaci´ on se elev an en un 20 %, los nuevos costos estar´an dados por la matriz: ∆ + 20 %∆ = ∆ + 0.20∆ = (1 + 0.20)∆ = 1.20∆ = 1.2
10 13 8 16
12 10 15 9
15 12 6 10
=
12 14.4 18 15.6 12 14.4 9.6 18 7.2 19.2 10.8 12
X
Por consiguiente, el nuevo costo de transportar una unidad de producto de la localidad al almac´en A es de 12 d´olares, etc.
EJEMPLO 1.16. (Costos de suministros). Un contratista calcula que los costos en d´ olares de adquirir y transportar unidades determinadas de concreto, madera y acero desde tres diferentes localidades est´an dados por las matrices siguientes (una matriz por cada localidad).
Costosdematerial Costos de transportaci´on
Concreto Madera Acero 4 5 3 9 6 4
Costos de material Costos de transportaci´on
Concreto Madera Acero 22 36 24 9 9 8
Costos de material Costos de transportaci´on
Concreto Madera Acero 18 32 26 11 8 5
=A
=B
=C
Escriba la matriz que representa los costos totales de material y de transportaci´ on por unidades de concreto, madera y acero desde cada una de las tres localidades.
´ SOLUCION.Las matrices A, B y C son dados por
A=
20 35 25 8 10 6
B=
22 36 24 9 9 8
C=
18 32 26 11 8 5
La matriz que representa los costos totales de material y de transportaci´ concreto, madera y acero es la suma de estas tres matrices, es decir,
A+B+C =
email
[email protected]
60 103 75 28 27 19
11
on por unidades de
βo
ξ £vι
−
−o
ζℏ
so
z
12
EJEMPLO 1.17. (Comercio Internacional) El comercio entre los pa´ıses I, II y III durante 2004 en millones de d´olares americanos esta dado por la matriz A = (aij ), en donde aij representa las exportaciones del pa´ıs i al pa´ıs j .
A=
0 16 20 17 0 18 21 14 0
El comercio entre estos tres pa´ıses durante el a˜no de 2005 en millones de d´ olares americanos esta dado por la matriz B . 0 17 19 B= 18 0 20 24 16 0
(a) Escriba una matriz que representa el comercio total entre los tres pa´ıses en el p eriodo de 2 a˜nos, 2004 y 2005. (b) Si en 2004 y 2005, 1 d´olar americano equival´ıa a 5 d´olares de Hong Kong, escriba la matriz que representa el comercio total durante los 2 a˜nos en d´olares de Hong Kong. ´ SOLUCION.(a) El comercio total en millones de d´ olares americanos entre los tres pa´ıses en el periodo de 2 a˜nos, 2004 y 2005, est´a dada por la suma de las matrices A y B .
A+B =
0 16 20 17 0 18 21 14 0
+
0 17 19 18 0 20 24 1 6 0
=
0 33 39 35 0 38 45 30 0
Por ejemplo, del pa´ıs I al pa´ıs III se exportan 39 millones de d´ olares americanos en el periodo de 2 a˜nos, 2004 y 2005.
(b) Recordemos que las entradas a ij de la matriz A representa los millones de d´olares americanos que el pa´ıs i exporta al pa´ıs j .
aij millones de US
1000000 de d´olares US un millon de US
5 d´olar HK 1 d´olar US
La matriz que representa el comercio total durante los 2 a˜ nos en d´olares de Hong Kong es:
5
0 33 39 35 0 38 45 3 0 0
=
0 165 1 95 175 0 190 225 1 50 0
Por ejemplo, del pa´ıs I al pa´ıs III se exportan 195 millones de d´olares de Hong Kong en el periodo de 2 a˜nos, 2004 y 2005. email
[email protected]
12
βo
ξ £vι
−
−o
ζℏ
so
z
13
EJEMPLO 1.18. (Matriz de producci´on) Una fabrica zapatos los produce en color negro, blando y caf´e para ni˜ nos, damas y caballeros. La capacidad de producci´on en miles de pares en su planta de Cochabamba est´a dada por la matriz A .
Negro Gris Blanco
Hombres Mujeres Ni˜nos 5 3 3 7 4 5 10 8 4
=A
La capacidad de producci´on en la planta de la ciudad El Alto est´ a dada por la matriz B .
Negro Gris Blanco
Hombres Mujeres Ni˜nos 4 5 3 9 6 4 8 12 2
=B
(a) ¿Cu´al es la capacidad de producci´on total en las dos plantas?
(b) Si la empresa decide incrementar su producci´on en la ciudad de Coch abamba en un 50 % y la de la ciud ad de El Alto en un 20 %, ¿cu´al ser´a la nueva producci´on en las dos plantas?.
´ SOLUCION.(a) La producci´on combinada en miles en las dos plantas est´a dada por la suma de las matrices A y B.
A+B =
5 3 3 7 4 5 10 8 4
+
4 5 3 9 6 4 8 12 2
=
9 8 6 16 10 9 18 20 6
Por ejemplo, las dos plantas producen 9000 calzados para hombres de color negro. (b) Si la producci´on en Cochabamba se incrementa en un 50 %, la nueva pro ducci´on (en miles) estar´a dada por la matriz:
A + 5 0 %A = A + 0.50 A = (1 + 0.50) A = 1.5 A = 1.5
5 3 2 7 4 5 10 8 4
=
7.5 4.5 4.5 10.5 6 7.5 15 12 6
Por consiguiente, se producir´an 1500 calzados para hombre de color negro. email
[email protected]
13
βo
ξ £vι
−
−o
ζℏ
so
z
14
Ahora bien, si la empresa de la ciudad del alto incrementa su producci´ nueva producci´on (en miles) estar´a dada por la matriz:
on en un 20%, la
B + 2 0 %B = B + 0.20 B = (1 + 0.20) B = 1.2 B = 1.2
4 5 3 9 6 4 8 12 2
=
4.8 6 3.6 10.8 7.2 4.8 9.6 14.4 2.4
Por lo tanto, la nueva producci´on en las dos plantas ser´a: 1.5A + 1.2B =
12.3 10.5 8.1 21.3 13.2 12.3 24.6 26.4 8.4
Producto escalar o producto interior
b1 b2
a1 a2
···
an
• . bn
= a1 b1 + a2 b2 +
··· + a b . n n
´ n de matrices Multiplicacio
Las matrices A y B pueden ser multiplicadas para formar el producto AB si el n´umero de columnas de A es igual al n´umero de filas de B . Sean A = aij de orden n m, B = bij de orden m k . La matriz producto C = AB es una matriz de orden n k , cuya entrada en la i ´esima fija y en la j -´esima columna es cij dado por:
cij =
ai1 ai2
× × ··· • − − − b1j b2j .. . bnj
ain
= a i1 b1j + ai2 b2j +
··· + a
×
−
b ,
in nj
que se obtiene multiplicando escalarmente la i ´esima fila de A por j -´esima columna de B .
EJEMPLO 1.19. Sean las matrices A y B dadas por 0 2 4
1 2 3 1 1 6
y
3 2 1 0 1 1
Calcular la matriz producto AB . ¿Est´a definido el producto BA ? email
[email protected]
14
βo
ξ £vι
−
−o
ζℏ
so
z
15
´ SOLUCION.A es 3 3 y B es 3 2, luego AB es una matriz de orden 3 2. Si C = AB , entonces cada elemento cij de la matriz C es el producto interno de la fila i de la matriz A por la columna j de la matriz B . Por ejemplo, c11 se obtiene multiplicando la primera fila de A por la primera columna de B , esto es,
×
c11 =
×
a11 a12 a13
×
b11 b21 b31
•
0 1 2
=
−
= (0)(3) + (1)(1) + (2)( 1) = 1
− 2 = −1
• − 3 1 1
c12 se obtiene multiplicando la primera fila de A por la segunda columna de B , esto es,
c12 =
• b12 b22 b32
a11 a12 a13
=
• 2 0 1
0 1 2
= (0)(2) + (1)(0) + (2)(1) = 2
c21 se obtiene multiplicando la segunda fila de A por la primera columna de B , esto es,
c21 =
a21 a22 a23
b11 b21 b31
•
2 3 1
=
−
= (2)(3) + (3)(1) + (1)( 1) = 6 + 3
• − 3 1 1
−1=8
De este modo obtenemos finalmente:
AB =
0 2 4
1 2 3 1 1 6
−
− − 3 2 1 0 1 1
1 2 8 5 5 14
=
TEOREMA 1.3. El producto de matrices verifica las siguientes propiedades ① ②
Asociativa: (AB )C = A(BC ), para todo A, B, C Mn×m (R). Distributiva: A(B + C ) = AB + AC , para todo A, B, C M n×m (R).
③
Existen divisores de cero: Existen A = 0 y B = 0 tales que AB = 0.
④
El producto no necesariamente es conmutativo: Existen A = 0 y B = 0 tales que AB = BA.
⑤
α(AB ) = (αA)B = A (αB ). Para todo A, B
∈
∈
email
[email protected]
15
∈M
n×m
(R) y todo α ∈ R.
βo
ξ £vι
−
−o
ζℏ
so
z
16
×
×
×
EJEMPLO 1.20. Si A es una matriz de tama˜no o de orden 3 4, B de 4 3, C es de 2 3 y D de 4 5, calcule los tama˜nos de los productos de las siguientes matrices: AB , BA , CA, AD, CAD, C BA .
×
´ SOLUCION.-
EJEMPLO 1.21. Si A = producto B A?
2 3 1 2
yB=
−2
1 4
1
3 2
, hallar (a) AB y (b) ¿Est´a definido el
´ SOLUCION.(a) Dado que A tiene dos columnas y B tiene dos filas, entonces AB esta definido, entonces 2 3 1 2 3 AB = 1 2 4 1 2 = =
− − −
(2)(1) + (3)(4) (2)(2) + (3)(1) (2)(3) + (3)(2) (1)(1) + (2)(4) (1)( 2) + (2)(1) (1)(3) + (2)(2) 14 9
1 12 0 7
(b) En este caso B tiene tres columnas y A dos filas, por tanto la multiplicaci´ on BA no esta definida.
EJEMPLO 1.22. Calcular los siguientes productos de matrices: (a)
(b)
− −− − 4 3 7 5 0 1 2 3
28 38
0 1 2 3
93 126
1 2 3 4
1 2 1
7 3 2 1
1 2 1
4 1
2 0 0 3
Sol.
Sol.
5 15 25 35
´ SOLUCION.-
EJEMPLO 1.23. Determine en cada caso alguna matriz matricial siguiente:
(a) A
2 1 1 0
=
5 3
(b)
1 2 0
0 2 1 0 1 3
−
A que hace verdadera la ecuaci´ on
− − A=
7 0 11
(c)
2 1 0
0 1 1
A=
6 3 0
0 1 1
´ SOLUCION.email
[email protected]
16
βo
ξ £vι
−
−o
− 13 B
ζℏ
so
EJEMPLO 1.24. SiA =
D = 2A
− −
C.
1 3 4 2 1 0
z
3 9 6 12 0 15
yB=
´ SOLUCION.Primero calculemos la matriz 2 A
2A
−
Luego
=
=
−1 1
5 1
, hallar la matriz
− 13 B
1 B C= 3
3 9 6 12 0 15
1 3
2 6 8 4 2 0
− − − − − − − 2A
4 2
− − − − − − − − 1 3 4 2 1 0
1 B = 2 3 =
D =
− −
yC =
17
1 2 0
3 6 2
9 0 1
−
3 3 5
=
4 2
1 5 1 1
− −− − −
3 6 2
−
9 0 1
((6)(4) 3)(4)++(0)(2) (9)(2) ((6)( 3)( 1)1)++(0)(1) (9)(1) ((6)(5) 3)(5)++(0)(1) (9)(1) (2)(4) + ( 1)(2) (2)( 1) + ( 1)(1) (2)(5) + ( 1)(1) 6 12 6 24 6 30 2 7 5
−
EJEMPLO 1.25. Hallar la matriz P = ABCD , donde:
A=
− − 1 1 2
0 1 1
,
0 1 0 1 0 B= 1 0 1 2 0
−
,
C=
2 1 1 0 3
1
−1 4 0 1
− 0 3 1 2 0
,
D=
1 0 2 1 1 01
1 2 0
−
−1 2
´ SOLUCION.Efectuemos el producto aplicando la propiedad asociativa, efectuemos primero E = C D, luego F = BE y finalmente P = AF . EJEMPLO 1.26. Dadas las matrices A =
E = ABC , hallar S = e 11 + e23 + e32 . email
[email protected]
− 2 1 1 3 5 2
17
,
1 2 3 2
−1 −4
− yC =
3 6 1 1 4 5 2 1 2
βo
. Si
ξ £vι
−
−o
ζℏ
so
´ SOLUCION.Sea D = AB =
− 2 1 1 3 5 2
z 1 2 3 2
18
− −
−1 −4
−6 −11
5 6 1 4 1 6
=
3
Si E = DC , entonces cada elemento eij de la matriz E es el producto interno de la fila matriz D por la columna j de la matriz C , esto es,
e11 =
• − • − − − − − − c11 c21 c31
d11 d12 d13
=
c13 c23 c33
•
d21 d22 d23
6
6
12 =
−
d31 d32 d33
− • • − c12 c22
Luego: S = e 11 + e23 + e32 =
A=
2 3
1 4
,
B=
1
6 + 24 + 3 = 21
−3 + 6 + 21 = 24 .
EJEMPLO 1.27. Hallar la suma S = 2p11 + p13
−
6 4
1 6 3
=
c32 = ( 1)(6) + (6)(4) + (3)(1) =
−
1 5 2
− 22 = 6
= (8)(1) + (4)(5) + ( 11)(2) = 8 + 20
e32 =
3
−11 •
8 4
=
3 1 2
5 6
= (5)(3) + (6)( 1) + ( 6)(2) = 15
e23 =
i de la
3 8
−2 6
10 1 4 2
−
,
− 2p
Si P ABCD , donde
23 .
C=
−
−1
3 0 1 4
0 4 2 1
2 6 1
,
D=
2 2 1
−1 3 4
− 0 3 2
´ SOLUCION.Sean los productos: E = AB , F = C D y P = E F .
E = AB =
− − − − − − − − − −
F = CD =
email
[email protected]
2 3
1 4
3 0 1 4
1 2 6 1
3 8
0 4 2 1
2 10 1 6 4 2 2 2 1
18
1 3 4
=
0 3 2
2 41
=
− −
10 24 0 18 14 1 1
4 6 3 8 22 2 12 9 22 11 3 1
βo
ξ £vι
−
−o
ζℏ
so
z
19
Luego, si P = E F , entonces
e11 e12 e13 e14
p11 = =
p13 =
• •
f11 f21 f31 f41
−8 − 80 + 288 + 0 = 200 e11 e12 e13 e14
f13 f23 f33 f43
= 6 + 20 + 528 + 0 = 554
p23 =
e21 e22 e23 e24
f13 f23 f33 f43
=
2
2
=
−10
13
23
24 0
• − • − 4 8 12 11
−10
24 0
= 41 18 14 11
−123 − 36 + 308 + 11 = 160 + p − 2p = (2)(200) + (554) − (2)(160) = 634. =
Luego S = 2p11
•
− −
3 2 22 1
− • − 3 2 22 1
EJEMPLO 1.28. Hallar todas las matrices que conmutan con la matriz A =
3 1 0 0 3 1 0 0 3
.
´ SOLUCION.Sea B la matriz buscada, entonces B tiene que ser una matriz cuadrada de orden a b c d e f . 3 y adem´as debe verificarse que AB = BA . Supongamos que B es dado por B = g h i Hallemos
AB =
3 1 0 0 3 1 0 0 3
a b c d e f g h i
3a + d 3b + c 3c + f 3d + g 3e + h 3f + i 3g 3h 3i
BA =
email
[email protected]
a b c d e f g h i
=
3 1 0 0 3 1 0 0 3
19
=
3a a + 3 b b + 3 c 3d d + 3 e e + 3 f 3g g + 3 h h + 3 i
βo
ξ £vι
−
−o
ζℏ
so
z
20
Puesto que AB = BA, se tiene que
3a + d 3b + c 3c + f 3d + g 3e + h 3f + i 3g 3h 3i
=
igualando componente a componente tenemos: 3a + d = 3a 3b + e = a + 3 b 3d + g = 3d 3e + h = d + 3 e 3g = 3g 3h = g + 3 h
despejando y simplificando obtenemos
d = 0 g = 0
En consecuencia
B=
a b c d e f g h i
=
e = a h = d g = 0 a b c 0 a b 0 0 a
EJEMPLO 1.29. Hallar matrices de orden 4
0100 0010 0001 0000
3a a + 3 b b + 3 c 3d d + 3 e e + 3 f 3g g + 3 h h + 3 i
3c + f = b + 3 c 3f + i = e + 3 f 3i = h + 3 i
f = b i = e h = 0
donde a,b,c
∈ R.
× 4 que sean conmutables con la matriz
´ SOLUCION.-
EJEMPLO 1.30. Hallar a , b, c y d para que satisfagan la ecuaci´on:
− 1020 0011 0100 0010
ab cd 1492
Respuesta.- a = 1, b = 6, c = 0, d =
´ SOLUCION.EJEMPLO 1.31. Si A =
x y
=
1 2/3
email
[email protected]
1 4
3
−3
=
2.
, hallar
20
x y
10 66 1984
tal que A
.
x y
=3
x y
. Respuesta.-
βo
ξ £vι
−
−o
´ SOLUCION.-
ζℏ
so
z
21
EJEMPLO 1.32. Un fabricante de muebles produce tres modelos de escritorios, que llevan jaladores de metal y chapas especificadas por la siguiente tabla.
N´umerodejaladores N´umerodechapas
Modelo A Modelo B Modelo C 8 6 4 3 2 1
×
=A
Llamaremos a este arreglo, matriz de partes modelos. Si el fabricante recibe pedidos en el mes de Agosto 15 del modelo A, 24 del modelo B y 17 del modelo C ; y en el mes de septiembre: 25 del modelo A, 32 del modelo B y 27 del modelo C . Agosto 15 24 17
Modelo A Modelo B Modelo C
Septiembre 25 32 27
×
=B
Llamaremos a este arreglo, matriz modelo mes. ¿Cu´antos jaladores y chapas debe disponer el fabricante cada mes para poder atender los pedidos?.
´ SOLUCION.Para determinar el n´umero de jaladores requeridos en el mes de Agosto, procedemos como sigue: El mes de Agosto se han vendido 15 escritorios del modelo A , y cada escritorio del modelos A require 8 jaladores, por lo tanto se han requerido (8)(15) jaladores para escritorios del modelo A . Por otro lado, en Agosto se han vendido 24 escritorios del modelo B , y cada escritorio del modelos B require 6 jaladores, por lo tanto se han requerido (24)(6) jaladores para escritorios del modelo B . Tambi´en en Agosto se han vendido 17 escritorios del modelo C , y cada escritorio de este modelo require 4 jaladores, por lo tanto se han requerido (17)(4) jaladores para escritorios del modelo C . Finalmente, el total de jaladores usados para fabricar los escritorios en el mes de agosto es (8)(15) + (6)(17) + (4)(17) = 332 ,
×
que se obtiene sumando el producto de cada elemento de la primera fila de la matriz de partes modelos por el correspondiente elemento de la primera columna de la matriz modelo mes.
×
Para estableces el n´umero de chapas requeridos en el mes de Agosto se sumar´ıan el producto de cada elemento de la segunda fila de la matriz partes modelos por el correspondiente elemento de la primera columna de la matriz modelo mes, esto es:
×
×
(3)(15) + (2)(24) + (1)(17) = 110 En el mes de Septiembre el n´ umero de jaladores se obtendr´ıa sumando el producto de cada elemento de la primera fila de la matriz partes modelos por el correspondiente elemento de la segunda columna de la matriz modelo mes, esto es:
×
email
[email protected]
×
21
βo
ξ £vι
−
−o
ζℏ
so
z
22
(8)(15) + (6)(32) + (4)(27) = 500 Y para el n´umero de chapas se sumar´ıan el producto de cad elemento de la segunda fila de la partes modelos por el correspondiente elemento de la segunda columna de la matriz modelo mes,
×
×
esto es: (3)(15) + (2)(32) + (1)(27) = 166 Con los resultados obtenidos podemos hacer el siguiente arreglo
N´umero de jaladores N´umero de chapas
Agosto Septiembre 332 500 110 166
=C
Haciendo uso de la notaci´on matricial, los datos y resultados obtenidos nos expresar´a la multiplicaci´on de matrices del siguiente modo: 15 25 24 32
8 5 6
3 2 1
332 500
=
17 27
110 166
Observemos de inmediato que el n´ umero de columnas de la primera matriz es igual al primero de filas de la segunda, cuando esto ocurre se dice que las matrices son conformables para la multiplicaci´ on.
EJEMPLO 1.33. (Valoraci´ on de Inventarios). Un comerciante de televisores a color tiene cinco televisores de 26 pulgadas, ocho de 20, cuatro televisores de 18 pulgadas y diez de 12. Los televisores de 26 pulgadas se venden en 650 $ cada uno, los de 20 en 550 $ cada uno, los televisores de 18 pulgadas en 500 $ cada uno y los de 12 se venden en 300 $ cada uno. Exprese el precio de venta total de su existencia de televisores como el producto de dos matrices. ´ SOLUCION.-
N´umero de telivisores
26 pulg 20 pulg 18 pulg 12 pulg 5 8 4 10
26 pulg 20 pulg 18 pulg 12 pulg email
[email protected]
Ingresos 650 550 500 300 22
=A
=B
βo
ξ £vι
−
−o
ζℏ
so
z
23
Luego, el precio de venta total de su existencia de televisores es dado por el siguiente producto de estas dos matrices, es decir:
5 8 4 10
26 20
= (5)(26) + (8)(20) + (4)(18) + (10)(12) = 482 .
18 12
Por tanto el comerciante tiene un total de 482 $ de ingresos al vender todos sus televisores.
EJEMPLO 1.34. (Costo de materias primas). Una empresa utiliza tres tipos de materias primas M1 , M2 y M3 en la elaboraci´on de dos productos P1 y P2 . El n´umero de unidades de M1 , M2 y M3 usados por cada unidad de P 1 son 3, 4 y 2, respectivamente y por cada unidad de P 2 son 4, 1 y 3, respectivamente. Suponga que la empresa produce 20 unidades de P1 y 30 unidades de P2 a la semana. Exprese las respuestas a las preguntas siguientes como producto de matrices. ①
¿Cu´al es el consumo semanal de las materias primas?
②
Si los costos por unidad en d´ olares para M1 , M2 y M3 son 6, 10 y 12, respectivamente, ¿cu´ales son los costos de las materias primas por unidad de P1 y P2 ?
③
¿Cu´ la cantidad total gastaba en materias primas a las 5 semanas en la producci´ P1 yalPes 2 ?.
´ SOLUCION.Construyamos la matriz (materias primas) Materia prima M1 Materia prima M2 Materia prima M3
Producto P1 3 4 2
on de
×productos,
Producto P2 4 1 3
=A
Es decir, necesitamos 3 unidades de la materia prima M1 para producir una unidad del producto P1 . Podemos resumir el hecho de que la empresa produce 20 unidades de semana en la siguiente matriz: Producto P1 Producto P2
Una semana 20 30
P1 y 30 unidades de P 2 a la
=B
El consumo semanal de las materias primas es dado por el siguiente producto de matrices:
4 4 3 1 2 3
email
[email protected]
20 30
=
2×1
3×2
23
200 90 70
3×1
βo
ξ £vι
−
−o
ζℏ
so
z
24
esto es Una semana 200 90 70
Materia prima M1 Materia prima M2 Materia prima M3 Para responder el inciso (2) formemos la matriz
Costos
=C
Materia prima M1 Materia prima M2 Materia prima M3 6 10 12
=D
Por tanto, los costos de las materias primas por unidad de P 1 y P2 son dados por:
esto es
6 10 12
1×3
4 4 3 1 2 3
Producto P1 Costos
= 78 46
3×2
Producto P2
78
=E
46
EJEMPLO 1.35. (Costo de suministros). Un contratista puede adquirir las cantidades requeridas en cemento, madera, ladrillos, vidrio y pintura de cualesquiera de tres proveedores. Los precios que cada proveedor fija a cada unidad de estos cinco materiales est´ an dados en la matriz A .
A=
85724 94525 95615
En esta matriz, cada fila se refiere a un proveedor y las columnas a los materiales, en el orden listado arriba. El contratista tiene la pol´ıtica de adquirir todos los materiales requeridos en cualquier obra particular al mismo proveedor a fin de minimizar los costos de transporte. Hay tres obras en construcci´on actualmente: la obra I requiere 15, 0, 8, 8 y 2 unidades, respectivamente, y la obra II requiere 30, 10, 20, 10 y 12 unidades respectivamente. Disponga esta informaci´ on en una matriz 2 y forme la matriz AB . Interprete los elementos de este producto y ´ uselos con el prop´osito B de5×decidir cu´al proveedor debiera usar en cada obra.
´ SOLUCION.La matriz de precios “proveedor Proveedor1 Proveedor2 Proveedor3 email
[email protected]
×material” A resume la siguiente informaci´on
cemento madera ladrillos vidrio pintura 8 5 7 2 4 9 4 5 2 5 9 5 6 1 5 24
=A
βo
ξ £vι
−
−o
ζℏ
so
La matriz de requerimiento “material
z
25
×obra” B es dado por
obra I obra II 15 30 0 10
cemento madera ladrillos vidrio pintura
8 8 2
20 10 12
Hallemos el producto C = AB dado por
AB =
85724 94525 95615
15 0 8 8 2
30 10 20 10 12
=
obra I obra II 200 570
Proveedor 1 Proveedor 2 Proveedor 3
201 201
571 591
=B
200 570 201 571 201 591
=C
El costo de realizar la obra I usando los materiales del proveedor 1 es de 200 y el costo de realizar la obra II usando los materiales del proveedor 1 es de 570. Por tanto el costo total es de 770. Los cotos totales se obtienen realizando el siguiente producto de matrices:
200 570 201 571 201 591
1 1
=
770 772 792
Potencia de Matrices 2
Si A es 3una matriz cuadrada, la propiedad conmutativa nos permite escribir como A y as´ı sucesivamente. En general
An = AA
EJEMPLO 1.36. SeaA =
email
[email protected]
− ··· 1 0
1 1
A
A repetida veces. n
AA como A , AAA (1.2)
. Calcular A 2 y A 3 . Deducir una formula general para A n .
25
βo
ξ £vι
−
−o
ζℏ
so
z
26
´ SOLUCION.Vemos que
A2 = AA =
− 1 0
2 1
− − 1 0
A3 = A 2 A =
,
3 1
A4 = A 3 A =
,
− 1 0
4 1
La idea es por tanto que, para cada n´ umero natural n,
An =
EJEMPLO 1.37. Si A =
a 1 0 a
,a
n 1
1 0
.
n
∈ R, hallar A .
´ SOLUCION.-
A2 = AA = A3 = A 2 A =
a 1 0 a
a 1 0 a
a2 2a
a 1
0 a 0 a La idea es por tanto que, para cada n´ umero natural n,
An =
EJEMPLO 1.38. Dada las matrices A =
(a) (A + B )3 ,
(b) A3
3
−B ,
an nan−1 0 an
3 5 3 1 4 7 9 6 2
(c) A2
a2 2a 0 a2
a3 3a2
=
2
ciones matriciales:
=
3
0
a
.
,
2
−B ,
21 6 15 7 8 5 9 6 3
(b) (A + B )2
. Efectuar las opera-
2
− (A − B )
´ SOLUCION.-
EJEMPLO 1.39. Determinar A
2
− 5A + 2I para A =
1 0 0 0 2 1 0 0 3
´ SOLUCION.-
email
[email protected]
26
βo
ξ £vι
−
−o
ζℏ
so
z
27
− − −
1 3 2 1 y B = . (a) Encuentre 4 3 3 2 2 2 2 2 2 2 (A + B ) . (b) Encuentre A + 2AB + B . (c)¿Es ( A + B ) = A + 2 AB + B ?.
EJEMPLO 1.40. Dadas las matrices A =
−
´ SOLUCION.-
EJEMPLO 1.41. Tres empresas A, B y C (tambi´ en numeradas 1, 2 y 3) comparten este a˜no el mercado de un cierto bien. La empresa A tiene el 20 % del merca do, B tiene el 60 % y C el 20%. A lo largo del a˜no siguiente ocurren los siguientes cambios:
A conserva el 85 % de sus clientes, cediendo a B el 5% y a C el 1 0 % B conserva el 55 % de sus clientes, cediendo a A el 1 0 % y a C el 3 5 % C conserva el 85 % de sus clientes, cediendo a A el 10% y a B el 5 %
(1.3)
Un vector de cuotas de mercado es un vector columna s cuyas componentes son no negativas y suman 1. Definamos la matriz T y el vector de mercado s siguientes:
T=
0.85 0.10 0.10 0.05 0.55 0.05 0.10 0.35 0.85
y s=
0.2 0.6 0.2
N´otese que t ij es la fracci´on de clientes de j que se hacen clientes de i en el periodo siguiente. As´ı, se llama a T la matriz de transici´on. Calcular el vector Ts, probar que es tambi´en un vector de cuotas de mercado y dar una interpretaci´on de ´el. ¿C´ omo se interpretan T(Ts), T(T(Ts)),...?
´ SOLUCION.A B C A 0.85 0.10 0.10 B 0.05 0.55 0.05 C 0.10 0.35 0.85
T=
0.85 0.10 0.10 0.05 0.55 0.05 0.10 0.35 0.85
0.2 0.6 0.2
=
0.25 0.35 0.40
Como 0.25+0.35+0.40 = 1, Ts es tambi´ en un vector de cuotas de mercado. La primera componente de Ts se obtiene del c´alculo (0.85)(0.2) + (0.10)(0.6) + (0.10)(0.2) = 0.25
(1.4)
En esta expresi´on (0.85)(0.2) es la cuota de mercado de A que se conserva despu´es de 1 a˜no, (0.10)(0.6) es la cuota que gana A de B y (0.10)(0.2) es la cuota que gana A de C . La suma en email
[email protected]
27
βo
ξ £vι
−
−o
ζℏ
so
z
28
(1.4) es por tanto la cuota total de mercado de A despu´es de un a˜no. Los otros elementos de Ts tienen interpretaciones an´alogas, luego Ts debe ser el nuevo vector de cuotas de mercado despu´es de un a˜no. Entonces T(Ts) es el vector de cuotas de mercado despu´es de transcurrido otro a˜no, es decir pasados 2 a˜nos y as´ı sucesivamente.
EJEMPLO 1.42. (Teor´ıa de grafos). Un grafo consiste en un n´umero finito de puntos llamados vertices, algunos de los cuales est´an conectados por l´ıneas llamadas aristas. A continuaci´ on se dan dos ejemplos de grafos con cuatro y cinco v´ertices
(a)
(b)
2 3
1
3 5
1 2
4
4
Si los puntos se enumeran como 1, 2, 3, etc definimos la matriz A poniendo aij = 1, si hay una arista uniendo los v´ertices i y j y aij = 0 si no lo hay. Construya A para cada uno de los grafos dados anteriormente. Construya A2 en cada caso. Muestre que el elemento ij en A 2 da el n´umero de trayectorias de v´ertice i al v´ertice j que pasan exactamente a trav´es de alg´un otro v´ertice. ¿Qu´e piensa que significa los elementos de A 3 ?
´ SOLUCION.La matriz A es de orden 4 dado por
A=
A2 =
1100 1111 0111 0111
1100 1111 0111 0111 1100 1111 0111 0111
=
2211 2433 1333 1333
EJEMPLO 1.43. (Aplicaci´on de la teor´ıa de grafos). El grafo mostrado representa la conexi´on de l´ıneas telef´ onicas entre cuatro pueblos. Sea aij la l´ınea telef´onica que conecta el pueblo i con el pueblo j . Construya la matriz A = aij . Eval´ue A 2 y pruebe que el elemento ij de esa matriz representa el n´umero de l´ıneas telef´ onicas entre el pueblo i y el pueblo j que pasa exactamente a trav´ es de un pueblo intermedio. ¿Qu´e representa los elementos de A + A2 ?.
´ SOLUCION.email
[email protected]
28
βo
ξ £vι
−
−o
ζℏ
so
z
29
Transpuesta de una matriz
Dada una matriz A, se llama traspuesta de A, y se representa por AT , a la matriz que se obtiene cambiando filas por columnas. La primera fila de A es la primera fila de AT , la segunda fila de A es la segunda columna de AT , etc. Para A M m×n (R), se define la transpuesta de A como la
∈
T
matriz A
∈M
n×m
(R), donde AT = (bij ) con
∀1 ≤ i ≤ n, 1 ≤ j ≤ m m × n, entonces A es de orden n × m.
bij = a ji
T
De la definici´on se deduce que si A es de orden
EJEMPLO 1.44. Dada la matriz A = ´ SOLUCION.-
− − − − − − 2 4
AT =
TEOREMA 1.4. Si A, B, C
∈M
n×m
(R) y α
4 3
3 9
2 4 3
4 3 9
, hallar A T .
(3)
AT
αA
T
=A T
∈ R entonces se tiene
T
(1)
(1.5)
= αA T
EJEMPLO 1.45. Dadas las matrices A =
B T A = 0.
(2)
A+B
(4)
AB
= AT + B T
− − − 3 1 2
4 2 1
T
= B T AT
yB=
x y 4
. Hallar x + y tal que
´ SOLUCION.-
BT A =
= =
−
8 + 3x − y −4 + 4 x − 2y
email
[email protected]
− − − − − − − − − − − −
= 0 = 0
x y 4
x y
T
3 1 2
4 2 1
3 1 2
4
8 + 3x
4 2 1
y
4 + 4x
3x
y = 8
4x
− 2y 29
= 4
2y
=
0 0
6x + 2 y =
4x
− 2y
−16
= 4
βo
ξ £vι
−
−o
ζℏ
so
z
−
30
−
−
−
−
Sumando estas dos ´ultimas ecuaciones 6x +4x = 16+4, 2x = 12, x = 6, adem´as 4(6) 2y = 4, 2y = 4 24, 2y = 20, y = 10. Por tanto x + y = 6 + 10 = 16.
−
− −
−
EJEMPLO 1.46. Hallar ( X T + A)T , si AX = A T , donde A =
1 1 2 3
.
´ SOLUCION.-
− − − −
Supongamos que X =
x u y v
AX =
1 1 2 3
, entonces la ecuaci´on AX = A T es
x u y v
x+y = 1 2x + 3 y = 1
=
−
3x 3y = 3 2x + 3 y = 1
Reemplazando x = 2, en x + y = 1, se tiene 2 + y = 1, as´ı y =
u+v = 2 2u + 3 v = 3
−
3u 3v = 6 2u + 3 v = 3
Reemplazando u = 3, en u + v = 2, se tiene 3 + v = 2, as´ı v =
x u y v
X=
− − − − − −
x+y u+v 2x + 3y 2u + 3 v
=
2
3
−1 −1
=
1 2 1 3
x = 2 x = 2
1.
u = 3 u = 3
1. Por lo tanto
Por tanto
− − − − − −
(X T + A)T = (X T )T + AT = X + AT =
EJEMPLO 1.47. Sean las matrices A = 1 (X 2 X.
T
2 1
2 1 4
3 1
3 1 6 3 2 5
+
,
1 2 1 3
=
8 3 6 1 2 9
2 3 2
3 5 0 2
y la ecuaci´on:
− 3A) = A − 2B. Hallar la suma de las componentes de la diagonal principal de la matriz
´ SOLUCION.1 (X 3A) = AT 2B 2 X 3A = 2(AT 2B )
− −
email
[email protected]
−
X = 2AT 30
− − 4B + 3 A
βo
ξ £vι
−
−o
ζℏ
so
X = 2AT
z
−− − − −− − − −
31
4B + 3A
= 2
2 3 1
=
22 21 22
1 6 3
4 2 5
−2
8 3 6 1 2 9
4
3 2
5 19 26 7 36 17
−
−
2 1 4
+3
− X es
Luego, la suma de las componentes de la diagonal principal de la matriz
1.3.
3 1 6 3 2 5
−22 + 26 + 17 = 21
Matrices cuadradas especiales
Matriz Sim´ etrica: Una matriz cuadrada es sim´etrica si y solo si es igual a su transpuesta.
A
∈M
n×n
(R) es sim´etrica 1 1 0
− −
EJEMPLO 1.48. La matriz ´ SOLUCION.-
1 1 0
T
⇐⇒ A = A ⇐⇒ −1 0 2 3
3 0
−1
0 3 0
2 3
−
aij = aji
∀i, j ∈ {1,...,n }
es sim´etrica.
T
1 1 0
=
−1 2 3
0 3 0
EJEMPLO 1.49. Hallar los elementos desconocidos x y y de la siguiente matriz sim´etrica
1 5x 3y 5x + 3 y 4 2 5x 3y 6 5 4
−
´ SOLUCION.-
Matriz Antisim´ etrica: Una matriz cuadrada es antisim´etrica si y solo si es igual a la opuesta de su transpuesta.
A
∈M
n×n
(R) es antisim´ etrica
EJEMPLO 1.50. La matriz
email
[email protected]
− −
0 1 2
⇐⇒ 1 2 0 3 3 0
−
A=
T
−A ⇐⇒
aij =
−a ∀i, j ∈ {1,...,n } ji
es antisim´etrica.
31
βo
ξ £vι
−
−o
´ SOLUCION.-
− −
0 1 2
ζℏ
so
z
32
− − − − − − − − ∈ ⇐⇒ T
1 2 0 3 3 0
0 1 2
=
1 0 3
2 3 0
0 1 2
=
1 2 0 3 3 0
Matriz Idempotente: Una matriz cuadrada es idempotente si y solo si es igual a su cuadrado.
1 2 1 2
EJEMPLO 1.51. La matriz ´ SOLUCION.-
A2 = A
Mn×n (R) es idempotente
A
1 2 1 2
1 2 1 2
es idempotente.
2
1 2 1 2
1 2 1 2
=
1 2 1 2
1 2 1 2
1 2 1 2
1 2 1 2
=
1 2 1 2
Matriz Involutiva: Una matriz cuadrada es involutiva si y solo si su cuadrado es igual a la identidad. A Mn×n (R) es involutiva A2 = I
⇐⇒ ∈ − 1 0
EJEMPLO 1.52. La matriz ´ SOLUCION.-
1 0
0 1
−
0 1
es involutiva.
2
1 0
=
0
1 0
−1
0
−1
=
1 0 0 1
EJEMPLO 1.53. Demostrar lo siguiente: (a) AAT es sim´etrica
( b) A + AT es sim´etrica
( c) A
−A
T
es antisim´etrica
´ SOLUCION.-
− − AAT
A + AT
A
email
[email protected]
AT
T
T
T
=
AT
T
AT = AA T
= AT + AT = AT
AT
32
T
T
= A T + A = A + AT = AT
T
− A = −(A − A
)
βo
ξ £vι
−
−o
ζℏ
so
z
33
EJEMPLO 1.54. Demostrar que si A y B son matrices idempotentes y que conmutan, entonces AB es idempotente. ´ SOLUCION.-
AB
2
= (AB )(AB ) = A (BA )B = A (AB )B = (AA)(BB ) = A 2 B 2 = AB.
EJEMPLO 1.55. Demostrar que si AB = A y BA = B , entonces A, B , AT y B T son idempotentes. ´ SOLUCION.-
A2 = AA = (AB )A = A (BA ) = AB = A B 2 = BB = (BA )B = B (AB ) = BA = B
AT
BT
2
= AT AT = (AA)T = A2
2
T
= B T B T = (BB )T = B 2
T
= AT = BT
EJEMPLO 1.56. Si A es sim´etrica de orden n, entonces B T AB es sim´etrica para cualesquiera B de orden n. ´ SOLUCION.-
B T AB
T
= B T A BT
T
= B T AB.
1 EJEMPLO 1.57. Si A es involutiva, entonces demostrar que (I A) es idempotente. Recordar 2 que una matriz es involutiva si A2 = I y una matriz es idempotente si A2 = A
−
´ SOLUCION.-
1 (I 2
2
− A)
=
1 (I 4 1 = (I 4 =
email
[email protected]
1 (I 2
− A)
1 (I 2
− A)
− A)(I − A) = 14 (I − A − A + A ) − A − A + I ) = 12 (I − A) 2
33
βo
ξ £vι
−
1.4.
−o
ζℏ
so
z
34
Matriz escalonada
´ 1.2. Diremos que una matriz A es escalonada si el primer elemento no nulo de DEFINICION cada una de sus filas est´ a a la izquierda del primer elemento no nulo de cada una de las filas subsiguientes y, adem´as, las filas nulas (si las hay) est´ an debajo de las dem´as. EJEMPLO 1.58. La siguiente matriz es escalonada
6372 0751 0003
El primer elemento no nulo de la fila uno que es 6 esta a la izquierda del primer elemento no nulo de la fila dos que es 7. Adem´ as, el primer elemento no nulo de la fila dos que es 7 esta a la izquierda del primer elemento no nulo de la fila tres que es 3.
EJEMPLO 1.59. Las siguientes matrices son escalonadas:
4726 0352 0081 0007
,
12345 00123 00001 00000
,
01231 00452 00063 00000
´ 1.3. Diremos que una matriz A es escalonada reducida si es reducida y adem´as DEFINICION verifica las siguientes propiedades: ☞
El primer elemento no nulo de cada fila no nula de
A es igual a 1.
Cada columna de A que tiene el primer elemento no nulo de alguna fila tiene todos sus otros elementos 0.
☞
EJEMPLO 1.60. Las siguientes matrices son escalonadas reducidas:
1002 0103 0018
,
1000 0100 0010 0001
,
12040 00120 00001 00000
,
01001 00102 00013 00000
email
[email protected]
34
βo
ξ £vι
−
1.5.
−o
ζℏ
so
z
35
Transformaciones elementales
Dada una matriz A de orden n, se llaman transformaciones elementales sobre la matriz A a las siguientes operaciones: ①
Intercambio de dos filas de A. Intercambiar la fila i con la fila j , se escribe fij .
②
Multiplicaci´on de una fila de A por un escalar no nulo. Para la fila
③
Sumar a una de las filas un m´ ultiplo de otra fila. Si a la fila entonces se escribe fi + kf j
1.6.
i se escribe cfi , c
∈ R.
i se suma k veces la fila j ,
Matrices equivalentes
´ 1.4. Dos matrices A y B ambos de orden n m son equivalentes por filas si una DEFINICION de ellas se puede obtener a partir de la otra por aplicacion de una o varias operaciones elementales.
×
EJEMPLO 1.61. Pruebe que las matrices
A=
11 22 13 2 1 0 1 2 3
yB =
21 0 0
42 0 3
−
− 23 0 2
son equivalentes
´ SOLUCION.-
1 1 2 1
2 2 1 2
3 1 0 3
−f1 +f4
←→
−f2 +f3
←→
1 1 2 0 1 2 0 0
2 2 1 0 2 4 3 0
−
3 1 0 0
←→ − ←→ 1 2 2 0
2f2
3 2 2 0
f34
2 4 1 0 1 2 0 0
3 1 0 0
2 4 0 3
−
− 3 2 0 2
TEOREMA 1.5. Toda matriz es equivalente a una matriz escalonada. Tambi´ en es equivalente a una ´unica matriz escalonada reducida. EJEMPLO 1.62. Mediante operaciones elementales llevar la siguiente matriz a su forma escalonada y a su forma escalonada reducida.
email
[email protected]
35
βo
ξ £vι
−
−o
ζℏ
so
z
36
←→ ←→ − ←→ − ←→ − −− ←→ − − − − − − ←→ − ←→ − − ←→ −− ←→ − ←→ ←→ ←→ 2 1 3 2
A=
5 2 4 3
3 2 1 2
´ SOLUCION.Empecemos hallando la matriz escalonada.
2 1 3 2
5 2 4 3
3 2 1 2
f12
−2f1 +f4
f 2 +f 4
1 2 3 2 1 0 0 0 1 0 0 0
2 5 4 3
2 3 1 2
2 1 2 1
2 1 0 0
1 0 3 2
−2f1 +f2
3 1 5 2
3 1 7 3
2 1 4 3
1 0 0 0
2f2 +f3
1 0 0 0
− 37 f3 +f4
2 1 1 2
−3f1 +f3
2 1 0 1
2 1 0 0
1 0 0 2
− −
2 1 2 3
3 1 5 2
−
3 1 7 2
3 1 7 0
A partir de la matriz escalonada podemos hallar la matriz escalonada reducida.
2 1 3 2
5 2 4 3
3 2 1 2
−3f3 +f1
1 0 0 0
2 1 0 0
1 0 0 0
2 1 0 0
3 1 7 0
0 0 1 0
− 17 f3
−2f2 +f1
1 0 0 0
2 1 0 0
3 1 1 0
1 0 0 0
0 1 0 0
0 0 1 0
f 3 +f 2
1 0 0 0
2 1 0 0
3 0 1 0
EJEMPLO 1.63. Mediante operaciones elementales llevar la siguiente matriz a su forma escalonada.
A=
email
[email protected]
0 1 3 0 2
2 4 1 1 3
36
−4 −5 7 0 0
βo
ξ £vι
−
−o
´ SOLUCION.-
0 2 1 4 3 1
−4 −5
0 1 2 3
0 0
7
ζℏ
so
f12
←→ 1/2f2 1/11f3 1/5f5
←→
z
− − ←→ − − ←→ −
1 4 0 2 3 1
−5 −4
0 1 2 3
0 0
1 0 0 0 0
37
3f1 + f3 2f1 + f5
7
2 1 1 1 1
f2 + f3 f2 + f4 f2 + f5
2 2 2 2 2
− −
1 0 0 0 0 1 0 0 0 0
− − − − − −
4 5 2 4 11 22 1 5
2 1 0 0 0
2 10
2 2 0 0 0
EJEMPLO 1.64. Reducir cada una de las siguientes matrices a una matriz escalonada mediante una sucesi´on finita de operaciones elementales 1 (a) A =
(b) A =
(c) A =
− −−
1
01 11 2 1
−1 00 1
−
−1 −01
1 1
Rta.
2 3 1 0 1 2 4 3 2 1 3 2 1 2 3 0
− − 1 −1 2 0 5 −5 10 0 6 −6 12 3 −1 1 −2 1
Rta.
Rta.
00 10 0 0
0
1243 0196 0013 0001
−
1 1 2 0 0 0 01 0 0 00 0 0 00
´ SOLUCION.-
EJEMPLO 1.65. Mediante una sucesi´on finita de operaciones elementales, demostrar que:
a a2 a3 a4 b b2 b3 b4 c c2 c3 c4
´ SOLUCION.email
[email protected]
es equivalente a
1 0 0 0 1 0 0 0 1
abc (ab + bc + ca) a+b+c
−
37
βo
ξ £vι
−
1.7.
−o
ζℏ
so
z
38
Rango de una Matriz
´ 1.5. El rango de una matriz A de orden n DEFINICION su matriz escalonada. EJEMPLO 1.66. Hallar el rango de la matriz A =
× m es el n´umero de filas no nulas de
25 75 75 25
31 94 94 32
17 53 54 20
43 132 134 48
´ SOLUCION.-
25 75 75 25
31 94 94 32
17 53 54 20
43 132 134 48
−3f1 + f2 −3f2 + f3 −f←→ 1 + f4
25 31 17 43 0123 0135 0135
−− ←→
f2 + f 3 f2 + f 4
25 31 17 43 0123 0012 0012
25 31 17 43 f +f 3 − ←→
4
00 01 12 23 0000
La u ´ ltima matriz escalonada tiene 3 filas no nulas, luego r (A) = 3.
EJEMPLO 1.67. Dadas las matrices empleando el m´etodo de transformaciones elementales, hallar el rango de cada una de ellas.
(a) A =
(c) C =
2 4 2
−
− 1 3 −2 −2 5 1 7 −1 1 8 9
1 3 5 2 1 3 5 1 1 7 7 9 1
− − −
1 4 7
4
Rta. r(A) = 2 ( b) B =
Rta.r (C )= 3
( d) D =
3 5 1 7
−1 3 2 5 −3 2 3 4 −3 −5 −5 1 4 1
1232 2351 1345
0
− 7
Rta . r(B) = 3
Rta. r(D) = 2
´ SOLUCION.-
email
[email protected]
38
βo
ξ £vι
−
−o
−2f + f −f←→ +f
1232 2351 1345
ζℏ
so
1
1
2
3
z
−
1 2 3 2 0 1 1 0 1 1 3
− −
EJEMPLO 1.68. Encuentre valores de α
39
3
f2 + f3
∈ R para que A =
a 3.
←→
1 2 3 2 0 1 1 0 0 0 0
− −
−1 − α −6
1 α 2 1 1 10
− 3
tenga rango igual
´ SOLUCION.-
1
2f3
←→
←→ f23
1 0 0
−1 − α −6
1 α 2 1 1 10
α
1
0 2α 1 α + 2 0 20 2α 10
− −−
α 21 2α 1
− −
−− −1 −α − 12 α+2
−2f + f +f −f←→ 1
1
2
3
f2 + f3
− ←→ 21f3
←→
(2α + 1) f2 + f3
←→
Resolviendo
1.8.
2
−2α − 4α + 30 = 0, tenemos que
1 0 0 1 0 0 1 0 0 1 0 0
− −
α 1 2α 1 α + 2 10 α 5
− − − α
1
−2α21− 1 −αα−+−212 α −1 21 −α − 12 −21(2α + 1) 21 α + 42 α −1 21 −α − 12 0 −2α − 4α + 30
2
−
r (A) = 3 si y solo si α = 3 y α = 5.
Representaci´ on matricial de un sistema de ecuaciones lineales
Muchos problemas de la vida real nos obligan a resolver simult´aneamente varias ecuaciones lineales para hallar las soluciones comunes a todas ellas. Tambi´en resultan muy ´utiles en geometr´ıa (las ecuaciones lineales se interpretan como rectas y planos, y resolver un sistema equivale a estudiar la posici´on relativa de estas figuras geom´etricas en el plano o en el espacio). email
[email protected]
39
βo
ξ £vι
−
−o
ζℏ
so
z
40
Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales que podemos escribir de forma tradicional as´ı :
a11 x1 + a12 x2 + a21 x1 + a22 x2 + am1 x1 + am2 x2 +
··· + a ··· + a
··· + a
1n xn 2n xn
= b1 = b2
x
. = bm
mn n
(1.6)
un sistema as´ı expresado tiene “m” ecuaciones y “n” inc´ognitas, donde aij son n´umeros reales, llamados coeficientes del sistema, los valores bm son n´umeros reales, llamados t´erminos independientes del sistema, las inc´ognitas x j son las variables del sistema, y la soluci´on del sistema es un conjunto ordenado de n´umeros reales ( s1 , s2 ,...,s n) tales que al sustituir las inc´ognitas x 1 , x2 ,...,x n por los valores s1 , s2 ,...,s n se verifican a la vez las “m” ecuaciones del sistema. Este mismo sistema de ecuaciones lineales en notaci´ on matricial tiene esta forma :
Sean
A=
a11 a12 a21 a22 .. .. . . am1 am2
a11 a12 a21 a22 .. .. . . am1 am2
.. . a 1n .. . a 2n .. ... . .. . a mn
.. . a 1n .. . a 2n .. ... . .. . a mn
x1 x2 .. . xn
x=
=
x1 x2 .. . xn
×
b1 b2 .. . bm
b=
b1 b2 .. . bm
La matriz A es la matriz de coeficientes es de orden m n y esta formada por los coeficientes del sistema, x es la matriz columna formada por las inc´ognitas y b es la matriz columna formada por los t´erminos independientes.
×
Llamamos matriz ampliada o aumentada de dimensi´on m (n + 1) a la matriz que se obtiene al a˜nadir a la matriz de coeficientes la columna de los t´erminos independientes, y la denotamos por Ab , es decir
Ab =
a11 a12 a21 a22 .. .. . . am1 am2
.. . a 1n b1 .. . a 2n b2 .. .. .. . . . .. . a mn bm
TEOREMA 1.6. Consideremos en sistema matricial Ax = b, donde A es una matriz es de orden m n, x de orden n 1 “n es el n´umero de inc´ognitas” y b de orden m 1.
×
×
email
[email protected]
×
40
βo
ξ £vι
−
−o
ζℏ
so
z
41
(a) Si r(A) = r (Ab ) = n, entonces el sistema tiene una ´ unica soluci´on. Es decir, si la matriz y su matriz aumentaba tiene rango igual al n´umero de inc´ognitas entonces el sistema tiene una ´unica soluci´on. (b) Si r (A) = r (Ab ) = k < n, entonces el sistema tiene infinitas soluciones. Se pueden dar valores arbitrarios a un cierto conjunto de n k variables y las restantes k variables puede hallarse despejando estas k variables en funci´on de las n k variables dadas. En este caso decimos que el sistema tiene n k grados de libertad.
−
−
−
(c) Si r (A) = r (Ab ), entonces el sistema no tiene soluciones. Resolver un sistema de ecuaciones es hallar todas sus soluciones. Obviamente, un sistema se puede resolver cuando es compatible, es decir, cuando el rango de su matriz de coeficientes es igual al rango de su matriz aumentaba. En el transcurso de este curso estudiaremos los siguientes m´etodos para resolver sistemas de ecuaciones: ①
M´etodo de Gauss (por reducci´on)
②
M´etodo de Gauss-Jordan (por eliminaci´on)
③
M´etodo de Cramer (por determinantes)
④
Por inversi´on de la matriz.
1.9.
M´ etodo de eliminaci´ on de Gauss
Para resolver un sistema de “m” ecuaciones con “n” inc´ ognitas seguir los siguientes pasos: ①
Colocar el sistema de ecuaciones lineales en notaci´ on matricial Ax = b, donde A es una matriz es de orden m n, x de orden n 1 “n es el n´umero de inc´ognitas” y b de orden m 1.
×
×
×
②
Definir la matriz aumentada Ab
③
Reducir la matriz aumentada Ab a su forma escalonada.
④
Aplicar el Teorema 1.11: (a) Si r (A) = r (Ab ) = n , entonces el sistema tiene una ´unica soluci´on. De la forma escalonada se obtiene un nuevo sistema A′ x = b′ que se resuelve de abajo hacia arriba: se halla primero el valor de la ´ultima inc´ognita, se la sustituye por ese valor en la ecuaci´ on anterior y as´ı sucesivamente. (b) Si r (A) = r (Ab ) = k < n, entonces el sistema tiene infinitas soluciones. Se pueden dar valores arbitrarios a un cierto conjunto de n k variables y las restantes k variables puede hallarse despejando estas k variables en funci´on de las n k variables dadas.
−
email
[email protected]
41
−
βo
ξ £vι
−
−o
ζℏ
so
z
42
(c) Si r (A) = r (Ab ), entonces el sistema no tiene soluciones.
EJEMPLO 1.69. Resolver el siguiente sistema por el m´etodo de Gauss
x + y + z = 11 2x y + z = 5 3x + 2 y + z = 24
−
´ SOLUCION.El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
❄
−
x y z
11 5 25
=
1 2
3
1 1 1 1
−2
1
,
1 1 1 11 2 1 1 5
Ab =
←→
1 1 1 11 2 1 1 5 3 2 1 24
−
1 1 1 11 0 1 2 9 0 3 1 17
− − − − − −
−2f + f −3←→ f +f 1
2
1
3
−3←→ f +f 2
3
−
3 2 1 24
Reducir la matriz aumentada Ab a su forma escalonada.
f23
❆
1 1 1 1 2 1
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A= ❅
1 2 3
− −
1 1 1 11 0 3 1 17 0 1 2 9
− − − −
11 1 11 0 1 2 9 00 5 10
− − −
Aplicar el Teorema 1.11. Como r (A) = r (Ab ) = 3, entonces el sistema tiene una ´ unica soluci´on. Para encontrarla procedemos como sigue: Primero escribamos el sistema asociado a la matriz reducida,
x + y + z = 11 y 2z = 9 5z = 10
− −
−
De la ´ultima ecuaci´on 5z = 10 despejamos la va riable z = 2, que reemplazam os en la segunda ecuaci´on y 2(2) = 9, para obtener que y = 5, ahora bien reemplazando z = 2 y y = 5 en la primera ecuaci´on x + 5 + 2 = 11 obtenemos x = 4.
− −
email
[email protected]
−
42
βo
ξ £vι
−
−o
ζℏ
so
z
43
EJEMPLO 1.70. Resolver el siguiente sistema por el m´etodo de Gauss
y + 2z + 3t 2x + y + 3z 3x + 4y + 2z 4x + 2y + t
= = = =
1 1 1 1
´ SOLUCION.El n´umero de inc´ognitas del sistema lineal es n = 4. ❃
❄
Colocando el sistema en notaci´on matricial
0123 2130 3420 4201
x y z t
=
1 1 1 1
− − ,
01231 21301 34201 42011
Ab =
Reducir la matriz aumentada Ab a su forma escalonada. 01231 21301 34201 42011
−1/2f + f −2←→ f +f 1
1
❆
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A=
❅
0123 2130 3420 4201
4
3
21 3 0 1 01 2 3 1 0
5 2
0 2
5 2
− −6
0 1
1 2
f ←→ 12
−5/2f + f −2←→ f +f 2
2
1
4
3
21301 01231 34201 42011 21 3 01 2 0 0 000
0
1
3
1
15 2
− − 7
15 2
− 3
7 5
Aplicar el Teorema 1.11. Como r (A) = r (Ab ) = 4, entonces el sistema tiene una ´ unica soluci´on. Para encontrarla procedemos como sigue: Primero escribamos el sistema asociado a la matriz reducida, 2x + y + 3z = 1 y + 2z + 3t = 1 15 15 z t = 3 2 2 7t = 75
−
−
−
Resolviendo el sistema de abajo hacia arriba, tenemos t = 15 , z = 15 , y = 0 y x = 15 . email
[email protected]
43
βo
ξ £vι
−
−o
ζℏ
so
z
44
EJEMPLO 1.71. Resolver el siguiente sistema por el m´etodo de Gauss
− 4y + 6 z y + 2z x − 3y + z
2x
= 2 = 3 = 4
−
´ SOLUCION.El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
❄
6 2 1
− x y z
2 3 4
=
− − − − − − − − − ←→ − − − − − − ←→ − − − 2 0 1
4 6 1 2 3 1
,
Ab =
2 0 1
4 6 1 2 3 1
2 3 4
Reducir la matriz aumentada Ab a su forma escalonada. 2 0 1
−f←→ +f 1
❆
−4 1 −3
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A=
❅
2 0 1
3
1 0 0
4 6 1 2 3 1
2 1 1
3 2 2
2 3 4
1/2f1
1 0 1
2 3 1 2 3 1
1 3 4
1 3 3
f2 + f3
1 2 3 0 1 2 0000
1 3
Aplicar el Teorema 1.11. Como r(A) = r (Ab ) = 2 < 3. El sistema tiene infinitas soluciones. Dado que 2 < 3, entonces las 3 2 = 1 inc´ognitas (´ultima inc´ognita) toma valores arbitrarios y a las que se les denomina valores libres o par´ ametros.
−
Empecemos transformando la matriz escalonada reducida en el siguiente sistema de ecuaciones
x
− 2y + 3 z
= 1 y + 2z = 3
−
∈ R y luego despejemos x y y en funci´on de t 1 − 3z x − 2y = 1 − 3t −3 − 2z y = −3 − 2t
En este sistema hagamos z = t con t
email
[email protected]
x
− 2y
= y =
44
βo
ξ £vι
−
−o
ζℏ
so
z
45
− −
− 2(−3 − 2 t) = 1 − 3t, obtenemos
reemplazando y = 3 2 t en la primera ecuaci´on x x = 5 7t, luego el vector soluci´on es dado por
−−
− − − − − − −− − − − − x y z
=
7t 2t
5 3
5 3 0
=
t
7t 2t t
+
5 3 0
=
+t
7 2 1
EJEMPLO 1.72. Discutir por el m´etodo de Gauss el siguiente sistema:
− −
x + 2y 3z = 4 2x + 3y + 4z = 5 4x + 7y 2z = 12
´ SOLUCION.El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
❄
Colocando el sistema en notaci´on matricial 1 2 3 2 3 4 4 7 2
x y z
1 2 2 3 4 7
−3 4 −2
,
Ab =
1 2 2 34 4 7
−3 5 −2
4 12
Reducir la matriz aumentada Ab a su forma escalonada reducida.
1 2 2 34 4 7
−3 5 −2
4 12
−2f + f −4←→ f +f 1
2
1
3
−f←→ +f 2
❆
4 5 12
=
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A= ❅
− −
3
1 0 0 1 0 0
−
2 3 1 10 1 10
− −
2
−1 0
−3 10 0
− − 4 3 4 4
−3 −1
Aplicar el Teorema 1.11. Como r (A) = 2, r (Ab ) = 3, entonces r (A) = r (Ab ). El sistema no tiene soluciones. En efecto, el sistema dado es equivalente a:
−
x
+ 2y 3z = 3y + 10z = 0x + 0y + z 0 =
−
lo que es, obviamente, absurdo.
email
[email protected]
4
−3 −1
45
βo
ξ £vι
−
−o
1.10.
ζℏ
so
z
46
M´ etodo de eliminaci´ on de Gauss Jordan
Para resolver un sistema de “m” ecuaciones con “n” inc´ ognitas seguir los siguientes pasos: ①
Colocar sistema onn´umero matricial = b, donde una matriz eselde orden demecuaciones n, x de lineales orden nen notaci´ 1 “n es el de Ax inc´ognitas” y bA dees orden m 1.
×
×
×
②
Definir la matrices de coeficientes A y la matriz aumentada Ab .
③
Reducir la matriz aumentada Ab a su forma escalonada reducida.
④
Aplicar el Teorema 1.11.
EJEMPLO 1.73. Discutir por el m´etodo de Gauss Jord´an el siguiente sistema:
x+y+z = 2 2x y z = 1 x + 2y z = 3
− − −
−
´ SOLUCION.- El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
❄
1 1 2
−
− − − x y z
1 1 1
=
2 1 3
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A= ❅
1 2 1
1 2 1
1 1 2
−
− − 1 1 1
,
Ab =
1 1 1 2 2 1 1 1 2 1
− − −
Reducir la matriz aumentada Ab a su forma escalonada reducida.
email
[email protected]
46
− 1 3
βo
ξ £vι
−
−o
−←→ 1/3f −←→ 1/3f ❆
ζℏ
so
2
3
− − −
1 11 0 11 0 1
2 1 2
−
1 03 0 1 0 01
7 2 2
−
47
1 3
−2f + f −f←→ +f
5
−f + f −f←→ +f
− − −
1 1 1 2 2 1 1 1 2 1
z
5
1
2
1
3
2
1
2
3
−3f + f 2f + f ←→ 3
3
1
2
− − − − − − − −
1 1 1 2 0 3 3 0 1 2 1 00 0 11 0 0
3 5
1 1 3
1 0 0 1 0 1 0 0 0 1 2
6
1
Aplicar el Teorema 1.11. Como r (A) = r (Ab ) = 3, entonces el sistema tiene una ´ unica soluci´on dada por x = 1, y = 1, z = 2.
−
EJEMPLO 1.74. Discutir por el m´etodo de Gauss Jord´an el siguiente sistema:
x + 3y + z = 6 3x 2y 8z = 7 4x + 5y 3z = 17
− − −
´ SOLUCION.El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
❄
3 2 5
−
− − x y z
1 8 3
=
6 7 17
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A= ❅
1 3 4
13 4
−32 −18 5 −3
,
Ab =
13 3 21 6 8 7 4 5 3 17
− − −
Reducir la matriz aumentada Ab a su forma escalonada reducida.
email
[email protected]
47
βo
ξ £vι
−
−o
−1/11f −←→ 1/7f
1 3 16 3 2 8 7 4 5 3 17
− − −
2
3
❆
ζℏ
so
1316 0111 0111
z
48
−3f + f −4←→ f +f
1
2
1
3
−3f + f −f←→ +f 2
2
1
3
1 3 1 0 11 0 7
6 11 7
− − −11 − − −7 −
1 0 2 3 01 1 1 00 0 0
Aplicar el Teorema 1.11. Como r(A) = r (Ab ) = 2 < 3. El sistema tiene infinitas soluciones. Dado que 2 < 3, entonces las 3 2 = 1 inc´ognitas (´ultima inc´ognita) toma valores arbitrarios y a las que se les denomina valores libres o par´ ametros.
−
Empecemos transformando la matriz escalonada reducida en el siguiente sistema de ecuaciones x z = 3 y+z = 1
−
En este sistema hagamos z = t con t
∈ R y luego despejemos x y z en funci´on de t
x = 3+z = 3+ t y = 1 z=1 t
−
−
luego el vector soluci´on es dado por
− − − x y z
=
3+ t 1 t z
=
t
3 1 0
t
+
3 1 0
=
t
+t
1 1 1
EJEMPLO 1.75. Discutir por el m´etodo de Gauss Jord´an el siguiente sistema:
x + y + z = x y + 3z = x + z =
−
1
−3 1
´ SOLUCION.El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
email
[email protected]
1 1 1
1 1 0
−
−1 3 1
− x y z
48
=
1 3 1
βo
ξ £vι ❄
−
−o
z
49
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A= ❅
ζℏ
so
1 1 1
1 1 0
−
−1 3 1
,
Ab =
−
1 3
Reducir la matriz aumentada Ab a su forma escalonada reducida.
−f + f −f←→ +f 1
2
1
3
−
1 1 1 1 1 3 1 0 1 1
−
− 1 3
1 0 3 1 0 1 2 0 1 2
−
f13
←→ f ←→ 23
−4
−
0
f2 + f3
←→
❆
−
−
1 1 1 1 1 3 1 0 1 1
1 0 1 1 1 1 1 1 1 3
−
−
1 0 3 1 0 1 2 0 1 2
−
−
10 3 1 0 1 2 0 00 0 4
−
− − 1 3
0 4
Aplicar el Teorema 1.11. Como r (A) = 2, r (Ab ) = 3, entonces r (A) = r (Ab ). El sistema no tiene soluciones.
EJEMPLO 1.76. Destudiar la compatibilidad del siguiente sistema:
− −
ax 2y = 4 ax + (a 1)y = 4 ´ SOLUCION.El n´umero de inc´ognitas del sistema lineal es n = 2. ❃
Colocando el sistema en notaci´on matricial
−
a 2 a a 1 ❄
x y
=
4 4
−
−
La matriz de coeficientes M y la matriz aumentada Ma son dados por
M=
email
[email protected]
− −
a 2 a a 1
,
49
Ma =
a 2 4 a a 1 4
−
βo
ξ £vι ❅
−
−o
z
50
Reducir la matriz aumentada Ma a su forma escalonada reducida.
❆
ζℏ
so
− −
a 2 4 a a 1 4
−f←→ +f 1
2
−
a 2 4 0 a+1 0
Aplicar el Teorema 1.11. ☞
Si a = 0, entonces la matriz de coeficientes M y la matriz aumentada Ma son equivalentes a 0 2 0 2 4 M= , Ma = 0 1 0 1 0
−
−
− −
Por tanto, r (M ) = 1 y r (Ma ) = 2, entonces el sistema no tiene soluciones. ☞
−
Si a = 1, entonces la matriz de coeficientes M y la matriz aumentada Ma son equivalentes a 1 2 1 2 4 M= , Ma = 0 0 0 0 0
− −
−
−
Por tanto, r (M ) = r (Ma ) = 1 < 2, entonces el sistema tiene infinitas soluciones. ☞
−1, se tiene que
Si a = 0 y a =
r (M ) = r (Ma ) = 2, por tanto el sistema tiene una
u ´ nica soluci´on.
EJEMPLO 1.77. La matriz de los coeficientes de un sistema de ecuaciones lineales es: y la de los t´erminos independientes es:
2
−2
1 a a+1 2
. a) Plantear las ecuaciones del sistema. b) Estudiar
su compatibilidad en funci´on de los valores de a. .En que casos tiene soluci´on u ´ nica?. c) Resolverlo si a = 2.
´ SOLUCION.Apartado a: El sistema asociado a las matrices dadas ser´ a:
x + ay = 2 (a + 1) x + 2 y = 2
−
El mismo sistema, expresado en forma matricial:
1 a a+1 2
x y
=
2
−2
Apartado b: El n´umero de inc´ognitas del sistema lineal es n = 2.
email
[email protected]
50
βo
ξ £vι ❃
−
−o
51
1 a a+1 2
,
Ma =
1 a a+1 2
2 2
−
Reducir la matriz aumentada Ma a su forma escalonada reducida.
❅
z
La matriz de coeficientes M y la matriz aumentada Ma son dados por
M= ❄
ζℏ
so
1 a a+1 2
2 2
−
−(a +←→ 1) f + f 1
2
1 0
a a(a + 1) + 2
−
2 2(a + 1)
−
−2
Aplicar el Teorema 1.11. Resolvamos las ecuaciones
−a(a + 1) + 2 = 0
a=
−2, a = 1.
y
−2(a + 1) − 2 = 0 ☞
a=
−2.
Si a = 1, entonces la matriz de coeficientes M y la matriz aumentada Ma son equivalentes a 1 1 1 1 2
M= 0 0 , Ma = 0 0 6 Por tanto, r (M ) = 1 y r (Ma ) = 2, entonces el sistema no tiene soluciones. ☞
−
−
Si a = 2, entonces la matriz de coeficientes M y la matriz aumentada Ma son equivalentes a 1 1 1 1 2 M= , Ma = 0 0 0 0 0 Por tanto, r (M ) = r (Ma ) = 1 < 2, entonces el sistema tiene infinitas soluciones.
☞
−2, se tiene que
Si a = 1 y a = u ´ nica soluci´on.
r (M ) = r (Ma ) = 2, por tanto el sistema tiene una
Apartado c: Si suponemos que a = 2, tendremos que:
x + 2y = 2
3x + 2 y =
EJEMPLO 1.78. Dado el sistema
2
cuya soluci´on es
{x = −2, y = 2}
−
− 1)x − my + (m + 1)z (m − 2)x − (m + 1) y + ( m − 2)z (2m − 1)x + ( m − 1)y + (2m − 1)z (2m
= m = m
−1
= m
Determine para qu´e valores de m : email
[email protected]
51
βo
ξ £vι
−
−o
ζℏ
so
z
52
m = −1.
−1.
①
El sistema tiene soluci´on u ´ nica. Respuesta.- m = 0, m = 1 y m =
②
El sistema tiene infinitas soluciones. Respuesta.-
③
El sistema no tiene soluciones. Respuesta.- m = 0, m = 1.
SOLUCION.´ Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
❄
− − −
− −
− x y z
m
1
m m
=
Definir la matriz aumentada Ab
Ab = ❅
− −
2m 1 m m+1 m 2 m+1 m 2 2m 1 m 1 2m 1
− − −
− −
−
2m 1 m m+1 m 1 m 2 m+1 m 2 m 2m 1 m 1 2m 1 m
− −
Reducir la matriz aumentada Ab a su forma escalonada reducida.
email
[email protected]
52
βo
ξ £vι
−
−o
Ab
ζℏ
so
1 2m−1 f1
←→
−(m − 2)f + f −(2m −←→ 1)f + f 1
1
C ←→ 23
f ←→ 23
2 2
− −2−+12+m2+mm f ←→
2 2
donde
z
− 2mm− 1
1
m
−2
2m 1
53
1
m
m
2m
1
0 1 0 0
m 1 2m 1
0
1
0
2 + 2 m + m2 1 + 2m 1
2
m 2m 1
−
( 2 + m)2 1 + 2m
− − −2 + m
m 2m 1
−
2
−2 + m (−2 + m) −1 + 2 m
2
− −
1
m 1 2m 1
m+1 2m 1
0
1
−2 + m
0
0
f (m)
−
1 + m 3m2 1 2m 1 + 2m
m+1 2m 1
−2 + 2 m + m −1 + 2 m
+ f3
m 1 2m 1
m+1 2m 1
−−
m
1
2
1
1
m
− m+1 2m − 1 (−2 + m) −1 + 2 m −2 + m
2
0
− −2
m+1
− − − 2mm− 1 1 + m − 3m 1 − 2m −1 + 2 m m−1 2m − 1 −2 + 2 m + m −1 + 2 m
− − − − − − − − − − − − − − − − − − −
m+1 m 1 2m 1 2m 1
−2 + m + 1 − 2m − −1 + 2m −2 + 2 m + m 1 − 2m + m − m + m g (m) = 3 2 − 6m + 3m + 2 m
1 + 2m
1 + m 3m2 1 2m
m 2m 1 1 + 2m
g (m)
f (m) = ( 2 + m)
y
2
3
2
4
3
2
Las soluciones de la ecuaci´on f (m) = 0 son:
m= email
[email protected]
−1,
m = 2,
m = 1/2(5 53
− √13),
m = 1/2(5 +
√13)
βo
ξ £vι
−
−o
ζℏ
so
z
54
y las soluciones de la ecuaci´on g (m) = 0 son:
m = 1. ❆
−
−√
√
Aplicando el Teorema 1.11. Si m = 1, m = 2, m = 1/2(5 13), m = 1/2(5 + 13) y m = 1 entonces f (m) = 0 y g (m) = 0, por tanto r (A) = r (Ab ) = 3, entonces el sistema tiene
−
soluci´on u ´ nica. Por otro lado, si m = 1 o m = 2 o m = 1/2(5 13) o bien m = 1/2(5 + m = 1, entonces r (A) = 2 = r (Ab ) = 2. El sistema no tiene soluciones. No existe un valor de soluciones infinitas.
−√
√13); pero
m de modo que f (m) = g (m) = 0, entones El sistema no tiene
EJEMPLO 1.79. Resuelva cada una de las siguientes sistemas mediante la eliminaci´on de GaussJordan
(a)
(c)
2x + y + z = 8 3x 2y z = 1 4x 7y + 3 z = 10
− − −
−52xx++2yy ++ 36 zz
(b)
x+y+z = 0 = 0 = 0
−2x + 5 y + 2 z −7x + 7y + z
x 2y + z 4w = 1 ( d) x + 3y + 7z + 2 w = 2 x 12y 11z 16w = 5
− −−
= 00 =
−−
´ SOLUCION.-
EJEMPLO 1.80. Resolver el sistema: 1 1 1 + + = 5 x y z 2 3 4 = 11 (a) x y z 3 2 1 + = 6 x y z
− − −
1 1 13 + = x y 40 1 1 7 (b) + = x z 24 1 1 11 + = y y 30
− −
´ SOLUCION.-
EJEMPLO 1.81. Resolver el sistema: xy 15 = 7x 2y 11
−
(a)
yz
− 7z xz 3x − 5z 8y
email
[email protected]
= =
(b)
−15 − 67 54
5 4 + = 5 2x + y 2x 3y 15 2 + = 5 2x + y 2x 3y
− −
βo
ξ £vι
−
−o
´ SOLUCION.-
ζℏ
so
z
55
EJEMPLO 1.82. Un grupo de personas se reune para ir de excursi´ on, junt´andose un total de 20 entre hombres, mujeres y ni˜nos. Contando hombres y mujeres juntos, su n´umero resulta ser el triple del n´umero de ni˜nos. Adem´as, si hubiera acudido una mujer m´ as, su n´umero igualar´ıa al del hombres. a) Plantear un sistema para averiguar cu´ antos hombres, mujeres y ni˜nos han ido de excursi´on. b) Resolver el problema.
´ SOLUCION.Si llamamos x, y , z , al n´umero de hombres, mujeres y ni˜ nos, respectivamente, que fueron de excursi´on, tendremos:
∗
( )
x + y + z = 20 x + y = 3z y+1 = x
ordenamos
x + y + z = 20 x + y 3z = 0 x y = 1
−
−
Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
❄
1 1 1
−
−13 0
x y z
=
20 0 1
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A= ❅
1 1 1
1 1 1
1 1 1
−
− 1 3 0
,
Ab =
11 12 0 1 1 3 0 1 1 0 1
−
−
Reducir la matriz aumentada Ab a su forma escalonada reducida.
email
[email protected]
55
βo
ξ £vι
−
−o
f ←→ 23
−f + f 8f + f ←→
ζℏ
so
2
1
2
3
11 12 0 1 1 3 0 1 1 0 1
−
−
1 1 1 20 0 2 1 19 0 0 4 20
− − − − −
1 0 0 1 0 0
3/2
21/2
−1/2 19/2 −4 −20
z
56
−f + f −f←→ +f 1
2
1
3
−←→ 1/2f
2
1/4f3
←→
1/2f3 + f2 2f + f −3/←→ 3
❆
1
− − −
1 1 1 20 0 0 4 20 0 2 1 19
− − −
11 1 20 0 1 1/2 19/2 0 0 4 20
− −
1 0 3/2 21/2 0 1 1/2 19/2 00 1 5
−
1 0 0 3 0 1 0 12 0 0 1 5
Aplicar el Teorema 1.11. Como r (A) = r (Ab ) = 3, entonces el sistema tiene una ´ unica soluci´on dada por x = 3, y = 12, z = 5. Luego, habr´an asistido 3 hombres, 12 mujeres y 5 ni˜nos a la excursi´on.
EJEMPLO 1.83. Cierto estudiante obtuvo, en un control que constaba de 3 preguntas, una calificaci´on de 8 puntos. En la segunda pregunta sac´ o dos puntos m´as que en la primera y un punto menos que en la tercera. a) Plantear un sistema de ecuaciones para determinar la puntuaci´on obtenida en cada una de las preguntas. b) Resolver el sistema. ´ SOLUCION.Si llamamos x , y , z , a la puntuaci´on obtenida en cada pregunta, respectivamente, tendremos:
∗
( )
x+y+z = 8 y = x+2 y = z 1
ordenamos
−
x + y + z = x y = y z =
−
−
8
−2 −1
Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
email
[email protected]
1 1 0
1 1 1
−
− − − x y z
1 0 1
56
=
8 2 1
βo
ξ £vι ❄
−
−o
− − − − − − − − ←→ − − − −←→ − − 1 1 0
1 1 1
1 0 1
57
,
Ab =
1 1 1 8 1 1 0 0 1 1
−
−
Reducir la matriz aumentada Ab a su forma escalonada reducida. 1 1 1 8 1 1 0 0 1 1
f23
1/3f3
❆
z
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A=
❅
ζℏ
so
1 1 1 0 1 0 2
1 02 0 1 0 01
8 1 1
9 1 4
2 1
+f −f←→
1 10
−f←→ +f
1
2
2f2 + f3 2
1
f3 + f2
−2←→ f +f 3
1
1
− − 2 1
− − − − − − − − −
1 11 0 2 0 1 10 2 0 1 0 0
8 1 1
9 1 3
10 1
1 12
1001 0103 0014
Aplicar el Teorema 1.11. Como r (A) = r (Ab ) = 3, entonces el sistema tiene una ´ unica soluci´on dada por x = 1, y = 3, z = 4. Luego, habr´a obtenido 1 punto en la primera pregunta, 3 en la segunda y 4 en la tercera.
EJEMPLO 1.84. Un ama de casa adquiri´o en el mercado ciertas cantidades de patatas, manzanas y naranjas a un precio de 100, 120 y 150 ptas/kg., respectivamente. El importe total de la compra fueron 1.160 ptas. El peso total de la misma 9 kg. Adem´ as, compr´o 1 kg. m´ as de naranjas que de manzanas. a) Plantear un sistema para determinar la cantidad comprada de cada producto. b) Resolver el problema. ´ SOLUCION.Si llamamos x, y , z , al n´umero de kg. comprados de patatas, manzanas y naranjas, respectivamente, tendremos:
100x + 120 y + 150 z = 1160 x+y+z = 9 y+1 = z
ordenamos
10x + 12y + 15z = 116 x + y + y = 9 y z = 1
−
−
Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 3.
email
[email protected]
57
βo
ξ £vι ❃
−
−o
ζℏ
so
− − x y z
10 12 15 1 1 1 0 1 1
116 9 1
=
La matriz de coeficientes M y la matriz aumentada Ma son dados por
M= ❅
58
Colocando el sistema en notaci´on matricial
❄
z
−
10 12 15 1 1 1 0 1 1
Ma =
−10←→ f +f 1
2
−2f + f −f←→ +f 2
2
3
1
− −
10 12 15 116 1 11 9 0 1 1 1
−
1 11 9 0 2 5 26 0 1 1 1
−
1 0 2 10 0 1 1 1 0 0 7 28
− −
f12
←→ f ←→ 23
1/7f3
←→
f3 + f2
−2←→ f +f 2
❆
−
Reducir la matriz aumentada Ab a su forma escalonada reducida.
−
10 12 15 116 1 11 9 0 1 1 1
1
− − − − − −
1 11 9 10 12 15 116 0 1 1 1 1 11 9 0 1 1 1 0 2 5 26 1 0 2 10 0 1 1 1 0 01 4 1002 0103 0014
Aplicar el Teorema 1.11. Como r (M ) = r (Ma ) = 3, entonces el sistema tiene una ´ unica soluci´on dada por x = 2, y = 3, z = 4. Por tanto, habr´a comprado 2 kg. de patatas, 3 kg. de manzanas y 4 kg. de naranjas.
EJEMPLO 1.85. En una confiter´ıa envasan los bombones en cajas de 250 gr., 500 gr. y 1 kg. Cierto d´ıa se envasaron 60 ca jas en total, habiendo 5 cajas m´as de tama˜no peque˜no (250 gr.) que de tama˜no mediano (500 gr.). Sabiendo que el precio de la caja de 250 gr. es de 1000 ptas. el precio de la caja de 500 gr. es de 2000 ptas. y el precio de la caja de 1 kg. es de 4000 ptas. Adem´ as se sabe que el importe total de los bombones envasados asciende a 125.000 ptas: a) Plantear un sistema para determinar cu´antas cajas se han envasado de cada tipo. b) Resolver el problema. ´ SOLUCION.Tenemos que: email
[email protected]
58
βo
ξ £vι
−
−o
ζℏ
so
z
59
precio de la caja de 250 gr.=1000 ptas. precio de la caja de 500 gr.=2000 ptas. precio de la caja de 1 kg.=4000 ptas. Si llamamos x, y , z , al n´umero de cajas envasadas de 250 gr. , 500 gr. y 1 kg., respectivamente, tendremos:
x + y + z = 60 x = y+5 1000x + 2000 y + 4000 z = 125000
ordenamos
x + y + y = 60 x y = 5 x + 2y + 4z = 125
−
Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
❄
Colocando el sistema en notaci´on matricial
x y z
1 1 1 0 2 4
=
60 5 125
La matriz de coeficientes M y la matriz aumentada Ma son dados por
M= ❅
− − − 1 1 1
1 1 1
1 1 1 0 2 4
1 1 160 1 1 0 5 1 2 4 125
Ma =
Reducir la matriz aumentada Ma a su forma escalonada reducida.
− ←→ − − − − − ←→ f23
1/5f3
email
[email protected]
1 1 160 1 1 0 5 1 2 4 125
−f + f +f −f←→ 1
2
1
3
2f2 + f3
1 1 1 60 0 1 3 65 0 2 1 55
+f −f←→
1 0 2 5 0 1 3 65 0 0 1 15
−3f + f 2f + f ←→
2
1
2
2
59
2
1
1 1 1 60 0 2 1 55 0 1 3 65
− − −
1 0 2 5 0 1 3 65 0 0 5 75
− −
1 0 0 25 0 1 0 20 0 0 1 15
βo
ξ £vι ❆
−
−o
ζℏ
so
z
60
Aplicar el Teorema 1.11. Como r (M ) = r (Ma ) = 3, entonces el sistema tiene una ´ unica soluci´on dada por x = 25, y = 20, z = 15. Por tanto, se habr´an envasado 25 cajas peque˜nas, 20 medianas y 15 grandes.
EJEMPLO 1.86. El precio de entrada a cierta exposici´ on es de 200 ptas. para los ni˜ nos, 500 para los adultos y 250 para los jubilados. En una jornada concreta, la exposici´ on fu´e visitada por 200 personas en total, igualando el n´ umero de visitantes adultos al de ni˜ nos y jubilados juntos. La recaudaci´on de dicho d´ıa ascendi´ o a 73.500 ptas. a) Plantear un sistema de ecuaciones para averiguar cu´antos ni˜nos, adultos y jubilados visitaron la exposici´on ese d´ıa. b) Resolver el problema. ´ SOLUCION.Si llamamos x, y , z , al n´umero de ni˜nos, adultos y jubilados, respectivamente, que visitaron ese d´ıa la exposici´on, tendremos:
x + y + z = 200 y = x+z 200x + 500 y + 250 z = 73500
ordenamos
x + y + z = 200 x y + z = 0 20x + 50y + 25z = 7350
−
Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
❄
−
x y z
=
200 0 7350
La matriz de coeficientes M y la matriz aumentada Ma son dados por
M= ❅
1 1 1 1 1 1 20 50 25
1 1 1 1 1 1 20 50 25
−
Ma =
1 1 1 200 1 1 1 0 20 50 25 7350
−
Reducir la matriz aumentada Ma a su forma escalonada reducida.
email
[email protected]
60
βo
ξ £vι
−
−o
−←→ 1/2f
2
so
1 1 1 200 1 1 1 0 20 50 25 7350
−
1 1 1 200 0 1 0 100 0 30 5 3350
←→
1/5f3
❆
1 0 1 100 0 1 0 100 0 0 1 70
ζℏ
z
−f + f −20←→ f +f 1
61
2
1
3
−30f + f −f←→ +f 2
2
−f←→ +f 2
3
1
1
1 1 1 200 0 2 0 200 0 30 5 3350
−
−
1 0 1 100 0 1 0 100 0 0 5 350 1 0 0 30 0 1 0 100 0 0 1 70
Aplicar el Teorema 1.11. Como r (M ) = r (Ma ) = 3, entonces el sistema tiene una ´ unica soluci´on dada por x = 30, y = 100, z = 70. Luego, a la exposici´on, habr´an acudido 30 ni˜nos, 100 adultos y 70 jubilados.
EJEMPLO 1.87. En un supermercado van a poner en oferta dos marcas de detergente (A y B). El propietario consulta su libro de cuentas para ver las condiciones de una oferta anterior, encontrando la siguiente informaci´on: el n´umero total de paquetes vendidos fueron 1.000 unidades; el precio del paquete A 500 bs; y el importe total de la oferta 440.000 bs. Pero en sus anotaciones no aparece reflejado claramente el precio del paquete B. a) Plantear un sistema para determinar el n´umero de paquetes vendidos de cada marca. Discutir su compatibilidad. b) Averiguar si el precio del paquete B fue 400 o 408 bs. ¿cu´ antos paquetes se vendieron? ´ SOLUCION.Si llamamos x e y al n´umero de paquetes vendidos de las marcas A y B, respectivamente, tendremos:
x + y = 1000 500x + my = 440000
representando el par´ametro m el precio del paquete de marca B. El n´ umero de inc´ognitas del sistema lineal es n = 2. ❃
Colocando el sistema en notaci´on matricial
email
[email protected]
1 1 500 m
x y
61
=
1000 440000
βo
ξ £vι ❄
−
−o
ζℏ
so
z
62
La matriz de coeficientes M y la matriz aumentada Ma son dados por
M=
1 1 500 m
,
Ma =
1 1 1000 500 m 440000
❅
Reducir la matriz aumentada Ma a su forma escalonada reducida.
❆
1 1 1000 500 m 440000
−500←→ f +f 1
2
1
1 0 m
−
1000 500 60000
−
Aplicar el Teorema 1.11. ☞
Si m = 500, entonces la matriz de coeficientes M y la matriz aumentada Ma son equivalentes a 1 1 1 1 1000 M= , Ma = 0 0 0 0 60000
−
Por tanto, r (M ) = 1 y r (Ma ) = 2, entonces el sistema no tiene soluciones. ☞
❇
Si m = 500, r (M ) = r (Ma ) = 2, por tanto el sistema tiene una ´ unica soluci´on.
Se trata de resolver el sistema para los valores m = 400 y m = 408: x + y = 1000 x = 400 , y = 600 500x + 400 y = 440000
{
x + y = 1000
}
{x = 8000 /23, y = 15000 /23}
500x + 408 y = 440000
Como el n´umero de paquetes vendido de cada marca debe ser un n´ umero entero, el precio del paquete B tiene que haber sido 400 pesetas. En estas condiciones, se habr´ıan vendido 400 paquetes de la marca A y 600 paquetes de la marca B.
EJEMPLO 1.88. En el trayecto que hay entre su casa y el trabajo, un individuo puede llenar gasolina en A tres de servicio B y C. individuo que estepero mesha el precio de la gasolina en haestaciones sido de 5 bs/litro y elA, precio de El la gasolina enrecuerda B de 4 bs/litro, olvidado el precio en C. (Supongamos que son “m” bs/litro). Tambi´ en recuerda que: ❃
la suma del gasto en litros de gasolina en las estaciones A y B super´ o en 936 bs. al gasto en C.
❄
el n´umero de litros de gasolina consumidos en B fue el mismo que en C.
email
[email protected]
62
βo
ξ £vι
−
−o
ζℏ
so
z
63
❅
el gasto de litros en A super´ o al de B en 252 bs.
①
Plantea un sistema de ecuaciones (en funci´on de “m”) para determinar los litros consumidos en cada gasolinera.
②
Estudiar la compatibilidad del sistema en funci´on de “m”. ¿Puedes dar alg´un precio al que sea imposible haber vendido la gasolina en la gasolinera C?
´ SOLUCION.①
Empecemos respondien do a las siguientes preguntas: Cu´ales son las inc´ognitas?, ¿Qu´e tengo que buscar, averiguar o qu´e me preguntan?, ¿Qu´e datos me dan?, ¿Cu´ ales son las condiciones del problema?. Sean
x el n´umero de litros que se ha consumido en la gasolinera A y el n´umero de litros que se ha consumido en la gasolinera B z el n´umero de litros que se ha consumido en la gasolinera C Entonces seg´un las condiciones del problema tendremos:
∗
( )
5x + 4 y = mz + 936 y = z 5x = 4y + 252
obteniendo
− mz y−z 5x − 4y
5x + 4 y
= 936 = 0 = 252
Surgen las siguientes interrogantes: ¿C´omo resolvemos este sistema de ecuaciones?, ¿Qu´e significa resolver un sistema de ecuaciones?, ¿Las soluciones del sistema dependen del valor que tome la variable m?, ¿Para que valores de m, el sistema tiene una sola soluci´ on, muchas soluciones, ninguna soluci´on o infinitas soluciones?. Primero de todo tratemos de responder a la pregunta: ¿Como saber que el sistema tiene soluci´on o no tiene soluci´on?, ¿conocemos alguna teor´ıa que pueda ayudarnos?. Si, la teor´ıa matricial nos puede ayudar a resolverlo, empecemos transformando el sistema en la siguiente ecuaci´on matricial 5
②
05
−m −14 −01
x
4
936
zy
− − − − − =
0 252
Para estudiar la compatibilidad del sistema, llamemos a la matriz de coeficientes matriz aumentada con los t´erminos independientes Ma , es decir
M= email
[email protected]
5 0 5
4 1 4
−
m 1 0
Ma =
63
5 0 5
4 1 4
M y a la
m 936 1 0 0 252
βo
ξ £vι
−
−o
ζℏ
so
z
Observemos que la matriz M es de orden 3 siguiente informaci´on:
64
× 3. Ahora bien, el ´ algebra lienal nos da la
☞
Si rango( M ) = rango( Ma ) = 3, entonces el sistema tiene una ´ unica soluci´on.
☞
Si rango( M ) = rango( Ma ) < 3, entonces el sistema tiene infinitas soluciones.
☞
Si rango( M ) = rango( Ma ), entonces el sistema no tiene soluciones.
5 0 5
−
− ←→ − − ←→ 1 0 5
1/5f1
8f2 + f3
1 0 0
−m −1
4 1 4
4/5 1 4
0
0
936 0 252
252 /5 1 0 m 936
− −
4/5 0 252 /5 1 1 0 0 8 m 684
− −
f13
←→ −5←→ f +f 1
3
4/5f2 + f1
←→
5 0 5
−4
1 0 0
−4/5
1 4
0
252 1 0 m 936
− −
1 8
0
252 /5 1 0 m 684
− −
− − −
1 0 4/5 252 /5 0 1 1 0 0 0 8 m 684
Si m = 8, la matriz de coeficientes M y a la matriz aumentada con los t´erminos independientes Ma son equivalentes a:
M=
1 0 0 1 0 0
−4/5 −1 0
Ma =
− −
1 0 4/5 252 /5 0 1 1 0 0 0 0 684
Entonces r (M ) = 2 y adem´ as r (Ma ) = 3. Ahora bien como rango( M ) = rango( Ma ) entonces el sistema ( ) no tiene soluci´on. Por esta raz´on, resultar´ıa imposible haber vendido la gasolina a 8 bs. litro en la gasolinera C.
∗
Si m = 8, entonces rango( M ) = rango( Ma ) = 3 esto implica que el sistema ( soluci´on u ´ nica. Por ejemplo si m = 6, entonces
x y z
∗) tiene
=
324 342 342
¿Qu´e significa esto?, ¿Cu´ al es la interpretaci´on?.
email
[email protected]
64
βo
ξ £vι
−
−o
ζℏ
so
z
65
EJEMPLO 1.89. (Punto de equilibrio de mercado). Dos productos A y B compiten. Las demandas q A y q B de estos productos est´an relacionadas a sus precios p A y p B por las ecuaciones de demanda: 1 1 qA = 17 2pA + p B y qB = 20 3pB + p A 2 2
−
−
Las ecuaciones de oferta son: 1 pA = 2 + qA + q B 3
y pB = 2 +
1 1 qB + qA 2 4
Que dan los precios a los cuales las cantidades qA y qB estar´an disponibles en el mercado. En el punto de equilibrio del mercado, las cuatro ecuaciones deben satisfacerse dado que la demanda y la oferta deben ser iguales. Calcule los valores de equilibrio de qA , q B , pA y pB .
´ SOLUCION.Considerando las cuatro ecuaciones, obtenemos el siguiente sistema de ecuaciones:
qA qB qA 1 qA 4
2pA
−
1 pA + 2
1
qB 3 1 + qB 2 +
−
+
1 p B = 17 2 3pB
= 20
pA
−
−
pB
=
2
=
− −2
Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 4. ❃
❄
Colocando el sistema en notaci´on matricial
1
0
0
1
1
1 3
1 4
1 2
2 1 2
− 12
− −1
3
0
1
0
qA qB pA pB
=
− − 17 20 2 2
La matriz de coeficientes A y la matriz aumentada Ab son dados por
email
[email protected]
65
βo
ξ £vι
−
A=
❅
−o
ζℏ
so
1
0
2
− 12
0
1
− 12
3
−1
0
0
1
1 1 4
13 1 2
z
,
Ab =
66
1
0
2
− 12
0
1
− 12
3
1
13 1 2
−1
0
0
−1
1 4
Reducir la matriz aumentada Ab a su forma escalonada reducida.
email
[email protected]
66
− − 17 20
2 2
βo
ξ £vι
−
−o
−1/3f + f −1/←→ 2f + f 2
3
2
4
2f2 + f1 1/2f3 + f2 17/6f3 + f4
−
←→
1 0 1 1 4
1 0 0 1 0 0 0 0
ζℏ
so
− − − − − − − − − − − − − 0
− 12
17
1 2
3
20
1
0
2
2
1 1 3 1 2
0
1
1 2
2
1 2 17 6 1 4
3
1 2 19 8
39
1 0 0
0 1 0 0 0 1 0 0 0
−
67
−f + f −1/4f + f ←→ 1
3
1
4
2
17
−4f f ←→
4
20
34
77 3 65 4
2
65 317 2
Aplicar el Teorema 1.11. Como
1 0
0 1 3 1 0 2
− 12 −3 − 12
1 0
2
0 1
− 12
0 0
1
0 0
− 176
0 1
− − − − − −
2
12/317f4
←→
39 f + f1 2 4 31 f + f2 4 4 19 f + f3 6 4
0 1 0 0 0 1 000 1 10004 01006 00108 00016
− 12
17
3
20
1 2 9 8
19
25 4
1 2
17
3
20
19 2 1 2
39
1 0 0
− − ←→ ❆
113
−312 −105 4 19 2 317 12
z
65
77 3
113
−312 −105 4 19 2 6
2
−
65
r (A) = r (Ab ) = 4, entonces el sistema tiene una ´ unica
soluci´on dada por qA = 4, qB = 6, pA = 8 y p B = 6.
−
EJEMPLO 1.90. Dada la ecuaci´on LS : 0.3 Y +100 i 252 = 0 y la ecuaci´on LM : 0.25 Y 176 = 0. Determine el nivel de ingresos y la tasa de inter´es.
− 200i −
´ SOLUCION.El an´alisis LS LM trata de determinar el nivel de ingresos y la tasa de inter´es a los que estar´an en equilibrio tanto el mercado de bienes como el monetario. Para lograr esto se debe resolver el sistema de ecuaciones lineales:
−
email
[email protected]
67
βo
ξ £vι
−
−o
ζℏ
so
z
68
0.3Y + 100 i = 252 0.25Y 200i = 176
−
Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 2. ❃
Colocando el sistema en notaci´on matricial
❄
Y i
−
0.3 100 0.25 200
−
,
Ab =
3 10 1 4
100
252
−200
176
Reducir la matriz aumentada Ab a su forma escalonada reducida.
1 4 1
− ←→ f +f
2
3 10 1 4 1 0
100
−200 1000 3 805 3
−
252 176 2520 3
−34
10 f 1 3
←→ 3 805 2
−←→f −
❆
252 176
=
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A=
❅
0.3 100 0.25 200
1000 f2 + f1 3
←→
1000 3
2520 3
−200
176
1
1000 3
0
1
2520 3 102 805
1 1 4
2520 3 102 0 1 805 1 0
Aplicar el Teorema 1.11. Como r (A) = r (Ab ) = 2, entonces el sistema tiene soluci´on u ´ nica, por tanto en equilibrio Y = 128440 /161 y i = 102 /805.
EJEMPLO 1.91. (Modelos de determinaci´on de ingresos). En general, los modelos de determinaci´on de ingresos expresan el nivel de equilibrio de ingreso en una econom´ıa de cuatro sectores. Como sigue: Y = C + I + G + (X M ). En donde Y =ingresos, C =consumo, I =inversi´ on, G =gastos del gobierno, X =exportaciones y M =importaciones. Consideremos una econom´ıa simple de dos sectores en la que Y = C + I , C = C0 + bY y I = I0 . Sup´ongase asimismo, que C0 = 85, b = 0.90 y I0 = 55. Determinar el nivel de equilibrio de Y y C .
−
email
[email protected]
68
βo
ξ £vι
−
−o
ζℏ
so
z
69
´ SOLUCION.Las ecuaciones dada se pueden reordenar primeramente, de tal modo que las variables end´ogenas C y Y , se encuentren del lado izquierdo de la ecuaci´on y las variables ex´ogenas C0 y I 0 a la derecha. Es decir:
−C
Y
−bY + C
= I0 = C0
Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 2. ❃
Colocando el sistema en notaci´on matricial
❄
Y C
1
=
I0 C0
−1
1 b
−
1
,
Ab =
1
−1
I0
−b
1
C0
Reducir la matriz aumentada Ab a su forma escalonada reducida.
←→ 1
1−b f2
❆
−
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A= ❅
−1
1 b
1 0
1
−b −1 1
−1
I0
1
C0
I0 C0 + bI0 1 b
−
bf1 + f2
←→
f2 + f1
←→
1 0
−1 1−b
I0 C0 + bI0
C0 + bI0 1 b C0 + bI0 1 b
1 0 I0 + 0 1
−
−
Aplicar el Teorema 1.11. Como r (A) = r (Ab ) = 2, entonces el sistema tiene soluci´on u ´ nica, C0 + bI0 85 + (0 ,9)55 C0 + bI0 por tanto en equilibrio Y = I0 + = 55 + = 1400 y C = = 1 b 1 0,9 1 b 85 + (0 ,9)55 1 0,9 = 1345.
−
−
−
−
EJEMPLO 1.92. (Inversiones). Una persona invirti´o un total de 20000 bs en tres inversiones al 6 %, 8 % y 10 %. El ingr eso anual fue de 1624 bs y el ingreso de la inv ersi´on del 10 % fue dos v eces el ingreso de la inversi´on al 6 %. ¿De cu´anto fue cada inversi´on?.
email
[email protected]
69
βo
ξ £vι
−
−o
ζℏ
so
z
70
´ SOLUCION.Denotemos por x, y y z el monto de las inversi´on al 6 %, 8 % y 10 % respectivamente. Es decir, x bs se invertir´an al 6%, y bs se invertir´an al 8%, y z bs se invertir´an al 10%. 6 8 Ahora bien, el ingreso de invertir x bs a l 6 % es x, el ingreso de invertir y bs a l 8 % es yy 100 100 10 el ingreso de invertir z bs al 1 0 % es z . Como el ingreso anual fue de 1624 bs, entonces tenemos 100 una primera ecuaci´on 6 x + 8 y + 10 z = 1624. Por otro lado la persona invirti´ o un total 100 100 100 de 20000 bs, esto es, 20000 bs se dividi´ o en montos de x, y y z bs, as´ı obtenemos una segunda ecuaci´on x + y + z = 20000. Por ´ultimo, se sabe que el ingreso de la inversi´ on del 10 % fue do s 10 6 veces el ingreso de la inversi´on al 6 %, lo cual im plica que z=2 x. 100 100 Simplificando y resumiendo obtenemos el siguiente sistema de ecuaciones: 6 8 10 x+ y+ z = 1624 100 100 100 x + y + z = 20000 10 6 z = 2 y 100 100
3x + 4 y + 5 z = 81200
x + y + z = 20000
−6x + 5z
= 0
Resolvamos el sistema mediante el m´etodo de Gauss Jord´an. El n´umero de inc´ognitas del sistema lineal es n = 3. ❃ Colocando el sistema en notaci´on matricial
− 3 4 5 1 1 1 6 0 5
❄
− 81200 20000 0
=
La matriz de coeficientes A y la matriz aumentada Ab son dados por
A=
3 4 5 1 1 1 6 0 5
,
−
❅
x y z
3 4 5 81200 1 1 1 20000 605 0
Ab =
Reducir la matriz aumentada Ab a su forma escalonada reducida.
−
31 41 51 81200 20000 605 0
−3f + f 6f + f ←→ 1
1
2
3
email
[email protected]
1 1 1 20000 0 1 2 21100 0 6 11 120000
70
f ←→ 13
13 14 15 20000 81200 605 0
−6←→ f +f 2
−
3
1 1 1 20000 0 1 2 21200 0 0 1 7200
− −
βo
ξ £vι ❆
−
−o
ζℏ
so
z
71
Aplicar el Teorema 1.11. Como r (A) = r (Ab ) = 3, entonces el sistema tiene una ´ unica soluci´on dada por x = 6000, y = 6800, z = 7200.
1.11.
Sistemas homog´ eneos
×
Si en el sistema lineal Ax=b, en particular B es el vector nulo de orden m 1, entonces Ax=0. Recibe el nombre de sistema lineal homog´eneo. Este sistema siempre tiene soluci´on, en efecto, el vector nulo 0 de orden n 1 satisface el sistema lineal homog´eneo, este se llama soluci´on trivial. Como consecuencia del Teorema tenemos el siguiente Corolario
×
COROLARIO 1.1. Consideremos en sistema matricial Ax = 0, donde A es una matriz es de orden m n, x de orden n 1 “n es el n´umero de inc´ognitas” y 0 de orden m 1.
×
×
×
(a) Si el rango de la matriz de coeficien tes es igual al n´umero de inc´ognitas, es decir, r (A) = n , entonces dicho sistema admite como ´unica soluci´on la trivial, esto es, x1 = 0, x2 = 0, , ... , xn = 0. (b) Si el rango es menor que el n´umero de variables, es decir, r (A) = r < n, el sistema tendr´a infinitas soluciones. Dado que r < n, entonces las n r inc´ognitas toman valores arbitrarios y a las que se les denomina valores libre o par´ametros.
−
EJEMPLO 1.93. Discutir por el m´etodo de Gauss Jord´an el siguiente sistema:
x+y+z = 0 x y = 0 y+z = 0
−
´ SOLUCION.El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
❄
Colocando el sistema en notaci´on matricial
1 1 0
x y
1
z
−
Definimos la matriz de coeficientes A
A=
email
[email protected]
−
1 1 1 0 1
1 1 0
71
=
0 0 0
1 1 1 0 1 1
βo
ξ £vι ❅
−
−o
z
72
Reducir la matriz A a su forma escalonada reducida.
f23
←→ ❆
ζℏ
so
1 1 0
1 o 0
1 1 1 0 1 1
− 1 1 2
1 1 1
− −
−f←→ +f 1
−f + f 2f + f ←→
2
2
1
2
3
1 o 0
1 2 1
−
1 0 0 o 1 1 0 0 1
− 1 1 1
Aplicar el Corolario 1.1. Como r (A) = 3, entonces dicho sistema admite como ´unica soluci´on la trivial
X=0=
0 0 .. . 0
esto es
x1 = 0, x2 = 0, ..., x n = 0.
EJEMPLO 1.94. Discutir por el m´etodo de Gauss Jord´an el siguiente sistema:
−
x y + 3z = 0 x+y z = 0 x z = 0
− −
´ SOLUCION.El n´umero de inc´ognitas del sistema lineal es n = 3. ❃
Colocando el sistema en notaci´on matricial
❄
1 1 1
−1 1 0
x y z
=
0 0 0
Definimos la matriz de coeficientes A
A= ❅
− − 3 1 1
1 1 1
−1 1 0
− − 3 1 1
Reducir la matriz A a su forma escalonada reducida.
email
[email protected]
72
βo
ξ £vι
−
−o
ζℏ
so
f1 + f2
−f←→ +f 1
❆
3
1 1 1
−1
1 0 0
0 1 1
1 0
−
z
− − − 3 1 1 1 2 2
73
f13
←→ f2 + f3
←→
1 1 1
−
−1 − 3 −1 0 1 1
1 0 0 1 0 0
1 2 0
Aplicar el Corolario 1.1. Como r (A) = 2 < 3. El sistema tiene infinitas soluciones. Dado que 2 < 3, entonces las 3 2 = 1 inc´ognitas (´ultima inc´ognita) toma valores arbitrarios y a las que se les denomina valores libres o par´ametros.
−
Empecemos transformando la matriz escalonada reducida en el siguiente sistema de ecuaciones x = 0 y 2z = 0
−
En este sistema hagamos z = t con t
∈ R y luego despejemos x y z en funci´on de t x = 0 y = 2z = 2t
luego el vector soluci´on es dado por
x y z
0 2t t
=
=t
0 2 1
EJEMPLO 1.95. Consideremos las matrices:
A=
Resolver el sistema lineal
1 2
1 2
0
1 4
1 4
1 2
1 3
1 3
1 3
,
X=
x y z
,
B=
1 1 1
XT A = X T BT X = 1
´ SOLUCION.Efectuemos primero las operaciones matriciales X T A = X T y B T X = 1.
email
[email protected]
73
βo
ξ £vι
−
−o
ζℏ
so
z
74
XT A = XT x y z
1 x 2
+
1 y 4
+
1 z 3
1 x 2
+
1 y 4
+
1 2
1 2
0
1 4
1 4
1 2
1 3
1 3 1 z 3
1 3
1 z 2
1 y 2
+
=
=
x y z x y z
Por igualdad de matrices obtenemos el siguiente sistema de ecuaciones
1 x 2
+ 14 y + 13 z = x
1 2x
+ 14 y + 12 z = y 1 2y
+ 13 z = z
Multiplicando por 12 a las dos primers ecuaciones y por 6 a la tercera ecuaci´ on adem´as de reducir t´erminos semejantes tenemos:
− 3y − 4z 6x − 9y + 4 z 3y − 4z
6x + 3 y + 4 z = 12x
6x
6x + 3 y + 4 z = 12y 3y + 2 z = 6z
= 0
Ahora bien la ecuaci´on B T X = 1 se transforma en
1 1 1
la ecuaci´on
x y z
= 0 = 0
(1.7)
= 1, de donde obtenemos
x +1= y+z
(1.8)
Juntando las ecuaciones en (1.7) con la ecuaci´on (1.8) el sistema a resolver es:
− 3y − 4z 6x − 9y + 4 z 3y − 4z
6x
= 0 = 0 = 0
x+y+z = 1
Aplicando en m´etodo de Gauss Jord´an se obtiene que r(A) = r (Ab ) = 3 y la soluci´on es
x=
email
[email protected]
4 , 11
y=
74
4 , 11
z=
3 . 11
βo
ξ £vι
−
−o
−
ζℏ
so
z
75
EJEMPLO 1.96. Resolver el sistema X T A = X T , donde:
A=
2213 2526 1 3
− −1
3
8
− 5
51 4
,
X es una matriz columna .
´ SOLUCION.Sacando transpuesta a ambos lados de la ecuaci´ on X T A = X T se sigue que
T
T
XT A = XT esto es AT X = X , transponiendo t´erminos, AT X X = 0, obtenemos una ecuaci´on lineal homog´eneo (AT I )X = 0. Aqu´ı el n´umero de inc´ognitas del sistema lineal es n = 4. ❃
El sistema a resolver es ( AT
❄
La matriz de coeficientes
AT
❅
−
−
−I =
2 2 1
− I )X = 0 A − I es dado por 2 −1 3 1000 5 −3 8 − 00 10 01 00 2 −1 5 6 −5 14 0001 T
− − − − ←→ − − − − ←→ −
3 Reducir la matriz A a su forma escalonada reducida.
1 2 1 3
−f + f −2←→ f +f 2
2
3 4
2 4 2 6 1 0 0 0
2f1 + f2 f1 + f3 3f1 + f4
1 3 3 8 2 5 5 13
2 1 3 0 1 2 0 0 0 0 0 0
f2
f2 + f1
←→
❆
=
−1 −3 −2 −5
1 2 2 4 1 2 3 6
−1 −1 −1 −2 −1
1 0 0 0
2 0 0 0
1 0 0 0
2 0 00 00
10 0 0
20 0 1 1 0 0 0 0 0 0
1
3 8 5 13
− − 3 2 2 4
3 2
0 0
2
Aplicar el Corolario 1.1. Como r (AT I ) = 2 < 4. El sistema tiene infinitas soluciones y el n´umero de variables libres es n r = 4 2 = 2. Calculemos estas soluciones infinitas:
−
email
[email protected]
−
−
75
βo
ξ £vι
−
−o
ζℏ
so
z
76
Empecemos transformando la matriz escalonada reducida en el siguiente sistema de ecuaciones x1 + x2 + x4 = 0 x3 2x4 = 0
−
Sean las variables libres x2 y x4 . Entonces haciendo x2 = t y x4 = s con t, s despejemos x1 y x3 en funci´on de t y de s.
x1 + t + s = 0 x3 2s = 0
−
R. Ahora
∈
− −s
x1 = t x3 = 2s
luego el vector soluci´on es dado por
X=
x1 x2 x3 x4
email
[email protected]
− − t
=
t 2s s
s
− t
=
t 0 0
76
+
− s 0 2s s
=t
− 1 1 0 0
+s
− 1 0 2 1
βo
CAP´ITULO 2
La matriz Inversa
2.1.
Matrices Invertibles
Es de todos sabido que nuestra vida diaria contempor´anea requiere de una cantidad de conocimientos matem´aticos cada vez m´as importantes, sin los cuales carece, virtualmente, de significado. El ob jeto de este cap´ıtulo es el desarrollo y estudio de un tema b´asico de ´algebra lineal como es el c´alculo de la matriz inversa y algunas aplicacion es de ´esta a modelos matem´aticos. El c´alculo de la matriz inversa es una herramienta necesaria para resolver sistemas de ecuaciones lineales y ecuaciones matriciales. ´ 2.1. Se dice que una matriz cuadrada A es invertible (o no singular o regular), DEFINICION si existe una matriz B con la propiedad de que AB = BA = I siendo I la matriz identidad. La matriz B se llama inversa de A y se denota por A−1 . De la definici´on, si A −1 existe se tiene que AA −1 = A −1 A = I . Una matriz se dice que es inversible si posee inversa. En caso contrario, se dice que es singular.
EJEMPLO 2.1. Supongamos que A =
AB = y
2 5 1 3
yB =
3 1
5 2
− − − − − − − − − − − 2 5 1 3
3 1
5 2
=
6 3
5 3
10 + 10 5+6
1 0 0 1
=I
5 2 5 6 5 15 15 1 0 = = =I 2 1 3 2+2 5+6 0 1 Puesto que AB = BA = I , A y B son inversibles, siendo cada una la inversa de la otra.
BA =
3
=
. Entonces
−1
−
77
−
ξ £vι
−
−o
ζℏ
so
z
78
´ 2.1. Si existe una inversa de A en Mn ella es ´unica. PROPOSICION ´ DEMOSTRACION.
Sean B y H dos inversas de A, entonces
B = BI = B (AH ) = (BA )H = I H = H. As´ı obtenemos que B = H luego la inversa es ´unica.
´ 2.2. Dada A en Mn . Si existe B en Mn tal que AB = I n entonces BA = I n . PROPOSICION La demostraci´on de esta proposici´on se ver´a m´as adelante. De acuerdo a esto para determinar A −1 basta resolver una de las ecuaciones AX = I n ´o XA = I n .
Observaci´ on. No toda matriz de orden n tiene inversa. Por ejemplo para n = 2 y A = Supongamos que B =
x z y t
a 0 . c 0
es la inversa de A , tenemos que BA = I n , pero
x z y t
a 0 = c 0
xa + zc 0 ya + tc 0
luego BA = I n para toda matriz B .
M´as adelante en Mn se demuestra: Si una matriz de orden n tiene una fila o columna nula, entonces ella no tiene inversa.
EJEMPLO 2.2. Si A =
0 1 . Verifique que A−1 = 1 3
−
− 3 1
1 0
´ SOLUCION.-
− · − ·− − − 0 1 1 3
3 1
EJEMPLO 2.3. Si A =
y ecuaci´ on A x z
=
1 bb2 b3
1 = 0 0 1 1
·
− · − ·−
· − − − − ·
3 0+1 1 ( 1) 0 + 0 1 = 3 ( 1) + 3 1 ( 1) ( 1) + 3 0
·
1 2 3 0 . Verifique que A−1 = 2 1
para b1 , b2 , b3 en R
3 1 1
5 2 1
1 0 0 1 6 2 1
y resuelva la
´ SOLUCION.A−1 es inversa de A si s´olo si AA−1 = A−1 A = I n ,
email
[email protected]
78
βo
ξ £vι
−
−o
ζℏ
so
z
79
− − − − − − − − −− − −− − − − − − − 3 1 1
AA−1 =
5 2 1
5+6
=
2+2 1 1 1 0 0 0 1 0 0 0 1
=
6 2 1
0 1 1
3+5
12
1 2 3 0 2 1
6+6
1+ 6 4 2+2 1 3+2 2 1
por lo tanto A−1 es inversa de A. Ahora premultiplicamos por A −1 la ecuaci´on
As´ı obtenemos
A−1 A
x y z
= A −1
A
x y z
=
b1 b2 b3
b1 b2 b3
y luego asociando e igualando A−1 A = I , tenemos que
x y z
por lo tanto
=
3 1 1
− −
5 2 1
6 2 1
b1 b2 b3
x = 3b1 + 5 b2 + 6 b3 y = b1 + 2b2 + 2 b3 z = b1 b2 b3
− −
En el siguiente teorema se establecen algunas propiedades de la inversa de una matriz
TEOREMA 2.1. Si A, B
∈M
n×n
son matrices invertibles y si α es un n´umero no nulo, entonces:
1. La matriz A−1 es invertible y A−1 para n = 0, 1, 2,...
−1
= A. Adem´as An es invertible y
2. La matriz AB es invertible y (AB )−1 = B −1 A−1 .
An
−1
= A−1
3. La matriz αA es invertible y (αA)1 = α −1 A−1 4. La matriz AT es invertible y AT
−1
= A−1
T
.
5. Si A−1 existe, entonces AB = AC implica que A = C email
[email protected]
79
n
βo
ξ £vι
−
−o
ζℏ
so
z
103
En cada columna de detalla lo que el correspondiente producto necesita de los dem´ as. La matriz que se obtiene es la matriz de demanda interna de este producto A, mientras que el pedido constituye la matriz de demanda externa D: 0000
A=
3000 6100 3200
2
D=
3 4 5
x y El modelo de Leontief es Ax + D = x , donde x = representa la producci´on necesaria de z w antenas, crucetas, tornillos y barras . Despejando x obtenemos la soluci´on
2 9 −1 x = (I A) D = 25 29 Es decir, hay que fabricar 2 antenas, 9 crucetas, 25 tornillos y 19 barras.
−
EJEMPLO 2.30. Una percha est´a est´a compuesta de una barra grande, una base y cuatro barras chicas. La base se une a la barra grande con cuatro tornillos. Las barras chicas se unen a la grande con 2 tornillos cada una. ¿Cu´ antas perchas, bases, etc. deben fabricarse para atender un pedido de 5 perchas, 3 bases y dos barras chicas?. ´ SOLUCION.La tabla siguiente resume la informaci´on del enunciado: Percha Barragrande Base Barrachica Tornillo
Percha 0 1 1 4 0
Barra grande Base Barra chica Tornillo 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 4 2 0
En cada columna de detalla lo que el correspondiente producto necesita de los dem´ as. La matriz que se obtiene es la matriz de demanda interna de este producto A, mientras que el pedido constituye la matriz de demanda externa D:
A=
email
[email protected]
00000 10000 10000 40000 00420
103
D=
5 0 3 2 0
βo
ξ £vι
−
−o
ζℏ
so
z
104
Por tanto la soluci´on x viene dada por
x = (I
−1
− A)
D=
5 5 8
22 76
Es decir, hay que fabricar 5 perchas, 5 barras grandes, 8 bases, 22 barras chicas y 76 tornillos.
email
[email protected]
104
βo
CAP´ITULO 3
Determinantes
El determinante de una matriz cuadrada es un ´ unico n´umero que se asocia a dicha matriz; es por tanto una funci´on del conjunto de las matrices cuadradas en el conjunto num´erico al que pertenecen los elementos de las matrices. En nuestro caso estos n´ umeros ser´an los reales o los complejos, pero se puede dar sobre conjuntos “num´ericos” m´as generales. El uso del determinante surgi´o de las f´ormulas que dan las soluciones de sistemas de n ecuaciones con n inc´ognitas, luego fue identificado (en el caso 3 por 3) como ´ area de paralelogramo o volumen de un paralelep´ıpedo, hasta extenderse a definiciones m´as generales que la que nosotros daremos en este curso (funci´on multilineal alternada). M´as adelante se ver´a que podemos hablar del determinante de una transformaci´ on lineal entre espacios vectoriales, a la que se puede asociar matrices de una manera sencilla. En particular las matrices invertibles son las ´unicas que tienen determinantes distinto de cero. As´ı, una propiedad tan definitoria de una matriz (su invertibilidad) estar´ a caracterizada por la no nulidad de su ´ nico n´umero). determinante (o sea por el valor de un u
3.1.
Definici´ on
La definici´on de determinante de una matriz cuadrada ser´a dada de manera inductiva en el n´umero de filas (o de columnas). O sea, daremos la definici´ on de determinante de una matriz n n a partir del conocimiento de los determinantes de matrices ( n 1) (n 1). El determinante de una matriz A se representa con el s´ımbolo A ; trat´andose de una matriz dada por sus coeficientes, en general no escribiremos los par´entesis con los que en general encerramos el ¸cuadrado” de los n´umeros. ´ 3.1. Sea A = ((aij )) una matriz n n, se define la matriz adjunta del eleDEFINICION
− × −
||
×
105
×
ξ £vι
−
−o
ζℏ
so
mento aij como la submatriz Aij de A 3 EJEMPLO 3.1. Si A = 1 2
− × − − − × × × ×
z
106
de la matriz A que se obtiene eliminado la fila i y la columna j
−4 −3 2 4
7 0
, la matriz adjunta del elemento a 21 =
eliminando la fila 2 y la columna 1 de A: 4 3 , obteni´endose la matriz adjunta A21 = 4 0
−1, se obtiene
− − 4 4
3 0
Observaci´ on 3.1. Si la matriz cuadrada A es de tama˜no n, las matrices adjuntas Aij son de
tama˜no (n
− 1) × (n − 1) .
´ 3.2. (Inductiva en el tama˜no de la matriz) El determinante de una matriz DEFINICION a b 1 1 es el propio n´umero. El determinante de la matriz 2 2, A = es el n´umero c d
× × |A| = ad − bc. El determinante de una matriz A n × n se define como el n´umero |A| = (−1) a |A | + . . . + (−1) a |A | + . . . + (−1) a |A | def
def
1+1
11
i+1
11
i1
n+1
i1
A = (3)(2)
(7) (2) = 3 1 2
(b) Calculemos el determinante de la matriz A =
3 1 7 2
1+1
8
4 2 4
3 7 0
= ( 1)1+1 a11 A11 + ( 1)2+1 a21 A21 + ( 1)3+1 a31 A31 = 2 7 4 3 4 3 = 3 ( 1) + ( 2) = 4 0 4 0 2 7 = 3 ( 28) + ( 12) + ( 2) ( 22) = 52
−
−
−
− −
a11 A11 + ( 1)2+1 a21 A21 + ( 2 4 1 0 1 1 1 =2 1 2 1 1 2 0 0 2 0
| | − −− | | − − −
email
[email protected]
−
2011 2 2 4 3 1 1 1 2 2 0
(c) Calculemos el determinante de la matriz A =
|A| = (−1)
n1
| | − −− − − − −| − | −− − | − | −− − | |
EJEMPLO 3.2. (a) Calculemos el determinante de la matriz A =
|A|
n1
1
− − − − − | | − | | − − − − − 0
1)3+1 a31 A31 + ( 1)4+1 a41 A41
1 1 + ( 3) 0
106
0 2 2
1 4 0
1 1 0
0 2 2 1
1 4 1
−
− 1 1 1
βo
ξ £vι
−
−o
ζℏ
so
z
107
×
Ahora bien, los determinantes de tama˜no 3 3 se calculan del mismo modo que en (b). Verificar que respectivamente, los determinantes tres por tres valen 6 , 0, 6, 3 por lo cual
−
|A| = 2 (6) − 3 (−6) − 2 (3) = 24
3.2.
Propiedades de los determinantes
1. Linealidad (respecto a una fila)
a ) Aditividad (respecto a una fila) Si todos los elementos de una fila de una matriz cuadrada se descomponen en dos sumandos, entonces su determinan te es igual a la suma de dos determinantes que tienen en esa fila los primeros y segundos sumandos respectivamente, y en las dem´as los mismos elementos que el determinante inicial. 5
−1
3
−
6 4 7 1
21 =
|C |
=
=
=
−1
1+5 4 2 3 4 1 4
=
C1
2
⇓ − =
1+2 2+4 3+6 1 3 5 7 4 8
=
··· ··· ···
3
−1
1 4 3 1
2 4
3
−
···
107
+
········· ···
3
−1
5 4 4 1
1 2 3 2 4 6 1 3 5 + 1 3 5 7 4 8 7 4 8
a11 a12 a1n .. .. .. . . . ai1 + bi1 ai2 + bi2 ain + bin .. .. .. .. . . . . a n1 a n2 ann a a a a a a 1 1. n ..11 ..12 .. n ..11 ..12 .. . . . . . ai1 ai2 ain + bi1 bi2 bin .. .. . . . .. .. . . . . .. . .. . . . . an1 an2 ann an1 an2 ann
´ DEMOSTRACION.
email
[email protected]
3
− − ········· ··· 2 4
3 6 9 1 3 5 7 4 8
2+3
2 4
= 7 + 14 = 21
|| | |
= A + B
βo
ξ £vι
−
−o
ζℏ
so
z
Por inducci´on completa Para n = 2. Por un lado
|C | = y por otro
108
a11 a12 = a 11 a22 + a11 b22 a21 + b21 a22 + b22
|A| + |B| = aa aa + Con lo cual |C | = |A| + |B | . 11
12
21
22
a11 a12 = (a11 a22 b21 b22
−a
12 a21
−a
12 a21 ) +
−a
12 b21
( a11 b22
−a
12 b21 )
Hip´ otesis inductiva: La propiedad es v´alida para matrices de orden menor que n Tesis inductiva: La propiedad es v´alida para matrices de orden n . En efecto def
1+1
|C | = (−1) a |C | + . . . + (3.1) + (−1) (a + b ) |C | + . . . + ( −1) a |C | Observemos que si k = i, como la matriz C es de orden n −1, por la hip´otesis inductiva i+1
i1
i1
11
11
n+1
i1
n1
n1
k1
se tiene que
|C | k1
=
=
··· ··· ···
a12 a1n .. .. ak−. 12 ak−. 1n ak+12 ak+1n .. .. .. . . . ai2 + bi2 ain + bin .. .. ... . . an2 ann a12 a1n a12 a1n .. .. .. .. . . . . ak−12 ak−1n ak−12 ak−1n ak+12 ak+1n ak+12 ak+1n + .. .. .. .. .. ... . . . . . ai2 ain bi2 bin .. .. .. .. .. .. . . . . . . a n2 ann a n2 ann
···
··· ··· ··· ···
···
···
···
luego si sustituimos en (3.1) se tiene que
|C |
··· ··· ··· ··· ··· ···
| | | |
= Ak 1 + Bk1 ;
= ( 1)1+1 a11 [ A11 + B11 ] + . . . + ( 1)i+1 (ai1 + bi1 ) Ci1 + . . . . . . + ( 1)n+1 an1 [ An1 + Bn1 ] = ( 1)1+1 a11 A11 + . . . + ( 1)i+1 ai1 Ci1 + . . . + ( 1)n+1 an1 An1 + ( 1)1+1 a11 B11 + . . . + ( 1)i+1 bi1 Ci1 + . . . + ( 1)n+1 an1 Bn1
− −
email
[email protected]
−
−
| | | | − | | | | | | − | | | | − | | 108
| |
−
−
| | | |
βo
ξ £vι
−
−o
ζℏ
so
| |
Pero como Ci1
z
··· ··· ··· ···
a12 .. . ai−12 = ai+12 . a n2
...
109
a1n .. . ai−1n ai+1n .
| | | |
= Ai1 = Bi1 resulta que
··· a |C | = (−1) a |A | + . . . + (−1) a |A | + . . . + (−1) + (−1) a |B | + . . . + ( −1) b |B | + . . . + ( −1) = |A| + |B | Observaci´ on 3.2. No es cierto que |A + B | = |A| + |B | |A| = 14 32 = −10, |B| = 10 02 = 2 pero 1+1
11 1+1
11
11
nn
i+1
i+1
11
|A + B
i1
| =
n+1
i1
i1
i1
− | | | | ··· ······ ··· − ||
3 3 =0= 4 4
a
| | | |
An1 + an1 Bn1
n1 n+1
7= A + B .
b ) Homogeneidad (respecto una fila) un factor com´ un, ´este puede sacarse fuera Si todos los elementos de unaafila contienen del determinante. Si B es una matriz que se obtiene de A multiplicando una de sus filas por un n´umero α entonces
··· ··· ···
a11 a12 a1n .. .. .. . . . αain B = αai1 αai2 .. .. .. ... . . . an1 an2 ann
| |
···
´ DEMOSTRACION.
a11 a12 a1n .. .. .. . . . ain = α ai1 ai2 .. .. . . . . .. . . an1 an2 ann
| |
=α A
Por inducci´on completa
Para n = 2. Por un lado
|B | =
a11 a12 = a 11 αa22 αa21 αa22
= α (a11 a22
−a
12 a21 )
a12 αa21 =
=α a a11 aa12 21 22
=α A
Hip´ otesis inductiva: La propiedad es v´alida para matrices de orden menor que n. Tesis inductiva: La propiedad es v´alida para matrices de orden n . En efecto def
|B| = (−1)
1+1
email
[email protected]
| |
a11 B11 + . . . + + ( 1)i+1 αai1 Bi1 + . . . + ( 1)n+1 an1 Bn1
−
109
| |
−
| |
(3.2)
βo
ξ £vι
−
−o
ζℏ
so
z
110
−
Observemos que si k = i , como la matriz Ck 1 es de orden n 1, por la hip´otesis inductiva se tiene que
|B | k1
··· ··· ··· ···
a12 .. .
a1n .. .
ak−12 ak−1n ak+12 ak+1n = .. .. ... . . αai2 αain .. .. .. . . . an2 ann
···
···
| |
y que Bi1
··· ········· ··· ··· ··· ······ ··· ··· − | | a12 .. .
a1n .. .
ak−12 ak−1n ak+12 ak+1n =α .. .. ... . . a i2 ain .. .. .. . . . a n2 ann
a12 a1n .. .. . . ai−12 ai−1n = ai+12 ai+1n .. .. ... . . an2 ann
| |
= α Ak 1
| |
= Ai1
luego si sustituimos en (3.2) se tiene que
|B|
= ( 1)1+1 a11 α A11 + . . . + ( 1)i+1 αai1 Ai1 + . . . + ( 1)n+1 an1 α An1
−
−
= α ( 1)
1+1
| |
= α A
| | a |A | + . . . + (−1) 11
11
i+1
−
| |
−
ai1 Ai1 + . . . + + ( 1)
n+1
| | |A |
a n1
n1
Veamos un ejemplo
−
6 3 3 4 1 2
−9 1 4
=
−
−
(3)(2) (3)(1) (3)( 3) 3 4 1 1 2 4
3f1
⇓ =
COROLARIO 3.1. Se deduce de la propiedad anterior que
email
[email protected]
110
3
−
−3
| |
| |
2 1 3 4 1 2
1 4
αA = α n A .
βo
ξ £vι
−
−o
ζℏ
so
´ DEMOSTRACION.
|αA|
z
En efecto
| |
··· ···
αa11 αa12 αa1n αa21 αa22 αa2n .. .. .. .. . . . .
=
111
αan1 αan2 αann a11 a12 a1n a21 a22 a2n = αα .. .. .. .. . . . . αan1 αan2 αann = αn A
···
··· ···
···
··· ···
··· ··· ···
a11 a12 a1n αa21 αa22 αa2n =α .. .. .. .. . . . .
αan1 αan2 αann a11 a12 a1n a21 a22 a2n = .. .. .. . . . . .. . . an1 an2 ann
···
2. Intercambio de filas Si se intercambian dos filas o dos columnas de un determinante, ´este cambia de signo. Si B es la matriz que se obtiene de A intercambiando dos de sus filas entonces
|B | =
··· ··· ··· ··· ···
a11 a12 .. .. . .
a1n .. .
a.j 1 a.j 2 ajn .. .. .. . ai1 ai2 ain .. .. . . . . .. . . an1 an2 ann
´ DEMOSTRACION.
···
=
−
··· ··· ··· ··· ···
a11 a12 .. .. . .
a1n .. .
a.i1 a.i2 a.in .. .. .. aj 1 aj 2 ajn .. .. . . . . .. . . an1 an2 ann
···
=
−|A|
| | aa ) . As´ı |B | = −|A| .
Por inducci´on completa. Para n = 2. Por un lado B =
21 11
a22 = a12
a a a12 a21 a11 a22 , y por otro A = 11 12 = (a11 a22 a12 a21 a21 a22 Hip´ otesis inductiva: La propiedad es v´alida para matrices de orden menor que n
−
||
−
Tesis inductiva: La propiedad es v´alida para matrices de orden n Primer caso: La matriz B se ha obtenido de A intercambiando las filas consecutivas i e i + 1
A=
a.11 a.12 a1. n .. .. .. ai1 ai2 ain ai+11 ai+12 ai+1n .. .. .. ... . . . an1 an2 ann
email
[email protected]
··· ··· ··· ···
···
111
y B=
a.11 a12 a1. n .. .. .. . ai+11 ai+12 ai+1n ai1 ai2 ain .. .. .. ... . . . a n1 a n2 ann
··· ··· ··· ···
···
βo
ξ £vι
−
−o
ζℏ
so
z
112
Por la definici´on, se tiene que
|B| = (−1)
1+1
a11 B11 + . . . + ( 1)i+1 ai+11 Bi1
| |
−
| | + ( −1)
i+2
ai1 Bi+11 . . . + ( 1)n+1 an1 Bn1
|
|
−
| |
(3.3)
Pero siendo
B=
··· ··· ··· ···
a11 a12 a1n .. .. .. . . . ai+11 ai+12 ai+1n ai1 ai2 ain .. .. .. .. . . . . an1 an2 ann
···
se tiene que Bi1 = A i+11 y Bi+11 = A i1 , por lo cual
←−←−
.. . .. . Fila i Fila i + 1 .. . .. .
|B | = | A | , | B | = |A | i1
i+11
i+11
i1
y si k = i y k = i +1, se tiene que Bk1 es una matriz de orden n 1 con dos filas intercambiadas respecto de A, por lo cual, por la hip´otesis inductiva Bk1 =
|B| = (−1)
1+1
a11
| | −−|A | . Sustituimos en (3.3) [−|A |] + . . . + ( −1) a |A | + ( −1) a |A | + . . . + (−1) a [−|A |] i+1
11
i+11
k1
i+11
i+2
i1
n+1
i1
n1
n1
Pero ( 1)i+1 ai+11 Ai+11
−
|
= ( 1)i+1 ( 1)2 ai+11 Ai+11 = ( 1)i+1 ( 1) ai+11 ( 1) Ai+11 = ( 1)i+2 ai+11 [ Ai+11 ] = ( 1)i+1 ( 1) ai1 Ai1 = ( 1)i+1 ai1 [ Ai1 ]
|
− − −
−
| | − − − | −| | − − | | −| |
|
con lo cual
|B |
= ( 1)1+1 a11 [
−
=
−[(−1)
i+2
−|A |] + . . . + (−1) a [−|A |] + ( 1) a [ A ] + . . . + ( 1) a [ A ] − −| | − −| | a |A | + . . . + (−1) a |A | + (−1) a |A | + . . . + ( −1) a − |A |] = −|A| 11
i+1
1+1
11
11
i1 i+2
i+1
i1
i+11
i+11
n+1
i1
i+11 i1
n1
n1
i+11
n+1
n1
n1
Segundo caso La matriz B se ha obtenido de A intercambiando las filas i y j = k + 1. La
matriz B se puede obtener de A realizando varios cambios de filas consecutivas. En primer
email
[email protected]
112
βo
ξ £vι
−
−o
so
ζℏ
z
113
lugar realizamos k cambios consecutivos de la fila i de A hasta colocarla en la fila j = i + k.
A=
··· ··· ··· ··· ···
a11 a12 a1n .. .. .. . . . ai1 ai2 ain ai+11 ai+12 ai+1n ai+21 ai+22 ai+2n .. .. .. . . . ak+11 ak+12 ak+1n .. .. .. .. . . . . an1 an2 ann
···
←−←− ←− .. . .. .
.. . .. . .. .
fila i de A fila i + 1 de A fila i + 2 de A fila i + k de A
cambio de la fila i por la i + 1 de
A1 =
A = 2
email
[email protected]
−→ ··· ··· ··· ··· ··· ···
a11 a12 a1n .. .. .. . . . ai+11 ai+12 ai+1n ai1 ai2 ain ai+21 ai+22 ai+2n .. .. .. . . . aj 1 aj 2 ajn .. .. .. .. . . . . an1 an2 ann
···
←− ←− ←− .. . .. .
.. . .. . .. .
fila i de A1 fila i + 1 de A1 fila i + 2 de A1 fila i + k de A 1
cambio de la fila i + 1 por la i + 2 de
−→ ··· ··· ··· ··· ··· ···
a11 a12 a1n .. .. .. . . . ai+11 ai+12 ai+1n ai+21 ai+22 ai+2n ai1 ai2 ain .. .. .. aj 1 aj 2 ajn .. .. .. ... . . . an1 an2 ann
A
←−←− ←−←−
A1
.. . .. .
fila i de A2 fila i + 1 de A2 fila i + 2 de A2
.. .. . .. .
fila i + k de A 2
··· −→ ·· · −→ ·· · −→ 113
βo
ξ £vι
−
−o
A
k −1
ζℏ
so
=
z
··· ··· ··· ··· ··· ··· ···
a11 a12 a1n .. .. .. . . . ai+11 ai+12 ai+1n ai+21 ai+22 ai+2n .. .. .. a.i1 a.i2 a.in ai+k1 ai+k2 ai+kn .. .. .. ... . . . an1 a n2 ann
···
cambio de la fila i + k
Ak =
114
←−←− ←−←− .. . .. . .. . .. . .. .
fila i de Ak−1 fila i + 1 de Ak −1
−
fila i + k 1 de Ak−1 fila i + k de Ak −1
− 1 por la i + k de −→
··· ··· ··· ··· ··· ··· ···
a11 a12 a1n .. .. .. . . . ai+11 ai+12 ai+1n ai+21 ai+22 ai+2n .. .. .. . . . ai+k1 ai+k2 ai+kn ai1 ai2 ain .. .. .. .. . . . . an1 a n2 ann
←−←− ←−
Ak−1
.. . .. . .. . .. . .. .
fila i de Ak fila i + 1 de Ak fila i + k 1 de Ak fila i + k de Ak
−
Como los k cambios de filas son consecutivos, por la primer parte, se tiene que
|A | |A | 1 2
|A | k
k
= = .. . =
−|A| −|A | 1
−|A | k −1
| | − | | − | | − | | −| | | | −
Con lo cual Ak = ( 1) A . En segundo lugar, (repetimos el procedimiento ”hacia arriba”) realizamos k 1 cambios consecutivos de la fila i + k 1 de A K hasta colocarla en la fila i, obteni´endose la matriz B y se cumple, aplicando la primer parte B = ( 1)k −1 Ak De las dos ´ultimas igualdades se deduce B = ( 1)2k −1 A = A .
−
| |
Veamos un ejemplo
−
2 3 1 4 3 1
email
[email protected]
−1 2 4
f13
−3 ⇓ = − 1
114
2
1 4 3
− 4 2 1
βo
ξ £vι
−
−o
ζℏ
so
z
115
3. Determinantes nulos
a ) Si una matriz cuadrada tiene una l´ınea con todos los elementos nulos, su determinante vale cero. Si A tiene una fila de ceros entonces A = 0 ´ DEMOSTRACION. En efecto
| |
|A|
=
=
=
a11 .. . 0 .. . a n1 a11 .. . 1 .. . a n1 a11 .. . 1 .. . a n1
a12 a1n a11 a12 .. .. .. .. . . . . 0 0 = 1 1 1 1 .. . . . .. .. . .. . . . an2 ann an1 an2 a12 a1n a11 a12 .. .. .. ... . . . 1 1 + 1 1 .. . . . .. .. . . . .. . . . . an2 ann an1 an2 a12 a1n a11 a12 .. .. .. .. . . . . 1 1 1 1 .. . . . .. .. . . . .. . . . . an2 ann an1 an2
··· ··· ···
a1n .. . 1 1 .. .. . . ann a1n .. . 1 = .. . ann a1n .. . 1 =0 .. . ann
··· − − ······ − ··· ······ − − ··· − ··· ··· ··· − ······
··· ··· ··· ··· ··· ··· ··· ··· ···
b ) Si un determinante tiene dos filas iguales, es igual a cero. Si A tiene dos filas iguales entonces A = 0 ´ En efecto, si se intercambian dos filas, sabemos que el determiDEMOSTRACION. nante cambia de signo, con lo cual
| |
|A| = | |
As´ı 2 A = 0
a11 a12 .. .. . . ai1 ai2 .. .. . . ai1 ai2
··· ··· ··· ···
a1n .. . ain .. . ain
··· ···
. . ... . an1 an2 ann
⇒ |A| = 0
−
2 3 1 4 3 1
email
[email protected]
=
−
2 1 3
a11 a12 .. .. . . ai1 ai2 .. .. . . ai1 ai2
··· ··· ··· ··· ··· ···
a1n .. . ain .. . ain
. . ... . an1 an2 ann
C1 = C 3
⇓
=
=
−|A|
0
−
115
βo
ξ £vι
−
−o
ζℏ
so
z
116
| |
c ) Si A tiene dos filas proporcionales entonces A = 0 ´ En efecto DEMOSTRACION. a11 a12 a1n a11 .. .. .. .. . . . . ai1 ai2 ain ai1 .. .. .. A = = α .. αai1 αai2 αain ai1 .. .. .. .. .. . . . . . an1 an2 ann a n1
| |
··· ··· ··· ··· ··· ···
··· ··· ··· ··· ···
a12 a1n .. .. . . ai2 ain .. .. ai2 ain .. . . . . .. . an2 ann
···
=0
d ) Si A tiene una fila combinaci´on lineal de las otras filas entonces A = 0 ´ DEMOSTRACION. Sin p´ erdida de generalidad, para simplificar la notaci´on, supongamos que la ´ultima fila es combinaci´on lineal de las anteriores. Aplicando la propiedad de linealidadad a11 a12 a1n .. .. .. ... . . . an−11 an−12 an−1n A = = .. .. .. .. . . . .
| |
···
···
i n−
=
i n−
1α
a
i i1
i=1
=
i=1
i=n−1
αi
i=1
1α
a
i i2
i=1
i=n−1
=
=
a11 .. . an−11 .. . αi ai1 a11 .. . an−11 .. . a i1
a12 .. . an−12 .. . αi ai2 a12 .. . an−12 .. . ai2
··· ···
···
··· ··· ··· ···
En la siguiente matriz A la fila 1 es m´ultiplo de la fila 2.
6 8 10 3 4 5 1 1 0
email
[email protected]
=
(2)(3) (2)(4) (2)(5) 3 4 5 1 1 0 116
i n−
=
1α
a
i in
i=1
a1n .. . an−1n = .. .. . . αi ain a1n .. .. . . an−1n = 0 .. .. . . ain ...
(pues los determinantes tienen dos filas iguales)
| |
3f1
⇓
=
3 4 5 2 3 4 5 1 1 0
= 2(0) = 0
βo
ξ £vι
−
−o
ζℏ
so
z
117
on lineal de filas 4. Combinaci´
a ) Si en un determinante, se a˜ nade a una fila una combinaci´on lineal de las otras filas el valor del determinante no var´ıa. Si B es una matriz que se obtiene de A sumado a una fila de A un m´ultiplo de otra fila de A entonces B = A ´ DEMOSTRACION.
| | | |
En efecto
a11 a12 .. .. . . ai1 a i2 .. .. B = . . aj 1 + αai1 aj 2 + αai2 .. .. . . an1 a n2 a11 a12 a1n a11 .. .. .. .. . . . . ai1 ai2 ain ai1 .. .. .. .. + = . . . . αai1 αai2 αain ai1 .. .. ... .. .. an1 an2 ann an1
| |
a11 .. . ai1 .. = . aj 1 .. a n1
··· ··· ··· ··· ··· ···
a12 a1n .. .. . . ai2 ain .. .. . . aj 2 ajn .. . . . .. an2 ann
··· ··· ··· ··· ··· ···
··· ··· ··· ··· ···
| |
a1n .. . ain .. = . ajn + αain .. ... . ann a12 a1n .. .. . . a i2 ain .. .. = A . . a i2 ain .. . . . .. a n2 ann
···
··· ··· ··· ··· ··· ···
En el siguiente ejemplo B se obtiene de A sumando 2 veces la fila 3 a la fila 1, entonces det(B ) = det( A).
−
2 3 1 4 3 1
−1 2 4
2f3 + f1
⇓ =
−
4 5 1 4 2 3
− 7 2 1
b ) Si B es una matriz que se obtiene de A cambiando la fila Aj por la combinaci´on lineal βA j + αAi con β = 0 (i = j ). Entonces B = β A ´ DEMOSTRACION. En efecto
email
[email protected]
| |
| |
a11 a12 a1n .. .. .. . . . a i1 a i2 ain .. .. .. . . . βa j 1 + αai1 βa j 2 + αai2 βa jn + αain .. .. .. ... . . . a n1 a n2 ann
··· ··· ··· ··· ··· ···
117
=
βo
ξ £vι
−
−o
ζℏ
so
··· ··· ···
a11 a12 a1n .. .. .. . . . ai1 ai2 ain .. .. .. = . . . βaj 1 βaj 2 βajn .. .. .. .. . . . . an1 an2 ann
··· ···
z
118
··· ··· ···
a11 a12 a1n .. .. .. . . . ai1 ai2 ain .. .. .. + . . . αai1 αai2 αain .. .. .. .. . . . . an1 an2 ann
··· ···
a11 .. . a i1 .. =β . aj 1 .. . a n1
··· ··· ···
a12 .. . ai2 .. . aj 2 .. . . . . an2
··· ···
a1n .. . ain .. . ajn .. . ann
=β A
| |
5. Propiedades ”por columnas” Tambi´en se puede probar que el determinante de una matriz A y el de su traspuesta At son iguales: que
At
|A| =
con lo cual en to das las propiedades ante riores se puede cambiar la palabra ”fila” por ”columna”, es decir que las propiedades valen para las columnas 2
−1
3
−
13 14
42
2
1
− =
31 24
−3 41
=
−15
EJEMPLO 3.3. Si A es una matriz triangular, entonces su determinante es igual al producto de los elementos diagonales.
´ SOLUCION.Supongamos que A =
| |
principal), entonces A = a 11 a22 ...a
nn
··· ···
a11 a12 a1n 0 a22 a2n .. .. . . . . .. . . 0 0 ann
···
.
EJEMPLO 3.4. Calcular el siguiente determ iante
´ SOLUCION.Realizando las siguientes operaciones
0 3 2
1
−6 6
5 9 1
(ceros por debajo de la diagonal
(A) Se intercambian las filas 1 y 2 ( B ) La fila 1 es m´ultiplo de 3 (C ) A la fila 3 se le rest´ o 2 veces la fila 1 ( D) La fila 3 es m´ultiplo de 5 (E ) A la fila 3 se le rest´ o 2 veces la fila 2
email
[email protected]
118
βo
ξ £vι
−
−o
ζℏ
so
z
119
obtenemos:
0 3 2
1 5 6 9 6 1
−
− −
(A )
=
(D )
=
−
=
3.2.1.
3 0 2
−6
9 5 1
1 6
1 (3) (5) 0 0 1 (3) (5) 0
−
(B )
=
− − − − − 1 3 0 2
2 3 1 5 2 1 5 = 11
−
2 3 1 5 6 1
(E )
=
− − =
1 (3) (5) 0 0
(3)(5)(
−
1 2 3 0 1 0 10
(C )
2 1 0
3 5 11
−
−11) = 165
− 3 5 5
Desarrollo de un determinante por Adjuntos
∈
Sea A Mm×n (R), la matriz complementaria del elemento aij es la matriz A ij obtiene de A eliminando la fila i y la columna j .
Aij =
a11 .. a(i−1)1 a(i+1)1 .. . a n1
···.. ··· ··· .. .
···
a1(j −1) ..
a1(j +1) ..
a(i−1)(j −1) a(i−1)(j +1) a(i+1)(j −1) a(i+1)(j +1) .. .. . . an(j −1) an(j +1)
···.. ··· ··· .. .
···
a1n .. a(i−1)n a(i+1)n .. . ann
∈M
m×n
(R) que se
´ 3.3. Se llama menor del elemento aij , al determinante de la matriz complemenDEFINICION taria del elemento aij , es decir es el escalar Aij .
| |
´ 3.4. Se llama cofactor de un elemento aij (o adjunto de aij ) al escalar DEFINICION
cij = ( 1)i+j Aij
−
| |
Desarrollo por cualquier fila o columna.- El determinante se ha definido usando los elementos de la primer columna de la matriz A con sus respectivas matrices adjuntas def
a11 A11 + . . . + ( 1)i+1 ai1 Ai1 + . . . + ( 1)n+1 an1 An1 (desarrollo por la primera columna)
|A| = (−1)
1+1
| |
−
| |
−
| |
Pero se puede probar 1 que dicha definici´on coincide con cualquier desarrollo por cualquier columna o fila de A: 1
Es engorroso y no lo haremos aqu´ı pero el lector puede consultar por ejemplo (Teorema 3 y 5 pag 87 del texto
Algebra y geometr´ıa de E. Hernandez)
email
[email protected]
119
βo
ξ £vι
−
−o
ζℏ
so
z
120
Para cualesquiera i = 1, 2,...,n el desarrollo del determinante det( A) por los elementos de la fila i-´esima es dado por (desarrollo por la i
− ´esima fila) n
def
det( A) = A
||
= =
n i+j
aij cij =
aij Aij
− j =1
−
( 1)
i+1
ai1
| | |A | + (−1) a |A | + . . . + (−1) j =1
( 1)
i+2
i1
i2
i2
(3.4) i +n
| |
ain Ain
Para cualesquiera j = 1, 2,...,n el desarrollo del determinante det( A) por los elementos de la columna j -´esima es dado por (desarrollo por la j
− ´esima columna) a c = (−1) a |A | (−1) a |A | + (−1) a |A | + . . . + ( −1) n
| |
det(A) = A
def
=
n
i +j
ij ij
i=1
j +1
=
ij
(3.5)
ij
i=1
1j
j +2
1j
2j
2j
j +n
| |
anj Anj
En resumen, el determina nte de una matriz cuadrada es igual a la suma de los elementos de una fila o columna cualquiera, multiplicados por sus respectivos adjuntos. A las expresiones para calcular el determinante dadas en las ecuaciones (3.5) y (3.4) se les denomina expansi´ on del determinante de Laplace.
EJEMPLO 3.5. Calcular el siguiente determinante de la primera fila
´ SOLUCION.-
−
3 0 2 1 1 0 5 2 3
= ( 1)1+1 3
−
= (3)[3
−
3 0 2 1 1 0 5 2 3
1 0 + ( 1)1+2 0 2 3
−
−
desarrollando por los elementos
1 0 + ( 1)1+3 2 5 3
− 0] − 0 + (2)[ −2 − 5] = −5
−
−
1 1 5 2
EJEMPLO 3.6. Probar que
email
[email protected]
1 a a22 1 b b 1 c c2
= (b
− a)(c − a)(c − b)
120
βo
ξ £vι
−
−o
´ SOLUCION.-
1 a a2 1 b b2 1 c c2
ζℏ
so
− −− − − − −
= 1[bc2 2
= bc
121
− −
b b2 1 b2 1 b + ( 1)1+2 a + ( 1)1+3 a2 c c2 1 c2 1 c
= ( 1)1+1 1
−
z
cb2 ]
a[1c2
2
2
cb
1b2 ] + a2 [c
2
ac
2
ab + a c
b]
2
ab
−
−
−
−
No es f´acil ver directamente que esta suma de 6 t´erminos es igual a ( b a)(c a)(c b). Lo que hay que hacer es desarrollar ( b a)(c a)(c b) y comprobar la igualdad de esa forma.
−
−
−
EJEMPLO 3.7. Calcular el siguiente determinante
−
3 0 0 2 6 1 c 2 1100 5 2 0 3
´ SOLUCION.Como el elemento c est´a en la fila 2 y la columna 3, se ha escrito su adjunto correspondiente. Para hallar en valor del determinante desarrollamos por los elementos de la tercera columna del determinante porque tienen muchos ceros. Esto da:
−
36 01 0 c2 2 1100 5 2 0 3
= ( 1)2+3 c
−
−
3 0 2 1 1 0 5 2 3
−
−
= ( 1)(c)( 5) = 5 c.
El criterio para preferir el desarrollo por una u otra fila es claro: conviene desarrollar por aquellas filas que tengan el m´aximo n´umero de elementos iguales a cero. Si los ceros no estuviesen de entrada all´ı, podr´ıamos crearlos recurriendo a la propiedad (7). Vamos a ilustrar esto con ejemplos:
EJEMPLO 3.8. Calcular ´ SOLUCION.-
3 0 6
1
−1 2 −1 −1
3 0 6
1
2
2
−1 −1 −2f=+ f 1
2
1
3
3 0 0
1
2
−1 −1 3 −2
− −− (1) =3
1 3
1 = 3(2 + 3) = 15 2
La igualdad (1), se obtiene desarrollando por cofactores en la primera columna.
EJEMPLO 3.9. Calcular
email
[email protected]
2 0 0 3
0 40 1 2
3 0 1 5
−
− −
1
2 3
121
βo
ξ £vι
−
−o
´ SOLUCION.-
2 0 0 40 0 1 3 2
3 0 1
−
5
− −1 2
ζℏ
so
−
2 = ( 1)2+2 4 0 3
(1)
−
3
(2)
= (4)(2)
1 1/2
z
122
−1 − 2 −3/2=f + f 4 3 − 3 2 2 −3/2 = 8 2 − 2 = 4 3 1 5
1
3
2 3 0 1 0 1/2
−
−1
2 3/2
−
La igualdad (1), se obtiene desarrollando por cofactores en la fila 2; la (2), desarrollando por cofactores en la columna 1.
EJEMPLO 3.10. Evaluar el siguiente determinante:
− − | | −− − − − − −− − − −− −− − − A =
SOLUCION.´
2 3 0 1 0
0 1 0 1 2 1 5 0 1 1 1 5 0 1 1 1 0 1 0 1
− −
=
2 3 0 1 0
2 3 0 1 0
0 1 0 1 2 1 5 0 1 1 1 5 0 1 1 1 0 1 0 1
0 0 0 1 2 1 5 0 1 6 1 5 0 0 1 1 0 0 0 1
= ( 1)
5+5
2 3 (1) 0 1
2 = ( 1)1+1(2) 1 0
0 0 0 2 1 5 1 6 1 0 0 1 1 5 6 1 0 1
= (2)( 1)3+3(1) 2 1 = (2)(1) (2)( 6)
EJEMPLO 3.11. Hallar
email
[email protected]
1C5 + C3 i = 1, 3, 4,...,n
1 6
(1)( 1) =
Desarrollo por cofactores en la quinta fila
Desarrollo por cofactores en la primera fila
Desarrollo por cofactores en la tercera fila 22
1 1 1 35 37 34 23 26 25
122
βo
ξ £vι
−
−o
ζℏ
so
z
123
´ SOLUCION.Usando el m´etodo de Cofactores o desarrollo por Adjuntos tenemos:
1 1 1 35 37 34 23 26 25
=
−
1 1 2
= ( 1)1+1 (1)
− −
1 z y
z 1 x
−
−35f −23f 2 3
−1 2
+ f2 + f3
1 1
Desarrollo por cofactores en la primera columna
− (3)(−1) = 7
= (2)(2)
EJEMPLO 3.12. Hallar
−
1 1 0 2 0 3
−y x 1
´ SOLUCION.Usando el m´etodo de Cofactores o desarrollo por Adjuntos tenemos:
−
1 z y
z 1 x
−
y x 1
=
1 0 0
−
= ( 1)
− −
z y 1 + z 2 x yz x yz 1 + y 2
− −
1+1
(1)
− −
=
zf 1 + f2 yf 1 + f3
1 + z 2 x yz x yz 1 + y 2
= (1 + z 2 )(1 + y 2 ) =
− −
Desarrollo por cofactores en la primera columna
− (−x − yz )(x − yz ) (1 + z )(1 + y ) + ( x + yz )(x − yz ) 1+y +z +z y +x −y z 2
2
2
2
2 2
2
2
2
2
2 2
= 1+y +z +x
EJEMPLO 3.13. Hallar
1 11 1 1 23 4 1 3 6 10 1 4 10 20
´ SOLUCION.Usando el m´etodo de Cofactores o desarrollo por Adjuntos tenemos:
email
[email protected]
123
βo
ξ £vι
−
−o
1 1 1 1
11 1 23 4 3 6 10 4 10 20
ζℏ
so
=
−
1 0 0 0
1 1 2 3
1 2 5 9
1 2 3 0 1 3 0 3 10
= ( 1)1+1 (1)
−
= 1
EJEMPLO 3.14. Hallar
1 3 9 19
124
−f
1 + fj j = 2, 3, 4
1 2 3 = ( 1)1+1 (1) 2 5 9 3 9 19 =
z
−2f −3f
1 3 3 10
1 1
Desarrollo por cofactores en la primera columna + f2 + f3 Desarrollo por cofactores en la primera columna
1232 3725 67 28 49 67
´ SOLUCION.Usando el m´etodo de Cofactores o desarrollo por Adjuntos tenemos:
1232 3725 6246 7897
=
− − − − − −
= ( 1)1+1(1)
=
− − − − − − − − − − −− −− − − − − − − −− −−
1 2 32 0 1 7 0 10 14 0 6 12
1 0 0
7 84 54
= ( 1)1+1(1)
−
1 10 6
3 f1 + f2 6 f1 + f3 7 f1 + f4
1 6 7
7 14 12
1 16 13
84 54
1 6 7
Desarrollo por cofactores en la primera columna
10f1 + f2 6 f1 + f3
16 13
Desarrollo por cofactores en la primera columna
− − − (−54)(−16) = 1092 − 864 = 228
= ( 84)( 13)
email
[email protected]
124
βo
ξ £vι
−
−o
EJEMPLO 3.15. Hallar
ζℏ
so
z
125
− −− − − −− − − − − − − − − − − − − − −−− − − − − − − − − − − − − − − − − − −−− − − − − − − − − − − − − a 1 1 1
1 a 1 1
1 1 a 1
1 1 1 a
SOLUCION.´ Usando el m´etodo de Cofactores o desarrollo por Adjuntos tenemos:
a 1 1 1
1 a 1 1
1 1 a 1
1 1 1 a
a
=
1 1 1
1 1 1 a a 1 0 0 a 0 a 1 0 a2 1 a 1 a 0
=
a a
1 1
2
a2
a a 1 0 a 0 a 1 a2 1 a 1 a
1 1 1
= ( 1)4+1 (1)
a
1
a 1
a
= = = = =
a
1
a 1
a
Desarrollo por cofactores en la tercera columna
a
a)
2
2
(1
a) (1
(1
a) 1
2 a + a2
(2a
(1
a) 1
2 a + a2
2 a + a3 + a2 + 2
(1
a) 3
5a + a2 + a3
a
(2
2
3
2
4
a)(a
a3
2
1)
a2
3
2 + a2 + a)
a2
a
4
−(3 − 5a + a + a − 3a + 5a − a − a ) −3 + 8 a − 6a + a 0 1 1 1 b+c
EJEMPLO 3.16. Hallar
a
2
2
=
C2 + C3
1
0
1
1)
Desarrollo por cofactores en la cuarta columna
0
a
0
= ( 1)3+2 (a
C1 + C2 C1 + C3 aC1 + C4
1 1
1 1
1 a
a c+a b c a+b
´ SOLUCION.Usando el m´etodo de Cofactores o desarrollo por Adjuntos tenemos:
email
[email protected]
125
βo
ξ £vι
−
−o
0 1 1 1 1 b+c a a 1 1 c+a b 1 1 c a+b
ζℏ
so
=
=
z
0 1 1 1 1 b+c a a 1 1 c+a b 0 0 a a
−
126
−1f
0 1 21 1 b+c 2a a 1 1 c+a+b b 0 0 0 a
3
+ f4
C4 + C3
− − − − − − − − − − − − − − −− − −− − −− − − − − − − − − − − − − − − − − 0 1 2 2a = ( 1)4+4 (a) 1 b + c 1 1 c+a+b =
1 1 c+a+b 2a a 1 b+c 0 1 2
=
1 1 a 0 b+c 0 1
c+a+b 1 a c b 2
=
a( 1)1+1 (1)
b+c 1
= ( a) 2(b + c
EJEMPLO 3.17. Sea ´ SOLUCION.-
=
a 2b + 2 c
=
3ab
a b c d e f g h i
b c 2e 2f h i
− − −
email
[email protected]
2
Cambiando las filas 1 y3
f1 + f2
1 a
c
c 2
3ac + a2 + 2 a = a 2 + 2 a
d e f g h i a b c
a b c = ( 1) d e f g h i
a b c = ( 1)(2)( 1) d e f g h i 126
b
Desarrollo por cofactores en la primera fila
b)
a+c+b =
= 5. Calcule (a)
d e f g h i a b c
a 2d g
(a
1)
Desarrollo por cofactores en la cuarta fila
=
a(3b + 3 c 3ab
y (b)
a
2)
3ac
− −
a b c 2d 2e 2f g h i
5
= (2)(5) = 10
βo
ξ £vι
−
−o
ζℏ
so
z
127
EJEMPLO 3.18. Sin desarrollar directam ente, demuestre que: si A = el determinante de A es igual a ( a
´ SOLUCION.-
1 1 1 b+c c+a a+b bc ca ab
− b)(a − c)(b − c).
=
= =
− − − − − − − − − − − − − − − −
1 1 1 b+c c+a a+b bc ca ab
1 1 1 0 c+a b c a+b b c 0 ca bc ab bc 1 1 1 0 a b a c 0 c(a b) b(a c)
a b a c = (a c(a b) b(a c)
b)b(a
c)
− c(a − b)(a − c)
− b)b(a − c) − c(a − b)(a − c) (a − b)(a − c)(b − c)
= (a =
EJEMPLO 3.19. Aplicando propiedades de determinante, demostrar:
´ SOLUCION.-
1 1 1 1 1 1+ a 1 1 1 1+ b 1 1 1 1+
1 1
c
1 1 1 1 1 1+a 1 1 1 1+ b 1 1 1 1+
=
− −
c
= abc
1000 1 a 0 0 1 0 b 0 1 0 0 c
−1C
1 + Cj j = 2, 3, 4
1 0 0 = ( 1)4+4 (c) 1 a 0 1 0 b = ( 1)3+3 (c)(b) = abc
email
[email protected]
1 1
127
1 0 1 a
Desarrollo por cofactores en la cuarta columna Desarrollo por cofactores en la tercera columna
βo
,
ξ £vι
−
−o
ζℏ
so
EJEMPLO 3.20. Demuestre que
´ SOLUCION.-
1 1 1 a b c a2 b2 c2
z
= (b
1 a bc EJEMPLO 3.21. Verificar que 1 b ac = (b 1 c ab
´ SOLUCION.-
1 a bc 1 b ac 1 c ab
=
= = =
− −− − − −
a b c EJEMPLO 3.22. Suponga que d e f g h i ´ SOLUCION.-
− a)(c − a)(c − b)
a+d b+e c+f d e f g h i
a b c = d e f g h i
det(A5 ) = det(A)
email
[email protected]
1 + fi i = 2, 3
= 7. Encuentre
EJEMPLO 3.23. Si det( A) = 3, hallar det( A5 ). ´ SOLUCION.-
−1f
b a ac bc Desarrollo por cofac− c a ab bc tores en la primera fila (b − a)(ab − bc) − (c − a)(ac − bc) (b − a)b(a − c) − (c − a)c(a − b) (b − a)b(a − c) − (a − c)c(b − a) (b − a)(a − c)(b − c)
= ( 1)1+1 (1) =
− a)(c − a)(c − b)
1 a bc 0 b a ac bc 0 c a ab bc
− −
128
128
5
a+d b+e c+f d e f g h i
d e f + d e f g h i
=7+0=7 .
= 35 = 243 .
βo
ξ £vι
−
−o
ζℏ
so
EJEMPLO 3.24. Calcular
|A | = ´ SOLUCION.-
... ... ... ... 2 2 2 .. . 1 2 2 .. .
2 2 2 .. .
2 2 3 .. .
2 2 2 .. .
n
=
−
1 2 0 .. . 0
1 2 2 .. .
z
2 2 2 .. .
... ... ... .. .
0 2 1 .. .
− −
− − −
0 2 0 .. .
2 f2 + fi i = 1, 3, 4,...,n
−2
2 ... 1 ... .. . . . . 0 0 .. . n
2 0 .. .
1 ... .. . . . . 0 .. . n
0 .. .
2 0 = ( 1)1+1 ( 1) .. .
−
= ( 1)( 1)1+1 (2)
−
=
2 2 2 .. .
2 2 2 .. . n
... ... ... ... 0 0 .. . n 0 2 0 .. .
2 2 3 .. .
129
−2(n − 2)!
EJEMPLO 3.25. Eval´ ue det( M ) siendo M = [1] n×1
Desarrollo por cofactores en la primera fila
2
Desarrollo por cofactores en la primera columna
2
− [1] − I 1×n
n
´ SOLUCION.-
M =
=
1 1 1 .. . 1 1 1 1 .. .
1 1 1 .. .
1 1 1
··· ··· ···
1 1 1 1 1 1 .. . . .. . . . 1 1 1 1
email
[email protected]
···
··· − − 1
1 0 0 .. .
0 1 0 .. .
1 0 0 .. .
··· ··· ···
0 0 0 .. .
···
1
0 0 1 .. . . . . 0 0 0 0 0 1 .. . . . .
··· ··· ···
0 0 0 .. .
···
1
0 0 0 129
0 1 0 .. .
=
0 1 1 .. .
1 0 1 .. .
··· ··· ···
1 1 1 1 0 1 .. . . .. . . . 1 1 1 0
···
βo
ξ £vι
−
−o
0 1 1 .. .
1 0 1 .. .
··· ··· ···
1 1 1 1 0 1 .. . . .. . . .
1 1 1
···
0
ζℏ
so
=
=
=
z
− ··· − − ······ ··· − − ······ − ··· ··· − − ······ − ··· ··· − − − ··· − − 1 0 0 .. .
0 1 0 .. .
0 1 0 1 1 1 .. . . .. . . .
1
1
1
1 0 0 .. .
0 1 0 .. .
1
1
0 1 0 1 1 1 .. . . .. . . . 1 0
1 0 0 .. .
0 1 0 .. .
0
0
( 1)(n
−1C
n + Cj j = 1, 3, 4,...,n
0
0 0 1 .. . . . . 0 n
n−1 veces
= ( 1)( 1)
3.2.2.
130
fi + fn i = 1, 3, 4,...,n
−1 +1 =n−1
n−1 veces
··· 1+
1 1 1 .. .
1
−
1) = ( 1)n−1 (n
− 1)
M´ etodo de Chio
−
El m´etodo de Chio consiste en reducir un determinante de orden n a otro de orden n 1, a los efectos de facilitar el c´ alculo del mismo. El procedimiento puede reiterarse hasta lograr un determinante de orden 2 o 1. El m´etodo consiste en: ①
Elegir una fila o columna en el determinante que tenga todos sus elementos ceros excepto uno que deber´a ser distinto de cero.
②
El elemento distinto de cero necesariamente deber´a tener el valor 1 al que llamaremos pivote y lo marcaremos como 1 i×j si este se encuentra en la fila i y columna j .
③
Si la fila o columna elegida no re´ une estas condiciones, mediante transformaciones elementales en las matrices siempre podremos lograr la condici´ on (1).
④
El valor del determinante ser´a igual al cofactor del elemento pivote.
⑤
Reiteramos el m´etodo hasta lograr un determinante de orden 2 o 1, cuyo proceso de soluci´on ya es conocida.
email
[email protected]
130
βo
ξ £vι
−
−o
ζℏ
so
z
131
EJEMPLO 3.26. Calcular, usando el m´etodo de Chio
det(A) =
´ SOLUCION.-
−1 2 −2 −3 − −1 2 3 0 −1
2 3 0
0 2 2
2
(1) Elegimos una fila que tenga el may or n ´umero de ceros. observamos varias alternativas, por ejemplo elegimos la fila 4. Es decir.
det( A) =
−1 2 −2 −3 − −1 2
2 0 3 2 0 2 23 0
-1
(3) La fila elegida no re´ une la condici´on 2, en esta fila debemos determinar el elemento pivote que deber´a tener el valor 1, para ello existe dos alternativas: (i) Multiplicar la fila 4 por -1 para lograr que el elemento -1 sea 1. (ii) Sumar la columna 4 a la columna 1. Decidimos la segunda alternativa y obtenemos:
det(A) =
2 3 0 2
− − −− − − − − − − − − − −− − − − − − − − − −− − − − −− −
−1 2 −2 −3 − −1 2 0 −1 0 2 2 3
C4 + C1 =
4 0 2
0 2 2 3
1 4×1
1 2 1 0
2 3 2 1
Reducimos a ceros todos los elementos de la fila 4, excepto el pivote, aplicando operaciones elementales por columnas, es decir:
det( A) =
4 0 2
1 4×1
0 2 2 3
−
1 2 1 0
3C1 + C2 C1 + C4 =
2 3 2 1
4 0 2
1 4×1
12 2 8 0
1 2 2 0
6 3 4 0
(4) El valor del determinante ser´a igual al cofactor del elemento pivote, es decir: det(A) = ( 1)4+1
−
12 2 8
1 2 2
6 3 4
=
12 2 8
1 2 2
6 3 4
Observe que el determinante es de orden 3.
email
[email protected]
131
βo
ξ £vι
−
−o
ζℏ
so
z
132
(5) Repetimos el proceso para reduci r el determinante de orden 3 a otro equivalente de orden 2, considerando como l´ınea de desarrollo, la columna 2, que la multiplicamos por 1.
− − − − −− − − −
− − −
12 1 6 2 2 3
det(A) = ( 1)( 1)
8
2
det(A) =
12 1 1×2 2 2 8 2
= ( 1)1+2
26 16
2f1 + f2 2f1 + f3 =
6 3 4
15 = 8
8
−
1[(26)(8)
−
12 1 6 2 2 3
4
Elegimos como elemento pivote 1, es decir:
− − −
=
−
2
12 1 1×2 6 26 0 15 16 0 8
−
4
− (16)(−15)] = −(208 + 240) = −448
EJEMPLO 3.27. Demostrar la identidad:
a1 + b1 x a1
´ SOLUCION.-
a1 + b1 x a1 a2 + b2 x a2 a3 + b3 x a3 =
2 + b2 x a2 aa3 + b3 x a3
−b x − bb xx
−
−b x −b x −b x 1 2 3
2a1 a1 c1 2a2 a2 c2 2a3 a3 c3
a1 a1 c1 = 2 a2 a2 c2 a3 a3 c3
c1 c2 c3
1
c1
2 3
2 cc3
a1 b1 c1
a1 + 2 a2 a3
=
− −− − − − − − − − 2a1 a1 2a2 a2 2a3 a3
C2 + C1 =
2a1 + 2a2 2a3
2 2 2 2x a a3 bb3 cc3
−
a1 b1 c1 = 2(0) + 2( x) a2 b2 c2 a3 b3 c3
b1 x c 1 b2 x c 2 b3 x c 3
b1 x c 1 b2 x c 2 b3 x c 3 =
b1 x c1 b2 x c2 b3 x c3
La columna 2 es suma de dos t´erminos Factorizando 2 de los determinantes
a1 b1 c1 2x a2 b2 c2 a3 b3 c3
EJEMPLO 3.28. Demostrar que el determinante de la matriz A = por x
− y, x − z y z − y.
email
[email protected]
132
1 1 1 x y z x2 y 2 z 2
que divide
βo
ξ £vι
−
−o
´ SOLUCION.-
det(A) =
−
1 1 1 x y z x2 y 2 z 2
−− − −
1C2 + C1 1C3 + C2 =
x x2
y y y2 y2
2
z
133
− − − − − − − − − − − − − − 0
x x2
0
1 z z z 2 z2
y2
z2
y y y2 y2
−z = x −z (x − y )(y + z )(y − z ) − (x + y )(x
= ( 1)1+3 =
ζℏ
so
y
y )(y
x2
z ) = (x
y2
y )(y
y
z
z ) (y + z )
(x + y )
luego det(A) = (x
− y)(y − z)(z − x)
EJEMPLO 3.29. Calcular el determinante de la matriz A =
−
−
1 1 1 3 1 0 20 1 11 2 2 00 2
´ SOLUCION.Usemos el m´etodo de Chio:
− − − − ⇓ −− − ⇓ − −
1 1 1 3 1 0 20 1 11 2 2 00 2
det(A) =
C4 + C1 =
2
f3 + f1 =
3.3.
2
− ⇓ − − − − − − 2f4 =
2
1 1 1 3 1 0 2 0 1 1 1 2 1 0 0 1 4×4
2 1 1 3 1 0 2 0 1 1 1 2 0 0 0 1 4×4
3 0 2 1 0 2 1 1 3×2 1
= 2( 1)
= 2( 1)3+2
4+4
− − −− −−
2 1 1 1 0 2 1 1 3×2 1
3 2 = 1 2
2( 6 + 2) = 8
Matrices elementales y determinantes
´ 3.1. Toda matriz elemental tiene determinante no nulo PROPOSICION
email
[email protected]
133
βo
ξ £vι
−
−o
´ DEMOSTRACION.
ζℏ
so
z
134
1- La matriz E 1 (ver ?? ) que est´a asociada a la operaci ´on elemental e 1 ”multiplicar la fila i por la constante α = 0” tiene determiante
E1 = α I = α = 0
| |
||
pues E1 se obtiene de la matriz identidad I aplicando dicha propiedad 2- La matriz E 2 (ver ??) que est´a asociada a la operaci´on elemental e2 ”intercambiar la fila i por la fila j ” tiene determinante E2 = I = 1
| | −| | −
pues E2 se obtiene de la matriz identidad I aplicando dicha propiedad 3- La matriz E3 (ver ?? ) que est´a asociada a la operaci´on elemental e 3 “sumarle a fila i un m´ultiplo de la fila j ” tiene determinante E3 = I = 1
| | ||
pues E3 se obtiene de la matriz identidad I aplicando dicha propiedad.
´ 3.2. Si A es una matriz n PROPOSICION
´ DEMOSTRACION.
× n y E una matriz elemental n × n se cumple que
|EA | = |E ||A|
1- Sea E1 la matriz que est´a asociada a la operaci´on elemental ”multiplicar la fila i por la constante α = 0” (ver ??)
Por la Proposici´on 3.1
|E | = α |I | = α
(3.6)
1
Si B es la matriz que se obtiene al aplicar la operaci´ on e 1 , por las propiedades de determinantes
|B| = α |A| y por el Teorema 2.2 se cumple que
(3.7)
E1 A = B , con lo cual
|E A | = | B |
(3.8)
1
al sustituir (3.6) y (3.7) en (3.8)
|E A| = |E ||A| 1
1
2- Sea E 2 la matriz que est´a asociada a la operaci´on elemental e 2 ”intercambiar la fila i por la fila j ” (ver ??) Por la Proposici´on 3.1
|E | = −|I | = −1 2
email
[email protected]
134
(3.9)
βo
ξ £vι
−
−o
ζℏ
so
z
135
Si B es la matriz que se obtiene al aplicar la operaci´ on e 2 , por las propiedades de determinantes
|B| = −|A| y por el Teorema 2.2 se cumple que
(3.10)
E2 A = B , con lo cual
|E A | = | B |
(3.11)
2
al sustituir (3.9) y (3.10) en (3.11)
|E A| = |E ||A| 1
1
3- Sea E 3 la matriz que est´a asociada a la operaci´on elemental e3 ”sumarle a fila i un m´ultiplo de la fila j ” (ver ??) Por la Proposici´on 3.1
|E | = |I | 1=
(3.12)
3
Si B es la matriz que se obtiene al aplicar la operaci´ on e 3 , por las propiedades de determinantes
|B| = |A| y por el Teorema 2.2 se cumple que
(3.13)
E3 A = B , con lo cual
|E A | = | B |
(3.14)
3
al sustituir (3.12) y (3.13) en (3.14)
|E A| = |E ||A| 1
1
pues E3 se obtiene de la matriz identidad I aplicando dicha propiedad.
3.4.
Matrices invertibles y determinantes
Ya vimos que una matriz A de orden n
× n es invertible si y solo si
rango (A) = n
Veamos otra condici´on equivalente de invertibilidad
LEMA 3.1. Si A no es invertible la forma escalerizada de A tiene por lo menos una fila de ceros ´ DEMOSTRACION.
Como A no es invertible, se tiene que rango (A) < n Al aplicar el proceso de escalerizaci´on de Gauss, ( es decir que aplicamos una sucesi´ on de operaciones elementales) obtenemos la matriz B (forma escalerizada de A) operaci´on e 1
A
email
[email protected]
−→
operaci´on ek
······ 135
−→
B
βo
ξ £vι
−
−o
ζℏ
so
z
136
Es decir que
Ek ,...E
2 E1 A
=B
donde Ei es la matriz asociada a la operaci´ on elemental ei y por lo tanto
A = E 1−1 E2−1 ...E
−1 k
B
Como
rango (A) = “cantidad de escalones no nulos de B ” Concluimos que “cantidad de escalones no nulos de B ”< n, es decir que B tiene por lo menos una fila de ceros.
× n. ⇔ |A| = 0
TEOREMA 3.1. Sea A una matriz cuadrada de orden n
A es invertible ´ DEMOSTRACION.
⇒
( ) Si A es invertible, por el Teorema 2.4, A puede puede factorizarse como un producto de matrices elementales
A = E 1 E2 ...E
k
Luego, por la proposici´on 3.2
|A| = |E E 1
| |
2
...E
por la proposici´on 3.1 Ei = 0, con lo cual
⇐
| = |E ||E | . . . |E | |A| = 0 1
k
2
k
( ) Supongamos, por absurdo, que A no es invertible, Si B es la forma escalerizada de A, existe una sucesi´on de matrices elementales tales que
Ek ,...E
2 E1 A
=B
| | | | ||
Pero como Ei = 0 y B = 0 (pues por el Lema 3.1 B tiene por lo menos una fila de ceros), concluimos que A = 0, lo cual contradice nuestra hip´otesis
EJEMPLO 3.30. ¿Es invertible la matriz
A=
2 3 1 4 6 2 1 0 1
?
´ SOLUCION.Al calcular el determinante se comprueba que ´este es igual a cero, por lo que se puede afirmar que dicha matriz no posee inversa. det( A) =
email
[email protected]
2 3 1 4 6 2 1 0 1
= 12 + 6
136
− 6 − 12 = 0
βo
ξ £vι
−
3.5.
−o
ζℏ
so
z
137
Determinante de un producto de matrices
El determinante del producto de dos matrices cuadradas del mismo orden es igual al producto de los determinantes:
TEOREMA 3.2 (Binet-Cauchy). Si A y B son matrices n AB = A B
| | | || |
´ DEMOSTRACION.
× n se cumple que | |
Primer caso A no es invertible. Si A no es invertible, entonces A = 0 de donde A B = 0. Por otro lado, si A′ es la forma escalerizada de A, existe una sucesi´on de matrices elementales tales que Ek ,...E 2 E1 A = A′
| || |
es decir que
A = E 1−1 E2−1 ...E Luego
|AB| = y aplicando la proposici´on 3.2
−1 k
E1−1 E2−1 ...E
A′
−1 k
A′ B
AB = E1−1 E2−1 . . . Ek−1 A′ B
| | | | | | | | |AB| = |A||B| = 0
Pero por el Lema 3.1 , A′ tiene una fila de ceros, y por lo tanto A ′ B tambi´ en (por la definici´on del producto de matrices), con lo cual A′ B = 0, por tanto AB = 0. As´ı, hemos probado que
Segundo caso A es invertible. Si A es invertible, por el Teorema 2.4
A = E 1 E2 ...E
k
con cada E i matriz elemental
|AB| = |(E E 1
2
...E k ) B
|
y aplicando la proposici´on 3.2
|AB| = |E ||E | . . . |E ||B| = |E E 1
EJEMPLO 3.31.
2
email
[email protected]
2 1 0 1 2 0 1 2 1
2 1 0 1 2 0 1 2 1
1
k
2
...E
1 2 3 3 4 5 1 1 0
= 3,
1 2 3 3 4 5 1 1 0
137
=
k
||B| = |A||B| .
=2
5 8 11 7 10 13 8 11 13
=6
βo
ξ £vι
−
−o
ζℏ
so
z
138
COROLARIO 3.2. Si A es una matriz invertible, entonces det( A−1 ) = det(A)
−1
=
1 det(A)
Puesto que AA−1 = I , entonces det( AA−1 ) = det( A)det( A−1 ) = det( I ) = 1, de donde se deduce el resultado. ´ DEMOSTRACION.
EJEMPLO 3.32. Suponga que det(A) = 5. Encontrar det (2A)−1 donde A =
a b c d e f a b c
.
´ SOLUCION.-
det (2A)−1 =
3.6.
1 1 1 1 = 3 = = det(2A) 2 det( A) (8)(5) 40
C´alculo de la matriz inversa por determinantes
Sea A una matriz cuadrada de orden n. Se llama matriz complementaria del elemento aij a la matriz A ij que se obtiene de A eliminando la fila i y la columna j . El desarrollo del determinante de la matriz A = (aij ) por su i-esima fila es
|A| = (−1)
i+1
ai1 Ai1 + ( 1)i+2 ai2 Ai2 +
| | −
| | ··· + (−1)
i +j
| | ··· + (−1)
aij Aij +
i+n
| |
ain Ain
(3.15)
´ 3.5 (Menor). Se llama menor del elemento aij , al determinante de la matriz DEFINICION complementaria del elemento aij , es decir es el escalar Aij .
| |
´ 3.6 (Cofactor). Se llama cofactor cij del elemento aij (o adjunto de aij ) de DEFINICION la matriz A al n´umero real: cij = ( 1)i+j Aij
−
| |
Por lo tanto podemos reescribir el desarrollo (3.15) de la siguiente manera
|A| = a
c + ai2 ci2 + . . . + aij cij + . . . + ain cin
i1 i1
(3.16)
DEFINICI ´contiene 3.7 (Matriz de Cofactores). Se llama de cofactores dec .la matriz A a la matriz queON los cofactores de cada elemento aij . Matriz Se escribe cof (A) = A
cof(A) =
email
[email protected]
c11 c12 c21 c22 .. .. . . cn1 cn2 138
.. . c 1n .. . c 2n . . . .. . .. . c nn
βo
ξ £vι
−
−o
ζℏ
so
z
139
´ 3.8 (Matriz de Adjunta). Se llama Matriz Adjunta de la matriz A a la matriz DEFINICION T transpuesta de la matriz de cofactores. Se escribe adj (A) = cof(A) .
c11 c21 .. . c T
c12
| | | | adj(A) = cof(A)
=
.. .
c22 .. .
c1n c2n
LEMA 3.2. Si cof (A)
T
Si A cof( A)
T
T
A 0 .. . 0
=
0 A .. . 0
| |
... ... ... ...
0 0 .. .
.
A
= ((dii )) queremos probar que:
A cof( A)
1. Los elementos de la diagonal de la matriz
d = A . ii
... . c n. 2 . . .. .. . c nn
es la matriz transpuesta de la matriz de cofactores de A, entonces
A cof (A)
´ DEMOSTRACION.
n1
||
T
son todos iguales a
2. Los elementos que no son de la diagonal de la matriz dij = 0 (i = j )
A cof( A)
T
Probemos 1. Para ello calculamos el elemento dii de la matriz A cof( A)
→ →
.. . .. . c i1 .. . .. . c i2 .. .. .. . . . .. . .. . c in
.. . .. .
.. . .. .
... ...
.. . .. .
... ... ... ...
a..i1 a..i2 ... . . a ..in . . . . .. .. . . . . . . ..
↓ ↓
... ... ... ... . .. . .. ... ...
.. . ... .. . ... dii ... .. . .. .. . . . .. .. .. . .. . .. . .. . .. .
son todos nulos, esto es
T
Por lo tanto dii = a i1 ci1 + ai2 ci2 + . . . + aij cij + . . . + ain cin , pero por (3.16) . . . + aij cij + . . . + ain cin , con lo cual dii = A .
| |
email
[email protected]
139
|A|, esto es
|A| = a
c + ai2 ci2 +
i1 i1
βo
ξ £vι
−
−o
ζℏ
so
z
140
Probemos 2. Calculamos el elemento dij de la matriz A cof( A)
→ → →
T
.. . .. . .. . c j 1 . . . .. . .. . .. . c j 2 . . . .. .. .. . . . . .. . . . .. . .. . .. . c jn . . .
.. . .. .
.. . .. .
...
.. . .. .
... ai2 .. . a in ... . . . ... .. . . . . . ..
ai1 .. . .. .
.. . .. . .. . .. . .. . .. . .. .. . . .. . .. . ..
.. . .
↓ ↓
... ... dij . . . . . . .. . .. . .. .
Por lo tanto dij = a i1 cj 1 + ai2 cj 2 + . . . + aik cjk + . . . + ain cjn . Por otro lado consideremos la matriz B que se obtiene de A cambiando la fila j por la fila i:
B=
a11 a12 .. .. . . ai1 ai2
··· ··· ··· ··· ···
a1n .. . ain
. . . ai1 ai2 ain .. .. . . . . .. . . an1 an2 ann
···
··· ··· ←− ←−··· ···
fila i
fila j ...
Si calculamos el determinante de B desarrollando por la j -esima fila se tiene que
|B| = (−1)
j +1
bj 1 Bj 1 + ( 1)j +2 bj 2 Bj 2 +
| | −
| | ··· + (−1)
j +k
| | ··· + (−1)
bjk Bjk +
j +n
| |
bjn Bjn
pero como bjk = a ik y B jk = A jk , resulta que j +1
j +2
j +k
j +n
|B| = (−1) a |A | + (−1) a |A | + ··· + (−1) a |A | + ··· + (−1) a |A | pero c = (−1) |A |, por lo cual |B | = a c + a c + . . . + a c + . . . + a c . Esto prueba que |B | = d . Como |B | = 0 (pues tiene dos filas iguales), se prueba lo deseado. jk
j +k
i1
j1
i2
j2
ik
jk
in
jn
jk
i1 j 1
i2 j 2
ik jk
in jn
ij
TEOREMA 3.3 (M´ etodo de la Adjunta). Si A es invertible, entonces
A−1 = email
[email protected]
1
|A| cof(A)
T
140
=
1 adj (A) det(A)
βo
ξ £vι
−
−o
´ DEMOSTRACION. Por
ζℏ
so
z
141
el lema anterior
| | | |
cofactores de A
|| | | | | | | | | | | | | − | | −
SOLUCION.´ A11 =
20 41
A cof(A)
T
=
A 0 .. .
0 A .. .
0
0
... ... .. . ...
0 0 .. .
= A
A
1 A cof(A) A
Siendo A invertible se tiene que A = 0, con lo cual
1 cof(A) A
A
lo cual prueba que A−1 =
1 4 5
1 2 2 4 0 1
1 = [cof ( A)]t = A
| |
EJEMPLO 3.34. Dada la matriz email
[email protected]
1
= I esto es
es invertible pues A =
A11 = 20 41 = 2
− 1 34
a b c d
34 ; calculemos los
c 11 = 2
1 2 = 8 c31 = 8; 2 4 1 2 = 9 c 22 = 9; 5 1 2 = 10 c 13 = 10; 0 1 =6 c33 = 6 2
− − −
−10 5 con lo cual − − −6 2 1 −8 − − 16 −9 4 − − = −10 −5 6 −
Por lo tanto cof ( A) =
A−1
= A I
I,
⇒| | ⇒ − − ⇒ | | − − ⇒ − ⇒ | | − ⇒ − ⇒ | | − ⇒ − ⇒ − | | − ⇒
y trabajando de la misma manera se obtienen 1 2 = 1 c21 = 1; A31 = 21 = 0 1 4 4 = 16 c 12 = 16; A22 = 12 = 5 1 1 2 4 = 4 c 32 = 4; A13 = 32 = 4 4 5 1 1 1 = c 23 = 5; A33 = 23 = 5 0 4
| | | |
T
T
0 0 .. .
1 T cof(A) . A
EJEMPLO 3.33. La matriz A =
|A |A |A |A
0 ... 1 ... .. . . . . 0 0 ... 1 0 .. .
2 16 1 9 8 4
1 17 8 17 5 17
1 34 9 34 5 34
4 17 2 17 3 17
.
, calcular su matriz inversa A−1 141
βo
ξ £vι
−
−o
ζℏ
so
z
142
´ SOLUCION.Primeramente calculamos la matriz de cofactores: cof( A) =
−
( 1)1+1 d
1+2
( 1)2+1
2+2
−
| | (−1) |c| |b| (−1) |a|
=
d b
−
−c a
Por tanto, la matriz Adjunta adj( A) es:
− − −
adj(A) = cof(A) Si el determinante es no nulo:
det(A) =
T
d c
=
a b = ad c d
b a
bc = 0.
Entonces, aplicando la definici´on anterior obtenemos la matriz inversa de A:
A−1 =
1 adj(A) = det(A)
− ad −1 bc −dc −ab
EJEMPLO 3.35. Hallar la inversa de la matriz:
1 2 0
−3 2 5 0 −1 −2
´ SOLUCION.Resolvemos este problema por etapas: ①
C´alculo del valor de su determinante:
1 2 0
−3 2 5 0 −1 −2
=
−10 − 4 − 12 = −26 = 0
Al ser el determinante diferente de cero sabemos, pues, que la matriz tendr´ a inversa. ②
C´alculo de la matriz de cofacto res cof ( A). Los cofactores de los nueve elementos de A son:
email
[email protected]
142
βo
ξ £vι
−
−o
− − −−−
c11 = + c21 =
c31 = +
5 1 3
ζℏ
so
− − − − − 0 = 2 2
=
1 2 3 2 = 5 0
z
− −
10
c12 =
8
c22 = + c32 =
10
2 0 1
③
c13 =
=
0 2 1 2 =4 2 0
− − −
−
c23 =
2
− c33
−
10 4 2 8 2 1 10 4 11
− −
2 0 1
0 1 =+ 2
− − − −
5 = 1
−2
3
=1 1 3 = 11 5
C´alculo de la matriz Adjunta, la traspuesta de la matriz de cofactores.
− − − − − − − −
adj(A) = cof(A) ④
− −
0 =4 2
2
Por tanto, la matriz de cofactores o adjuntos es:
cof( A) =
143
T
10 4
=
8 2
10 4
2 1 11 Entonces, aplicando la definici´on anterior obtenemos la matriz inversa de A:
A−1
1 = adj(A) = det(A)
1 26
−
10 8 10 4 2 4 2 1 11
−
−
=
5/13 2/13 1/13
−
4/13 1/13 1/26
−
5/13 2/13 11/26
− −
EJEMPLO 3.36. Hallar la inversa de la matriz:
1 0 2
2 3 1
−
−1 2 5
´ SOLUCION.- Resolvemos este problema por etapas: ①
C´alculo del valor de su determinante:
1 0 2
2 3 1
−
−1 2 5
=
−15 + 8 + 0 − 6 − 2 = −15 = 0
Al ser el determinante diferente de cero sabemos, pues, que la matriz tendr´ a inversa. email
[email protected]
143
βo
ξ £vι ②
−
−o
ζℏ
so
z
144
C´alculo de la matriz de cofacto res cof ( A). Los cofactores de los nueve elementos de A son:
− − − − − − −
c11 = + c21 =
c31 = +
3 2 = 1 5
2 1
2 3
1 5 =
17
11
1 =1 2
− − − − − − − − − − − − − − − − − − − − c12 =
0 2 =4 2 5
−
1 c22 = + 2
1 5 =7
1 0
c32 =
1 = 2
2
0 2
c23 =
1 2 2 1 =3
c33 = +
1 0
Por tanto, la matriz de cofactores o adjuntos es:
=6
2 = 3
−3
La traspuesta de la matriz de los cofactores anteriores proporciona el adjunto de A:
adj(A) = cof(A) ④
1
17 4 6 11 7 3 1 2 3
cof( A) = ③
− −3
c13 = +
T
17 4
=
11 7
1 2
6 3 3 Entonces, aplicando la definici´on anterior obtenemos la matriz inversa de A:
A−1 =
1 adj(A) = det(A)
1 15
17 4 6
11 7 3
1 2 3
EJEMPLO 3.37. Vamos a calcular la matriz inversa A−1 de la matriz A 1 0 1
0 2 1
1 3 1
´ SOLUCION.Para que la matriz tenga matriz inversa dbe reunir dos condiciones: Debe ser una matriz cuadrada y su determinante debe ser distinto de cero. ①
Nuestra matriz es cuadrada de orden 3 y su determinante es distinto de cero, en efecto:
1 0 1
0 2 1
−
−1 3 1
=2+0+0+2+3+0= 7 = 0
Al ser el determinante diferente de cero sabemos, pues, que la matriz tendr´ a inversa. email
[email protected]
144
βo
ξ £vι ②
−
−o
ζℏ
so
z
C´alculo de la matriz de cofacto res cof ( A). Los cofactores de los nueve elementos de A son:
− − − − − − −
c11 = +
2 3 = 1 1
c21 =
0 1
c31 = +
0 2
c12 =
5
1 1 =1
1 = 3
− −
0 1
1 c22 = + 1
c32 =
2
1 0
Por tanto, la matriz de cofactores o adjuntos es:
cof( A) = ③
5 1 2
−
c13 = +
0 1
1 1 =
c23 =
1 1
1 3
c33 = +
−2 = −3 −2
3 2 3
1 2
−
− − −
2 =2 1 0 1 =1
1 0 = 0 2
2
T
5 1 3 2 2 1
− =
2
−23
Entonces, aplicando la definici´on anterior obtenemos la matriz inversa de A:
A−1
⑤
− − −
3 =3 1
El siguiente paso consiste en transponer la matriz de los cofactores obtenida en el paso previo.
adj(A) = cof(A) ④
145
1 1 = adj(A) = det(A) 7
−
5 1 3 2 2 1
− − 2 3 2
=
5 7 3 7 2 7
1 7 2 7 1 7
2 7 3 7 2 7
−
Comprobando que se cumple la propiedad fundamental de la matriz inversa
email
[email protected]
1 0 1
0 2 1
−
−1 3 1
5
1
7 3 7 2 7
7 2 7 1 7
−
145
2 7
− 37 2 7
=
1 0 0 0 1 0 0 0 1
βo
ξ £vι
−
−o
ζℏ
so
z
146
EJEMPLO 3.38. Calcular la matriz inversa A−1 de la matriz A
−
−2 −1
1 5 3
3 2 3
4
´ SOLUCION.Para que la matriz tenga matriz inversa dbe reunir dos condiciones: Debe ser una matriz cuadrada y su determinante debe ser distinto de cero. ①
Nuestra matriz es cuadrada de orden 3 y su determinante es distinto de cero, en efecto:
1 5 3
−
−2 −1
3 2 3
4
= 103 = 0
Al ser el determinante diferente de cero sabemos, pues, que la matriz tendr´ a inversa. ②
Calculamos todos los cofactores de la matriz A .
c11 = + c21 =
− − − −
c31 = +
③
−1 4 2 4
=
−3 3 −3
5
c12 =
5
− = −6
c22
2 3 =1 1 2
−
−
3 1 =+ 3
c32 =
2
− −
5 21 17 6 12 2 1 13 9
−
c13 = +
= 21
−3 3 −3
=
−12
c23 =
1 3 = 13 5 2
−
c33 = +
− − −−
con las res puestas form o la matriz cof ( A) y luego obtengo
cof( A) = ④
2
adj(A) = cof(A)
cof(A)
T
=
T
5
−1
3 1 3
− −
1 5
EJEMPLO 3.39. Dada la matriz
email
[email protected]
1 1 adj(A) = det( A) 103
2 3 4 2 1 1 1 1 2
−
2 =9 1
que es la adj( A)
− −
5 6 1 21 12 13 17 2 9
Entonces, aplicando la definici´on anterior obtenemos la matriz inversa de A:
A−1 =
= 17 4 2 =2 4
5 6 1 21 12 13 17 2 9
, calcular su matriz inversa A−1
146
βo
ξ £vι
−
−o
ζℏ
so
z
147
´ SOLUCION.Primeramente calculamos la matriz de cofactores:
− −
( 1)1+1
cof( A) =
( 1)2+1
−
( 1)
3+1
1 1 1 2 3 4 1 2 3 4 1 1
− − − − − −
( 1)1+2
−
( 1)2+2 ( 1)
3+2
Por tanto, la matriz Adjunta adj( A) es:
2 1 1 2
( 1)1+3
2 4 1 2
( 1)2+3
2 4 2 1
3+3
adj(A) = cof(A) Hallamos ahora el determinante:
det(A) =
T
( 1)
1 3 1
=
−2 0 1
− − −
2 1 1 1 2 3 1 1
−03
1 2 1
=
2 3 2 1
6
− 1 1 4
1 6 4
−
− − − − − −
22 31 41 1 1 2
=
3=0
Entonces, aplicando la definici´on anterior obtenemos la matriz inversa de A:
A−1 =
1 adj(A) = det(A)
1 3 1
1 3
2 0 1
1 6 4
EJEMPLO 3.40. Hallar la matriz Adjunta y su matriz inversa usando: A−1 =
(a)
´ SOLUCION.-
5 0 4 3 1 2 9 4 6
(b)
EJEMPLO 3.41. Hallar A
email
[email protected]
−1
2
−
1 0 2 7 01 3 2 22 4 9 11 2 5
si Adj( A) =
1 2 0 2 1 1 2 4 3
147
(c)
−
1 2 1 2 5 4 5
Adj(A) . A
| |
3
3 9 10 9 4 11 12 16
.
βo
ξ £vι
−
−o
´ SOLUCION.-
ζℏ
so
z
148
EJEMPLO 3.42. Una persona dispon´ıa de 60000 euros y los reparti´o en tres fondos de inversi´on diferentes (A, B y C), obteniendo as´ı 4500 euros de beneficios. Sabemos que en el fondo A invirti´ o el doble que en los fondos B y C juntos; sabemos tambi´ en que el rendimiento de la inversi´on realizada en los fond os A, B y C fue del 5 %, 10 % y 20 % respe ctivamente. a) Plantear un sistema para determinar las cantidades invertidas en cada uno de los fondos. b) Resolver el sistema anterior.
´ SOLUCION.Si 0
≤ r ≤ 100, entonces el r % de a es calculado mediante la siguiente f´ormula: p=
r a. 100
Eligiendo las inc´ognitas
x la cantidad de euros invertida en el fondos de inversi´ on A y la cantidad de euros invertida en el fondos de inversi´ on B z la cantidad de euros invertida en el fondos de inversi´ on C El capital inicial de ambos amigos es de 60000 euros. Esto conduce a establecer nuestra primera ecuaci´on x + y + z = 60000. Puesto que el rendimiento de la inversi´on realizada en los fondos A es del 5 %, entonces se invierte x euros al 5 %, de modo similar obtenemos que la inv ersi´on de y euros es al 1 0 % y z euros al 20 %. Al cabo del a˜no los x euros se convierten en x mas el 5% de x, esto es, este amigo percibe 0.04 x euros adicionales. Ahora bien, por invertir y euros al 10 % al cabo de pr imer a˜no recibe 0.05 y euros adicionales y finalmente recibe 0.06 z euros. Como se obtienen 4500 euros de beneficios. Entonces al sumar las cantidades mencionadas debemos tener: 0.05x + 0.10 y + 0.20z = 4500 Por otro lado, sabemos que en el fondo A invirti´ o el doble que en los fondos B y C juntos, esto conduce a la siguiente ecuaci´on: x = 2(y + z ) Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal:
x + y + z = 60000 0.05x + 0.10 y + 0.20 z = 4500 x 2y 2z = 0
−
−
Este sistema escrito de forma matricial, equivale a
email
[email protected]
1 1 1 0.05 0.10 0.20 1 2 2
− −
x y z
148
=
60000 4500 0
βo
ξ £vι
−
−o
ζℏ
so
z
149
A:
Primeramente calculamos la matriz de cofactores de la matriz de coeficientes
− − −
( 1)1+1
cof( A) =
0.2 0 0.1
− −
0.10 0.20 2 2
( 1)1+2
−
1 1 2 2
( 1)2+1
( 1)3+1
=
− −
1 1 0.05 0.10
0.05 0.20 1 2 1 1
( 1)2+2
−
( 1)3+2
−
0.3 0.2 3 3 0.15 0.05
− −
− −
( 1)1+3
−
1 2
1 1 0.05 0.20
− −
( 1)2+3
−
( 1)3+3
−
0.50 0.10 1 2 1 1
1 2
1 1 0.05 0.10
Por tanto, la matriz Adjunta adj( A) es:
− − −
adj(A) = cof(A)
T
=
0.2 0.3
0 3
0.1 0.15
−
0.2 3
Hallamos ahora el determinante:
1 1 1 0.05 0.10 0.20 1 2 2
det( A) =
0.05
= 0.3 = 0
Entonces, aplicando la definici´on anterior obtenemos la matriz inversa de A:
−1
A x y z
1 = adj(A) = det(A)
=
3.7.
0.666667 1 0.666667
0.666667 1 0.666667
0 0.333333 10 0.5 1 0.166667
−
−
0 0.333333 10 0.5 1 0.166667
60000 4500 0
40000 15000 5000
−
−
=
Regla de Cramer
Llamaremos sistema lineal de n ecuaciones con n inc´ognitas a un sistema de ecuaciones de la forma email
[email protected]
149
βo
ξ £vι
−
−o
ζℏ
so
z
a11 x1 + a12 x2 + a21 x1 + a22 x2 +
··· + a ··· + a
an1 x1 + an2 x2 +
··· + a
150
1n xn
= b1 = b2 .. .
2n xn
x
(3.17)
= bn
nn n
que escrito de forma matricial, equivale a
a11 a12 a21 a22 .. .. . . an1 an2
.. . a 1n .. . a 2n . . . .. . .. . a nn
x1 x2 .. . xn
=
b1 b2 .. . bm
(3.18)
Denotemos por A la matriz de coeficientes, x el vector de inc´ognitas y b el vector de t´erminos independientes, esto es
A=
a11 a12 .. . a 1n a21 a22 .. . a 2n .. .. . . . . .. . .
x=
x1 x2 .. .
b=
b1 b2 .. .
an1 an2 .. . a nn xn bn luego 3.18 puede escribirse abreviadame nte como Ax = b . Sean: A 1 , A 2 , A 3 ,...,An las matrices que se obtiene al sustituir los terminos independientes en la 1ra columna , en la 2da columna, en la 3ra columna y en la enesima columna respectivamente. Esto es, la matriz Aj con j = 1, 2, 3,...,n se obtiene de la matriz A al sustituir la j -´esima columna por el vector b.
A1 =
b1 a12 b2 a22 .. .. . . bn an2
.. . a 1n .. . a 2n . .. . .. .. . a nn
,
A2 =
a11 b1 .. . a 1n a21 b2 .. . a 2n .. .. . . . . .. . . an1 bn .. . a nn
,....,A n =
TEOREMA 3.4 (Regla de Cramer 1). Sea A una matriz de orden n el sistema Ax = b es compatible y determinado y su soluci´on (´unica) es
xj =
|A | |A| j
a11 a12 a21 a22 .. .. . . an1 an2
.. . b 1 .. . b 2 . .. . .. .. . b n
× n Si |A| = 0 entonces
j = 1, 2 ...,n
donde Aj es la matriz que se obtiene de A sustituyendo la columna j por b ´ DEMOSTRACION. Como
email
[email protected]
|A| = 0, existe A
−1
, por lo tanto
150
Ax = b
⇔x=A
−1
b lo que prueba
βo
ξ £vι
−
−o
ζℏ
so
z
151
la existencia y la unicidad de la soluci´on, para encontrarla proseguimos como sigue
x = A−1 b 1 x = cof(A) A
x.1 .. xj .. . xn x1 .. . xj .. . xn
Por lo tanto
T
| |
b
n1 21 c11 b1 .. c .. .. .. . c .. . . . . b2 c1j c2j .. . c nj .. . .. .. . . .. . . . . bn c1n c2n .. . c nn c11 b1 + c21 b2 + . . . + cn bn .. . c1j b1 + c2j b2 + . . . + cnj bn .. . c1n b1 + c2n b2 + . . . + cn bn
| | | | 1 A
=
1 A
=
2
1 (c1j b1 + c2j b2 + . . . + cnj bn ) A Por otro lado si consideramos la matriz
xj =
| |
Aj =
a11 ai1 .. . an1
··· ··· .. .
···
b1 b2 .. . bn
··· ··· ··· ···
j = 1, 2 ...,n
a1n ain .. . ann
(3.19)
que se obtiene de A sustituyendo la columna j por b, y desarrollamos el determinante de Aj por la columna j se tiene que
|A | j
= ( 1)j +1 b1 A1j + ( 1)j +2 b2 A2j + . . . + ( 1)j +n bj Anj = c1j b1 + c2j b2 + . . . + cnj bn
−
| | −
Al sustituir en (3.19) se obtiene
xj =
| |
|A | j
− − −
En este caso A =
2 1 1
−
email
[email protected]
1 1 3
y b=
−
x + 2y z = 7 2x + y + z = 6 usando la regla de Cramer. x y + 3z = 1
EJEMPLO 3.43. Vamos a resolver el sistema 1 2 1
| |
j = 1, 2 ...,n.
A
| |
−
7 6 1
151
−
βo
ξ £vι
−
−o
ζℏ
so
z
152
| | −3 = 0 el sistema es compatible y determinado y sus soluciones son 7 2 −1 6 1 1 − 1 −1 3 5 | A| x= = = , 3 |A| −3 1 7 −1 1 2 7 2 6 1 2 1 6 1 −1 3 1 −1 −1 | A| 8 | A| y= = , z= =0 |A| = −3 3 |A | = −3
Como A =
1
2
3
||
| |
TEOREMA 3.5 (Cramer 2). Si A = 0 y existe j 0 tal que Aj = 0 entonces el sistema Ax = b es incompatible 0
||
|
EJEMPLO 3.44. Como A = 0 se tiene que rango (A) < n. Por otro lado si A = ( A b) es la matriz ampliada del sistema, como las columnas de Aj son tambi´ en columnas de A se tiene que 0
≥ rango (A
rango A Adem´as rango (Aj ) = n, por ser 0
rango (A) < rango A ible.
)
|A | = j0
j0
0, con lo cual
n
≤
rango A . Por lo tanto
y por el teorema de Rouch´e - Frobenius el sistema Ax = b es incompat-
| |
| |
Observaci´ on 3.3. Un error frecuente es decir que: Si A = 0 y Aj = 0 entonces el sistema Ax = b es indeterminado. Veamos ejemplos.
|
EJEMPLO 3.45. Para el sistema de ecuaciones
A=
1 1 1 1 1 1 1 1 1
x+y+z= 1 x + y + z = 1 se tiene que x+y+z= 0 b=
1 1 0
Por lo tanto A = A1 = A2 = A3 = 0, sin embargo es evidente que el sistema es incompatible. x+y+z = 1 1 1 1 x + y + z = 1 se tiene que A = 1 1 1 , Mientras que para el sistema de ecuaciones x+y+z = 1 1 1 1 1 1 b= y tambi´ en se cumple que A = A1 = A2 = A3 = 0, pero el sistema es compatible 1 e indeterminado.
| | | | | | |
email
[email protected]
| | | | | | | | 152
βo
ξ £vι
−
−o
ζℏ
so
z
153
EJEMPLO 3.46. Resolver el siguiente sistema por la regla de Cramer. 2x + 3y + z = x y + z = y + z =
3 5 2
−
−
´ SOLUCION.La expresi´on matricial es
2 1 0
3 1 1 1 1 1
−
− − − − x y z
3 5 2
=
El determinante de la matriz de coeficientes toma el valor
∆=
2 1 0
3 1 1 1 1 1
=
6=0
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos
∆1 =
−
53 2
−31 1
11 1
=
−24,
∆1 =
De donde obtenemos la soluci´on del sistema
x=
−24 = 4, −6
y=
12 0
53 11 2 1
9
3
= 9,
−6 = −2 ,
z=
∆1 =
3
12 0
−31 1
53
−2
= 3.
1
−6 = − 2 .
EJEMPLO 3.47. Resolver el sistema de ecuaciones lineales usando la regla de Cramer. Hacer la comprobaci´on. 3x + 5y = 1 x + 2y = 7
−
´ SOLUCION.Primero calculamos el determinante del sistema: ∆ = det( A) =
−
3 5 = 11 1 2
El determinante es no nulo, por lo tanto el sistema tiene una soluci´ on u ´ nica y se puede aplicar la regla de Cramer. Calculamos los determinantes de las matrices A1 y A2 y los componentes del vector soluci´on:
email
[email protected]
153
βo
ξ £vι
−
−o
ζℏ
so
33
x=
∆1 = ∆
3 1 = 22 1 7
y=
∆2 22 = =2 ∆ 11
1 5 = 7 2
∆2 = det( A2 ) =
3 2
x=
Comprobaci´on:
Ax =
154
− − − − − − −
∆1 = det( A1 ) =
Respuesta:
z
3
5 2
−1
3 2
33 = 11
3
.
9 + 10 3+4
=
=
1 7
.
EJEMPLO 3.48. Utiliza la regla de Cramer para resolver el sistema:
−
−4
2x 3y = 5x + 7y =
1
´ SOLUCION.Este sistema escrito de forma matricial, equivale a
−3
2 5
7
x y
− =
4 1
Primero calculamos el determinante de la matriz de coeficientes del sistema: ∆ = det( A) =
−3
2 5
7
= (2)(7)
− (5)(−3) = 14 + 15 = 29
El determinante es no nulo, por lo tanto el sistema tiene una soluci´ on u ´ nica y se puede aplicar la regla de Cramer. Calculamos los determinantes de las matrices A1 y A2 y los componentes del vector soluci´on: ∆1 = det( A1 ) =
− − − − 4 1
∆2 = det( A2 ) =
3 = 7
2 5
25
4 = 22 1
x=
∆1 = ∆
−25 29
y = ∆2 = 22 ∆ 29
EJEMPLO 3.49. Usando la regla de Cramer resolver el sistema de tres ecuaciones lineales:
x 2x email
[email protected]
−
−
2z = 3 y + 3z = 1 + 5z = 0 154
βo
ξ £vι
−
−o
ζℏ
so
z
155
´ SOLUCION.Este sistema escrito de forma matricial, equivale a
−
1 0 2
−2
0 1 0
−
x y z
3 5
=
3 1 0
El determinante de la matriz de coeficientes A toma el valor ∆=
1 0 2
0
2 3 5
−1 0
−
= ( 1)
−2
1 2
5
=
−1[(1)(5) − (2)(−2)] = −9 = 0
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes
∆x =
∆y =
− − − − − − − − − − − 3 1 0
0 1 0
1 3 0 1 2 0
2 3 5
2 3 5
3 0
= ( 1)
= ( 1)1+1 (1) = 1[(1)(5)
∆z =
3 1 0
2 = 5
0 3 1 1 0 0
= ( 1)
1[(3)(5)
− (0)(−2)] = −15
− −
1 3 3 + ( 1)3+1 (2) 0 5 1
−
(0)(3)] + 2[(3)(3)
1 3 = 2 0
1[(1)(0)
− (1)(
2 3
2)] = 27
− (2)(3)] = 6
De donde obtenemos la soluci´on del sistema
x=
∆x = ∆
−15 = 5 , −9 3
y=
∆y 27 = = ∆ 9
−
−3,
z=
∆z 6 = = ∆ 9
−
− 23 .
EJEMPLO 3.50. Tres l´ıneas de ensamble A, B y C trabajan durante 15, 22 y 23 horas respectivamente. Se ensamblan tres productos L, M y N en estas l´ıneas como sigue: una unidad de L est´a en A durante 1 hora, en B durante 2 horas y en C durante 1 horas; una unidad de M est´a en A durante 2 hora, en B durante 2 horas y en C durante 3 horas; una unidad de N est´a en A durante 1 hora, en B y en que C es durante horas. Si las l´ıneasproducto. se usan a m´axima capacidad encontrar el durante n´umero 2dehoras unidades posible2 ensamblar de cada
´ SOLUCION.La siguiente matriz “l´ıneas productos” resume todos los datos
×
L M N A 12 1 B 22 2 C 13 2 email
[email protected]
155
βo
ξ £vι
−
−o
ζℏ
so
z
156
Sean
x el n´umero de unidades que es posible ensamblar del producto L y el n´umero de unidades que es posible ensamblar del producto M z el n´umero de unidades que es posible ensamblar del producto N Puesto que la l´ınea de ensamble A trabaja durante 15 horas, entonces obtenemos la siguiente ecuaci´on x + 2 y + 1 z = 15 Por otra parte la l´ınea de ensamble B trabaja durante 22, esto se traduce en la ecuaci´ on 2x + 2y + 2 z = 22 y finalmente C trabaja durante 23 , esto es:
x + 3 y + 2 z = 23 Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal:
x
+ 2y + 1z = 15
2x + 2y + 2z = 22 1x + 2y + 2z = 23 Este sistema escrito de forma matricial, equivale a
1 2 1 2 2 2 1 3 2
x y z
=
15 22 23
El determinante de la matriz de coeficientes A toma el valor
∆=
−−
1 2 1 2 2 2 1 3 2
=
1 0 1
2 1 2 0 3 2
−
=
−2
− − − − − − − − − − −
1 1 = 1 2
2[2
1] =
2=0
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes
∆x =
∆y =
15 2 1 22 2 2 23 3 2
1 15 1 2 22 2 1 23 2
email
[email protected]
=
15 2 1 8 2 0 7 1 0
=
1 15 1 0 8 0 1 23 2
− −
−
= ( 1)1+3 (1)
8 7
= ( 1)2+2 ( 8)
1 1 = 1 2
−
−
156
2 =8 1
8[2
14 =
−6
1] =
−8
βo
ξ £vι
−
−o ∆z =
−
ζℏ
so
1 2 15 2 2 22 1 3 23
=
−
1 2 15 0 2 8 0 1 8
−
z
−
= ( 1)
1+1
157
(1)
De donde obtenemos la soluci´on del sistema
x=
∆x = ∆
6
−2 = 3,
y=
∆y = ∆
−
−8 = 4, −2
2 1
z=
−8 8
∆z = ∆
=
−16 + 8 = −8
−8 = 4. −2
EJEMPLO 3.51. Una persona col oca part e de su capi tal al 5 %, otra parte al 4 % y el resto al 3 %. La primera parte repr esenta los tres quin tos de la segunda y la tercera la suma de las otras dos. Al a˜no retira todo, recibiendo en conjunto Bs 15926.40, calcular el monto de cada una de las partes. ´ SOLUCION.Si 0
≤ r ≤ 100, entonces el r % de a es calculado mediante la siguiente f´ormula: p=
r a. 100
Eligiendo las inc´ognitas
x 1ra parte del capital y 2da parte del capital z 3ra parte del capital El capital inicial de esta persona es x + y + z . Puesto que esta persona coloca x bs a l 5 %, y bs al 4 % y z bs al 3 %. Al cabo de l a˜no los x bs se convierten en x mas el 5% de x, esto es x + 0.05 x, los y bs se convierten en y +0.04 y y los z bs se convierten en z +0.03 z . Por tanto el capital inicial al cabo del a˜no es ( x + 0.05 x) + (y + 0.04 y ) + (z + 0.03 z ) que es igual a 15926.40. Por tanto, obtenemos nuestra primera ecuaci´on (x + 0.05 x) + ( y + 0.04y ) + ( z + 0.03 z ) = 15926.40 esto es 1.05x + 1.04y + 1.03 z = 15926.40 Por otra parte, se sabe que la primera parte representa los tres quintos de la segunda, que se traduce en la ecuaci´on x = 3 y . Finalmente, la frase: la tercera es la suma de las otras dos, se 5 escribe en forma de ecuaci´on como z = x + y Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal: 1.05x + 1.04 y + 1.03 z = 15926.40 5x 3y = 0 0 x + y z =
−
email
[email protected]
−
157
βo
ξ £vι
−
−o
ζℏ
so
z
158
Este sistema escrito de forma matricial, equivale a
− − − − − − − x y z
1.05 1.04 1.03 5 3 0 1 1 1
15926.40 0 0
=
El determinante de la matriz de coeficientes A toma el valor
∆ = =
1.05 1.04 1.03 5 3 0 1 1 1
=
2.08 2.07 5 3 1 1
0 0 1
=
2.08 2.07 1 5 3
−
−1[(2.08)(−3) − (5)(2.07)] = −1(−6.24 − 10.35) = 16.59
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes
∆x =
∆y =
∆z =
15926.40 1.04 1.03 0 3 0 0 1 1
−
−
1.05 1.03 5 15926.40 0 0 1 0 1
1.05 1.04 15926.40 5 3 0 1 1 0
−
−
= 15926.40
−
∆x 47779.2 = = 2880 , ∆ 16.59
0 1
= ( 1)1+2 (15926.40) 5 1
−
= ( 1)1+3 (15926.40)
−
De donde obtenemos la soluci´on del sistema
x=
− − −
3 1
y=
5 1
= 15926.40(3) = 47779.2
0 = 1
−15926.40[−5] = 79632
3 = 15926.40[5 + 3] = 127411.2 1
∆y 79632 = = 4800 , ∆ 16.59
z=
∆z 127411.2 = = 7680 . ∆ 16.59
EJEMPLO 3.52. Dos amigos invierten 20000 $ cada uno. El primero coloca una cantidad x al 4 % de inter´ es, una cantidad y al 5 % y el resto al 6 %. El otro in vierte la mism a cantidad y al 5 %, la y al 6 % y el rest o al 4 %. Determina las cantidades x, y y z sabiendo que el primero obtiene unos intereses de 1050 $ y el segundo de 950 $. ´ SOLUCION.Si 0
≤ r ≤ 100, entonces el r % de a es calculado mediante la siguiente f´ormula: p=
r a. 100
Eligiendo las inc´ognitas email
[email protected]
158
βo
ξ £vι
−
−o
ζℏ
so
z
159
x 1ra parte del capital invertido y 2da parte del capital invertido z 3ra parte del capital invertido
El capital inicial de ambos amigos es de 20000 $. Esto conduce a establecer nuestra primera ecuaci´on x + y + z = 20000. Puesto que este amigo invierte x $ al 4%, y $ al 5% y z $ al 6%. Al cabo del a˜ no los x $ se convierten en x mas el 4% de x, esto es, este amigo percibe 0.04 x $ adicionales. Ahora bien, por invertir y $ al 5 % al cab o de pri mer a˜no recibe 0.05 y $ adicionales y finalmente recibe 0.06 z $. Como el primero obtiene unos intereses de 1050 $. Entonces al sumar las cantidades mencionadas debemos tener: 0.04x + 0.05 y + 0.06z = 1050 Por otro lado, el segundo obtiene unos intereses de 950 $, un an´ alisis similar con las cantidades invertidas por el segundo amigo conduce a la siguiente ecuaci´on: 0.05x + 0.06y + 0.04 z = 950 Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal:
x + y + z = 20000 0.04x + 0.05 y + 0.06 z = 1050 0.05x + 0.06 y + 0.04 z = 950 Este sistema escrito de forma matricial, equivale a
1 1 1 0.04 0.05 0.06 0.05 0.06 0.04
x y z
20000 1050 950
=
El determinante de la matriz de coeficientes A toma el valor
∆ =
− − − −
1 1 1 0.04 0.05 0.06 0.05 0.06 0.04
= [(0.01)( 0.01)
=
1 1 0 0.01 0 0.01
(0.01)(0.02)] =
1 0.02 0.01
0.01 =1 0.01
0.02 0.01
−
−−0.0003
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes
∆x =
−
20000 1 1 50 0 0.01 250 0 0.02
email
[email protected]
= ( 1)1+2(1)
159
−
50 250
0.01 = 0.02
−
−1.5
βo
ξ £vι
−
−o ∆y =
∆z =
ζℏ
so
− −
1 20000 1 0.04 1050 0.06 0.05 950 0.04 1 1 20000 0 0.01 250 0 0.01 50
−
z
=
1 20000 0 250 0 50
∆x = ∆
−1.5 −0.0003 = 5000 ,
y=
− − − − 1 0.02 0.01
=
= ( 1)1+1 (1) 0.01 250 = 0.01 50
De donde obtenemos la soluci´on del sistema
x=
160
∆y = ∆
−1.5 −0.0003 = 5000 ,
z=
∆z = ∆
1.5
3
−3 −0.0003 = 10000 .
EJEMPLO 3.53. Una tienda ha vendido 600 ejemplares de un videojuego por un total de 6384 $. El precio srcinal era de 12 $, pero tambi´en ha vendido copias defectuosas con descuentos del 30 % y del 40 %. Sabiendo que el n´umero de copias defectuosas vendidas fue la mitad del de copias en buen estado, calcula a cu´antas copias se le aplic´o el 30 % de descuento. ´ SOLUCION.- Si 0
≤ r ≤ 100, entonces el r % der a es calculado mediante la siguiente f´ormula: p=
100
a.
Eligiendo las inc´ognitas
x el n´umero de copias que se vendi´o a 12 $ y el n´umero de copias que se le aplico el 30 % de descuento z el n´umero de copias que se le aplico el 40 % de descuento Puesto que la tienda ha vendido 600 ejemplares del videojuego, entonces tenemos que 600. Por otro lado , el 30 % de 12 es calculado media nte la siguiente f´ormula:
p=
x+y+z =
30 12 = 3.6 $ , 100
por tanto, si a una copia le aplicamos el 30 % de descuento de su precio, entonces esta unidad se vende a (12 3.6) $, de aqu´ı se deduce que se obtiene un ingreso de (12 3.6)y $ por la venta de y ejemplares. Un an´alisis similar muestra que se obtiene un ingreso de (12 4.8)z $ por la venta de z videojuegos. Ahora bien, la tienda ha vendido los 600 videojuegos por un total de 6384 $, de donde se obtiene nuestra segunda ecuaci´on
−
−
12x + (12 email
[email protected]
−
− 3.6)y + (12 − 4.8)z = 6384 . 160
βo
ξ £vι
−
−o
ζℏ
so
z
161
La u ´ ltima ecuaci´on la obtenemos del hecho de que el n´ umero de copias defectuosas vendidas fue 1 la mitad del de copias en buen estado, es decir y + z = x. 2 Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal:
x + y + z = 600 12x + 8.4 y + 7.2 z = 6384 x 2y 2z = 0
−
−
Este sistema escrito de forma matricial, equivale a
− x y z
1 1 1 12 8.4 7.2 1 2 2
−
600 6384 0
=
El determinante de la matriz de coeficientes M toma el valor
|M |
=
−
1 1 1 12 8.4 7.2 1 2 2
−
=
−3.6
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes y la soluci´on del sistema
|M |
=
|M |
=
|M |
=
x
y
z
− − − − − − − −
600 1 1 6384 8.4 7.2 1 2 2
=
1440
x=
|M | = 400 |M |
1 600 1 12 6384 7.2 1 0 2
=
432
y=
|M | = 120 |M |
1 1 600 12 8.4 6384 1 2 2
=
288
z=
|M | = 80 |M |
x
y
z
EJEMPLO 3.54. Un cajero autom´atico contiene 95 billetes de 10, 20 y 50 $ y un total de 2000 $. Si el n´umero de billetes de 10 $ es el doble que el n´ umero de billetes de 20 $, averigua cu´antos billetes hay de cada tipo. ´ SOLUCION.Eligiendo las inc´ognitas
email
[email protected]
161
βo
ξ £vι
−
−o
ζℏ
so
z
162
x el n´umero de billetes de 10 $ y el n´umero de billetes de 20 $ z el n´umero de billetes de 50 $
x+ y + z = 95. Por otro lado, hay un total de 2000 $, de donde se obtiene nuestra segunda ecuaci´ on 10x + 20y + 50z = 2000. La ´ultima ecuaci´on la obtenemos del hecho de que el n´umero de billetes de 10 $ es el doble que el n´umero de billetes de 20 $, es decir x = 2y . Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal: Puesto que cajero autom´atico contiene 95 billetes de 10, 20 y 50 $, entonces tenemos que
x + y + z = 95 10x + 20y + 50z = 2000 x 2y = 0
−
Este sistema escrito de forma matricial, equivale a
1 1 1 10 20 50 1 2 0
−
x y z
95 2000 0
=
El determinante de la matriz de coeficientes M toma el valor
|M |
=
1 1 1 10 20 50 1 2 0
−
= 110
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes y la soluci´on del sistema
|M |
=
My
=
x
| | |M | z
email
[email protected]
=
95 1 1 2000 20 50 0 2 0
−
1 95 1 10 2000 50 1 0 0 1 1 95 10 20 2000 1 2 0
−
= 5500
x=
= 2750
y=
= 2200
162
|M | = 50 |M | x
|M | = 25 |M | |M | = 20 z= |M | y
z
βo
ξ £vι
−
−o
ζℏ
so
z
163
EJEMPLO 3.55. Se dispone de tres cajas A, B y C con moneda s de 1 euro. Se sabe que en total hay 36 euros. El n´umero de monedas de A excede en 2 a la suma de las monedas de las otras dos cajas. Si se traslada 1 moneda de la caja B a la caja A, esta tendr´ a el doble de monedas que B. Averigua cu´antas monedas hab´ıa en cada caja. SOLUCION.´ Eligiendo las inc´ognitas
x el n´umero de monedas de un euro que tiene la caja A y el n´umero de monedas de un euro que tiene la caja B z el n´umero de monedas de un euro que tiene la caja C Como hay un total de 36 euros en las cajas, entonces x + y + z = 36. El n´umero de monedas de A excede en 2 a la suma de las monedas de las otras dos cajas, este dato se traduce en la ecuaci´ on x = y + z + 2. Si se traslada 1 moneda de la caja B a la caja A, esta tendr´ a el doble de monedas que B, de donde de obtiene la ´ ultima ecuaci´on que es: x + 1 = 2( y 1), esto es, x + 1 = 2 y 2. Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal:
−
−
x + y + z = 36 x y z = 2 x 2y = 3
− −
−
−
Este sistema escrito de forma matricial, equivale a
1 1 1
− −
1 1 2
x y z
1 1 0
− −
36 2 3
=
El determinante de la matriz de coeficientes M toma el valor
|M |
=
1 1 1
1 1 2
− −
− 1 1 0
=
−4
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes y la soluci´on del sistema
email
[email protected]
163
βo
ξ £vι
−
−o
ζℏ
so
|M |
=
|M |
=
|M |
=
x
y
z
z
164
− −− − − − − − −− − − 36 1 1 2 1 1 3 2 0
=
x=
76
|M | = 19 |M | x
1 36 1 1 2 1 1 3 0
=
44
y = My = 11 M
1 1 36 1 1 2 1 2 3
=
24
z=
|| ||
|M | = 6 |M | z
EJEMPLO 3.56. Una empresa dispone de 27200 $ para actividades de formaci´ on de sus cien empleados. Despu´es de estudiar las necesidades de los empleados, se ha decidido organizar tres cursos: A, B y C. La subvenci´ on por persona para el curso A es de 400 $, para el curso B es de 160 $, y de 200 $ para el C. Si la cantidad que se dedica al curso A es cinco veces mayor que la correspondiente al B, ¿cu´antos empleados siguen cada curso? ´ SOLUCION.Eligiendo las inc´ognitas
x el n´umero de empleados que sigue el curso A y el n´umero de empleados que sigue el curso B z el n´umero de empleados que sigue el curso C La empresa dispone de 27200 $ para actividades de formaci´ on de sus cien empleados. Luego la primera ecuaci´on es x + y + z = 100. Puesto que la subvenci´ on por persona para el curso A es de 400 $, para el curso B es de 160 $, y de 200 $ para el C. Entonces tenemos la ecuaci´ on 400x + 160 y + 200 z = 27200. Por ´ultimo, se sabe que la cantidad que se dedica al curso A es cinco veces mayor que la correspondiente al B, esto es, x = 5y . Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal:
x + y + z = 100 400x + 160 y + 200 z = 27200 x 5y Este sistema escrito de forma matricial, equivale a
−
1 1 1 400 160 200 1 5 0
−
=
0
x y z
=
100 27200 0
El determinante de la matriz de coeficientes M toma el valor email
[email protected]
164
βo
ξ £vι
−
−o
ζℏ
so
|M |
=
z
1 1 1 400 160 200 1 5 0
−
165
=
−1560
por sistema lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes y la soluci´on del
|M |
=
|M |
=
|M |
=
x
y
z
100 1 1 27200 160 200 0 5 0
−
1 100 1 400 27200 200 1 0 0 1 1 100 400 160 27200 1 5 0
−
=
−86000
x=
|M | = 2150 |M | 39
=
−17200
y=
|M | = 430 |M | 39
=
−52800
z=
|M | = 440 |M | 13
x
y
z
EJEMPLO 3.57. Un fabricante produce 42 electrodom´esticos. La f´abrica abastece a 3 tiendas que demandan toda la producci´on. En una cierta semana, la primera tienda solicit´o tantas unidades como la segunda y tercera juntas, mientras que la segunda pidi´ o un 20% m´as que la suma de la mitad de lo pedido por la primera m´as la tercera parte de lo pedido por la tercera. ¿Qu´e cantidad solicit´o cada una?. ´ SOLUCION.Eligiendo las inc´ognitas
x el n´umero de electrodom´esticos que solicito primera la tienda y el n´umero de electrodom´esticos que solicito segunda la tienda z el n´umero de electrodom´esticos que solicito tercera la tienda La fabricante produce 42 electrodom´esticos, as´ı x + y + z = 42. En una cierta semana, la primera tienda solicit´o tantas unidades como la segunda y tercera juntas, lo cual implica que x = y + z . El 20 % de 100 es 20. As ´ı 120 es igual a 100 mas 20 % de 100. 100 mas su 20 % es 120. Luego 120 es 20 % mas qu e 100. Ahora bien, la segunda tienda pidi´ o un 20% m´ as que la suma de la mitad de lo pedido por la primera m´as la tercera parte de lo pedido por la tercera. Esta oraci´ on se traduce en la ecuaci´on:
y=
x z 30 x z + + + 2 3 100 2 3
Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal: email
[email protected]
165
βo
ξ £vι
−
−o
ζℏ
so
z
166
EJEMPLO 3.58. Una empresa fabrica tres tipos de ordenadores: JP1, JP2 y JP3. Para armar un JP2 se necesitan 10 horas, otras 2 para probar sus componentes y 2 horas m´ as para instalar el software. El tiempo requerido por el JP3 es de 12 horas para su ensamblado, 2.5 horas para probarlo y 2 horas para instalar software. El JP1, el m´ as sencillo de la l´ınea, necesita 6 horas de ensamblado, 1.5 horas de prueba y 1.5 horas de instalaci´ on de software. Si la fabrica de esta empresa dispone de 1560 horas de trabajo por mes para armar, 340 horas para probar y 320 horas para instalar. ¿Cu´antos ordenadores de cada tipo puede producir en un mes?
´ SOLUCION.La siguiente matriz “ordenadores
×horas” resume todos los datos
JP1 JP2 JP3 ensamblado 6 10 12 probar 1.5 2 2.5 instalar 1.5 2 2 Sean
=A
x el n´umero de ordenadores de tipo JP2 que se puede producir en un mes y el n´umero de ordenadores de tipo JP3 que se puede producir en un mes z el n´umero de ordenadores de tipo JP1 que se puede producir en un mes Puesto que la fabrica de esta empresa dispone de 1560 horas de trabajo por mes para armar o ensamblar los ordenadores, entonces obtenemos la siguiente ecuaci´ on 6x + 10 y + 12z = 1560 Por otra parte la fabrica dispone de 340 horas para probar, esto se traduce en la ecuaci´
on
1.5x + 2y + 2.5z = 340 y finalmente se dispone de 320 horas para instalar, esto es: 1.5x + 2 y + 2 z = 320 Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal: 6x + 10y + 12z = 1560 1.5x + 2y + 2.5 z = 340 1.5x + 2y + 2z = 320 Este sistema escrito de forma matricial, equivale a
email
[email protected]
6 10 12 3 2 3 2
2
5 2
2
2
x y z
166
=
1560 340 320
βo
ξ £vι
−
−o
ζℏ
so
z
167
El determinante de la matriz de coeficientes A toma el valor
∆=
−
6 10 12 3 2 3 2
2
3 5 6 3 4 5 3 4 4
1 1 =2 22
5 2
1 = 2
3 0 0
− − − − − − − −− −− 5 1 1
6 1 2
3 = [2 2
1] =
3 =0 2
2 2 por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes
∆x =
∆y =
∆z =
1560 10 12 340
2
=
40 0 2
20
2
3 2 3 2
320 2 2
2 320
5 2
340 320
= 2
2
=
=
1 1 22
6 10 1560 00 20 3 2
2 320
∆x 120 = = 80, ∆ 3/2
y=
40 2
= ( 1)3+2 (2)
3 780 6 3 680 5 3 640 4
3 [200 2
De donde obtenemos la soluci´on del sistema
x=
1 2
0
6 1560 12
6 10 1560 3 2 340 2 3 2
2
320
5 2
=
1 2
= 120
1 2
20
3 780 6 0 100 1 0 140 2
− 140] = 90
= ( 1)2+3 (20)
−
∆y 90 = = 60, ∆ 3/2
6 10 3 2
z=
2
=
−20[12 − 15] = 60
∆z 60 = = 40. ∆ 3/2
EJEMPLO 3.59. Un empresario estadounide nse necesita, en promedio, cantidades fijas de yenes japoneses, libras inglesas y marcos alemanes durante cada viaje de negocios. Este a˜no viaj´o 3 veces. La primera vez cambio un total de $2550 con las siguientes tasas: 100 yenes por d´ olar, 0.6 libras por d´olar y 1.6 marcos por d´olar. La segunda vez cambi´o $2840 en total con tasas de 125 yenes, 0.5 libras y 1.2 marcos por d´olar. La tercera vez cambi´o un total de $2800 a 100 yenes, 0.6 libras y 1.2 marcos por d´olar. ¿Cu´al es la cantidad fija de yenes, marcos y libras que cambia en los viajes?
´ SOLUCION.La siguiente matriz “ordenadores
Primerviaje Segundoviaje Tercerviaje email
[email protected]
yenes/d´ olar 100 125 100
×horas” resume todos los datos
marcos/d´olar 1.6 1.2 1.2 167
libras/d´olar 0.6 0.5 0.6
=A
βo
ξ £vι
−
−o
ζℏ
so
z
168
Sean
x la cantidad fija de yenes que cambia en los viajes y la cantidad fija de marcos que cambia en los viajes z la cantidad fija de libras que cambia en los viajes En el primer viaje, se tiene que 100 yenes
x yenes
−→ −→
1 dolar ?
x d´olares. 100 y Si 1.6 marcos cuesta 1 d´olar, entonces y marcos costar´an d´olares. 1.6 z Si 0.6 libras cuesta 1 d´olar, entonces z libras costar´an d´olares. 0.6 Ahora bien con el primer viaje cambio un total de $2550, entonces obtenemos la siguiente ecuaci´ on Si 100 yenes cuesta 1 d´olar, entonces x yenes costar´an
x
+
y
z
+
= 2550
100 1.6 0.6 x y z x y z De mismo modo obtenemos que + + = 2840 y + + = 2800. 125 1.2 0.5 100 1.2 0.6 Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal:
x y z + + = 2550 100 1.6 0.6 x y z + + = 2840 125 1.2 0.5 x y z + + = 2800 100 1.2 0.6
Este sistema escrito de forma matricial, equivale a
1
5
5
100 1 125 1 100
8 5 6 5 6
3 2 5 3
x 10y 10z + + = 2550 100 16 6 x 10y 10z + + = 2840 125 12 5 x 10y 10z + + = 2800 100 12 6
x y z
=
2550 2840 2800
El determinante de la matriz de coeficientes A toma el valor
email
[email protected]
168
βo
ξ £vι
−
−o
ζℏ
so
z
170
Es decir, se necesitan 2 unidades del factor 1 para obtener una unidad de producto en el proceso 1, se necesitan 4 unidades del factor 1 para obtener una unidad de producto en el proceso 2, etc. La disponibilidad de los factores son : 122, 178 y 68 unidades respectivamente. Los precios de venta de cada unidad de producto son: 220, 320 y 68 u.m. respectivamente. (a) Hallar el plan de produc ci´on con el que se agotan las disponibilidades de los factores. (b) Hallar los precios imputables a los factores para que los ingresos de cada unidad producida igualen a los costes en el plan de producci´ on. (c) Formular el mo delo lineal de maximiz aci´on del ingreso.
´ SOLUCION.Para resolver el inciso (a) consideremos las siguientes variables
x el n´umero de unidades de producto obtenidas en el proceso 1 y el n´umero de unidades de producto obtenidas en el proceso 2 z el n´umero de unidades de producto obtenidas en el proceso 3 luego debemos resolver el siguiente sistema de ecuaciones lineales: 2x + 4y + 8z = 122 6x + 11y + 6z = 178 8x + y + 2z = 68 Este sistema escrito de forma matricial, equivale a
2 4 8 6 11 6 3 1 2
x y z
=
122 178 68
El determinante de la matriz de coeficientes A toma el valor
∆=
2 4 8 6 11 6 3 1 2
− − − =
160 = 0
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes
∆x =
∆y =
email
[email protected]
122 4 8 178 11 6 68 1 2
=
2400
2 122 8 6 178 6 3 68 2
=
380
170
βo
ξ £vι
−
−o
ζℏ
so
∆z =
z
2 4 122 6 11 178 3 1 68
De donde obtenemos la soluci´on del sistema
x=
∆x = 15, ∆
y=
=
∆y 19 = , ∆ 8
171
−1650 z=
∆z 165 = . ∆ 16
Para resolver el inciso (b), consideremos la siguiente tabla factor Proceso 1 2 3 1 2 6 3 2 4 11 1 3 8 6 2 Es decir, en el proceso 1 se necesitan 2 unidades del factor 1 para obtener una unidad de producto, en el proceso 1 se necesitan 6 unidades del factor 2 para obtener una unidad de producto, etc. Tenemos que hallara los imputables los factoreson. para que los ingresos deprecios cada unidad producida igualen los precios costes en el plan dea producci´ Recordemos que los de venta de cada unidad de producto son: 220, 320 y 68 u.m. respectivamente. Tomemos las siguientes variables
x el precio imputable al factor 1 y el precio imputable al factor 2 z el precio imputable al factor 3 luego debemos resolver el siguiente sistema de ecuaciones lineales: 2x + 6y + 3z = 220 4x + 11y + 1z = 320 8x + 6y + 2z = 68 Este sistema escrito de forma matricial, equivale a
2 6 3 4 11 1 8 6 2
x y z
=
220 320 68
El determinante de la matriz de coeficientes A toma el valor
email
[email protected]
171
βo
ξ £vι
−
−o
ζℏ
so
∆=
2 6 3 4 11 1 8 6 2
z
=
172
−160 = 0
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes
∆x =
220 6 3 320 11 1 68 6 2
∆y =
2 220 3 4 320 1 8 68 2
∆z =
2 6 220 4 11 320 8 6 68
De donde obtenemos la soluci´on del sistema
x=
∆x ∆
=
901
− 40
,
y=
∆y
=
− −
= 3604
=
5720
=
2696
143
∆
,
z=
4
∆z ∆
=
337
.
20
EJEMPLO 3.61. Para la construcci´on de un almac´en se precisa una unidad de hierro y ninguna de madera. Para la construcci´ on de un piso se precisa una unidad de cada material y para la de una torre 4 unidades de hierro y una de madera. Se dispone de 16 unidades de hierro y 5 de madera. (a) Hallar cu´antos almacenes, pisos y torres se pueden construir empleando to das las unidades disponibles. (b) Si el precio de cada almac´en es de 6 u.m., el de cada piso 2 u.m. y el de cada torre de 4 u.m., ¿hay alg´un plan de producci´on que cueste 36 u.m.?
´ SOLUCION.La siguiente matriz “ordenadores
×horas” resume todos los datos
almacen piso torre hierro madera
1 0
1 1
4 1
Para resolver el inciso (a) consideremos las siguientes incognitas
x el n´umero de almacenes que se pueden construir y el n´umero de pisos que se pueden construir z el n´umero de torres que se pueden construir email
[email protected]
172
βo
ξ £vι
−
−o
ζℏ
so
z
173
Puesto que se dispone de 16 unidades de hierro y 5 de madera, entonces tenemos que resolver el siguiente sistema de ecuaciones:
x + y + 4z = 16 y + z = 5
EJEMPLO 3.62. Arizmendi y Amigos, empresa de bienes ra´ıces, planea construir un nuevo complejo de apartamentos de 1, 2 y 3 habitaciones. Se planea un total de 192 apartamentos, y el n´umero de apartamentos familiares (de dos o tres habitaciones) ser´ a igual al n´umero apartamentos de una habitaci´on. Si el n´umero de apartamentos de una habitaci´on ser´a igual al triple de apartamentos de 3 habitaciones, determinar cu´ antas unidades de cada tipo de apartamento habr´a en el conjunto. ´ SOLUCION.Consideremos las siguientes variables para las inc´ ognitas
x el n´umero de apartamentos de 1 habitaci´on y el n´umero de apartamentos de 2 habitaciones z el n´umero de apartamentos de 3 habitaciones Puesto que se planea un total de 192 apartamentos, entonces obtenemos la siguiente ecuaci´ on x + y + z = 192. La oraci´on: el n´umero de apartamentos familiares (de dos o tres habitaciones) ser´a igual al n´umero apartamentos de una habitaci´on. Se traduce en la ecuaci´ on y + z = x. Y la frase: el n´umero de apartamentos de una habitaci´on ser´a igual al triple de apartamentos de 3 habitaciones es transformada en la ecuaci´on x = 3z . Juntando estas tres ecuaciones obtenemos el siguiente sistema lineal:
x + y + z = 192 y+z = x x = 3z
− −− − − − − −
x + y + z = 192 x y z = 0 x 3z = 0
Este sistema escrito de forma matricial, equivale a
1 1 1
1
−1 0
x y z
1 1 3
192 0 0
=
El determinante de la matriz de coeficientes A toma el valor
∆=
1 1 1
1 1 0
−
− − 1 1 3
=
1 1 2 0 1 0
− 1 0 3
= ( 1)2+1 (2)
1 0
1 = 3
− − (0)(1)] = 6 = 0
2[(1)( 3)
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes email
[email protected]
173
βo
ξ £vι
−
−o
∆x =
− − − − − − − − −
192 1 1 0 1 1 0 0 3 1 1 92 1 0 1 0
∆y =
∆z =
ζℏ
so
= ( 1)
1+1
(192)
1
1 3
1 1 192 1 1 0 1 0 0
= ( 1)1+3 (192)
∆x 576 = = 96, ∆ 6
y=
174
− − − −− − − 1 0
= ( 1)1+2(192) 1 1
De donde obtenemos la soluci´on del sistema
x=
z
1 1
1 3
= 192[( 1)( 3)
1 = 3
192[(1)( 3)
1 0
− − − (0)(−1)] = 576 − − (1)(−1)] = 384
= 192[(1)(0)
∆y 384 = = 64, ∆ 6
z=
− (1)(−1)] = 192
∆z 192 = = 32. ∆ 6
EJEMPLO 3.63. El centro comercial La Galer´ıa oferta esta semana a un precio especial el lavavajillas, el t´e y un champ´u. tres consumidores hacen cada uno de ellos una compra con el consiguiente gasto: Productos (unidades) Consumidor 1 Consumidor 2 Consumidor 3 Lavavajillas 2 4 1 Caja de t´e 4 1 2 Champ´u 1 2 4 CostedeCompra 12 18 10 ¿Cu´al es el precio de los tres productos?
´ SOLUCION.Consideremos las siguientes variables para las inc´ ognitas
x el precio del lavavajillas y el precio del t´e z el precio del champ´u Usando la tabla obtenemos la siguiente ecuaci´on matricial
2 4 1 4 1 2 1 2 4
x y z
=
12 18 10
El determinante de la matriz de coeficientes A toma el valor email
[email protected]
174
βo
ξ £vι
−
∆=
−o
2 4 1 4 1 2 1 2 4
=
ζℏ
so
−7 − −14
0 0 1
0 7 2
4
z
= ( 1)2+1 (2)
−
1 0
175
−
1 = 3
−2[(1)(−3) − (0)(1)] = 6 = 0
por lo tanto, el sistema tiene soluci´on u ´ nica. Calculamos los siguientes determinantes solo quiero que seas feliz cerca de mi o lejos de mi.
∆x =
12 4 1 18 1 2 10 2 4 2 12 1 4 18 2 1 10 4
∆y =
∆z =
− − −
2 4 12 4 1 18 1 2 10
= ( 1)1+1 (192)
− − − − − − − 1 0
= ( 1)1+2(192)
= ( 1)1+3 (192)
1 1
1 3
1 = 3
1 1
1 0
− − − (0)(−1)] = 576
= 192[( 1)( 3)
− − (1)(−1)] = 384
192[(1)( 3)
= 192[(1)(0)
− (1)(−1)] = 192
De donde obtenemos la soluci´on del sistema
x=
∆x 576 = = 96, ∆ 6
y=
∆y 384 = = 64, ∆ 6
z=
∆z 192 = = 32. ∆ 6
EJEMPLO 3.64. Un agente inmobiliario puede realizar 3 tipos de operaciones: venta de un piso nuevo, venta de un piso usado y alquiler. Por la venta de cada piso nuevo recibe una prima de 120.000 ptas. Si la operaci´ on es la venta de un piso usado recibe 60.000 ptas. Se desconoce la prima cuando la operaci´on es un alquiler. Este mes el n´umero total de operaciones fue 5. La prima total por venta de pisos fue superior en 200.000 ptas. a la obtenida por alquileres, y la prima total por venta de pisos nuevos fue el triple que por alquileres. ①
Plantea un sistema de ecuaciones (sin resolverlo) para obtener el n´ umero de operaciones de cada tipo realizadas (en funci´on de la prima de alquiler de valor desconocido).
②
Indica una prima a la que es imposible que se hayan podido pagar los alquileres.
③
Indica tres primas a las que es posible que se hayan podido pagar los alquileres.
④
Si la prima de alquileres fue de 20.000 ptas. ¿cu´antas operaciones de cada tipo se realizaron?
´ SOLUCION.-
email
[email protected]
175
βo
ξ £vι ①
−
−o
ζℏ
so
z
176
Empecemos respondien do a las siguientes preguntas: Cu´ales son las inc´ognitas?, ¿Qu´e tengo que buscar, averiguar o qu´e me preguntan?, ¿Qu´e datos me dan?, ¿Cu´ ales son las condiciones del problema?. Llamamos x , y , z , al n´umero operaciones de cada tipo que ha realizado y m a la prima desconocida (en miles de pesetas): Sean
x el n´umero de pisos nuevos y el n´umero de pisos usados z el n´umero de alquileres Con lo que tendremos:
∗
( )
x+y+z = 5 120x + 60 y = mz + 200 120x = 3mz
obteniendo
x + y + z = 5 120x + 60y mz = 200 120x 3mz = 0
− −
Surgen las siguientes interrogantes: ¿C´omo resolvemos este sistema de ecuaciones?, ¿Qu´e significa resolver un sistema de ecuaciones?, ¿Las soluciones del sistema dependen del valor que tome la variable m?, ¿Para que valores de m, el sistema tiene una sola soluci´ on, muchas soluciones, ninguna soluci´on o infinitas soluciones?. Primero de todo tratemos de responder a la pregunta: ¿Como saber que el sistema tiene soluci´on o no tiene soluci´on?, ¿conocemos alguna teor´ıa que pueda ayudarnos?. Si, la teor´ıa matricial nos puede ayudar a resolverlo, empecemos transformando el sistema en la siguiente ecuaci´on matricial
②
5 0 5
4 1 4
−
−m −1 0
x y z
=
936 0 252
Para estudiar la compatibilidad del sistema, llamemos a la matriz de coeficientes matriz aumentada con los t´erminos independientes Ma , es decir 1
M=
1
120 60 120 0
1
−−3mm
M = a
Observemos que la matriz M es de orden 3 siguiente informaci´on:
1 11
5
120 60 120 0
−−3mm
200 0
M y a la
× 3. Ahora bien, el ´ algebra lienal nos da la
|M | = 0 si y solo si rango(
M ) = rango( Ma ) = 3. Por tanto, el sistema tiene una ´unica soluci´on.
email
[email protected]
176
βo
ξ £vι
−
−o
ζℏ
so
z
177
Entonces es suficiente asegurar que el determinante de la matriz M no sea cero. ¿Como logramos esto?. Calculemos todos los valores de m para los cuales el determinante de M se haga cero, es decir resolvamos la ecuaci´on M = 0. Luego al evitar estos numeros aseguraremos que M = 0.
| |
| |
60 −60 − m −601− m = (−1) (1) 120 −3m −3m = (60)( −3m) − (120)( −60 − m) = 180m + 7200 + 120 m = −7200 + 60 m Ahora bien, | M | = 0 se traduce en la ecuaci´ on − 7200 + 60 m = 0, de aqu´ı se tiene que
1 1 120 60 120 0
−1m −3m
=
− −−
1 1 60 0 120 0
1+2
m = 120.
| |
∗
Si m = 120, entonces M = 0, por lo tanto el sistema ( ) tiene soluci´on u ´ nica. ¿C´omo hallamos esta soluci´on?. Usemos el m´etodo de Cramer para hallar estas soluciones.
M
=
| | |M |
=
|M |
=
|M |
=
x
y
z
1 1 120 60 120 0 5 1 200 60 0 0 1 5 120 200 120 0
1 m 3m
= 60m
1 m 3m
=
−−
− − − − − − 1 m 3m
1 1 5 120 60 200 120 0 0
7200
−
300m
= 600 m
=
x=
− 24000
y=
x
|M | = 600m − 24000 |M | 60m − 7200
z=
12000
|M | = −300m |M | 60m − 7200 y
|M | = −12000 |M | 60m − 7200 z
Si m = 120, en este caso tenemos que M = 0. Que hacer?, observem os que las matrices
M y M a son las siguientes: M=
1 1 120 60 120 0
| |
1 120 360
− −
| |
Ma =
1 11 120 60 120 0
5 120 200 360 0
− −
El hecho de que M = 0 garantiza que rango( M ) < 3. Luego se presentan dos casos posibles rango(M ) = rango( Ma ) < 3 o rango( M ) = rango( Ma ). Recordemos el siguiente resultado: email
[email protected]
177
βo
ξ £vι
−
−o ☞ ☞
ζℏ
so
z
178
Si rango( M ) = rango( Ma ) < 3, entonces el sistema tiene infinitas soluciones. Si rango( M ) = rango( Ma ), entonces el sistema no tiene soluciones.
Ahora bien, s´olo necesitamos calcular los rangos de la matriz de coeficientes la matriz aumentada Ma .
M y el de
Es claro que rango( M ) = 2, puesto que es posible encontrar en la 1 matriz 1 M un menor complementario de orden 2 y distinto de cero; por ejemplo: ; por otra parte 120 60 rango(Ma ) = 3 puesto que es posible encontrar en la matriz Ma un menor complemen1 1 5 120 60 200 = 0 tario de orden 3 y distinto de cero; por ejemplo: 120 0 0 Ahora bien como
rango(M ) = rango( Ma )
∗
entonces el sistema ( ) no tiene soluci´on. Por esta raz´on, resultar´ıa imposible que las primas por alquileres fueran 120.000 ptas. ③
Si la prima de alquileres hubiera sido de 35.000 ptas, tendr´ıamos: m = 35, para este valor se tiene que
x= ④
−
300m 35 = , 60m 7200 17
y=
−
600m 60m
− 24000 = 10 , − 7200 17
z=
−
12000 40 = 60m 7200 17
−
Si la prima de alquileres hubiera sido de 20.000 ptas, tendr´ıamos: m = 20
−
− −
−
300m 600m 24000 12000 = 1, y= = 2, z= =2 60m 7200 60m 7200 60m 7200 Con lo que habr´ıa vendido 1 piso nuevo, 2 pisos usados y realizado 2 alquileres.
x=
−
−
3.8.
Determinante de Vandermonde
El determinante de Vandermonde tiene m´ultiples usos en otras ramas de la Matem´ atica (sobre todo en los problemas de interpolaci´ on). Dicho determinante es, en su forma m´ as general, de la forma:
email
[email protected]
1 a1 .. .
an1 −1
... 1 ... a n .. .. . . n−1 a2 .. . a nn−1 1 a2 .. .
178
βo
ξ £vι
−
−o
ζℏ
so
z
179
O sea, la primera fila est´a formada s´olo por unos. La segunda por n´ umeros diferentes. La tercera y siguientes por los mismos n´ umeros que la segunda elevados a potencias de exponente 2 hasta n 1. Los determinantes de Vandermonde de los diferentes ´ ordenes son:
−
De segundo orden:
1 1 =b a b
−a −
De tercer orden: Dejando igual la primera y multiplicando la segunda fila por a y sumando a la tercera fila y multiplicando la primera fila por a y sumando a la segunda fila:
−
1 1 1 a b c a2 b2 c2
−af=+ f 2
= =
De cuarto orden:
email
[email protected]
3
− − − −− − −
1 1 1 a b c 0 b2 ab c2 ac
( 1)1+1 (b
a)(c
b b2
a c ab c2
a)
− − − −
af1 + f2 =
179
− −
1 1 1 0 b a c a 0 b2 ab c2 ac
− −
− − − − a)(c − a)(c − b)
a = ac
1 1 = (b b c
b a c a b(b a) c(c a)
βo
ξ £vι
−
−o
1111 abcd a2 b2 c2 d2 a3 b3 c3 d3
ζℏ
so
−af=+ f 3
4
−af=+ f
3
−af=+ f
2
2
1
=
=
= =
z
180
− − − − − − − − − − − − − − − − − − − − − − − − − − − − − − −− −− −− − −
1 1 1 1 a b c d a2 b2 c2 d2 3 2 3 2 3 0 b ab c ac d ad2 1 a 0 0
1 b b2 b3
1 1 0 b 0 b2 0 b3
1 1 c d 2 ab c ac d2 ab2 c3 ac2 d3
ad ad2
1 1 a c a d a ab c2 ac d2 ad ab2 c3 ac2 d3 ad2
1 1 1 1 0 b a c a d a 0 b(b a) c(c a) d(d a) 0 b2 (b a) c2 (c a) d2 (d a)
b a c b(b a) c(c b2 (b a) c2 (c 1 a)(c a)(d a) b b2
( 1)1+1
− (b − (b
a a) a) 1 c c2
d a d( d a ) d2 (d a) 1 d d2
− a)(c − a)(d − a)(c − b)(d − b)(d − c)
En general podemos decir que a cada elemento se le restan todos los anteriores y se multiplican todos los resultados de esas diferencias.
3.9.
C´alculo del rango usando determinantes
Se llama menor de orden p de una matriz al determinante que resulta de eliminar ciertas filas y columnas hasta quedar una matriz cuadrada de orden p. Es decir, al determinante de cualquier submatriz cuadrada de A (submatriz obtenida suprimiendo alguna fila o columna de la matriz A ). En una matriz cualquiera Am×n puede haber varios menores de un cierto orden p dado.
´ 3.9. El rango de una matriz es el orden del mayor de los menores distintos de DEFINICION cero. El rango o caracter´ıstica de una matriz A se representa p or rg (A). El rango no puede ser mayor al n´umero de filas o de columnas. email
[email protected]
180
βo
ξ £vι
−
−o
ζℏ
so
z
181
Si a un menor M de orden h de la matriz A se le a˜nade la fila p y la columna q de A (que antes no estaban en el menor), obtenemos un menor N de orden h + 1 que se dice obtenido de M orlando este menor con la fila p y la columna q . Consideremos la matriz
A=
− −
La matriz M =
y
1 1 0
−1 0 1
2 2 3
1 1
1 0
−1
1
3
2
− −12
1 0 5 4 1 3 0 1 2 3
es un menor de orden 2 de la matriz A . Las matrices
son menores de orden 3 que se han obtenido orlando
1 1 4
−1 0 1
− 3 5 3
M
El m´etodo para el c´ alculo del rango es un proceso iterado que sigue los siguientes pasos: ①
Se busca un elemento no nulo, ya que si todos los elementos son 0, el rango ser´ elemento encontrado ser´a el menor de orden k = 1 de partida.
a 0. El
②
Se orla el menor de orden k hasta encontrar un menor de orden k + 1 no nulo. Cuando se encuentra un menor de orden k + 1 no nulo se aplica a ´este el m´etodo.
③
Si todos los menores orlados obtenidos a˜nadi´endole al menor de partida los elementos de una l´ınea i 0 son nulos, podemos eliminar dicha l´ınea porque es combinaci´on de las que componen el menor de orden k .
④
Si todos los menores de orden k + 1 son nulos el rango es k . (Si aplicamos bien el m´etodo en realidad, al llegar a este punto, la matriz tiene orden k ).
EJEMPLO 3.65. Calcular el rango de la siguiente matriz
A=
´ SOLUCION.-
−
1 = 0,
email
[email protected]
− −
2 31010 1 0 1 2 0 0 1 65620 0 0 1011
entonces r(A)
2 0 = 2 = 0, 1 1
≥1
entonces r (A) 181
≥2
βo
ξ £vι
−
−o
ζℏ
so
− − −
2 0 0 6 2 0 0 1 1
1010 1200 5620 1011
3010 0 2 0 0 6620 0 0 1 1 2 0 1 0 1200 1 6 2 0 0 0 1 1
Por tanto r (A) = 3
email
[email protected]
− − −
= 4 = 0,
=
z
182
r (A)
entonces
1 0 1 1 2 0 5 6 2
=
3 0 1 0 2 0 6 6 2
=
2 0 1 1 2 0 1 6 2
182
=4+6
=
≥2
− 10 = 0
−12 + 12 = 0
=8
−6−2 =0
βo
CAP´ITULO 4
Espacios vectoriales
´ El concepto de espacio vectorial es sin duda uno de los m´ as importantes del Algebra Lineal. El espacio vectorial es una estructura algebraica que generaliza, hasta el mayor nivel de abstracci´on, la idea de los vectores geom´etricos del plano y el espacio eucl´ıdeos ordinarios, as´ı como las magnitudes vectoriales que aparecen en F´ısica; esencialmente, son conjuntos cuyos elementos se pueden sumar entre s´ı, y multiplicar por n´ umeros. Son numeros´ımos y muy variados, como ya puede verse desde los primeros ejemplos, los espacios vectoriales que aparecen de manera natural en distintas ramas de las matem´aticas. Todo espacio vectorial lleva siempre asociado un conjunto con estructura de cuerpo, cuyos elementos llamaremos escalares, que jugar´ an el papel de n´ umeros. Los elementos del espacio vectorial ser´an los vectores. ´ n.- Veamos un ejemplo para introducir el concepto de las ideas invariantes en la Motivacio
soluci´on a un sistema de ecuaciones lineales.
EJEMPLO 4.1. Resolver el sistema homog´ eneo:
x + 2y 2x + 4y x
−
w w
+ 2t = 0 + 5t = 0
− tt == 00 ´ SOLUCION.Si utilizamos el orden x → y → z → w → t la matriz aumentada reducida queda:
1 2 1 0
2 0 4 2 1 0 1
+ 2y
+ z +
z + + 2ww +
−→
1 2 0 11 5 0 2 1 0 1 1 0
−
−
183
1 2 0 1 2 0 0011 1 0 0 0 0 0 0 0 0 0 0 0 0 0
−
ξ £vι
−
−o
ζℏ
so
z
184
De donde la f´ormula para las soluciones son:
− − − − → → → → − − − − −→ x y z
=y
wt
Si utilizamos el orden x
y
1 2 1 0
2 1 0
+w
00
w
z
1 0 1
+t
10
2 0 1 01
t la matriz aumentada reducida queda:
21 0 2 0 4 1 1 5 0 22 1 1 0 0 1 1 1 0
1 0 0 0
2 0 1 3 0 0 1 1 1 0 00 0 0 0 00 0 0 0
De donde la f´ormula para las soluciones son:
− − → → → → − − −→ − − x y z
=y
wt
Si utilizamos el orden x
y
1 2 1 0
t
2 1 0
+z
00
z
1 0 1
+t
01
− 3 0 0 11
w la matriz aumentada reducida queda:
2 2 0 10 4 5 1 1 0 2 1 1 20 0 1 1 10
1 0 0 0
20 0 00 00
2 1 0 0
− −
De donde la f´ormula para las soluciones son:
− − → → → → − − − −→ x y z w t
Si utilizamos el orden y
x
2 4 2 0
1 0 2 1 1 0 1
email
[email protected]
=y
z
w
2 1 0 0 0
+z
2 0 1 0 1
+w
3 0 1 1 0 0 0 0 0
3 0 0 1 1
t la matriz aumentada reducida queda:
1 1/2 0 1/2 1 0 0011 1 0 00 00 0 0 00 00 0 0
1 2 0 11 5 0 2 1 0 1 1 0
184
βo
ξ £vι
−
−o
− − − − ζℏ
so
z
185
De donde la f´ormula para las soluciones son:
x y z
wt
=x
1 1/2 0
+w
00
0 1/2 1 10
+t
0 1 1 01
Todas las soluciones previas aparentan ser diferentes, sin embargo, todas representan el mismo conjunto soluci´on. Necesitamos una teor´ıa que nos d´e confianza en los resultados obtenidos; qu´e nos indique las cosas que permanecen y las cosas que pueden cambiar en las m´ ultiples respuestas v´alidas en R n que podemos obtener. Adem´as de los conjuntos soluci´on en R n , existen otras ´areas de la ingenier´ıa que requieren un apoyo matem´atico: las matrices tienen su importancia y uso en ingenier´ıa industrial y en control; las series trigonom´etricas en procesamiento de se˜nales; los conjuntos de polinomios y las series de potencias para los IFIs, etc.. ¿C´omo desarrollar una teor´ıa comod´ın que se pueda aplicar a diferentes contextos sin ning´un cambio importante? ´ n y Generalizaci o ´ n.- Si se hace una encuesta entre los matem´ aticos sobre que Abstraccio
palabras describen a las matem´ aticas se notar´a que la mayor´ıa responde al menos dos palabras claves: abstracci´on y generalizaci´on. La abstracci´ on tiene que ver con representar cantidades por medio de s´ımbolos, y la generalizaci´on tiene que ver con la construcci´on de estructuras o teor´ıas que engloban ciertas cosas o hechos conocidos. La que nos interesa m´ as para abrir este tema es el aspecto de la generalizaci´on. La generalizaci´on tambi´ en tiene que ver con la econom´ıa del trabajo realizado para investigar, y con determinar cu´ales son los elementos m´ınimos responsables de que ciertos resultados ocurran. Para entender como ocurre la generalizaci´on en nuestra materia recordemos algunos conceptos hemos visto en diferentes cursos de matem´ aticas: 1. vectores en el espacio n dimensional ( Rn ), 2. matrices con entradas reales ( Mn×m ), 3. polinomios reales, 4. series de pontencias, 5. series trigonom´etricas, y 6. soluciones a ecuaciones diferenciales lineales homog´eneas entre otros elementos. Objetivo.- El objetivo que se persigue en el presente tema consiste en introducir aquella estruc-
tura abstracta que engloba las anteriores construcciones, y qu´e resultados se pueden obtener en lo general sin importar a cual de las estructuras espec ´ıficas se haga referencia. Es as´ı que en esten cap´ıtulo se introduce el concepto de espacio vectorial. Este concepto generaliza los vectores de R y las matrices de orden m n. El concepto es abstracto y por tanto tiene alguna dificultad natural; se le pide al estudiante un esfuerzo extra para pensar las cosas desde un punto de vista general.
×
email
[email protected]
185
βo
ξ £vι
−
−o
4.1.
ζℏ
so
z
186
Espacios Vectoriales
´ n.- Antes que el concepto de espacio vectorial est´ a el concepto de El concepto de operaci o
operaci´on. Veamos algunos ejemplos de operaciones para ir entendiendo que las operaciones de suma o de multiplicaci´on por escalares podr´ıan ser diferentes de las que conocemos. Lo que es importante recordar es el uso de los par´entesis: sirven para indicar un orden en las op eraciones.
EJEMPLO 4.2. Suponga que V = R2 y que se define la operaci´on:
⊕ (z, w) = (5 x + z, 2w + 2 y ) Si a = (−2, −3), b = (−1, 3), c = (−1, −1) calcule: a ⊕ b, b ⊕ a, (a ⊕ b) ⊕ c, a ⊕ (b ⊕ c). (x, y )
´ SOLUCION.-
⊕ b = (5 · (x = −2) + ( z = −1), 2 · (w = 3) + 2 · (y = −3)) = ( −11, 0) b ⊕ a = (5 · (−1) + ( −2), 2 · (−3) + 2 · (−1)) = ( −7, 0) (a ⊕ b) ⊕ c = (−11, −0) ⊕ (−1, −1) = (5 · (−11) + ( −1), 2 · (−1) + 2 · (0)) = ( −56, −2) a ⊕ (b ⊕ c) = (−2, −3) ⊕ (−6, 4) = ( −16, 2) a
EJEMPLO 4.3. Suponga que V = R2 y que se definen las operaciones:
⊕ (z, w) = (2 x, 3w + y ) y t ⊙ (x, y ) = (2 tx, 3ty) = −4 calcule: ( c + c ) ⊙ a, (c ⊙ a) ⊕ (c ⊙ a), (c · c ) ⊙ a, c ⊙ (c ⊙ a).
(x, y )
Si a = (1, 0) , c1 = 1, c2
1
2
1
2
1
2
1
2
´ SOLUCION.-
⊙ a = −3 ⊙ (1, 0) = (2( −3)(1), 3(−3)(0)) = ( −6, 0) (c ⊙ a) ⊕ (c ⊙ a) = (2 , 0) ⊕ (−8, 0) = (4 , 0) (c · c ) ⊙ a = −4 ⊙ (1, 0) = ( −8, 0) c ⊙ (c ⊙ a) = 1 ⊙ (−8, 0) = ( −16, 0) (c1 + c2 ) 1 1
1
2
2
2
´ 4.1. Consideremos un conjunto V = cuyos elementos los llamaremos vectores DEFINICION y los denotamos mediante u, v, w, etc. Un cuerpo K, cuyos elementos los llamaremos escalares. El conjunto V se dice que es un espacio vectorial sobre el cuerpo K (si K es R se dice que es un espacio vectorial real y si K es C se dice que es un espacio vectorial complejo), si en ´el se han definido dos operaciones: Una llamada suma de vectores y otra llamada multiplicaci´ on de
∅
email
[email protected]
186
βo
ξ £vι
−
−o
ζℏ
so
z
187
un escalar por un vector. La suma de vectores, o simplemente suma, es una regla o funci´ on que asocia a dos vectores, digamos u y v un tercer vector, a este se le representar´a como u v. La multiplicaci´ on es una regla que asocia a un escalar y a un vector, digamos c y u un segundo vector representado por c u. Estas operaciones suma y producto por escalares, cumplen todos y cada uno de los siguientes axiomas:
⊕
⊙
⊕ ∈
(S1) Para cualquiera dos vectores u y v en V , u v V . Este axioma se conoce como el axioma de cerradura bajo la suma: La suma de dos elementos del conjunto debe dar como resultado tambi´en un elemento del conjunto.
⊕
⊕
(S2) Para cualquiera dos vectores u y v en V u v = v u. Este axioma se conoce como el axioma de la conmutatividad de la suma: El orden de los sumandos no altera el resultado de la suma.
⊕ ⊕
⊕ ⊕
(S3) Para cualquiera tres vectores u, v y w en V u (v w) = (u v ) w. Este axioma se conoce como axioma de la asociatividad de la suma: En una suma de vectores, no importa el orden c´omo asocien la sumas entre dos; el resultado ser´ a siempre el mismo. (S4) Existe un ´unico vector en V que se simbolizar´a por 0 y que se llamar´a el vector cero tal que para cualquier vector u V se cumple u 0 = 0 u = u. Este axioma se conoce como el axioma de la existencia del elemento neutro: Existe en el conjunto un elemento distinguido
∈
⊕
⊕
que sumado con cualquier elemento da el mismo segundo elemento. (S5) Para cualquier vector u V existe un ´unico vector tambi´en en V y simbolizado por u que cumple u ( u) = ( u) u = 0. Este axioma se conoce como axioma de la existencia de inversos aditivos: Cada elemento del conjunto posee un inverso aditivo; un elemento del conjunto que sumado con ´el da el neutro aditivo.
⊕−
∈ − ⊕
−
∈
∈
⊙ ∈
(M1) Para cualquier vector u V y para cualquier escalar c K se cumple c u V . Este axioma se conoce como el axioma de cerradura bajo la multiplicaci´on por escalares: El resultado del producto entre cualquier escalar por cualquier elemento del conjunto debe dar como resultado tambi´en un elemento del conjunto. (M2) Para cualquiera dos vectores u y v en V , y para cualquier escalar c en K se cumple c
⊙ (u ⊕ v) = (c ⊙ u) ⊕ (c ⊙ v).
Este axioma se conoce como la propiedad distributiva del producto (por escalares) sobre la suma (delavectores): Envectores un producto de un escalar por una por suma vectores, da lo mismo realizar suma de los y el resultado multiplicarlo el de vector que individualmente multiplicar cada vector por el escalar y despu´es sumar los resultados. (M3) Para cualquier vector u
∈ V y para cualquiera dos escalares a y (a + b) ⊙ u = (a ⊙ u) ⊕ (b ⊙ u).
b en K se cumple
Este axioma se conoce como la propiedad distributiva del producto (por escalares) sobre la suma (de escalares). email
[email protected]
187
βo
ξ £vι
−
−o
ζℏ
so
(M4) Para cualquier vector u
z
188
∈ V y para cualquiera dos escalares a y a ⊙ (b ⊙ u) = (ab) ⊙ u.
b en K se cumple
Esta propiedad se conoce como la ley asociativa del producto entre escalares y el producto de escalar con vector. Lo llamaremos simplemente como la propiedad asociativa del producto. (M5) Para cualquier vector u
∈ V se cumple 1 ⊙ u = u
Cuando se elabora una argumentaci´on en alg´un c´alculo o demostraci´on uno debe hacer referencia a los axiomas. Por ellos es que es conveniente y elegante llamarlos por su descripci´ on. Se le pide al alumno que entienda la l´ogica de cada uno de ellos y memorice sus descripciones.
K ) se escribi´o con el s´ımbolo + pero V , que desde ahora se representa tambi´en con el
Observaci´ on 4.1. La suma de escalares (suma dentro de
no hay que confundirla con la suma dentro de s´ımbolo +. “ = +”.
⊕
Observaci´ on 4.2. Un espacio vectorial sobre un cuerpo
que verifica los axiomas mencionados en la definici´on.
K, es una cu´adrupla ordenada {V,K, +, ·}
Observaci´ on 4.3. El lector comparar´a estas propiedades de la definici´ on de espacio vectorial
con las propiedades de los vectores de R n , de las n -uplas de n´umeros reales, o de las matrices con sus operaciones de suma y producto por un escalar.
´ 4.1. En todo espacio vectorial V,K, +, se cumple: PROPOSICION
{
1) el neutro es ´unico. 2) Cada vector u
∈
V su opuesto
´ DEMOSTRACION.
−
−
·}
´ −u es unico..
1) Sean 0 1 y 02 dos neutros: 0 1 = 01 + 0 2 = 02 , luego son iguales.
2) Sean ( u)1 y ( u)2 dos opuestos de u:
−
−
−
−
−
−
−
−
( u)1 = 0 + ( u)1 = (( u)2 + u) + ( u)1 = ( u)2 + (u + ( u)1 ) = ( u)2 + 0 = ( u)2 , luego coinciden. Observaci´ on 4.4. A los espacios vectoriales sobre R se los llamar´a espacios vectoriales reales, o R –espacios vectoriales. A los espacios vectoriales sobre C , espacios vectoriales complejos, o C – espacios vectoriales. A veces, por abuso de lenguaje los espacios vectoriales se indican por el conjunto de vectores V , sobreentendiendo el cuerpo K y las operaciones + y .
EJEMPLOS DE ESPACIOS VECTORIALES
·
EJEMPLO 4.4. El plano cartesiano R 2 de puntos de la forma ( x, y ) con x, y vectorial real respecto de las siguientes operaciones:
∈ R, es un espacio
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )
a.(x, y ) = (ax, ay ) email
[email protected]
188
βo
ξ £vι
−
−o
ζℏ
so
z
189
EJEMPLO 4.5. V es el conjunto de ternas ordenadas de n´ umeros reales V = R3 y K =R y definimos las operaciones + y como sigue:
·
def
suma: ( a1 , a2 , a3 ) + ( b1 , b2 , b3 ) = (a1 + b1 , a2 + b2 , a3 + b3 ) def
producto: λ (a1 , a2 , a3 ) = (λ.a1 ,
·
2 ,a
3 )apara
R y todas las ternas de R 3 .
todo λ
∈
def
Notaci´ on: El s´ımbolo = quiere decir que el miembro de la izquierda esta siendo definido mediante la expresi´on de la derecha. EJEMPLO 4.6. Sea n un n´umero natural 1. El espacio Rn = R R . . . R de n-plas ordenadas de n´umeros reales en la forma ( x1 ,.. . ,x n ) es un espacio vectorial real respecto de las siguientes operaciones:
≥
× × ×
def
(x1 ,.. . ,x n ) + ( y1 ,.. . ,y n ) = (x1 + y1 ,.. . ,x n + yn ) def
a.(x1 ,.. . ,x n ) = (ax1 ,. .. ,a x n ) Es f´acil verificar que
n
{R , R, +, ·} es un espacio vectorial sobre (a1 , a2 ,
−
, an ) = ( a1 , a2 ,
···
R , con 0 = (0 , 0, ··· , 0) y , an ) .
− − ··· −
Las operaciones definidas en este ejemplo se llaman usuales de R n . Este ejemplo se generaliza al caso de un cuerpo cualquiera K , obteni´endose el K -espacio can´onico K n .
×
EJEMPLO 4.7. El conjunto M2 [R] de matrices reales 2 2 con las operaciones usual es de adici´on y multiplicaci´on de matriz por escalar, conforma un espacio vectorial sobre los reales.
×n ∈ R, 1 ≤ i ≤ n, 1 ≤ j ≤ m}
EJEMPLO 4.8. El conjunto de matrices de dimensi´on m
{
Mm×n (R) = A = (aij ) : a ij
con las operaciones: suma de matrices y producto por n´ umeros reales. es un espacio vectorial sobre R. M n×n (R) es el espacio vectorial sobre R de matrices sim´etricas n n.
×
x:
EJEMPLO 4.9. El conjunto de todos los polinomios con coeficientes reales en la variable n
R [x] =
ak xk : n
k =0
∈ R, a ∈ R k
con las cl´asicas operaciones de suma y producto por n´umeros reales, es un espacio vectorial real. Si cambiamos R por un cuerpo cualquiera K obtenemos el K -espacio vectorial K [x] de polinomios con coeficientes en K .
email
[email protected]
189
βo
ξ £vι
−
−o
ζℏ
so
z
190
x,
EJEMPLO 4.10. El conjunto de todos los polinomios, con coeficientes reales en la variable de grado menor o igual que n :
n
R n [x] =
k
ak x : a k
k =0
∈ R
con las mismas operaciones anteriores es un espacio vectorial sobre R. Sin embargo El conjunto de los polinomios en una variable x , de grado igual a n , con coeficientes reales, K = R y la suma y el producto definidos como en el ejemplo 1.5, no forman un espacio vectorial ( Estudiar p or qu´e no).
EJEMPLO 4.11. El conjunto de todas las sucesiones de n´umeros reales:
S = (xn )∞ n=0 : x n
{
∈ R, n ≥ 1 }
con las operaciones: suma de sucesiones y producto por n´ Dadas an y bn V , y dado λ R:
{ } { }∈ ∈ {a } + {b } = (a def
n
n
1
umeros reales definidas como sigue:
{
+ b1 , a2 + b2 ,...,a n + bn ,... ) = an + bn
}
(la suma de dos sucesiones es definida como la sucesi´ on que se obtiene sumando los t´erminos n-´esimos de las sucesiones dadas),
λ
· {a } = λ · (a , a ,...,a 1
n
2
def
n
·
·
) = (λ a1 , λ a2 ,...,
· a ) = {λ · a } n
n
Es f´acil comprobar que es un espacio vectorial real . El vector nulo es la sucesi´ on que tiene todos sus t´erminos iguales a cero. Se verifica adem´as an = an
−{ } {− }
EJEMPLO 4.12. Sea X un conjunto no vac´ıo. El conjunto RX de todas las funciones de X en R es un espacio vectorial real bajo las siguientes operaciones: def
def
∀ ∈ X. ∀ x ∈ X , ∀λ ∈ R
f+g = h donde h( x) = f(x)+g(x) x
·
def
def
λ f = k donde k (x) = λf ( x)
Si X = R entonces se obtiene el espacio de todas las funciones de variable real a valor real. Si X es un intervalo abierto, por ejemplo ( a, b) o R , y C (X ) es el conjunto de funciones continuas de X en R , entonces C (X ) es un espacio vectorial real. Si X = N es el conjunto de n´umeros naturales, entonces resulta el espacio de las sucesiones reales.
EJEMPLO 4.13. El conjunto de las n -uplas ordenadas de n´umeros complejos V = Cn con las operaciones definidas como en el ejemplo 1.3 tomando K = C forma un C-espacio vectorial Cn , C, +, ) .
{
·}
EJEMPLO 4.14. Si K = R, y las operaciones en Cn se definen en forma an´aloga al ejemplo anterior (y en forma an´aloga al ejemplo 1.3), resulta Cn , R, +, un espacio vectorial real (distinto del ejemplo 1.7 , puesto que difieren en el cuerpo K ).
{
email
[email protected]
190
·}
βo
ξ £vι
−
−o
ζℏ
so
z
191
EJEMPLO 4.15. Las sucesiones de n´umeros complejos con la suma de sucesiones y el producto de una sucesi´on por un n´umero complejo definidos en forma similar al ejemplo 1.4 constituyen un C-espacio vectorial.
{}
·
EJEMPLO 4.16. El conjunto 0 es un K -espacio vectorial, donde se define 0+0=0 y α 0 = 0 , α K.
∀ ∈
EJEMPLO 4.17. Dado un sistema de ecuaciones lineales homog´eneo con coeficientes reales
a11 x1 + a12 x2 + a21 x1 + a22 x2 +
··· + a ··· + a
1n xn 2n xn
= 0 = 0 .. .
an1 x1 + an2 x2 +
··· + a
x
= 0
nn n
(4.1)
de m ecuaciones con n inc´ognitas. El conjunto de soluciones del sistema
{
W = (a1 , a2 ,...,a n )
∈R
n
: (a1 , a2 ,...,a n ) es soluci´on de (4.1)
}
·
es un espacio vectorial ( W, R, +, ).
, , +,
EJEMPLO 4.18. Con las operaciones usuales
no es un espacio vectorial.
{R C ·} Observaci´ on 4.5. En todos los ejemplos anteriores, para verificar que efectivamente son espacios vectoriales, hay que verificar que se cumplen las propiedades incluidas en la definici´ on 1.1, para la suma y el producto por escalares. Observaci´ on 4.6. Se denota u
− v a la suma u + (−v) con u, v ∈ V .
´ 4.2. 0 u = 0 , PROPOSICION
·
´ DEMOSTRACION.
·
·
∀u ∈ V ·
− · −
· −
· −u
0 u = 0 u + 0 = 0 u + (u u) = (0 u + 1 u) = (0 + 1) u u = 1 u u = u u = 0
PROPOSICION ´ 4.3. α 0 = 0 , ´ DEMOSTRACION.
·
· −
∀α ∈ K
Sea u un vector cualquiera de V ,
· − · · · · − · · ·
− · · · − α · u)
0 = α u α u = α (0 + u) α u = (α 0 + α u) α u = α 0 + ( α u = α 0 + 0 = α 0.
email
[email protected]
191
βo
ξ £vι
−
−o
ζℏ
so
z
192
´ 4.4. Sean α PROPOSICION
∈ K , u ∈ V . Entonces , α · u = 0 si y s´olo si : α = 0 y/o u = 0. Directo: Supongamos que α = 0. Como α · u = 0, · (α · u) = · 0 de · α · u = 0, o sea 1 · u = 0; u = 0.
´ DEMOSTRACION. 1
donde
α
1
1
α
α
Rec´ıproco: son las Proposiciones 4.2 y 4.3.
PROPOSICION ´ 4.5. ( 1) .v = ´ DEMOSTRACION.
−v ∀v ∈ V − v + ( −1) .v = 1.v + ( −1) v = (1 + ( −1)) v = 0.v = 0 −
Basta ver que ( 1) v es el opuesto de v , es decir
4.2.
Subespacios
´ 4.2. Sea V, K +, un espacio vectorial y W un subconjunto de V . Diremos que DEFINICION W es un subespacio de V , si se cumple:
{
a) w1 + w2 b) λ w
∈
W
∈
W
·}
para t odo w
para todo w
∈
1
∈
W yλ
W y w2
∈
K
∈
W
Es decir, un subespacio de un espacio vectorial es un conjunto no vac´ıo, ¸cerrado” frente a la suma y al producto de escalares por vectores. Observaci´ on 4.7. Si W es un subespacio, entonces 0
por la Proposici´on 1.2).
∈ W (debido a que 0 .v pertenece a W y
EJEMPLOS DE SUBESPACIOS VECTORIALES
{}
EJEMPLO 4.19. En cualquier espacio vectorial, el conjunto 0 es un subespacio. Obviamente, es el subespacio m´as peque˜no que puede haber.
2
{
EJEMPLO 4.20. En R , el eje de abscisas (x, 0) : x lo es el eje de ordenadas.
∈ R} es un subespacio vectorial. Igualmente
EJEMPLO 4.21. La circunferencia (x, y ) : x 2 + y 2 = 1 no es subespacio vectorial. Por ejemplo, si multiplicas por 2 un vector, se sale fuera de la circunferencia. Otra raz´ on: el 0 no pertenece a la circunferencia.
{
}
EJEMPLO 4.22. El conjunto U formado por la uni´on de los dos ejes de ordenadas de R2 (es decir, U = (x, y ) R 2 : xy = 0 ) no es un subespacio vectorial. Obs´ervese que el producto por escalares no da problema. Sin embargo, la suma s´ı. Por ejemplo, los vectores (1, 0), (0 , 1) est´an los dos en U , pero su suma, (1 , 1), no.
{
∈
}
email
[email protected]
192
βo
ξ £vι
−
−o
ζℏ
so
EJEMPLO 4.23. En R3 , R, +, subespacio de V .
{
z
193 3
·} W= {(a , a , a ) ∈ R 1
2
3
}
tales que a3 = 0 entonces W es un
EJEMPLO 4.24. En Rn , R, +, sea W = (a1 ,...,a n ) Rn : a i = 0 con i fijo 0 < i n, es decir W es el conjunto de las n -u plas con la i-´esima componente nula, . Entonces W es un subespacio de n .
{
·}
{
R
EJEMPLO 4.25. Demuestra que el plano π : x x=t y = 2 + t no lo es. que la recta L: z = 2t
∈
}
− y + z = 0 es un subespacio vectorial, mientras
−
´ SOLUCION.Ambos lugares geom´etricos pueden reescribirse como
x
− y + z = 0,
y = x + z,
(x,y,z ) = (x, x + z, z ) = (x,x, 0) + (0 ,z,z ) = x (1, 1, 0) + z (0, 1, 1)
{
π = p : p = x (1, 1, 0) + z (0, 1, 1) x, z
∈ R}
−2 + t, z = 2t, entonces (x,y,z ) = (t, −2 + t, 2t) = (t,t, 2t) + (0 , −2, 0) = t (1, 1, 2) + (0 , −2, 0)
Ahora bien, si x = t , y =
{
−
L = p : p = t (1, 1, 2) + (0 , 2, 0) t 3
que forman subconjuntos del espacio vectorial R .
∈ R}
PLANO π : Cerradura para la suma de vectores: Sean p , q en el plano π , entonces p = r (1, 1, 0) + s(0, 1, 1) para r, s R y q = a (1, 1, 0) + b(0, 1, 1) para a, b R, entonces
∈
∈
p + q = r (1, 1, 0) + s(0, 1, 1) + a(1, 1, 0) + b(0, 1, 1) = ( r + a)(1, 1, 0) + ( s + b)(0, 1, 1) Cerradura para la multiplicaci´ on por un escalar: sea λ
∈π
∈ R entonces
λp = λ (r (1, 1, 0) + s(0, 1, 1)) = λr (1, 1, 0) + λs(0, 1, 1)
∈π
Por lo tanto, el plano es un subespacio vectorial. RECTA L. Cerradura para la suma de vectores: Sean p, q en la recta L, entonces p = t (1, 1, 2) + (0, 2, 0) para t R y q = s (1, 1, 2) + (0 , 2, 0) para s R, entonces
−
∈
−
∈
−
−
−
∈
p + q = t (1, 1, 2) + (0 , 2, 0) + s(1, 1, 2) + (0 , 2, 0) = ( t + s)(1, 1, 2) + (0 , 4, 0) / L
−
Se observa que la componente y = (t + s) 4 no coincide con las ecuaciones param´etricas de L ; es decir, la suma de dos puntos de la recta no pertenece a dicho lugar geom´etrico. En consecuencia la recta L no es un subespacio vectorial.
♣
email
[email protected]
193
βo
ξ £vι
−
−o
ζℏ
so
z
194
EJEMPLO 4.26. Sea π un plano del espacio. La direcci´ on de π forma un subespacio de los vectores del espacio. De la misma forma, si la recta r es paralela al plano π , entonces la direcci´on de r forma un subespacio de la direcci´on de π . EJEMPLO 4.27. Consideremos el espacio vectorial Kn , (K = R o C) y A Mm×n (K). El conjunto de todas las soluciones de un sistema de ecuaciones lineales homog´eneas de m ecuaciones y n inc´ognitas S = x Kn : Ax = 0
∈
{ ∈
n
}
es un subespacio vectorial del espacio vectorial K , siendo la dimensi´on igual a n menos el rango de la matriz de los coeficientes, es decir dim S = n rango (A). Para comprobarlo usamos nuevamente el teorema del subespacio.
−
i) S no es vac´ıo porque 0
∈
∈ S , ya que A0 = 0.
ii) Sean u y v S . Por lo tanto Au = 0 y Av = 0. Entonces A(u + v ) = Au + Av = 0 + 0, con lo cual u + v S .
∈
∈
iii) Supongamos u S . Entonces Au = 0. Para comprobar que v = αu con α un escalar arbitrario pertenece a S , veamos que Av = 0. Pero Av = A(αu) = α(Au) = α0 = 0. Con esto ´ultimo queda demostrado que S es subespacio. A partir de este resultado se puede deducir en forma anal´ıtica que toda recta en R 2 que pase por el srcen es subespacio. En efecto, si S es una recta que pasa por el srcen, sus puntos verifican una ecuaci´on de la forma ax1 + bx2 = 0, es decir, S = x R2 : ax1 + bx 2 = 0 . Si llamamos A = [a b], tenemos que S = x R2 : Ax = 0 , que es subespacio por lo que ya vimos. En forma similar se demuestra que una recta S en R 3 que pase por el srcen es subespacio. En este caso los puntos de S son soluci´on de un sistema de dos ecuaciones lineales homogeneas, es decir,
{ ∈
{ ∈R
S= x
3
{ ∈
}
}
}
: ax 1 + bx2 + cx3 = 0 y dx1 + ex2 + fx3 = 0 .
Si ahora consideramos la matriz A = subespacio de R 3 .
a b c , tenemos que S = x d e f
{ ∈R
3
}
: Ax = 0 , que es
P
EJEMPLO 4.28. Consideremos (K) el espacio vectorial de polinomios con coeficientes en K. El conjunto de polinomios de grado menor o igual a n junto con el polinomio nulo.
P (K) = {p ∈ P (K) : deg( f ) ≤ n} n
es un subespacio vectorial de
P (K). Aqu´ı se utiliza el acuerdo que deg(0) = −∞. ··· P
n n−1 Tomemos p + + a0 . Por ejemplo, p = t 3 + t y q = 2t2 t +1 n (K), entonces p = a n t + an−1 t son elementos de 3 (K); q tambi´en es elemento de 2 (K), mientras que p no lo es.
∈P
P
−
P (R) es subespacio de P (R) y, por ende, es un espacio vectorial real. En efecto, P (R) no es vac´ıo porque P (R) contiene al polinomio nulo. Por otra parte, la suma de dos polinomios de n
n
n
email
[email protected]
194
βo
ξ £vι
−
−o
ζℏ
so
z
195
grado menor o igual a n es de grado menor o igual a n, y el producto de un polinomio de grado menor o igual a n por una constante es un polinomio de grado menor o igual a n, con lo cual las operaciones suma y producto son cerradas en n (R).
P
EJEMPLO 4.29. Consideremos Mn (K) el espacio vectorial de matrices de orden
n
×
entradas en K . El conjunto de matrices triangulares superiores
{ ∈ M (K) : ∀i, j ∈ {1,...,n }, si i > j ⇒ a
tsn (K) = A
n
ij
n con
}
=0
es un subespacio vectorial de Mn (K).
EJEMPLO 4.30. Consideremos Mn (K) el espacio vectorial de matrices de orden entradas en K . El conjunto de matrices triangulares inferiores
{ ∈ M (K) : ∀i, j ∈ {1,...,n }, si i < j ⇒ a
tin (K) = A
n
ij
=0
n
× n con
}
es un subespacio vectorial de Mn (K).
EJEMPLO 4.31. Consideremos Mn (K) el espacio vectorial de matrices de orden entradas en K . El conjunto de matrices diagonales Diagn (K) = A
{ ∈ M (K) : ∀i, j ∈ {1,...,n }, si i = j ⇒ a n
ij
=0
n
× n con
}
es un subespacio vectorial de Mn (K).
EJEMPLO 4.32. Consideremos Mn (K) el espacio vectorial de matrices de orden entradas en K . El conjunto de matrices sim´ etricas
{ ∈ M (K) : A
Sn (K) = A
n
T
=A
n
× n con
}
es un subespacio vectorial de Mn (K).
EJEMPLO 4.33. Consideremos Mn (K) el espacio vectorial de matrices de orden entradas en K . El conjunto de matrices antisim´etricas
{ ∈ M (K) : A
An (K) = A
n
T
=
n
× n con
−A}
es un subespacio vectorial de Mn (K).
EJEMPLO 4.34. Consideremos Mn (K) el espacio vectorial de matrices de orden entradas en K . El conjunto de matrices con traza nula
n
× n con
{ ∈ M (K) : tr( A) = 0}
trn (K) = A
n
es un subespacio vectorial de Mn (K). email
[email protected]
195
βo
ξ £vι
−
−o
ζℏ
so
z
196
EJEMPLO 4.35. En el espacio vectorial de todas las matrices cuadradas de orden n, el subconjunto de las matrices matrices regulares no es un subespacio vectorial ni el de las matrices singulares. EJEMPLO 4.36. Consideremos C (R) el espacio vectorial de todas la funciones continuas R R. El conjunto de funciones continuas pares
f :
→
{ ∈ C (R) : ∀x ∈ R f (−x) = f (x)}
S= f
es un subespacio vectorial de C (R).
EJEMPLO 4.37. Consideremos C (R) el espacio vectorial de todas la funciones continuas R R. El conjunto de funciones continuas impares
f :
→
{ ∈ C (R) : ∀x ∈ R f (−x) = −f (x)}
S= f
es un subespacio vectorial de C (R).
EJEMPLO 4.38. Sea subespacios vectoriales:
F (R) = {f : R → R} el espacio vectorial de las funciones reales. Son
S1 = f
{ ∈ F (R) : f (0) = 0 } { ∈ F (R) : f acotada}
S2 = f
S3 = f
S4 = f
{ ∈ F (R) : f continua} { ∈ F (R) : f derivable}
{ ∈ F (R) : f (x) > 0 , ∀x ∈ R}
S6 = f
y no lo son
{ ∈ F (R) : |f (x)| ≤ 1, ∀x ∈ R} EJEMPLO 4.39. Son subespacios vectoriales del espacio vectorial P (K), de todos los polinomios S5 = f
en x con coeficientes reales, los siguientes: ′
{ ∈ P (R) : p (0) = 0 }
S1 = p
{ ∈ P (R) : a
S2 = p
0
}
= a1 = 0
donde a 0 y a 1 son los coeficientes de grado 0 y 1, respectivamente. No son subespacios vectoriales:
S3 = p
(R) : grado( p) = 4
(R) : el grado de p es par
S4 = p
{ ∈SonP subespacios vectoriales } de M{ ∈(RP): EJEMPLO 4.40. 2×2
S1 =
0 a : a, b b 0
y no lo es
S3 = email
[email protected]
∈ − ∈
∈R
,
0 1 :a a 0 196
0 a :a a 0
S2 =
}
R
R
βo
ξ £vι
−
−o
ζℏ
so
z
197
EJEMPLO 4.41. En las sucesiones de n´umeros reales (ejemplo 1.4) sea W el conjunto formado por las sucesiones que a partir de alg´un t´ermino, tienen todos los t´erminos restantes iguales a cero. W es un subespacio del espacio vectorial V . EJEMPLO 4.42. Sea V el espacio vectorial del ejemplo 1.6, y sea C [a, b] el conjunto de las funciones f que son continuas. f : [a, b] . Entonces C [a, b] es un subespacio de V . Recordar R que la suma de funciones continuas es una funci´on continua, as´ı como tambi´ en lo es el producto de una funci´on continua por un escalar.
→
EJEMPLO 4.43. En el espacio de las n -u plas de complejos (ejemplo 1.7) sea W un subconjunto de las n -uplas cuya suma de t´erminos da cero. Se puede verificar que es un subespacio de C n . EJEMPLO 4.44. En el espacio del ejemplo 1.7 Cn, C, +, sea W el subconjunto de las n u plas cuyo primer t´ermino es 5+2i . Este subconjunto W no es un subespacio, porque al sumar dos elementos de W, el resultado no pertenece a W.
{
·}
EJEMPLO 4.45. Sea Cn , R, +, el espacio vectorial del ejemplo 1.8. Sea W ’ el subconjunto formado por las n -u plas de n´umeros complejos cuyos t´erminos tienen parte real igual a cero. Es un subespacio. En este ejemplo es importante que el cuerpo K sea R y no C. Observar que el mismo subconjunto W ’, considerado como subconjunto del espacio vectorial Cn, C, +, no es un subespacio.
{
·}
{
·}
EJEMPLO 4.46. En el ejemplo 1.9 de las sucesiones de n´ umeros complejos sobre el cuerpo C, con las operaciones usuales, sea W el subconjunto de las sucesiones que tienen igual a cero los t´erminos que est´ an en lugar par: W = an : a n C, a2k = 0 . Entonces W es un subespacio.
{{ }
∈
}
{
·}
{
·}
{
·}
TEOREMA 4.1. Si W es un subespacio de V,K, +, entonces W, K +, con las operaciones que + y ”heredadas”de V , es un espacio vectorial sobre el mismo cuerpo K.
·
´ DEMOSTRACION.
⊂
Hay que probar que si V,K, +, es espacio vectorial y W V es subespacio de V entonces W,K, +, tambi´ en es un espacio vectorial.. Las operaciones + y en W se entienden que son las + y restringidas a W.
{
·
·}
·
En primer lugar el conjunto W es distinto de vac´ıo, porque W es un subespacio. La operaci´on + en W , es la operaci´on + de V , pero restringida a W (eso quiere decir aplicada s´olo a parejas de vectores en W ). Est´a bien definida (da un vector de W ), por a) de la definici´on 2.1. Cumple las propiedades conmutativa y asociativa porque estas se cumplen para todos los vectores de V . Luego en particular se cumplen para los vectores de W . Veamos ahora que existe un vector neutro para la ′
′
suma en W Por la Nota de V que est´aestamos en W y buscando. satisface 0+ w = w + 0 = w por tanto es. el neutro de 2.1., W yel0neutro es el vector
′
′
∀w ∈ W ;
Ahora veamos la existencia del opuesto ( −w ) en W de un vector w ∈ W . Sabemos que existe −w ∈ V , opuesto de W ⊂ V , que cumple: w + (−w) = 0. Mostraremos que este opuesto de W en V , es tambi´en opuesto de W en W ; por la proposici´on 1.5: −w = (−1) · w . Adem´as (−1) · w ∈ W porque w ∈ W y W es un subespacio. Entonces −w cumple: −w ∈ W y w + (−w) = 0 = 0, o sea −w verifica las condiciones requeridas para ser opuesto de w en W , w
W
como quer´ıamos probar.
email
[email protected]
197
βo
ξ £vι
−
−o
ζℏ
so
z
198
·
En cuanto a las propiedades de la funci´on en W requeridas en la definici´on 1.1 se cumplen todas en W puesto que por definici´on se cumplen en V que incluye a W. Queda probado entonces que si W es un subespacio de un espacio vectorial V , entonces tambi´en W es un espacio vectorial.
Nota 2.3: Este teorema permite ver en forma f´ acil si un cierto conjunto W sobre un cuerpo K,
·
con ciertas operaciones + y es un espacio vectorial. En efecto, en lugar de verificar todas las condiciones de la definici´on 1.1, alcanza ver si W es un subespacio de alg´un V , que ya se sepa tiene estructura de espacio vectorial. Para lo cual alcanza con probar que W es cerrado con respecto a la suma y cerrado con respecto al producto de un escalar por un vector. Otros ejemplos de subespacio vectoriales, adem´as de los anteriores son los llamados subespacios triviales. Uno de ellos es W = 0 (conjunto formado por un ´unico elemento, el vector nulo). El otro subespacio trivial es W = V . En ambos casos, W es subespacio de V .
{}
n
TEOREMA 4.2. Sean W1 , W2 ,...,W n , subespacios de un mismo espacio V . Entonces W =
Wi
i=1
es tambi´en un subespacio de V . ´ DEMOSTRACION.
∅
En primer lugar W = ; en efecto: el vector 0 pertenece a todos los subespacios Wi , y por lo tanto pertenece tambi´ en a su intersecci´on W. Adem´as W
⊂ V puesto que W ⊂ W ⊂ V ∀ i = 1, 2,...,n i
Falta probar que W es cerrado frente a la suma de vectores y al producto de un escalar por un vector. Sean w y w’ W . Entonces w y w’ pertenecen a todos los subespacios α w Wi i = 1, 2,...,n (porque W es la intersecci´on de ellos), w y w ′ Wi para cada i = 1, 2,...,n , .Luego w + w′ Wi i = 1, 2,...,n (puesto que Wi son subespacios). Entonces w + w ′ W .
∈
∈ ∀
∈
· ∈
∈
∈
∈
∀
· ∈
∈
∀
∀
Ahora sean α K y w W . Se tiene w Wi i = 1, 2,...,n . De all´ı α w Wi i = 1, 2,...,n (puesto que Wi son subespacios). Entonces α w pertenece a la intersecci´on de todos los W i , o sea a W.
email
[email protected]
·
198
βo
ξ £vι
−
4.3.
−o
ζℏ
so
z
199
Combinaci´ on lineal y Subespacio generado
Espacio generado por un conjunto de elementos de un espacio vectorial.- Hemos visto que para describir una recta se necesita solo un vector y que para describir un plano se necesitan dos vectores no colineales. Visto desde el lado de los vectores podemos decir que el vector genera la recta, o que los dos vectores generan un plano. Las siguientes definiciones generalizan este concepto en cualquier espacio vectorial. ´ 4.3. Sea V un espacio vectorial, v1 , v2 ,...,v n vectores de V . Decimos que V es DEFINICION combinaci´ on lineal de v1 , v2 ,...,v n cuando existen escalares λ1 , λ2 ,..., n tales que :
v = λ 1 v1 + λ2 v2 + ... + λn vn 3
EJEMPLO 4.47. En R , para averiguar si el vector v = (1, 2, 3) es combinaci´on lineal de v1 = (1, 1, 1), v2 = (2, 4, 0) y v 3 = (0, 0, 1), se plantea la ecuaci´on vectorial: (1, 2, 3) = a(1, 1, 1) + b(2, 4, 0) + c(0;0 , 1) que equivale al siguiente sistema de ecuaciones, cuyas soluciones son las que se indican:
⇒
a + 2b = 1 a + 4b = 2 a+c = 3
=
a = 0 b = 1/2 c = 3
Luego v = 0v1 + 1 v2 +3 v3 , y el vector v es combinaci´on lineal de v1 , v2 , v3 (y tambi´en de v2 , v3 ). 2 EJEMPLO 4.48. Mostrar que el vector (1 , 1, 1) es combinaci´on lineal de los vectores (1 , 1, 0), (0, 1, 1) y (1 , 0, 1). En efecto: (1, 1, 1) = a(1, 1, 0) + b(0, 1, 1) + c(1, 0, 1)
⇐⇒
Aplicando el m´etodo de Gauss se tiene: 1011 1101 0111
− ←→ ( 1)f1 + f2
− ←→
1 0 1 1 0 1 1 0 0 1 1 1
−
{
( 1)f2 + f3
}
1 0 1 1 0 1 1 0 0 0 2 1
−
(1/2)f3
←→
− − ⇒ y A2 =
1 01 1 0 1 1 0 0 1 1
−
1 0 2 4
199
0 /2
es combinaci´on lineal
3 2 , se plantea la ecuaci´on matricial: 3 5
1 0 1 1 3 2 =a +b = 2 4 2 2 3 5
email
[email protected]
EJEMPLO 4.49. En M 2×2 (R), para averiguar si la matriz A = 1 1 2 2
}
+ c = 1 a a + b = 1 b + c = 1
1 1 1 de donde (1 , 1, 1) = (1, 1, 0) + (0, 1, 1) + (1, 0, 1). 2 2 2
de A1 =
{
a + 3b a + 2b 2a + 3 b 2a + 5 b
= = = =
1 0 2 4
βo
ξ £vι
−
−o
ζℏ
so
z
200
{
}
Este sistema es incompatible, luego A no es combinaci´on lineal de A1 , A2 . π EJEMPLO 4.50. f (x) = sen x + es combinaci´on lineal de f1 (x) = cos( x) y f 2 (x) = sen( x) 4 en (R). En efecto, usando la identidad trigonom´etrica sen(a + b) = sen( a)cos( b) + cos( a) sen(b), π π π tenemos que para x R, sen x + = cos sen(x) + sen cos(x), con lo cual 4 4 4
C
∈
√ √ f (x) =
es decir f =
√2
f1 +
√2
2 2 f1 (x) + f2 (x) 2 2
∀x ∈ R,
f2 . 2 2 ´ 4.4. Sean A V, V un espacio vectorial. El conjunto de todas las combinaciones DEFINICION lineales de los elementos de A se llama conjunto generado por A y se denota como Gen(A) o por A , tambi´en se llama capsula lineal. En formula tendr´ıamos que
⊂
A = {λ v
1 1
+ ... + λp vp tale que p
∈ R, v ∈ A, λ ∈ K, i = 1,...,p } . i
i
Lo primero que debemos afirmar es que el conjunto generado por un subconjunto de un espacio vectorial es un subespacio vectorial:
∅ ⊂ ⊂ ∈
TEOREMA 4.3. Sean V un espacio vectorial y A = , A V . Entonces A es un subespacio de V . Mas a´un, A es el menor subespacio vectorial de V que contiene al conjunto A, esto es, si A W , con W un subespacio vectorial de V , entonces A W. ´ DEMOSTRACION. A es distinto de vac´ıo porque dado alg´ un vector V de A, se tiene 0 = 0 v 0 es combinaci´on lineal de V 0 A . Sean ahora v,w A . Esto quiere decir que existen vectores v1 , v2 ,...,v n ; w1 , w2 ,...,w m pertenecientes a A (no necesariamente distintos) y existen α1 , α2 ,..., n ; β1 , β2 ,..., m tales que v = α 1 v1 + α2 v2 + ... + αn vn y w = β 1 w1 + β2 w2 + ... + βm wm . Entonces v + w = α 1 v1 + α2 v2 + ... + αn vn + β1 w1 + β2 w2 + ... + βm wm . O sea, v+w es combinaci´on lineal de elementos de A. Hasta ahora hemos probado que A es cerrado respecto a la suma.
⊂
∈
⇒ ∈
∈
Sea ahora λ K y sea v A . Existen escalares α1 , α2 ,..., que: v = α 1 v1 + α2 v2 + ... + αn vn
·
·
·
n
· ⇒
y vectores v1 , v2 ,...,v
n
∈ A, tales
·
Entonces: λ v = λ (α1 v1 + α2 v2 + ... + αn vn ) = (λ α1 ) v1 + ... + (λ αn ) vn y obtenemos que λv tambi´en es combinaci´ on lineal de vectores de A . O sea, A es cerrado respecto al producto de un escalar por un vector. Luego, A es un subespacio.
EJEMPLO 4.51. Describa el conjunto generado por (1 , 3) . ´ SOLUCION.El conjunto generado por (1 , 3) por definicion es
{α(1, 3)/α ∈ R}
esta es la ecuacion vectorial de una recta que pasa por el srcen y tiene direccion (1 , 3). Podemos encontrar la ecuacion cartesiana de la recta escribir ( x, y ) = α(1, 3) = ( α1, α3). Por tanto x = α y y = 3α. La ecuacion cartesiana de esta recta es y = 3x. Verificamos que en efecto este conjunto es un subespacio de R2 . email
[email protected]
200
βo
ξ £vι
−
−o
ζℏ
so
z
201
− −
EJEMPLO 4.52. Demostrar que gen ( 1, 3) = gen (1, 3). ´ SOLUCION.El hecho de que los dos conjuntos son iguales es evidente geometricamente pues la recta generada por ( 1, 3) es igual a la recta generada por (1 , 3).
− −
En otros ejemplos que no es tan obvio esto vamos a utilizar la siguiente idea si
B ′ entonces
B
genB genB ′ Argumente por que es cierta la aseveracion anterior.
⊂
⊂
EJEMPLO 4.53. El conjunto generado por B = x, x2 son los polinomios de segundo grado con termino independiente cero. En efecto
{
gen (B ) =
}
2
{ax + bx /a,R ∈ R}
EJEMPLO 4.54. Determinar si la funci´on h (x) = cos 2 x, es elemento de gen sen2 x, cos2 x .
{
}
´ SOLUCION.Para que sea elemento debe ser combinaci´on lineal, pero considerando que
− sen
2
x + cos 2 x = co s 2 x
podemos concluir que h si es elemento de gen de B. Demuestre si sen 2 x esta en el genB .
EJEMPLO 4.55. En , gen 1,t,t 2 coincide con 2 , el subespacio compuesto por todos los polinomios de grado menor o igual a 2 y el polinomio nulo, pues todo polinomio de 2 se obtiene combinando linealmente los polinomios p1 = 1, p2 = t y p3 = t 2 . Por ejemplo,
P
{
}
1 + 2t
P
−t
2
P
−
= 1p1 + 2 p2 + ( 1)p3 .
EJEMPLO 4.56. Sea S = p R : 2x + y + z = 0 . S es subespacio de R 3 por estar definido por una ecuaci´on lineal homog´enea. Por otra parte,
{ ∈
p
∈S ⇔
3
}
2x + y + z = 0
∈
− −
⇔
z=
−2x − y.
−
− −
Entonces p S si y s´olo si p = (x,y, 2x y ) = x(1, 0, 2) + y (0, 1, 1); en consecuencia, p S si y s´olo si p es combinaci´on lineal de v1 = (1, 0, 2) y v2 = (0, 1, 1). En otra palabras, S = gen v1 , v2 .
∈
{
−
}
´ 4.5 (Subespacio generado, conjunto generador). Sea V un espacio vectoDEFINICION
rial, A un subconjunto de V . Decimos que A es el subespacio generado por A y que A es un generador de A . Se dice que un subespacio S de un espacio vectorial V est´ a generado por los vectores v1 , . . . , vr si y s´olo si S = v1 ,...,v r . En esta situaci´on se dice que v1 ,...,v r es un conjunto generador de S y que S es un subespacio finitamente generado.
{
EJEMPLO 4.57. R 2 = e1 , e2 vector ( x, y ) de R 2 , se tiene que
{
}
} con e
1
{
}
= (1, 0), e2 = (0, 1). En efecto, dado cualquier
(x, y ) = x (1, 0) + y (0, 1) = xe 1 + ye 2 . email
[email protected]
201
βo
ξ £vι
−
−o
ζℏ
so
z
202
R3 = {e1, e2 , e3} con e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1). En efecto, dado cualquier vector ( x,y,z ) de R 3 , se tiene que (x,y,z ) = x (1, 0, 0) + y (0, 1, 0) + z (0, 0, 1) = xe1 + ye 2 + ze 3 . n
R = {e1 , e2,...,e n} con e1 = (1, 0, ..., 0), e 2 = (0, 1, ..., 0),..., e n = (0, ..., 0, 1). En R 3 , {(1, 0, 0), (0, 1, 0), (1, −1, 0)} = {(x,y,z ) ∈ R3 : z = 0}. En R 2 , el eje de abscisas
{(x, 0) : x ∈ R} = {(1, 0)}
2
R = {(1, 1), (1, −1)}. n
P = {1,t,...,t } M (R) = {E , E n
2×2
11
E11 =
12 , E21 , E22
1 0 , 0 0
} con
E12 =
0 1 , 0 0
E21 =
0 0 , 1 0
E22 =
0 0 0 1
En efecto, si A = (aij ), A = a 11 E11 + a12 E12 + a21 E21 + a22 E22 . Los vectores (0, 1, 3), (0, 2, 1), (0, 1, 1) no son sistema de generadores de R3 , ya que cualquier combinaci´on lineal de esos vectores vale cero en su primera componente.
{
− }
EJEMPLO 4.58. El espacio vectorial de polinomios generado.
P no es un espacio vectorial finitamente
´ SOLUCION.Para demostrarlo procedamos por el absurdo. Supongamos que es finitamente generado. Entonces existe un n´umero finito de polinomios no nulos, p1 , p2 , . . . , pN tales que
P
P = gen{p ,...,p }. 1
N
Llamemos ni al grado del polinomio pi y sea nmax el m´aximo entre los grados de los pi , es decir
{
nmax = m´ax n1 , n2 ,...,n
N
}.
Entonces, cualquier combinaci´on lineal de los polinomios p i es nula o tiene a lo sumo grado n max , con lo cual
P = gen{p ,...,p } ⊂ P ∈P 1
N
nmax
,
lo que es absurdo, pues el polinomio q = tn +1 pero no a finitamente generado nos lleva a una contradicci´on, concluimos que max
P
. Como suponer que P es P no es finitamente generado.♣
nmax
En el siguiente ejemplo vamos a ver que pueden haber vectores ”sobrantes” en un conjunto B, vectores sin los cuales el genB seguir´ıa siendo el mismo. Mas precisamente vamos a ver un ejemplo donde B B ′ y genB = genB ′
⊂
email
[email protected]
202
βo
ξ £vι
−
−o
ζℏ
so
z
203
EJEMPLO 4.59. Sea B = i, j y B ′ = i,j, 2i + j . Es evidente que genB = R2 , y que genB ′ = R2 . Es claro que el vector 2 i + j es combinacion lineal de los otros vectores por tanto no genera nada ”nuevo”. Encuentre un ejemplo similar al anterior en R3 . Esto nos conduce a preguntarnos cuantos vectores se necesitan para generar un conjunto y que condiciones deben cumplir los mismos.
{ }
{
}
´ 4.6. Sea V un subespacio vectorial y A un subconjunto finito de V , o sea PROPOSICION A = v1 , v2 ,...,v n V . Si vk es combinaci´on lineal de los dem´as vectores de A, entonces
{
}⊂
A = {v , v ,...,v } ´ DEMOSTRACION.
1
2
n
{
v1 , v2 , ...vk−1 , vk+1,...,v n
=
{
}
}
Toda combinaci´on lineal de vectores de v1 , v2 , ...vk −1 , vk+1 ,...,v n es tambi´en una combinaci´ on lineal de vectores (basta agregar el vector vk multiplicado por el escalar 0), es decir v1 , v2 , ...vk−1 , vk+1 ,...,v n A . Ahora hay que probar al rev´es: que toda combinaci´on lineal de vectores de A es combinaci´ on lineal de vectores de v1 , v2 , ...vk−1 , vk+1 ,...,v n . Se sabe que vk = α 1 v1 + α2 v2 + ...αk−1 vk−1 + αk+1vk+1 + ... + αn vn (4.2)
{
}⊂
{
}
Si elegimos u que sea combinaci´on lineal de A, tendremos: u = λ1 v1 + λ2 v2 + ... k −1 vk−1 + λk vk + λk+1vk+1 + ... + λn vn . Sustituyendo vk por la expresi´on (4.2), resulta: u = (λ1 + λk α1 ) v1 +
... + (λk−1 + λk αk−1 ) vk−1 + (λk+1 + λk αk+1 ) vk+1 + ... + (λn + λk αn ) vn . O sea, u es combinaci´on lineal de v1 , v2 , ...vk−1 , vk+1,...,v n como quer´ıamos probar.
{
}
El siguiente teorema se usa para establecer cuando un conjunto finito de vectores de conjunto generador.
Rn es un
TEOREMA 4.4. Dados un conjunto de vectores en Rn , esos vectores ser´an sistema de generadores si y s´olo si la matriz correspondiente (es decir, aqu´ella que est´a formada por esos vectores dispuestos por columnas) tiene rango igual a n. EJEMPLO 4.60. ¿Los vectores (1 , 1, 0), (1 , 0, 1), (2 , 1, 1) de R 3 son sistema de generadores de R3 ?.
−
´ SOLUCION.Esos vectores ser´an sistema de generadores si dado cualquier ( menos una soluci´on de la ecuaci´on:
x,y,z ) existe al
a(1, 1, 0) + b(1, 0, 1) + c(2, 1, 1) = ( x,y,z )
−
De ah´ı llegamos al sistema de ecuaciones:
a + b + 2c = x a + c = y b + c = z
−
email
[email protected]
203
βo
ξ £vι
−
−o
ζℏ
so
z
204
en el que las inc´ognitas, record´emoslo, son a, b, c. En definitiva, esos vectores son sistemas de generadores si este sistema de ecuaciones es compatible para todo x, y , z . Formamos ahora la matriz de coeficientes y la ampliada:
A=
1 1 0
1 2 0 1 1 1
−
,
A∗ =
1 1 0
1 2 x 0 1 y 1 1 z
−
1. Si A tiene rango igual al n´umero de ecuaciones (en nuestro caso, tres), el sistema ser´a compatible. Ser´ıa determinado o indeterminado dependiendo del n´ umero de inc´ognitas. En cualquier caso, tendr´ıamos un sistema de generadores. 2. Si en cambio el rango de A es menor que tres, siempre se podr´ an elegir x, y , z para hacer que rg (A∗ ) > rg (A), es decir, para que el sistema sea incompatible. As´ı pues, esos vectores no ser´ıan sistema de generadores.
♣
En nuestro caso, el rango es tres, y eso quiere decir que son sistema de generadores.
´ n de los subespacios de R n .- Los subespacios W de Rn pueden EJEMPLO 4.61. Descripcio describirse de tres formas: gen´erica, impl´ıcita y param´etrica.
1. Forma gen ´ erica.- Mediante un sistema generador de W . El subconjunto
W= es un subespacio de R 3 .
{(1, 2, −1), (2, 3, 1)}
(4.3)
etrica.- Mediante una expresi´on param´ 2. Forma param´ etrica, es decir, las coordenadas de los vectores de un subespacio vienen dadas en funci´ on de unos ciertos par´ametros. Dichas funciones deben de ser necesariamente lineales, esto es, expresiones del tipo (2 t + 3s, t s, 5t + 2 s) en las que cada expresi´on es suma de constantes por par´ ametros.
−
El subespacio W anterior se escribe con ecuaciones param´etricas del siguiente modo:
W
≡
x = t + 2s y = 2t + 3 s ; t, s z = t+s
−
∈R
(4.4)
donde t, s son par´ametros (es decir, valores arbitrarios de R ). Para obtener vectores de W s´olo tenemos que dar valores concretos a t y a s . 3. Forma impl´ıcita.- Mediante unas ecuaciones que deben de cumplir los vectores del subespacio. Dichas ecuaciones son siempre ecuaciones lineales homog´eneas. Se dice que el subespacio est´a dado en ecuaciones impl´ıcitas. La ecuaci´on impl´ıcita del subespacio W anterior es
W email
[email protected]
≡ 5x + 3 y + z = 0. 204
(4.5)
βo
ξ £vι
−
−o
ζℏ
so
z
205
Para pasar de una a otra forma: De la forma impl´ıcita a la param´etrica: Basta considerar las ecuaciones impl´ıcitas como un sistema, y resolverlo. La soluci´on general del sistema (que podr´ a depender de par´ametros) es la expresi´on param´etrica. Partiendo de la ecuaci´on (4.3), tomemos ( x,y,z ) W , entonces existen t, s que (x,y,z ) = t (1, 2, 1) + s(2, 3, 1)
∈
∈ R de modo
−
de donde obtenemos las ecuaciones (4.4).
De la forma param´etrica a la impl´ıcita: Podemos decir, aunque no es un m´etodo riguroso, que se trata de “describir” mediante ecuaciones c´ omo es el vector gen´erico del subespacio. Para pasar de las ecuaciones (4.4) a la ecuaci´on (4.5) es necesario eliminar los par´ametros t y s de las ecuaciones impl´ıcitas. Para este fin consideramos la matriz
|
(A X ) =
− 1 2 x 2 3 y 1 1 z
Para que ( x,y,z ) sean las coordenadas de un vector de W necesitamos que el rango de la matriz ( A X ) sea 2 (que es el rango de A). Esto lo conseguimos calculando una matriz escalonada de ( A X ) 1 2 x 0 1 2x + y 0 0 5x + 3 y + z
|
|
−
−
−
he imponiendo la condici´on de que dicha matriz tenga rango igual al de A , es decir imponiendo 5x + 3 y + z = 0.
−
Ayudar´a el conocer qu´e n´ umero de ecuaciones es necesario (lo que se ver´a m´as adelante).
n
´ n entre la forma impl ´ıcita y param´ Relacio etrica.- Si
S es un subespacio de R , (n es el numero de inc´ognitas). La forma impl´ıcita y param´etrica de S satisfacen en general la siguiente relaci´on: Numero de ecuaciones impl´ıcitas + Numero de par´ametros = n . Tambi´ en los par´ ametros deben ser independientes entre s´ı: por ejemplo en la expresi´on param´etrica (s + t, s + t, 0), que en R3 corresponde a la forma impl´ıcita x = y, z = 0 , no se cumple la relaci´on anterior: 2 + 2 = 3. Esto ocurre porque los dos dos par´ametros no son independientes. En realidad puede sustituirse s + t por un solo par´ametro λ y as´ı tendr´ıamos ( , 0) , y ya se cum ple 2 + 1 = 3.
{
}
Esto ser´a m´as f´acil de comprobar m´as adelante, en el punto “Bases y dimensi´on”, pues el n´umero de par´ametros independientes es igual a la dimensi´ on del subespacio. email
[email protected]
205
βo
ξ £vι
−
−o
ζℏ
so
z
206
EJEMPLO 4.62. Si V = R3 y A = v1 = (1, 0, 1), v2 = (1, 1, 1) , entonces
{
A = {v = av
1
+ bv2
− } : a, b ∈ R} = {v = (a + b,b,a − b) : a, b ∈ R}
Las ecuaciones
x = a+b y = b ; a, b z = a b
−
∈R
se llaman ecuaciones param´ etricas de A . Las ecuaciones param´etricas son u´ tiles para obtener, dando valores reales a los par´ametros a y b , los diferentes vectores de A . As´ı, por ejemplo, para a = 2 y b = 1 se obtiene el vector v = (1, 1, 3) A . Eliminando par´ametros en las ecuaciones param´etricas, se obtiene:
−
|
(A X ) = por tanto
1 x 1 y 1 z
1 0 1
−
∼ x
−
∈
1 0 0
1 x 1 y 2 x z
−
−
∼
1 1 0 1 0 0 x
x y z 2y
− −
− 2y − z = 0
∈
que se llaman ecuaciones impl´ıcitas de A (en este caso s´olo una). Las ecuaciones impl´ıcitas son u ´ tiles para comprobar si un determinado vector pertenece a A (el vector debe verificar todas las ecuaciones). Por ejemplo, el vector (3 , 1, 1) A pues 3 2(1) 1 = 0, y el vector ( 1, 2, 1) / A , pues 1 2(2) 1 = 0.
−−
−
− −
−
∈
EJEMPLO 4.63. 1. En R2 , la recta bisectriz del primer cuadrante puede describirse en impl´ıcitas como y = x , y en param´etricas como (t, t) : t R .
{
2. En R 2 , dado el subespacio en param´etricas (s,t,s ecuaci´on z = x y
{
−
∈ }
− t) : s, t ∈ R}, su forma impl´ıcita es la
3. En R3 , dado el subespacio en param´etricas (t,t, 3t) : t y = x impl´ıcita necesitamos dos ecuaciones: z = 3x
{
∈ R}, para describirlo en forma
4. Consideremos el subespacio de R 3 dado en impl´ıcitas por
x+z = 0
¿Cual es su
+ 2 y + z indeterminado. = 0 forma param´etrica? Para ello resolvemos el sistema, que es x compatible La soluci´on depende de un par´ametro y es ( t, 0, t) : t R .
{−
∈ }
5. El subespacio cero y el subespacio total constituy en un caso especial. Por ejemplo en R 3 : El x = 0 y = 0 . Su forma param´etrica subespacio (0, 0, 0) tiene como ecuaciones impl´ıcitas z = 0 es (0 , 0, 0): no hay par´ametros, pues como se trata de un solo punto, no se puede variar nada.
{
email
[email protected]
}
206
βo
ξ £vι
−
−o
ζℏ
so
z
207
Por el contrario el subespacio total R 3 tiene como forma param´etrica (r,s,t ) : r, s, t R (tres par´ametros variando libremente, pues no hay ninguna limitaci´ on). Ecuaciones impl´ıcitas no tiene ninguna, pues no hay restricci´on alguna que imponer.
{
∈ }
Ahora estudiamos la relaci´on entre la inclusi´on y el hecho de ser sistema de generadores:
TEOREMA 4.5. Sea V un espacio vectorial
Si A un sistema de generadores de generadores.
{
} {
V y A
⊂ B. Entonces
B tambi´ en es un sistema de
Si A = v1 , v2 ,...,v n un sistema de generadores de V y vn es combinaci´on lineal de los dem´as, entonces A = v1 , v2 ,...,v n−1 es tambi´en sistema de generadores de V .
4.4.
}
Dependencia e Independencia lineal
Vamos a dar el concepto de vectores linealmente dependientes e independientes. Intuitivamente, si consideramos el espacio R3 y tenemos 3 vectores (todos ellos distintos del vector 0) decir que son linealmente dependientes quiere decir que est´an en una misma recta, o bien, que est´ an en un mismo plano. Por el contrario, si son linealmente independientes quiere decir que dos de ellos est´an en un mismo plano y el tercero est´ a fuera de ese plano. Como hemos dicho antes en el ejemplo 4.59, es posible que un subespacio finitamente generado de un espacio vectorial tenga diferentes conjuntos generadores; por ejemplo, cada uno de los conjuntos (1, 0), (0, 1) , (1, 1), (1, 1) y (1, 1), (1, 1), (1, 0) genera R 2 .
{
}{
− } {
−
}
Ya vimos que el primero lo hace, veamos ahora que el segundo tambi´en genera R 2 . Dado x = (x1 , x2 ),
− ⇐⇒ x
(x1 , x2 ) = r (1, 1) + s(1, 1)
1
= r + s y x2 = r
− s.
Resolviendo el sistema de ecuaciones obtenemos
− x )/2, x ∈ R es combinaci´on lineal de (1 , 1) y (1 , −1) (observe que r y s est´an un´ıvor = (x1 + x2 )/2 y s = (x1
2
2 con lo cual todo camente determinados por x).
Respecto del ´ultimo conjunto, es obvio que genera R2 una vez que hemos visto que el conjunto
{(1, 1), (1, −1)} lo hace, ver la Proposici´on 4.6. Sin embargo hay una diferencia fundamental entre
los dos primeros conjuntos y el ´ultimo: mientras que para los dos primeros conjuntos de generadores la combinaci´on lineal que hay que efectuar para obtener un determinado vector es ´ unica, con el u ´ ltimo conjunto de generadores es posible combinar los generadores de diferentes formas y obtener el mismo vector, por ejemplo:
−
−
−
−
−
(1, 3) = 2(1 , 1) + ( 1)(1, 1) + 0(1 , 0) y (1 , 3) = 2.5(1 , 1) + ( 0.5)(1 , 1) + ( 1)(1, 0). email
[email protected]
207
βo
ξ £vι
−
−o
ζℏ
so
z
208
Esta diferencia hace que sea preferible traba jar con conjuntos de generadores con las caracter´ısticas de los dos primeros, es decir, con conjuntos de generadores tales que la combinaci´ on lineal que hay que efectuar para obtener cada vector del subespacio sea ´ unica. La raz´on por la cual es posible obtener el mismo vector combinando de diferentes maneras los vectores del conjunto (1, 1), (1, 1), (1, 0) , es que uno de sus elementos depende linealmente del resto. En efecto, como
{
−
}
−
(1, 0) = 0.5(1 , 1) + 0.5(1 , 1), si x admite la expresi´on
−
x = r (1, 1) + s(1, 1) + t(1, 0), entonces tambi´ en admite la expresi´ on
−
x = (r + 0.5t)(1, 1) + ( s + 0.5t)(1, 1) + 0(1 , 0).
Consideremos ahora el caso de un subespacio S generado por un solo vector v . Si v = 0, combinaciones lineales diferente s de v dan srcen a diferentes vectores, ya que, por una de las propiedades elementales que dimos al principio, αu = βv entonces α = β . Obviamente, si v = 0, distintas combinaciones de v dan srcen al mismo vector, por ejemplo, 1 v = 2v = 0. Los ejemplos anteriores nos sugieren que la condici´on que debe cumplir un conjunto de generadores para que cada vector del subespacio pueda obtenerse combinando los generadores de una ´ unica forma es que, en el caso en que haya m´ as de un generador, ninguno de ellos dependa linealmente del resto y, en el caso en que haya un s´ olo generador, que ´este no sea nulo. Antes de enunciar la condici´on mencionada conviene introducir algunas definiciones.
{
}
Se dice que un conjunto de dos o m´as vectores v1 , v2 ,...,v n es linealmente dependiente si alguno de los vi depende linealmente del resto. En el caso en que el conjunto est´e formado por un s´olo vector v1 , el conjunto es linealmente dependiente si v1 = 0. Por otra parte, se dic e que v1 , v2 ,...,v n es linealmente independiente si no es linealmente dependiente, lo que es equivalente a que ninguno de los v i dependa linealmente del resto en el caso en que haya m´ as de un vector en el conjunto, o a que v1 = 0 en el caso en que el conjunto est´e formado por un ´unico vector.
{
}
Existe una definici´on de independencia lineal equivalente a la que dimos reci´en, pero m´as sencilla de verificar:
´ 4.6 (Dependencia e independencia lineal). Sea V un K-espacio vectorial DEFINICION y sean v1 , v2 ,...,v n V . Se dice que el conjunto de vectores A = v1 , v2 ,...,v n es linealmente independiente (l.i.) (sistema libre o familia libre) si la ´unica combinaci´on lineal que vale 0 V es la que tiene todos los coeficientes nulos; esto es, dados λ 1 , λ 2 ,...,λn K, si λ 1 v1 + λ2 v2 + + λn vn = 0 = λ n = 0. Esto equivale a decir que ning´un vector de A se puede poner como entonces λ1 = λ 2 = combinaci´ on lineal del resto. Se dice que la familia de vectores A = v1 , v2 ,...,v n es linealmente dependiente (l.d.) (o un sistema ligado) si no es linealmente independiente, esto es, si existen λ1 , λ2 ,...,λn K, no todos nulos, tales que: λ 1 v1 + λ2 v2 + + λn vn = 0, dicho de otro modo, si existe un vector vi A que se puede poner como combinaci´on lineal del resto.
∈
∈
···
∈
{
}
{
}
∈
···
···
∈
Es decir, un conjunto es linealmente independiente cuando ning´ un vector es combinaci´on lineal de los otros, porque si alg´ un λi = 0 se pu ede despejar vi como combinaci´on lineal de los o
email
[email protected]
o
208
βo
ξ £vι
−
−o
ζℏ
so
z
209
otros vectores. A continuaci´on demostramos que un conjunto de m´as de un vector es linealmente dependiente si y solo si uno de los vectores es combinaci´on lineal de los dem´as. Mas a´un, probaremos que la dependencia lineal se da s´ olo cuando un vector del conjunto se puede despejar en funci´on (lineal) de los anteriores.
´ 4.7. Sea V un espacio vectorial, y A un conjunto ordenado contenido en V , PROPOSICION que tiene m´as de un elemento, tal que v1 no es el vector nulo: A = v1 , v2 ,...,v n V con n > 1, v1 = 0. Entonces: A es linealmente dependiente si y s´ olo si existe vk A (1 k n) tal que vk es combinaci´on lineal de los k 1 vectores anteriores v1 ,...,v k−1 . ´ ( ) Sabemos que existe vk DEMOSTRACION. A, 1 k n, tal que vk es combinaci´on lineal de los anteriores: vk = λ 1 v1 + λ2 v2 + ... + λk−1 vk−1 o sea
−
⇐
−→0 = λ v
1 1
+ λ 2 v2 +
{
∈
··· + λ
v
k −1 k −1
{ ∈ }
−
·
+ ( 1)vk + 0 vk +1 +
}⊂
··· + 0 · v . n
Tenemos as´ı una combinaci´ on lineal de los vectores de A, con no todos los coeficientes iguales a cero (porque el coeficiente de vk es 1), que da el vector nulo. Por definici´ on A es linealmente dependiente
−
⇒
( ) Ahora, sabiendo que A es linealmente dependiente y que v1 = 0, hay que probar que un vk es combinaci´on de los anteriores vectores de A. Por ser linealmente dependiente existe una combinaci´on lineal:
λ1 v1 + λ2 v2 + ... + λn vn = 0 con alg´un λ = 0.
→ ⇒ − − −
∀
→
Sea k el mayor i tal que λi = 0 λi = 0 i > ky k = 0. Resulta k > 1, porque sino ser´ıa λi v1 = 0, λ1 = 0 v1 = 0 (contrario a la hip´ otesis). Entonces λ1 v1 + ... + λ k vk = 0 y despejando, λk vk = λ1 v1 ... λk −1vk −1 y como λ k = 0 vk = λλ v1 ... λλ vk −1 , entonces vk es combinaci´on lineal de v 1 ,...,v k−1 .
−
− −
1
k
k−1 k
EJEMPLO 4.64. En R4 , los vectores v1 = (1, 0, 1, 2), v2 = (1, 1, 0, 1) y v3 = (2, 1, 1, 1) son linealmente independientes, pues
−
⇒ − ⇒ −
av1 + bv2 + cv3 = 0, =
−
a + b + 2c b + c a c 2a + b + c
−
= = = =
0 0 = 0 0
⇒a=b=c= 0
EJEMPLO 4.65. En R los vectores v1 , v2 , y v3 , del ejemplo anterior, y v4 = (1, 0, 1, 4) son linealmente dependientes, pues 4,
av1 + bv2 + cv3 + dv3 = 0, =
−
a + b + 2c + d b + c a c d 2a + b + c + 4d
−
que admite soluciones no nulas. Por ejemplo, para t = email
[email protected]
209
= = = =
−
−1, 2v
1
⇒
0 0 = 0 0
+ v2
−v −v 3
3
a b c d
− −
= 2t = t t = t = t
∈R
= 0.
βo
ξ £vι
−
−o
ζℏ
so
z
210
EJEMPLO 4.66. escribamos
2
{ 1, x − 1, x
}
P . Para comprobarlo
+ 2 x + 1 es linealmente independiente en
r + s( x
2
− 1) + t(x
+ 2x + 1) = 0 .
Operando en el lado derecho de la ecuaci´on llegamos a la ecuaci´on (r s + t) + ( s + 2 t)x + tx2 = 0.
−
Como un polinomio es nulo si y s´ olo si todos sus coeficientes lo son, necesariamente
r
−s+t= 0
s + 2t = 0 t = 0,
con lo cual, resolviendo el sistema, obtenemos r = 0, s = 0 y t = 0. π EJEMPLO 4.67. sen(x), cos(x), sen x + es linealmente dependiente en 4 como vimos en el ejemplo 4.50,
sen x + π = 2 sen(x) + 2 cos(x) 4 2 2
√
√
C (R), ya que,
∀x ∈ R,
Note que esto ´ultimo implica que la ecuaci´on
r sen(x) + s cos(x) + t sen x +
π =0 4
admite soluciones no triviales; una de ellas es, por ejemplo,
{
r=
}
∀x ∈ R, √2 √2 2
, s=
2
y t=
−1.
C
EJEMPLO 4.68. sen(x), cos(x) es linealmente independiente en (R). Para probarlo, supongamos que r y s son escalares tales que
r sen(x) + s cos(x) = 0 Como suponemos que la igualdad vale para todo x
∀x ∈ R
∈ R, en particular vale para x = 0, con lo cual
r sen(0) + s cos(0) = s = 0. Considerando ahora x = π/2, y teniendo en cuenta que s = 0, resulta
r sen(π/ 2) = r = 0, con lo cual demostramos que necesariamente r = 0 y s = 0, y con ello que conjunto es linealmente independiente. Para finalizar, observe que no nos hubiese servido considerar como segundo punto x = π , o, m´as generalmente, x = kπ con k entero, para probar la independencia lineal. email
[email protected]
210
βo
ξ £vι
−
−o
ζℏ
so
z
211
EJEMPLO 4.69. Sean u = (1, 0, 0), v = (0, 2, 0) dos vectores en R3 . Claramente, u, v es linealmente independiente. Observemos adem´as que cualquier combinaci´on lineal de u y v tendr´ıa la tercera componente igual a cero. Por tanto, el vector w = (1, 1, 1) no se pone como combinaci´on de u, v . Como consecuencia, el conjunto u,v,w es linealmente independiente.
{ }
{
−
}
EJEMPLO 4.70. ¿Son linealmente independientes los vectores (1 , 1, 0), (1 , 0, 1), (2 , 1, 1) en R3 ?.
−
´ SOLUCION.Igualamos una combinaci´on lineal a cero, es decir:
−
a(1, 1, 0) + b(1, 0, 1) + c(2, 1, 1) = (0 , 0, 0) De ah´ı llegamos al sistema de ecuaciones:
a + b + 2c = 0 a + c = 0 b + c = 0
−
El sistema de ecuaciones es homog´eneo y por tanto siempre es compatible (recordemos que al menos una soluci´on hay, a = b = c = 0). Formamos ahora la matriz de coeficientes:
A=
1 1 0
1 2 0 1 1 1
−
Si A tiene rango igual al n´umero de inc´ognitas (es decir, el n´umero de vectores: en nuestro caso, tres), el sistema ser´a compatible determinado. Eso quiere decir que s´ olo hay una soluci´on, que deber´a ser a = b = c = 0. As´ı pues, los vectores ser´ıan linealmente independientes. Si, en cambio, A tiene rango menor de tres, el sistema ser´a compatible indeterminado. Eso quiere decir que hay soluciones aparte de a = b = c = 0 (de hecho, infinitas), y por tanto los vectores ser´ıan linealmente dependientes. Este ejemplo nos muestra que para estudiar la dependencia lineal de un n´ umero de vectores, basta con formar la matriz correspondiente y calcular su rango. Si es igual al n´ umero de vectores, ´estos son linealmente independientes. Si no, ´estos son linealmente dependientes. En nuestro caso, det A = 0, por lo que los vectores son linealmente independientes.
♣
Dada matriz si A denominamos Mn×k (R), cada interpretada vector de R n una . Entonces, Ai una a la de i-´esus simacolumnas columnapuede de A,ser tenemos que Aicomo Rnuny que
∈
A=
A1 A2
···
Ak
∈
A la matriz A podemos asociarle dos subespacios, denominados, respectivamente, espacios columna y fila. El espacio columna es el subespacio de Rn generado por las columnas de A y se denota Col(A). En otras palabras Col(A) = A1 ,...,A k Rn .
{
email
[email protected]
} ⊆
211
βo
ξ £vι
−
−o
ζℏ
so
z
212
En forma an´aloga se define el espacio fila, que es el subespacio de R r generado por las filas de A y se denota F il(A), es decir, F il(A) = F1 ,...,F n Rk .
{
} ⊆
Se define rango por columnas de A, y se denota por rango c (A), como rango c (A) = dim( Col(A)). Se define rango por filas de A, y se denota por rango f (A), como rango f (A) = dim( F il(A)). Se demuestra que rango f (A) = rango c (A), por tanto tenemos la siguiente definici´on de rango de una matriz. ´ DEFINICION 4.7. El rango de una matriz A se define como el rango por filas de A o el rango por columnas de A y se denotara por rango (A). Esto es rango (A) es tanto el n´ umero m´aximo de columnas linealmente independientes de A como el n´umero m´aximo de filas linealmente independientes de A. Para calcular el rango de A, podemos realizar operaciones elementales en las filas o columnas de A hasta obtener una matriz E escalonada por filas y luego usamos el hecho de que
rango (A) = rango (E ) =n´umero de filas no nulas de E ,
E forman un sistema de vectores linealmente independientes de
N´otese que las filas no nulas de Rn . Observe adem´as que si A
(4.6)
∈M
n×n
(R), entonces.
rango (A) = n si, y s´olo si, det(A) = 0
(4.7)
n
{
}⊂
Ahora bien, en R podemos usar (4.6) para saber si un sistema de vectores S = v1 , v2 ,....,v k Rn es linealmente dependiente o es un sistema generador de Rn , tomamos la matriz cuyas columnas son los vectores de S , esto es: vk A = v1 v2 Luego aplicamos los siguientes resultados:
···
⇐⇒ rango (A) = k ⇐⇒ Ax = 0 tiene ´unica soluci´on x = 0. ⇐⇒ rango (A) = n ⇐⇒ Ax = b tiene soluci´on ∀b ∈ R .
S es linealmente independiente S es sistema generador de R
n
n
EJEMPLO 4.71. Calculemos el rango del sistema de vectores siguiente
(1, 0, 3, 2), (0, ,1, 1, 0), (3, 0, ,1, 1), (2, 1, ,5, ,1) y deducir si el sistema es linealmente independiente o sistema generador de
{
}
R4.
Si lo ponemos en forma de matriz el problema se reduce a calcular el rango de la siguiente matriz
A=
email
[email protected]
1 0 3 2 0 1 1 3 0 1 2 1 5
−
212
− −
− 0 1 1
βo
ξ £vι
−
−o
ζℏ
so
z
213
lo cual se puede hacer escalonandola. En primer lugar le a˜ nadimos la primera fila a la tercera (multiplicada por 3) y a la cuarta (multiplicada por 2)
−
−
− − − − −− −− − − −
− −
( 3)F1 + F3 ( 2)F1 + F4
1 0 3 2 0 1 1 0 0 10 0 1 11
0 5 5
Seguidamente le sumamos a la cuarta fila la segunda
1 0 3 2 0 1 1 0 0 10 0 0 10
F2 + F4
0 5 5
Y por ultimo le restamos la tercera a la cuarta para obtener la siguiente escalonaci´ on de la matriz inicial 1 0 3 2 0 1 1 0 ( 1)F3 + F4 0 0 10 5 0 0 0 0
−
lo cual nos indica que el rango es 3 (nos han salido 3 vectores no nulos). Por tanto los vectores no son linealmente independientes (el rango no es igual al numero de vectores, 4) ni constituyen un sistema generador de R 4 (pues el rango no coincide con dim R4 = 4).
EJEMPLO 4.72. Estudiar la dependencia o independencia lineal de los vectores de R3 : ( 1, 3, 2), (2, 1, 3) y (4 , 7, 1)
−
´ SOLUCION.-
-1 2 4
−
− −
3
−1 −7
2
− 3 1
v1 v2 v3
− ≡ 1 0 0
3 5 5
2 7 7
v1 ′ = v 1 v2 ′ = 2v1 + v2 v3 ′ = 4v1 + v3
− ≡ 1 3 2 0 5 7 0 0 0
v1 ′′ = v 1 ′ v2 ′′ = v 2 ′ v3 ′′ = v2 ′ + v3 ′
−
0 = v 3 ′′ = v2 ′ + v3 ′ = (2v1 + v2 ) + (4 v1 + v3 )
− − = −2v − v 1
2
+ v3 ,
⇒
=
4
EJEMPLO 4.73. Est´udiese si los vectores de R v1 = independientes. email
[email protected]
213
v2 = 2v1 + v3
− 1 1 0 0
y v2 =
− 2 0 1 1
♣ son linealmente
βo
ξ £vι
−
−o
ζℏ
so
z
214
EJEMPLO 4.74. Sea V un espacio vectorial, entonces
{ } 2. {0} es linealmente dependiente 3. {0, v , v ,....,v } es linealmente dependiente 4. Sean u, v ∈ V dos vectores. Entonces el conjunto { u, v } es linealmente dependiente si y s´olo si uno es m´ ultiplo del otro. Efectivamente, supongamos que existen a , a tales que a u + a v = 0. Si, por ejemplo, a = 0, entonces se tiene que u = − aa v. 1. v1 es linealmente independiente si y s´olo si v1 = 0.
1
2
n
1
2
2
1
2
1
1
Nota 3.1: Las definiciones linealmente independiente e linealmente dependiente se dieron para conjuntos finitos, pero son aplicables tambi´ en a conjuntos con una cantidad infinita de vectores en un espacio vectorial. Si A es infinito., A V . V espacio vectorial, decimos que A es linealmente independiente cuando cualquier subconjunto finito de A es linealmente independiente Decimos que A es linealmente dependiente cuando no es linealmente independiente (es decir, cuando alg´ un subconjunto finito de A es linealmente dependiente).
⊂
En el siguiente teorema, estudiamos la relaci´on de la dependencia lineal con la inclusi´ on de conjuntos:
TEOREMA 4.6. Sea V espacio vectorial,
{
}
{
}
{
}
Si A = v1 , v2 ,...,v n es un conjunto linealmente independiente, y sea B es tambi´en linealmente independiente.
⊂ A. Entonces B ∈
Si A = v1 , v2 ,...,v n es un conjunto linealmente independiente, y sea vn+1 V que no se ponga como combinaci´on lineal de vectores de A. Entonces v1 , v2 ,...,v n , vn+1 es tambi´en linealmente independiente.
{
}
Si A = v1 , v2 ,...,v n es un conjunto linealmente dependiente, y sea B tal que A Entonces B es tambi´en linealmente dependiente.
4.5.
⊂ B.
Base de un espacio vectorial y dimensi´on
Ahora vamos a plantearnos una pregunta central en el algebra lineal. Hemos visto que muchos vectores se pueden expresar en terminos de otros. Por ejemplo todo vector en R 2 se puede expresar en terminos de i y j . Tambi´ en observamos que estos dos vectores son linealmente independientes. Dado un espacio vectorial, es posible describir cualquiera de sus elementos en terminos de un grupo de elementos fijos de ese espacio? Cuantos de estos elementos se requiere? Que condiciones deben cumplir? email
[email protected]
214
βo
ξ £vι
−
−o
ζℏ
so
z
215
Para responder esta pregunta vamos a considerar los siguientes tres conceptos: ESPACIO GENERADO POR UN CONJUNTO, BASE DE UN ESPACIO VECTORIAL, DIMENSION DE UN ESPACIO VECTORIAL.
´ 4.8. Base de un espacio vectorial: Sea V un espacio vectorial y A= v1 , v2 ,...,v DEFINICION V (A finito). Decimos que A es base de V si y s´olo si
{
n
}⊂
a) A es un conjunto linealmente independiente
b) A genera a V , es decir A = V EJEMPLO 4.75. En R3 , los vectores (1 , 0, 0), (0 , 1, 0), (0 , 0, 1), son base. De hecho, ´esta es la llamada base can´onica, tambi´ en representados por las letras i , j , k . Anteriormente hemos llegado a la conclusi´on de que los vectores (1 , 1, 0), (1 , 0, 1), (2 , 1, 1) son linealmente independiente y sistema de generadores de R 3 ; por tanto, son base de R 3 . En R n ,
−
e1 = (1, 0, 0, ..., 0), e2 = (0, 1, 0, ..., 0), e3 = (0, 0, 1, ..., 0),...,e n = (0, 0, 0, ..., 1) .
que tambi´ en se llama base can´ onica.
Ahora discutiremos los siguientes aspectos relativos a las bases: existencia, unicidad y cardinalidad (cantidad de elementos). El punto de partida ser´a el teorema sobre existencia de bases en cualquier espacio vectorial. La prueba de este teorema se apoya en el Lema de Zorn (axioma de elecci´ on), el cual representa uno de los supuestos b´ asicos de la teor´ıa clasica de conjuntos. El lector no interesado en la prueba puede simplemente asumir el Teorema 4.5 como un axioma.
Todo subespacio vectorial posee al
TEOREMA 4.7 (Teorema de existencia de la Base). menos una base.
Con respecto a la unicidad de las bases se puede decir que, en general, un espacio vectorial tiene infinitas bases. En efecto, si el espacio V es no nulo (si V es nulo su ´unica base es ) y si X es una base cualquiera de V y x es un elemento de X , entonces cambiando x por a.x en X , con cada a K 0 , se obtienen bases distintas en V . Cuando K es infinito esta colecci´on de bases es infinita. En realidad, el ´unico espacio con base ´unica es el espacio nulo.
∅
∈ −{ }
Mucho m´as interesante que la pregunta sobre la unicidad de las bases es el problema sobre el tama˜no de ´estas. Las siguientes proposiciones constituy en la prueba del Teorema 2 que se enunciar´a m´as adelante.
´ 4.8. Sea V un espacio vectorial. Sea A = v1 ,...,v n un conjunto que genera PROPOSICION a V y B = w1 ,...,w m un conjunto linealmente independiente de V . Entonces m n.
{
´ DEMOSTRACION.
{
}
{
}
}
Considere el conjunto wm , v1 ,...,v n Es linealmente dependiente porque por hip´otesis, w m es combinaci´on lineal de los dem´as. (Observe que w m no es un vector nulo, pues B es linealmente independiente). Por las Proposiciones 3.1 y 3.2 resulta:
{w email
[email protected]
m
, v1 ,...,v n
} = {w
m
, v1 ,...,v 215
i−1
, vi+1 ,...,v n
} = V
βo
ξ £vι
−
−o
ζℏ
so
z
216
Se ha obtenido un nuevo conjunto generador substituyendo vi por w m . Repetimos ahora el razonamiento, tomando el conjunto linealmente dependiente wm−1, wm , v1 ,...,v i−1 , vi+1 ,...,v n . Por aplicaci´on de 3.2 y 3.1 obtenemos un nuevo conjunto generador eliminando otro elemento vk de A ( observe que el elemento que es combinaci´on lineal de los anteriores no puede ser wm , pues B es linealmente independiente).
{
}
Por tanto hemos agregado wm−1 , wm , eliminando dos vectores v y obtenido un nuevo conjunto generador. Este algoritmo (tener un conjunto generador y agregarle ordenadamente un elemento de B ) no se puede continuar cuando se hayan acabado los elementos de B . En este caso, o bien se han acabado simult´aneamente los de A ( m = n ), o bien quedan algunos de A ( m < n). En ambos casos se obtiene un conjunto generador con todos los elementos de B y los que quedan de A.
{
}⊂
TEOREMA 4.8. Sea A = v1 , v2 ,...,v n V . Entonces A es base si y s´ olo si A es linealmente independiente y todo conjunto con m´as de n vectores es linealmente dependiente ´ DEMOSTRACION.
⇐
( ) Para probar que A es base , alcanza probar que todo el espacio, puesto que A es linealmente independiente por hip´otesis.
{
A es generador de
}
∈
Por hip´otesis, el conjunto v1 , v2 ,...,v n , v es linealmente dependiente (con V V cualquiera). Entonces λ1 v1 + λ2 v2 + ... + λn vn + λv = 0 con alg´un escalar distinto de cero Debe ser λ = 0, ya que si fuera igual a cero, quedar´ıa λ1 v1 + λ2 v2 + ... + λn vn = 0 con alg´un escalar distinto de cero y esto contradice la independencia lineal de A asegurada por hip´otesis.
Entonces tenemos λ = 0. Despejando V se tiene:
v=
−λλ v − λλ v − ... − λλ v 1
1
2
n
2
n
Hemos probado que V es combinaci´on lineal de A . Como V es un vector cualquiera de V , se tiene que A genera a V , como quer´ıamos probar.
⇒
( ) Ahora sabemos por hip´otesis que A es base. O sea A es linealmente independiente y generador de V . Tenemos que probar que todo conjunto con m´as de n vectores es linealmente dependiente Sea W un conjunto con m´as de n vectores (con m vectores, m > n) Por absurdo, si fuera linealmente independiente, la proposici´on 4.8 implicar´ıa mn, contradiciendo lo anterior.
´ 4.9. Si un espacio vectorial V posee una base finita, entonces todas sus bases PROPOSICION son finitas. La proposici´on anterior permite clasificar los espacios vectoriales en dos categor´ıas: los de bases finitas y los de bases infinitas.
´ 4.10. Sea V un espacio vectorial con bases finitas X = x1 ,.. . ,x PROPOSICION
{
{z ,.. . ,z }. Entonces n = m. 1
m
n
}yZ=
´ 4.11. Sea V un espacio vectorial con bases infinitas X, Y . Entonces card (X ) = PROPOSICION card (Y ). email
[email protected]
216
βo
ξ £vι
−
−o
ζℏ
so
z
217
Para cada espacio vectorial V se cumple que todas las bases tienen la misma cardinalidad.
COROLARIO 4.1 (Teorema de la dimensi´ on). Sea V un espacio vectorial. Si una base tiene n elementos, entonces todas las dem´as bases tienen n elementos. ´ DEMOSTRACION.
Sean A y B bases de V , A con n elementos y B con p elementos. Como A
es linealmente independiente y B es generador, aplicando la proposici´on 4.1 tenemos np. Como B es linealmente independiente y A es generador, por lo mismo, tenemos p n. O sea n=p. El teorema anterior permite definir la noci´ on de dimensi´on en un espacio vectorial V como el tama˜no de cualquiera de sus bases ; se denotar´a este invariante de V por dim K (V ), o simplemente por dim( V ), si es claro sobre qu´e cuerpo se est´a trabajando. Si V es de bases infinitas se dir´a que V es de dimensi´on infinita. De alguna forma, la dimensi´on mide el tama˜no del espacio vectorial.
´ 4.9 (Dimensi´on de un espacio vectorial). Sea V un espacio vectorial. Si DEFINICION existe una base de V que tenga n elementos, se dice que n es la dimensi´on de V (obs´ervese en virtud del corolario anterior, n no depende de la base que se halla encontrado). Notaremos dim (V ) = n. Si V = 0 (ejemplo 1.11), se conviene en decir que V tiene dimensi´on 0. Si V = 0 y no existe una base de V con una cantidad finita de elementos, entonces decimos que la dimensi´on de V es infinita.
{}
{}
´ 4.10. Si S es un subconjunto de V , se define el rango de S , rango(S ), como la DEFINICION dimensi´on del espacio generado por S , es decir, rango (S ) = dim K < S >.
{ } }
}
EJEMPLO 4.76. El conjunto de vectores B = e1 , e2 ,...,e n donde ei = (0, 0,.., 1,.., 0) con todas las componentes igual a cero excepto la i-esima componente es una base para Rn . Para verificar esto debemos mostrar 1) que e1 , e2 ,...,e n es un conjunto linealmente independiente 2) que gen e1 , e2 ,...,e n = Rn .
{
{
Para mostrar que B es un conjunto linealmente independiente partimos de la combinaci´ on lineal igualada al vector cero α1 e1 + α2 e2 + α3 e3 + .....αn en = 0 a la izquierda sumando obtenemos (α1 , α2 ,....,
n
) = (0 , 0, ..., 0)
por tanto αi = 0. Podemos concluir que B es linealemente independiente. Ahora mostramos que genB = Rn . Para esto tomamos un elemento cualquiera de R n y demostramos que esta en gen B es decir que es combinaci´on lineal de e1 , e2 , ...en . Sea x = (x1 , x2 ,..,x n ) Rn . Es claro que
∈
(x1 , x2 ,..,x n ) = x 1 e1 + x2 e2 + ... + xn en Por tanto cualquier elemento de R n es combinaci´on lineal de B. A este conjunto se le llama base can´onica de R n . Puesto que este conjunto base tiene n elementos la dim Rn = n. email
[email protected]
217
βo
ξ £vι
−
−o
ζℏ
so
´ 4.11. Se llama base can´ DEFINICION onica de n C , C, +, a la base
{
·}
z
218 n
{R , R, +, ·}
o de
e1 = (1, 0, 0, ..., 0), e2 = (0, 1, 0, ..., 0), e3 = (0, 0, 1, ..., 0),...,e n = (0, 0, 0, ..., 1) .
Por tanto, ambos espacios vectoriales tienen dimensi´ on n.
´ n geom ´ EJEMPLO 4.77. Interpretacio etrica de subespacios. Sean V = R n y S es un subespacio vectorial.
n
⊂R
{} 2. Si dim S = 1, S = {u} es la recta que pasa por el srcen con vector de direcci´ on u. 3. Si dim S = 2, S = {u, v } es el plano que pasa por el srcen con vectores de direcci´ on u y v . 4. Si 2 < k = dim S < n − 1, S es un k-plano que pasa por el srcen. 5. Si dim S = n − 1, S es un hiperplano que pasa por el srcen. 1. Si dim S = 0, S = 0 es un punto (el srcen).
6. Si dim S = n , S = Rn es todo el espacio.
EJEMPLO 4.78. Sea v = (a,b,c,d )
4
∈ R . Entonces
v = a (1, 0, 0, 0) + b (0, 1, 0, 0) + c (0, 0, 1, 0) + d (0, 0, 0, 1) , y el vector de componentes de v en la base can´onica de R 4 es (a,b,c,d ) . M´as a´un, para cualquier v Rn , el “vector de componentes de V ” en la base can´onica de R n , coincide con v .
∈
EJEMPLO 4.79. Pero, si en Rn se elige otra base distinta de la can´onica, el ”vector de componentes”de un vector v Rn es distinto del vector v . Por ejemplo, sea la base B = (1, 1, 1) , (1, 1, 0) , (1, 0, 0) de R 3 . Tomemos v R3 , o sea v = (a,b,c ). Se tiene
{
∈
}
∈ v = (a,b,c ) = c (1, 1, 1) + ( b − c) (1, 1, 0) + ( a − b) (1, 0, 0) . El vector v = (a,b,c ) tiene componentes ( c, b − c, a − b) en la base B .
Hay que aclarar en cada caso, cuando se da una n -upla de Rn , si se trata de los vectores en si, o si se trata de las componentes en alguna base distinta de la can´ onica. S´olo puede omitirse esta aclaraci´on cuando la base es la can´ onica.
EJEMPLO 4.80. Sea
n
{C , R, +, ·} .
Verif´ ıquese que
{(1, 0, ..., 0) , (0, 1, ..., 0) , ..., (0, 0, ..., 1)}
no es base. Sugerencia: El vector ( i, 0, ..., 0) donde i es la unidad imaginaria no es combinaci´on lineal del conjunto anterior. Verif´ıque que:
es base de
{(1, 0, ..., 0) , (i, 0, ..., 0) , (0, 1, ..., 0) , (0,i,..., 0) , (0, 0, ..., 1) , (0, 0,...,i )} {C , R, +, ·} . Entonces dim(C ) = 2n sobre el cuerpo R. n
email
[email protected]
n
218
βo
ξ £vι
−
−o
ζℏ
so
z
219
P }
EJEMPLO 4.81. Una base para n el espacio vectorial de polinomios de grado menor o igual a n es el conjunto 1,x,x 2 , x3 ,...,x n . Es claro que este conjunto genera Pn pues todo polinomio es una combinacion de estos n + 1 polinomios, ademas se puede mostrar facilmente que este es un conjunto linealmente independiente. Puesto que este conjunto tiene n + 1 elementos entonces la dim n = n + 1. Por ejemplo el espacio de polinomios de grado menor o igual a 3, P3 tiene
{
P
dimension 4. EJEMPLO 4.82. Sea E ij la matriz m n que tiene todas sus entradas nulas excepto la entrada ij que vale 1. El conjunto B = Eij : i = 1,...,m, j = 1,...,n
×
{
}
es una base de Mm×n (R). La dimension del espacio M2×2 (R) es el conjunto de matrices
Mn×m R es nm. Por ejemplo la base para
1 0 0 0
,
0 1 0 0
,
0 0 1 0
0 0 0 1
,
La dimension de M2×2 es 4.
Hasta ahora hemos provisto la base y verificado que es tal. Pero como encontrar la base y dimension de un espacio vectorial?
EJEMPLO 4.83. Vamos a encontrar la base del subespacio de R3 , W = (x,y,z )/2x + y z = 0 podemos ver que W es un plano que pasa por el srcen. La idea para encontrar un conjunto base para este plano es expresar los elementos ( x,y,z ) en terminos de dos vectores. Por que 2? Geometricamente sabemos que la dimension del plano es 2. Ahora sabemos que los puntos ( x,y,z ) cumplen con la ecuacion de plano por tanto
{
−
}
(x,y,z ) = (x,y, 2x + y ) aqui podemos ver que x e y son dos variables libres, z queda determinado por estas dos variables. La libertad de escoger tambien debe coincidir con la dimension del espacio, 2 variables libres, dimension 2. Ahora podemos descomponer este vector, separando la parte que contiene x con la parte que contiene y : (x,y, 2x + y ) = x (1, 0, 2) + y (0, 1, 1)
{
}
De aqui que la base es B = (1, 0, 2), (0, 1, 1) . Debemos mostra que gen B = W . Esto es claro de la ultima igualdad que dice que todo elemento de W es combinacion lineal de B. Debemos ademas mostrar que B es linealmente independiente. Demostrar que B es linealmente independiente.
{
}
EJEMPLO 4.84. Considere el conjunto W = gen cos2 x, sen2 x, 1 . Determine una base para este conjunto. Sabemos que todos los elementos de W deben ser combinacion lineal de las funciones cos2 x, sen2 x, 1. Asi que obviamente un candidato de base es el conjunto cos2 x, sen2 x, 1 . Para que sea base debe ser linealmente independiente pero es debido a que
{
}
1 = cos 2 x + sen2 x podemos concluir que el conjunto es dependiente. En otras palabras hay un elemento ”sobrante”, podemos escoger 2 de los 3 elementos por ejemplo 1, sen2 x es base. La dim W = 2.
{
email
[email protected]
219
}
βo
ξ £vι
−
−o
ζℏ
so
z
220
EJEMPLO 4.85. Consideremos el conjunto V = f : [0, 1] R : f (x) = (a0 + a1 x + a2 x2 )e−x . V es un espacio vectorial real con las operaciones suma y producto que hemos definido para funciones, ya que con esas operaciones es un subespacio del espacio vectorial C ([0, 1]). M´as a´un, V = gen e−x , xe−x , x2 e−x . Afirmamos que dim( V ) = 3. Para constatarlo basta con ver que el conjunto e−x , xe−x , x2 e−x es linealmente independiente. Supongamos
{
{ {
→
}
} }
re −x + sxe−x + tx2 e−x = 0
∀x ∈ [0, 1]
(4.8)
Evaluando ambos lados de la igualdad en los puntos del intervalo [0 , 1], x = 0, x = 0.5 y x = 1, obtenemos el sistema de ecuaciones
r= 0 e−0.5 r + 0.5e−0.5 s + 0.5 2 e−0.5 t = 0 e−1 r + e−1 s + e−1 t = 0,
que tiene como ´unica soluci´on r = 0, s = 0 y t = 0. Otra forma de demostrar la independencia lineal del conjunto es la siguiente. Como todo x
∈ [0, 1], (4.8) es equivalente a
r + sx + tx2 = 0
∀x ∈ [0, 1]
e −x = 0 para
(4.9)
Como el lado derecho de la ecuaci´ on es una funci´on polin´omica, para que se cumpla (4.9) es necesario que r = 0, s = 0 y t = 0, ya que en caso contra rio estar´ıamos en presencia de un polinomio no nulo que se anula en un n´ umero infinito de puntos (todo punto del intervalo [0 , 1]), lo cual es imposible.
EJEMPLO 4.86. Responda las siguientes preguntas argumentando sus respuestas con argumentos l´ogicos o ejemplos seg´un sea el caso. 1) Es posible tener un conjunto de 4 vectores linealmente independientes en R 3 ?. 2) Es posible tener un conjunto de tres vectores linealmente dependientes en R3 ?. 3) Es posible tener un conjunto de dos vectores que generen R 3 ? ´ SOLUCION.-
♣
Uso de operaciones elementales para obtenci´ on de bases .- Sea W un subespacio de
Rn . Un conjunto de vectores v1 , v2 ,...,v k se dice conjunto generador de W si W = v1 , v2 ,...,v m . Si, adem´as, el conjunto v1 , v2 ,...,v m es linealmente independiente, diremos que es una base de W.
{ {
} }
{
}
1. Si W tiene una base B , llamaremos dimensi´on de W al n´umero de elementos de B y lo denotaremos como dim W .
email
[email protected]
220
βo
ξ £vι
−
−o
ζℏ
so
z
221
2. Hab´ıamos definido el rango de una matriz como el n´umero de filas no nulas en una matriz escalonada. Una interpretaci´on en t´erminos de subespacios es que el rango es la dimensi´on del subespacio generado por las filas de la matriz. Puede comprobarse que el rango coincide tambi´ en con la dimensi´ on del subespacio generado por las columnas de la matriz. 3. De lo anterior se deduce que si W = v , v ,...,v k , para calcular una base de W procedi2 endo de la siguiente manera: Construimos1 una matriz A cuyas filas son los vectores v1 , v2 , ... , vk y calculando la matriz escalonada reducida de A al que denotamos por Ar , entonces una base de W = v1 , v2 ,...,v k est´a formada por los vectores correspondientes a las filas no nulas de Ar .
{
{
}
}
4. Por otro lado si W es un subespacio de Rn de dimensi´on r, para calcular una base de Rn nos inventamos n k vectores, con la precauci´on de que al juntarlos con los de la base de W sean linealmente independientes (es decir su matriz escalonada no nos de filas nulas).
−
De todo lo anterior deducimos la siguiente consecuencia:
COROLARIO 4.2. Sea S = v1 , v2 ,...,v n un conjunto de n vectores de Rn . Entonces son equivalentes: 1) S es base de Rn . 2) S es linealmente independiente. 3) S es un conjunto generador de R n .
{
}
Por tanto, a la vista de ´este resultado, si nos dan un conjunto con tantos vectores como la dimensi´on de R n para que sea base de R n bastar´a probar que son linealmente independientes.
EJEMPLO 4.87. Consideremos el subespacio W de R 3 dado por las ecuaciones impl´ıcitas:
x
−y+z x−z
= 0 = 0
Para calcular una base de W , resolvemos dicho sistema, teniendo en cuenta que, para ello, debemos introducir 1 variable libre
no variables libres = no componentes
−n
o
ecuaciones impl´ıcitas linealmente independientes
Obtenemos la soluci´on
W = (a, 2a, a) : a
{
R .
{∈ } }
El subespacio W de R3 est´a generado por el conjunto (1, 2, 1) , as´ı W = (1, 2, 1) . Como es claramente independiente se tiene que B = (1, 2, 1) es base de W con lo que dim W = 1.
{
}
{
− y − z − t = 0 en R W = {(a + b + c,a,b,c ) : a , b, c ∈ R}.
EJEMPLO 4.88. La soluci´on de la ecuaci´on lineal x
email
[email protected]
221
}
4
es
βo
ξ £vι
−
−o
ζℏ
so
Cualquier vector soluci´on (a + b + c,a,b,c )
z
222
∈ W se expresa de la forma
(a + b + c,a,b,c ) = (a,a, 0, 0) + ( b, 0, b, 0) + ( c, 0, 0, c) = a (1, 1, 0, 0) + b(1, 0, 1, 0) + c(1, 0, 0, 1). Por tanto
W=
{(1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1)}.
Adem´as esos tres vectores son linealmente independientes como se puede comprobar al hacer la matriz escalonada. Con lo cual
{
B = (1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1)
}
es base de W y as´ı dim W = 3. Si queremos ampliar dicha base hasta una base de R4 bastar´a a˜ nadir un cuarto vector que sea linealmente independiente con los de la base de W , podemos tomar (1, 0, 0, 0) (¡¡compru´ebese!!).
n
Observaci´ on. Siempre que nos den un subespacio W de R en forma de sistema generador, para calcular una base de W tenemos que comprobar que dichos vectores son linealmente independientes calculando una matriz escalonada de esos vectores puestos por filas. Todo lo anterior es igualmente v´alido cuando V es un espacio vectorial arbitrario con base finita, y sus vectores vienen expresados por sus coordenadas respecto de dicha base.
EJEMPLO 4.89. Hallar una base del subespacio generado por
{
−
A = v1 = (1, 3, 4), v2 = (2, 1, 1), v3 = (3, 2, 5), v4 = (5, 15, 20) ´ SOLUCION.Si A = entonces
{ −
{v
1
−
}
= (1, 3, 4), v2 = (2, 1, 1), v3 = (3, 2, 5), v4 = (5, 15, 20)
1 3 4 2 1 1 3 2 5 5 15 20
−
}
−→
1 0 0 0
3 7 7 0
−→
4 7 7 0
1 0 0 0
3 1 0 0
4 1 0 0
3
}⊂ R,
y B = u1 = (1, 3, 4), u2 = (0, 1, 1) es una base de A . Para hallar las coordenadas del vector v = (2, 1, 1) respecto de dicha base, se procede as´ı:
v = au 1 + bu2 ,
a = 2 3a + b = 1
(2, 1, 1) = a (1, 3, 4) + b(0, 1, 1) =
a = 2
4a + b = 1 b = 7 de donde v = 2u1 7 u2 = (2, 7)B . En referencia a esta base, las ecuaciones param´etricas e impl´ıcitas de A son:
−
−
email
[email protected]
⇒
−
x = a y = 3a + b ; a, b z = 4a + b
∈R 222
⇒
=
−
x+y
⇒
−
−z= 0
♣
βo
ξ £vι
−
−o
ζℏ
so
z
223
EJEMPLO 4.90. Hallar una base del subespacio generado por
{
A = p1 = 1
3
− x ,p
2
=x
3
−x ,p
3
=1
− x, p
4
= 1+x
3
− 2x }
´ SOLUCION.Antes de proceder a hallar una base del subespacio generado por
⊂ P (R) se
A
3
expresan los vectores (polinomios) respecto de la base usual:
{
−
−
−
− }
A = p1 = (1, 0, 0, 1), p2 = (0, 1, 0, 1), p3 = (1, 1, 0, 0), p4 = (1, 1, 0, 2) Entonces
1 0 1 1
0 1 1 1
−
−1 −1 −→ 0 −2
0 0 0 0
y una base de A es:
{
−
1 0 0 0
0 1 1 1
3
−
−
−
−1 −1 −→ −1 −1
1 0 0 0
0 0 1 0 0 0 0 0 0 0
−1 −1
3
2
3
− ⇒
p = ( 1, 2, 0, 1) = α (1, 0, 0, 1)+ β (0, 1, 0, 1) =
− − α
−
− x , q = (0, 1, 0, −1) = x − x } p = −1 + 2x − x = (−1, 2, 0, −1) respecto de dicha
A = q1 = (1, 0, 0, 1) = 1 Para hallar las coordenadas del polinomio base, se procede as´ı:
0 0 0 0
−
α β 0 β
−
= 1 = 2 = 0 = 1
⇒
=
−
−
α = 1 β = 2
de donde p = q1 + 2q2 = ( 1, 2)B . En referencia a esta base, y representando un polinomio arbitrario por p = a + bx + cx2 + dx3 = (a,b,c,d ), las ecuaciones param´etricas e impl´ıcitas de A son: a = α b = β a+b+d = 0 ; α, β R = c = 0 c = 0 d = α β
− −
∈
⇒
♣
EJEMPLO 4.91. Hallar una base del subespacio generado por
A=
−− −− − − M1 = 1 0
1 , M2 = 1
0 0 , M3 = 1 1
2 2
2 , M4 = 2
3 3 , M5 = 5 3
´ SOLUCION.Antes de proceder a hallar una base del subespacio generado en se expresan los vectores (matrices) respecto de la base usual:
A=
−
−
−
−
−
1 1 3 1
M2×2 (R) por A
M1 = (1, 1, 0, 1), M2 = (0, 0, 1, 1), M3 = (2, 2, 2, 2), M4 = ( 3, 3, 5, 3), M5 = ( 1, 1, 3, 1)
email
[email protected]
−
223
βo
ξ £vι
−
− − − → −
−o
Entonces
−
− −
1 1 0 0 0 1 1 2 2 2 3353 1131
1
1 1 0 0011 0020 0050 0030
2
y una base de A es
ζℏ
so
−
1 0
N1 = (1, 1, 0, 0) =
−1
z
→
224
−
1 1 0 0010 0001 0000 0000
1 , N2 = (0, 0, 1, 0) = 0
−1
→
1 0 0 0 0
−1
0 0 0 0
1 0 0 0
0 0 , N3 = (0, 0, 0, 1) = 1 0
0 0 0 1 0 0
0 0 0 1
Puesto que la base se ha obtenido llegando hasta la matriz escalonada, ahora es mucho m´ as f´acil obtener las coordenadas de una matriz respecto de ella. De esta manera
M=
− 2 3
2
−2
−
−
= (2, 2, 3, 2) = 2 N1 + 3 N2
− 2N
3
−
= (2, 3, 2)B
En referencia a esta base, y representando una matriz arbitraria por
M=
x y
= (x,y,z,w )
z w
las ecuaciones param´etricas e impl´ıcitas de A son:
x y z w
= a = b ; a,b,c = b = c
−
∈R
⇒
=
x+y =0
♣
TEOREMA 4.9. Sea V un espacio vectorial de dimensi´on n 1, W y B subconjuntos de V (finitos). Se cumplen las siguientes propiedades:
1) Si B genera a V , existe B’ contenido en B, tal que B’ es base de
V. V
2) Si W es linealmente independiente, existe W’ que contiene a W, tal que W’ es base de
(dicho de otra forma, todo conjunto generador, contiene a alguna base; y todo linealmente independiente se puede agrandar hasta formar una base). ´ DEMOSTRACION.
{
}
1) Sea B = v1 , v2 ,...,v k . Si B es l.i:, entonces es base (porque por hip´otesis B genera a V ). Si B es linealmente dependiente, o bien est´a formado por un ´unico vector, que tiene que ser el vector nulo (porque B es linealmente dependiente), o bien est´a formado por m´as de un vector. En el caso en que B = 0 , como por hip´otesis B genera a V , ser´ıa el caso en que V = 0 . Pero este caso est´a exclu´ıdo, porque por hip´ otesis n1. De esta forma, resta s´olo estudiar el caso
{}
email
[email protected]
{}
224
βo
ξ £vι
−
−o
ζℏ
so
z
225
en que B es linealmente dependiente y est´a formado por m´as de un vector. Por la Proposici´on 3.2, hay un vector de B , que es combinaci´on lineal de los dem´as vectores de B . Quitando ese vector vr de B, se obtiene un conjunto B1 . Por la proposici´on 3.1 A = B1 y entonces B genera a V .
Si B1 es L.I: ya est´a probado. Si es linealmente dependiente aplicando el mismo razonamiento a B1 en lugar de B, se obtiene un nuevo conjunto B2 B1 B tal que genera a V . Si se repite el razonamiento, se obtendr´a finalmente un conjunto B’ contenido en B , que es linealmente independiente y que se obtuvo de B retirando sucesivamente aquellos vectores que se expresaban como combinaci´on lineal de los restantes. Por la proposici´on 3.1, este conjunto B’ tambi´en genera a V . Por definici´on es base de V , probando 1).
⊂
{
⊂
}
2) Supongamos W = w1 ,...,w p es un conjunto linealmente independiente Si W genera a V , entonces W es base y tomamos W’ = W. Si W no genera a V , entonces existe alg´un vector de V que no es combinaci´on lineal de W . Llamemos w p+1 a este vector. Mostrem os que: w1 , w2 ,...,w p , wp+1 es linealmente independiente
{
}
⇒
En efecto: λ1 w1 + λ 2 w2 + ... + λp wp + λp+1 wp+1 = 0 λp+1 = 0, porque sino se podr´ıa despejar wp+1 en funci´on de los dem´ as, y eso no es posible porque wp+1 no es combinaci´on lineal de w1 , w2 ,...,w p . Entonces: λ1 w1 + λ2 w2 + ... + λ p wp = 0. Luego, todos los coeficientes λi son ceros, porque W es linealmente independiente Tenemos entonces que el conjunto W = w1 , w2 ,...,w p , wp+1 es linealmente independiente Repitiendo la construcci´ on anterior a W1 en lugar de W , vamos agregando vectores hasta obtener un conjunto linealmente independiente y que
{
}
genere a V (sea hasta obtener una base de V ). Siempre se llega, en una cantidad finita de pasos, a un conjunto que genere a V , porque por el teorema 4.2 los conjuntos linealmente independiente no pueden tener mas de n elementos, donde n es la dimensi´on del espacio. A continuaci´on se presentar´an algunas propiedad es interesantes de los espacios de dimensi´on finita
COROLARIO 4.3. Sea V un K -espacio vectorial de dimensi´on n
≥ 1. Entonces,
(a) Cada conjunto de n elementos linealmente independientes de V conforman una base. (b) Cada conjunto de n generadores de V conforman una base de V . ´ DEMOSTRACION.
{
}
∈
∈
1) Si A = v1 ,...,v n no genera V, existe v V tal que v / A . Entonces v1 ,...,v n , v es linealmente independiente (como en la demostraci´ on del teorema anterior) pero tiene n + 1 vectores, lo que contradice el teorema 4.2. Absurd o. Luego A = V .
{
}
2) Si A = {v ,...,v }, con A = V A = V , y |A | = p < n. Luego A 1
1
n
1
1
y A es linealmente dependiente existe A1 ser´ıa base y dim (V ) = p < n. Absurdo.
⊂
A con
´ 4.12. Sea V un espacio vectorial de dimensi´on finita n. Sea W un subespacio PROPOSICION de V . Entonces W tiene tambi´en dimensi´ on finita, que es menor o igual que n. ´ DEMOSTRACION. Si W = 0 , entonces dim W =0 y ya est´a probado, pues 0 n.
{}
{}
Si W = 0 , alcanza probar que existe una base de W con una cantidad finita de elementos p. Una vez demostrado eso, por la proposici´on 4.1 resulta p n, pues una base de W , es un conjunto linealmente independiente, con p elementos, y una base de V es un conjun to que genera a todo el espacio, con n elementos. email
[email protected]
225
βo
ξ £vι
−
−o {}
ζℏ
so
z
226
∈
{ }
Como W = 0 entonces existe alg´un vector w1 W, w1 = 0. Si w1 genera a W , es base de W , y ya est´a probado. Si w1 no genera a W , existe un vector w 2 W que no es combinaci´on lineal de w1 .
{ }
{
∈
}
Afirmamos que w1 , w2 es linealmente independiente . En efecto, si λ1 w1 + λ 2 w2 = 0, λ2 = 0 pues de lo contrario se podr´ıa despejar w2 en funci´on de w1 , lo cual no es posible porque w2 no es combinaci´on lineal de w1 . Entonces λ2 = 0, y entonces λ1 w1 = 0. Como w1 = 0 se deduce λ1 = 0.Tenemos ahora que w1 , w2 es linealmente independiente . Si genera a W , ya tenemos una base. Si no genera a W, existe un tercer vector w3 W que no es combinaci´on lineal de los dos primeros. Igual que antes se prueba que el conjunto w1 , w2 , w3 es linealmente independiente. Se puede repetir el razonamiento en una cantidad menor que n + 1 de pasos has ta construir una base de W, porque de lo contrario tendr´ıamos un conjunto linealmente independiente de n + 1 vectores, contradiciendo el teorema 4.2 que dice que los conjuntos linealmente independiente no pueden tener m´as de n elementos, donde n es la dimensi´on del espacio.
{
}
∈ {
}
´ 4.13. Sea W un subespacio de V , con dim (V ) = n, se tiene que dim F PROPOSICION dim E . Si dim (W ) = dim (V ), entonces W= V . ´ DEMOSTRACION.
{
}
≤
Sea w1 ,...,w n base de W. Entonces es linealmente independiente y est´a formado por n vectores de W V . Si v V ; w1 ,...,w n , v es linealmente dependiente (por Teorema 4.2.) y como antes, vemos que V se escribe como combinaci´on lineal de w1 ,...,w n , luego
⊂
∈ {
}
{
}
{w ,...,w }
= V. A continuaci´on veremos que un espacio vectorial de dimensi´ on finita es finitamente generado y tiene una base finita. De hecho puede tener m´ as de una base, por ejemplo en R 2 , C = e1 , e2 y B = (1, 1), (2, 3) son bases. 1
n
{
{
}
}
TEOREMA 4.10. Sea V un espacio vectorial de dimensi´on n, y sea S un sistema de generadores de V . Entonces, obligatoriamente, S tiene al menos n vectores. Adem´as, a partir de S se puede extraer una base, eliminando uno a uno los vectores que sean combinaci´ on lineal de los dem´as. ´ DEMOSTRACION.
{}
N´otese que ya que V = 0 todo conjunto de generadores de V tiene al menos un vector distinto de 0. Si S es linealmente independiente ya es una base. En caso contrario, existe v S que es combinaci´on lineal de los restantes y S = S v .
∈
\ { }
Si este nuevo conjunto de generadores es linealmente independiente ya es una base de caso existe v ′ S v tal que es combinaci´on lineal de los vectores de S v y
∈ \{ }
V . En otro
\{ }
′
S \ {v} = S \ {v , v}
Repitiendo el proceso, tantas veces como sea necesario, se llega a un sistema de generadores linealmente independiente ya que, en el peor de los casos, encontrar´ıamos un conjunto generador con un ´unico vector que al ser distinto de 0 ya es linealmente independiente.
EJEMPLO 4.92. Sea V el subespacio de R 4 generado por
{
− −
}
S = v1 = (1, 1, 0, 0), v2 = (0, 1, 0, 0), v3 = ( 1, 1, 0, 0), v4 = (1, 2, 0, 0), v5 = (0, 2, 3, 3) . email
[email protected]
226
βo
ξ £vι
−
−o
ζℏ
so
z
227
−v entonces S = {v , v , v , v }
Encontrar una base de V . Puesto que v3 =
1
1
2
4
5
Ahora la ecuaci´on v4 = v 1 + v2 implica que
v1 , v2 , v4 , v5
{
{
v1 , v2 , v5 .
=
} {
} }
El conjunto S = v1 = (1, 1, 0, 0), v2 = (0, 1, 0, 0), v5 = (0, 2, 3, 3) es linealmente independiente y por tanto base de V . No podemos dejar de mencionar un resultado motivado por la siguiente pregunta: Dado un conjunto linealmente independiente v1 ,...,v r de vectores de un espacio vectorial V de dimensi´on finita ¿forman parte de alguna base B de V ?. El siguiente es el Teorema de prolongaci´on de una base y responde afirmativamente a esta pregunta: S´ı V un K-espacio vectorial de dimensi´on finita. Todo conjunto linealmente independiente de vectores puede completarse hasta obtener una base.
{
}
TEOREMA 4.11 (Teorema de Steinitz o de la base incompleta). Sea V un espacio vectorial de dimensi´on n, y sea A V un conjunto de vectores linealmente independiente. Entonces, obligatoriamente, A tiene como m´aximo n vectores. Adem´as, A se puede extender a una base, a˜nadiendo vectores en V que no sean combinaci´on lineal del resto. ´ DEMOSTRACION. Sea V un espacio vectorial y B = v1 ,...,v n una base de V . Si S = u1 ,...,u s es un subconjunto de V linealmente independiente entonces demostraremos que s n
⊂
{
}
que existen {ybase } n − s vectores v , ..., v ∈ B tales que el conjunto {u ,...,u , v ,...,v } es una ≤ de V . Es decir que todo subconjunto de V linealmente independiente se puede ampliar a una i1
1
in−s
s
i1
in−s
base. En efecto: Sabemos que todo conjunto con m´as de n elementos es linealmente dependiente y por tanto s Si s < n entonces S no puede ser base y
{u ,...,u } {v ,...,v } = V } tal que v ∈/ {u ,...,u } y entonces {u ,...,u 1
∈{
1
s
n
As´ı, existir´ a vi v1 ,...,v n i 1 s 1 linealmente independiente con s + 1 elementos. Repitiendo el proceso resultado. 1
1
{
EJEMPLO 4.93. Si S = (1, 1, 1, 1), (1, 2, 3, 4) de R 4 .
≤ n.
4
}⊂R
n
, v } es un conjunto − s veces se tiene el s
i1
veamos como se puede ampliar a una base
Sabemos que
{u
1
= (1, 1, 1, 1), u2 = (1, 2, 3, 4)
}
u2−u1
=
{(1, 1, 1, 1), (0, 1, 2, 3)}.
Adem´as,
R4 = {(1, 1, 1, 1), (0, 1, 2, 3), (0, 0, 1, 0), (0, 0, 0, 1)}
porque son 4 vectores escalonados y entonces linealmente independientes. Como,
{(1, 1, 1, 1), (0, 1, 2, 3), (0, 0, 1, 0), (0, 0, 0, 1)} = {(1, 1, 1, 1), (1, 2, 3, 4), (0, 0, 1, 0), (0, 0, 0, 1)} se tiene que {(1, 1, 1, 1), (1, 2, 3, 4), (0, 0, 1, 0), (0, 0, 0, 1)} es una base de R . 4
email
[email protected]
227
βo
ξ £vι
−
−o
ζℏ
so
z
228
EJEMPLO 4.94. Como ejemplo, U = (x,y, 0) R3 : x, y R . Claramente, los vectores (1, 0, 0), (0 , 1, 0) son base de U , y por tanto su dimensi´on es dos. Eso quiere decir que tres vectores cualesquiera en U , por ejemplo, (2 , 7, 0), ( 1, 2, 0), (18 , π, 0) deben ser forzosamente linealmente dependientes. Igualmente, cualquier vector, por ejemplo u = (1, 2, 0) no puede ser sistema de generadores de U .
{ −
∈
∈ }
Como consecuencia de los dos resultados previos, tenemos lo siguiente:
⊂
COROLARIO 4.4. Sea V un espacio vectorial de dimensi´ on n, y sea A V un conjunto con n vectores. Entonces son equivalentes: i) A es linealmente independiente. ii) A es sistema de generadores. iii) A es base. COROLARIO 4.5 (Propiedades de las bases y la dimensi´on.). Sea V un K-espacio vectorial de tipo finito (es decir, generado por un n´ umero finito de vectores) y sea L V , L = 0 un subespacio vectorial. Sea S = u1 , u2 ,...,u p un conjunto de vectores de L , entonces se verifica que:
{
⊂
}
1. Si S es un conjunto generador de L, entonces p
{}
≥ dim(L).
2. Si S es un conjunto linealmente independiente, entonces p
≤ dim(L).
3. Si S es generador de L y dim( L) = p , entonces S es base de L. 4. Si S es linealmente independiente y dim( L) = p , entonces S es base de L. Por tanto, la dimensi´on de un subespacio vectorial L es el n´umero m´aximo de vectores de L linealmente independientes. Adem´as, la dimensi´on de L es el n´umero m´ınimo de vectores de un conjunto generador de L.
EJEMPLO 4.95. (1, 1), (2, 1) es base de R2 pues es linealmente independiente y dim( R2 ) = 2.
{ } EJEMPLO 4.96. {1 − t, 1 + t, t } es base de P pues lo generan y dim (P ) = 3. Para comprobar que genera P basta con ver que 1, t y t son combinaciones lineales de { 1 − t, 1 + t, t }. Pero, 1 = 0.5(1 − t) + 0.5(1 + t), t = −0.5(1 − t) + 0.5(1 + t) y t obviamente es combinaci´on lineal por 2
2
2
2
2
2
2
formar parte del conjunto.
EJEMPLO 4.97. Subespacios generados por un conjunto de vectores .- Sea S el 2 ,...,v m . Queda claro que entonces estos vectores forman espacio generado por los vectores v1 , vdefinici´ un sistema de generadores de S (por on). Por tanto, dim S m. Adem´as, la dimensi´on de S ser´a el m´aximo n´umero de vectores linealmente independientes en v1 , v2 ,...,v m , gracias al Teorema 4.10.
≤
{
}
Si estamos trabajando en Rn (o en coordenadas), recu´erdese que el m´aximo n´umero de vectores linealmente independientes en v1 , v2 ,...,v m es exactamente el rango de la matriz formada por dichos vectores dispuestos por filas. Entonces, por lo anterior, dicho rango ser´ a exactamente la dimensi´on de S .
{
email
[email protected]
}
228
βo
ξ £vι
−
−o {
ζℏ
so
−
z
229 4
} ⊂ R , entonces dim S ≤ 3. Ahora bien,
Por ejemplo, si S = (1, 0, 1, 2), (0, 1, 1, 1), (1, 1, 0, 3) el rango de la matriz: 1 0 1 2 A= 0 1 1 1 11 0 3 es igual a dos. Por tanto, dim
−
S = 2. Una base estar´ıa formada, por ejemplo, por los vectores
{(1, 0, −1, 2), (0, 1, 1, 1)}, ya que son linealmente independientes entre s´ı (no son proporcionales). EJEMPLO 4.98. Consideremos el siguiente subconjunto de R 4 :
{
S = (x1 , x2 , x3 , x4 ) : x 1
−x
4
−x
= 0 y x2
4
= x3
}
1. Comprobar que S es subespacio vectorial de R 4 . 2. Obtener dos bases distintas B1 y B2 de S y hallar la dimensi´on de S . 3. Hallar un sistema generador G de S que no sea base de S. 4. Hallar un sistema generador G de S que no sea linealmente independiente. 5. Hallar un conjunto linealm ente independiente F de S que no sea base de S . 6. Hallar un conjunto linealm ente independiente F de S que no sea sistema generador de S . 7. Sea F = B 1 r (F ).
∪ B . ¿Es F linealmente independiente? ¿Es F sistema generador de 2
S ? Hallar
8. Completar la base B1 hasta obtener una base B ∗ de R4 .
´ SOLUCION.1. Comprobar que S es subespacio vectorial de R4 .
Soluci´ on.- Para demostrar que S es un subespacio vectorial de R4 encontraremos un sistema generador G de S (S = G ). ¿C´omo?: Resolviendo el sistema lineal homog´eneo que satisfacen las componentes de cualquier vector de S . Tomemos
(x1 , x2 , x3 , x4 ) entonces
por tanto
∈ S = {(x , x , x , x ) : x − x 1
x1 x2
2
−x −x
4 4
3
=0 = x3
4
1
229
= 0 y x2
x4 = x 1 x3 = x 2
(x1 , x2 , x3 , x4 ) = (x1 , x2 , x2 email
[email protected]
4
−x
4
= x3
}
−x
1
− x ,x ) 1
1
βo
ξ £vι
−
−o
ζℏ
so
z
230
Cuando conseguimos escribir los vectores de S de esta forma, ya resulta inmediato encontrar un sistema generador de S . (x1 , x2 , x2
− x , x ) = (x , 0, −x , x ) + (0 , x , x , 0) = x (1, 0, −1, 1) + x (0, 1, 1, 0) 1
1
1
1
1
2
2
1
2
Llamando x1 = a , x2 = b tenemos
{
−
S = a(1, 0, 1, 1) + b(0, 1, 1, 0) : a, b S=
{ } ⇒ •• u1 , u2
=
∈ R} = {u
1
−
= (1, 0, 1, 1), u2 = (0, 1, 1, 0)
S es subespacio vectorial de R 4 B = u1 , u2 es sistema generador de S
{
}
}
´ n de S . 2. Obtener dos bases distintas B1 y B2 de S y hallar la dimensi o
Soluci´ on.- En el apartado anterior hemos encontrado un sistema generador de S , ahora debemos comprobar si se trata de un conjunto linealmente independiente o no. Si se trata de un conjunto linealmente independiente tenemos ya una base de S y por tanto conocemos su dimensi´on, lo cual nos ser´a de gran utilidad de cara a encontrar nuevas bases del subespacio S. Para comprobar si B es un conjunto linealmente independiente, como solamente consta de dos vectores, podemos utilizar un resultado que resulta muy c´ omodo:
TEOREMA 4.12. Una familia formada por dos vectores no nulos u y v es un conjunto linealmente dependiente si y s´olo si existe α R tal que u = αv
∈
Este resultado solamente se puede utilizar para comprobar si una familia de dos vectores es un conjunto linealmente dependiente. Si tenemos un conjunto formado por m´ as de dos vectores y queremos estudiar su dependencia o independencia lineal tendremos que recurrir a la definici´on o al teorema del rango. Por tanto, si se verifican las siguientes dos condiciones:
• B = {u , u } es sistema generador de S • u = αu ∀α ∈ R, entonces B es conjunto linealmente independiente Entonces B = {u , u } es base de S , por tanto dim S = 2 1
1
1
2
2
1
1
1
2
Para hallar segunda basede comprobar B2 de S , enson primer lugar construiremos un por sistema de dos vectores de una S que habremos linealmente independientes, ejemplo:
{
B2 = v1 = u 1 + u2 = (1, 1, 0, 1), v2 = u 1
∀ ∈ R =⇒ B
v1 = α v2 α
2
−u
2
− − }⊂S
= (1, 1, 2, 1)
es un conjunto linealmente independiente
Solamente hemos comprobado que B2 es un conjunto linealmente independiente. No podemos asegurar, todav´ıa, que se trate de una base de S . No ser´a necesario comprobar que se trata de un sistema generador de S , pues al conocer dim S podemos utilizar un “atajo”: email
[email protected]
230
βo
ξ £vι
−
−o
ζℏ
so
z
231
• B ⊂ S es linealmente independiente • dim S = 2 = card B 2
2
⇒ =
B2 es base de S
El cardinal de un conjunto (card) es el n´ umero de elementos que pertenecen al conjunto. Hallar un sistema generador
de
que no sea base de S.
3. G S 4. Hallar un sistema generador G de S que no sea linealmente independiente.
Soluci´ on.- Vamos a responder a las dos preguntas al mismo tiempo. Elegimos un conjunto G formado por los vectores de una base de S y a˜nadimos una combinaci´on lineal de los mismos. Por ejemplo:
{
−
G = u1 = (1, 0, 1, 1), u2 = (0, 1, 1, 0), u3 = u 1 + u2 = (1, 1, 0, 1)
}
Para demostrar que este conjunto G cumple las condiciones pedidas en el enunciado podemos proceder de varias maneras: ☞
G es sistema generador de S , podemos llegar a esta conclusi´ on de dos maneras diferentes: Por ser B 1 base de S , B 1 es sistema generador de S , ahora como B 1
G es tambi´en sistema generador de S , o bien: Puesto que u3 = u1 + u 2 , entonces S = que G sistema generador de S ☞
{ } { u1 , u2
=
u1 , u2 , u3
}
⊂ G, entonces
, esto implica
G no es base de S (no es conjunto linealmente independiente), esto es debido a alguno de los siguientes hechos: Como dim S = 2 < 3 = card G entonces G no es linealmente independiente, por tanto G no es base de S . o bien: Como u 3 = u 1 + u2 entonces G no es linealmente independiente, por tanto G no es base de S
5. Hallar un conjunto linealmente independiente F de S que no sea base de S . 6. Hallar un conjunto linealmente independiente F de S que no sea sistema generador de S .
Soluci´ on.- Elegimos un conjunto F obtenido eliminando, al menos, un vector de una base de S . Por ejemplo: F = u1 = (1, 0, 1, 1) . Para demostrar que este conjunto F cumple las condiciones pedidas en el enunciado podemos proceder de varias maneras:
{
☞
− }
F es un conjunto linealmente independiente de S , pues:
email
[email protected]
231
βo
ξ £vι
−
−o
ζℏ
so
z
232
Como B1 es base de S , entonces B1 es linealmente independiente, por otro lado F B1 , esto implica que F es linealmente independiente.
⊂
Tambi´ en llegamos a la misma conclusi´ on del siguiente modo: Es sabido que una familia formada por un ´ unico vector es linealmente independiente si y s´olo si este vector es no nulo. Ahora bien, como linealmente independiente ☞
u1 = 0, entonces F es
F no es base de S (no es sistema generador de S ), llegamos a esta conclusi´on de dos maneras distintas: Como dim S = 2 > 1 = card F entonces F no es base de S , en particular F no es sistema generador de S o bien:
{ }
∀ ∈
No todo vector de S pertenece a F = u1 , por ejemplo: u 2 = αu 1 α R, por tanto F no es sistema generador de S de donde se deduce que F no es base de S
∪
7. Sea F = B1 B2 . ¿Es F linealmente independiente? ¿Es F sistema generador de S ? Hallar r(F ).
Soluci´ on.-
F = u1 = (1, 0, 1, 1), u2 = (0, 1, 1, 0), v1 = (1, 1, 0, 1), v2 = (1, 1, 2, 1)
−
− −
a ) F es un conjunto linealmente dependiente. Para demostrar esta afirmaci´ on podemos proceder de dos maneras: Como v1 = u 1 + u2 entonces F no es linealmente independiente o bien: como dim S = 2 < 4 = card F entonces F no es linealmente independiente. b ) F es un sistema generador de S . Al igual que en el caso anterior, podemos comprobarlo de varios modos: Como B 1 base de S entonces B 1 sistema generador de S , adem´as B 1 F sistema generador de S
⊂ F entonces
o bien:
{ } { } } { }
La ecuaci´on v1 = u1 + u2 implica que S = u1 , u2 = u1 , u2 , v1 y de la ecuaci´on v 2 = u 1 u2 se deduce que u1 , u2 , v1 ) = u1 , u2, v1 , v2 . Entonces F sistema generador de S
−
{
c ) r(F ) = 2. Vamos a presentar tambi´en dos m´etodos para su demostraci´ on:
−
{
} { }
}
De la ecuaci´on v2 = u1 u 2 se sigue que u1 , u2 , v1 , v2 = u1 , u2 , v1 y de la ecuaci´on v1 = u1 + u 2 obtenemos u1 , u2 , v1 = u1 , u2 = S . Por lo tanto r (F ) = dim( F ) = dim S = 2. o bien:
email
[email protected]
{
232
} {
βo
ξ £vι
−
−o
ζℏ
so
z
233
Escribimos los vectores de F como filas de una matriz A y calculamos el rango de esta matriz utilizando operaciones elementales de fila, pues r (A) = r (F ).
−
A=
1 0 1 1 0 1 1 0 1 1 0 1 1 1 2 1
− −
−
( 1)f1 + f4 ( 1)f1 + f4
−
− ←→
1 0 1 1 0 1 1 0 0 1 1 0 0 1 1 0
− −
−
( 1)f2 + f3 f2 + f4
←→
1 0 0 0
−
0 1 1 1 1 0 0 0 0 0 0 0
=B
Como las matrices A y B son equivalentes, tienen el mismo rango. Es inmediato calcular el rango de B pues, al tratarse de una matriz escalonada, su rango coincide con el n´umero de las entradas principales, luego: 2 = r (B ) = r (A) = r (F )
8. Completar la base B1 hasta obtener una base B ∗ de R4 .
Soluci´ on.- Como sabemos que dim R4 =4 y card B1 = 2, resulta evidente que B1 no es base 4 de R . Debemos, por tanto, ir a˜ nadiendo vectores a B1 para que, sin perder la condici´ on de conjunto linealmente independiente, consigamos tambi´en un sistema generador de R4 . Conviene realizar este proceso con cierto cuidado y, en principio, se puede sugerir que: se a˜nadan los vectores de uno en uno, y se a˜nadan vectores lo m´as sencillos posibles. ¿Cu´ales? Los vectores de la base can´onica, por ejemplo. Sin embargo, vamos a utilizar la relaci´on que existe entre el rango de una familia de vectores y el rango de la matriz cuyas filas son esos vectores para ampliar la base B 1 hasta conseguir una base B ∗ de R4 y lo vamos a hacer a˜nadiendo todos los vectores necesarios de una sola vez. Se trata de construir una matriz cuadrada de orden 4, A , cuyo rango sea 4, es decir, tal que det A = 0, pero dos de sus filas han de ser los vectores de la base B 1 de S :
A=
− −− −− −− −− 1 0 1 1 0 1 1 0
Tenemos que a˜nadir dos filas a A que se correspondan, preferentemente, con vectores de la base can´onica de R4 de modo que det A = 0. Para ello localizamos en las filas escritas en
A una submatriz de orden 2 (pues s´ olo tenemos dos filas) cuyo determinante sea no nulo). “Debajo” de esa submatriz rellenamos las filas que nos faltan con ceros y los huecos restantes los llenamos de modo que a˜nadamos dos vectores diferentes de la base can´onica de R 4 . Por ejemplo: A=
− −− −− −− −− 1 0 1 1 0 1 1 0
email
[email protected]
A=
1 0 0 0
233
− − − − −
0 1 1 1 1 0 0 0
A=
1 0 0 0
−
0 1 1 1 1 0 0 1 0 0 0 1
βo
ξ £vι
−
−o
ζℏ
so
z
234
De esta forma, al desarrollar el determinante de A por las filas a˜nadidas resulta trivial de comprobar que es no nulo. Podemos justificar la respuesta al ejercicio del modo siguiente: Sea A la matriz cuyas filas son los vectores de B ∗ , siendo:
B ∗ = u1 = (1, 0, 1, 1), u2 = (0, 1, 1, 0), e3 = (0, 0, 1, 0), e4 = (0, 0, 0, 1)
{
−
Se tiene que: det A =
1 0 0 0
−
0 1 1 1 1 0 0 1 0 0 0 1
}
=0
Aqu´ı hay que justificar que esta afirmaci´on es cierta y lo podemos hacer como hemos explicado antes desarrollando el determinante por las filas que hemos a˜ nadido. Se tiene entonces que: Puesto que det A = 0 entonces r (B ∗ ) = r (A) = 4 por tanto B ∗ es linealmente independiente, y como dim R4 = 4 = card B ∗ se sigue que B ∗ es base de R 4 .
♣
EJEMPLO 4.99. Sea la matriz:
A=
∈ 1 1 1 1 1 1
M3×2 (R)
1. Hallar una base B y la dimensi´on del subespacio S formado por las matrices X tales que AX = (0) 3×3 . 2. Hallar un sistema generador G de S que no sea base de S . Calcular r (G). 3. Hallar un conjunto linealm ente independiente F de S que no sea base de S . Calcular r (F ). 4. Ampliar la base B de S hasta obtener una base B ∗ de M 2×3 (R).
´ SOLUCION.´ n del subespacio S formado por las matrices 1. Hallar una base B y la dimensi o X tales que AX = (0) 3×3 . Soluci´ on.- Lo primero que tenemos que hacer es ver que condiciones han de cumplir los elementos de una matriz X M3×2 (R) para que pertenezca a S . Para ello debemos realizar el producto AX , donde 1 1 A= 1 1 M3×2 (R) 1 1
∈
email
[email protected]
∈ 234
βo
ξ £vι
−
−o
ζℏ
so
z
235
e igualarlo a la matriz nula de M3×3 (R). Esto nos llevar´a a un sistema de ecuaciones lineales homog´eneo con tantas inc´ognitas como elementos tiene la matriz X , es decir, con 6 inc´ognitas, y con tantas ecuaciones como elementos tiene la matriz AX (9 ecuaciones). 1 1 1 1 1 1
AX =
a b c d e f
Entonces
a+d b+e c+f a+d b+e c+f a+d b+e c+f
=
⇒
a+d= 0 b+e= 0 c+f =0
=
− − −
d= a e= b f= c
=
0 0 0 0 0 0 0 0 0
En este caso al igualar los nueve elementos de la matriz AX con los nueve elementos correspondientes de la matriz nula de M3×3 (R), observamos que de las nueve ecuaciones que en principio obtenemos solamente hay tres ecuaciones diferentes y son las ´ unicas que hemos escrito. A continuaci´on se procede del mismo modo que en cualquier problema de espacios vectoriales, utilizando las mismas t´ecnicas explicadas para los espacios vectoriales Rn y n y que ya hemos utilizado anteriormente, pero sin olvidarnos de que estamos trabajando con matrices.
P
1 1
S=
X
∈M
R) : 1 1 X = (0) 3×3 =
a a
b b
c : a, b, c c
− − − ∈ ∈ − − − 2×3 (
1 1
R
Cuando conseguimos escribir los vectores de S de esta forma, ya resulta inmediato encontrar un sistema generador de S .
S = =
1 0 0 0 +b 1 0 0 0
a
A1 =
1
−1
1 0 0 0 +c 1 0 0 0
0 0 , A2 = 0 0
0 0
1
−1
1 : a , b, c 1
0 , A3 = 0
0 0 0 0
R
1
−1
Hemos demostrado entonces:
S=
vectorial de M (R) {A , A , A } =⇒ • SB es= subespacio A , A , A es sistema generador de • { } 1
2
2×3
3
1
2
3
S
Vamos a comprobar si B es tambi´ en un conjunto linealmente independiente. Como B consta de tres matrices, si queremos demostrar que es un sistema linealmente independiente no podemos utilizar ning´un “atajo”. Debemos recurrir a la definici´ on. Pero lo que si podemos utilizar es un resultado de la teor´ıa de matrices que dice que un sistema de n vectores es linealmente independiente si y s´olo si el rango de la matriz que tiene como filas a esos vectores es n . De hecho el rango de una familia de vectores y el rango de la matriz cuyas filas son los vectores de esa familia coinciden. Este resultado es de gran utilidad. email
[email protected]
235
βo
ξ £vι
−
−o
ζℏ
so
z
236
Surge inevitablemente una pregunta. ¿C´omo escribimos las matrices A1 , A2 , A3 como filas de una matriz? La respuesta es bien sencilla e intuitiva. Basta con identificar cada una de las matrices con un vector de R 6 es este caso de modo que si A = (aij )2×3 , el vector con el que identificamos la matriz A es el vector:
x = (a11 , a12 , a13 , a21 , a22 , a23 ) de modo que escribimos como las primeras componentes del vector la primera fila de la matriz, a continuaci´on escribimos la segunda fila de la matriz y as´ı hasta terminar con todas las filas de A. Si consideramos la matriz A=
−
1 0 0 1 0 1 0 0 001 0 0
0 1
−
− 0 0 1
tenemos que r(A) = r (B ) donde B es el sistema generador de S que hemos encontrado. Adem´as es trivial calcular el rango de la matriz A pues al tratarse de una matriz escalonada bastar´a con contar el n´umero de las entradas principales de la matriz. Tenemos entonces que: 1 0 0
r(B ) = r (A) siendo A =
−1
0
0
− −
0 1 0 0 1 0 001 0 0 1 r (B ) = r (A) = 3 = card( B ) entonces B es linealmente independiente Como hemos podido comprobar este m´etodo resulta muy sencillo para calcular el rango de una familia de vectores de los espacios vectoriales Rn, n y Mm×n (R). Tenemos entonces que:
P
{ {
⇒
} }
B = A1 , A2 , A3 es generador de S = B = A1 , A2 , A3 es base de S , por B = A1 , A2 , A3 es linealmente independiente tanto dim S = 3
{
}
Como ya conocemos la dimensi´on del subespacio vectoria l S resulta m´as sencillo, como ya se explic´o en un ejercicio anterior, hallar otras bases de este mismo subespacio. Recordar que basta con hallar un conjunto linealmente independiente de S que conste de tantas matrices como la dimensi´on de S , que es 3. 2. Hallar un sistema generador G de S que no sea base de S . Calcular r(G).
Soluci´ on.- Una base del subespacio vectorial S es un sistema generador de S que adem´as es linealmente independiente, de modo que si a esa base a˜ nadimos vectores de S seguiremos teniendo un sistema generador de S pero habremos perdido la condici´ on de conjunto linealmente independiente porque el vector que hemos a˜ nadido es forzosamente una combinaci´on lineal de los vectores de esa base. Sin embargo, si a esa base quitamos alguno de los email
[email protected]
236
βo
ξ £vι
−
−o
ζℏ
so
z
237
vectores perdemos la condici´on de sistema generador de S pero todav´ıa seguimos teniendo un conjunto linealmente independiente pues todo subconjunto de un conjunto linealmente independiente es tambi´en un conjunto linealmente independiente. Estos comentarios nos ayudar´an a entender mejor las respuestas a los apartados 1.- y 2.- de este ejercicio. Escogemos un conjunto G formado por las siguientes matrices:
G = A1 , A2 , A3 , A4 = A 1 + A2 + A3
y procedemos a demostrar que cumple las condiciones pedidas en el enunciado como en cualquier ejercicio de espacios vectoriales y podemos proceder de distintas maneras: ☞
G es sistema generador de S , pues: B base de S entonces B sistema generador de S , B generador de S
⊂ G entonces G sistema
o bien: la ecuaci´on A 4 = A 1 + A2 + A3 implica que S = entonces G sistema generador de S ☞
{A , A , A } = {A , A , A , A } 1
2
3
1
2
3
4
G no es base de S (no es conjunto linealmente independiente), pues: dim S = 3 < 4 = card G entonces G no es base de S (G no es linealmente independiente) o bien:
A4 = A 1 + A2 + A3 entonces G no es es linealmente independiente entonces G no es base de S Un m´etodo muy sencillo para calcular el rango de G es el siguiente:
r (G) = dim( G ) = dim S = 3 3. Hallar un conjunto linealmente independiente F de S que no sea base de S . Calcular r (F ).
Soluci´ on.- Teniendo en cuenta los comentarios anteriores escogemos F el siguiente conjunto:
F = A1 , A2
{
}
Para demostrar que este conjunto F cumple las condiciones pedidas en el enunciado podemos proceder de varias maneras: ☞
F es un conjunto linealmente independiente de S , pues: B es base de S entonces B es linealmente independiente, F linealmente independiente
email
[email protected]
237
⊂ B entonces F
βo
es
ξ £vι
−
−o
ζℏ
so
z
238
o bien: Se sabe que un sistema de dos vectores no nulos es linealmente independiente si y s´olo si no son m´ultiplos uno del otro. As´ı como A1 = αA2 α R entonces F es linealmente independiente
∀ ∈
☞
F no es base de S (no es sistema generador de S ), pues: dim S = 3 > 2 = card F entonces F no es sistema generador de S , en particular F no es base de S . o bien:
{A , A }, por ejemplo: = α A + α A ∀α , α ∈ R
No todo vector de S pertenece a F =
A3
1
1
1
2
2
2
1
2
entonces F no es sistema generador de S entonces F no es base de S En este caso para calcular el rango de F lo m´as sencillo es utilizar el hecho de que F es un conjunto linealmente independiente como ya hemos demostrado: Si F es linealmente independiente, entonces r (F ) = card F = 2. 4. Ampliar la base B de S hasta obtener una base B ∗ de M2×3 (R).
Soluci´ on.- Utilizamos la misma t´ecnica explicada en el problema de espacios vectoriales. En este caso es si cabe m´ as sencillo todav´ıa pues la base B de S que hemos encontrado nos lleva a una matriz escalonada y por tanto nos va a resultar muy sencillo el ampliar B hasta conseguir una base B ∗ de M2×3 (R).
− − − − − − −− − −− −− −− −− −− −− − 1 0 0 1 0 1 0 0 0 0 1 0 0
0 1
0 0 1
1 0 0 1 0 1 0 0 001 0 0
−
0 0 01 0 0 00 0 0 00
0 0 1
0 1 0
1 0 0 0 0 0
0 1
− − − − − − − − − − −
−
0 0 1 1 0 0 01 0 0 0 0 0 0 0 0
−
0 1
0 0 1
0 0 1
Dado que la matriz A es triangular superior su determinante es el producto de los elementos de la diagonal principal, es decir, no nulo, y adem´ as el rango de la matriz A coincide, como hemos explicado en otro apartado, con el rango de la familia de vectores (o matrices) B∗ siguiente: B ∗ = A1 , A2 , A3 , E21 , E22 , E23
{
email
[email protected]
}
238
βo
ξ £vι
−
−o
ζℏ
z
E22 =
so
donde
E21 =
0 0 0 , 1 0 0
239
0 0 0 , 0 1 0
E23 =
0 0 0 0 0 1
Podemos justificar la respuesta al ejercicio del modo siguiente: Sea son los vectores (matrices) de B ∗ , siendo:
B ∗ = A1 , A2 , A3 , E21 , E22 , E23
{
donde
E21 = Se tiene que:
0 0 0 , 1 0 0
E22 =
det A =
1 0 0 0 0 0
0 0 0 , 0 1 0
0 0 1 0 0 01 0 0 01 0 00 0 00
−1
0 1
−
0 0 0 1 0 0 1
A la matriz cuyas filas
}
E23 =
0 0 0 0 0 1
− 0 0 1
=0
Aqu´ı hay que justificar que esta afirmaci´on es cierta y en este caso lo podemos hacer f´ acilmente pues la matriz es triangular, luego su determinante es el producto de los elementos de su diagonal principal. Se tiene entonces que: det A = 0 entonces r (B ∗ ) = r (A) = 6 entonces B ∗ es linealmente independiente dim M2×3 (R) = 6 = card B ∗ B ∗ base de M2×3 (R)
⇒ =
♣
EJEMPLO 4.100. Subespacios dados por ecuaciones impl´ıcitas.- Supongamos que tenemos el subespacio vectorial:
U=
(x1 , x2 ,...,x n )
∈R
n
:
a11 x1 + a12 x2 + a21 x1 + a22 x2 +
··· + a ··· + a
an1 x1 + an2 x2 +
··· + a
1n xn 2n xn
= 0 = 0 .. .
x
= 0
nn n
Los vectores de U son las soluciones del sistema de ecuaciones, que debe ser compatible. Si es compatible determinado, entonces U = 0 , y por tanto dim U = 0. En cambio, si es compatible indeterminado, habr´a infinitas soluciones dependientes de ciertos par´ametros. Pues bien, es f´acil darse cuenta de que el n´umero de par´ametros necesitados es igual a la dimensi´on de U (ver ejemplo m´as adelante). Por otro lado, el n´umero de par´ametros que se necesitan es n rg (A), donde A es la matriz de coeficientes del sistema de ecuaciones. As´ı pues,
{}
−
dim U = n email
[email protected]
− rg (A)
239
βo
ξ £vι
−
−o
ζℏ
so
z
240
Por ejemplo, estudiemos la dimensi´on del subespacio
U = (x,y,z,t )
4
∈R
:
−
2x + y z + 3t = 0 x + 2z + t = 0
Obs´ervese que las filas de la matriz
A=
−
2 1 1 3 10 2 1
−
no son proporcionales, y por tanto su rango es igual a dos. As´ı pues, dim U = 4 2 = 2. Para hallar una base, basta con resolver el sistema compatible indeterminado: llamando z = a, t = b , nos queda: 2x + y = a 3b x = 2a b es decir, x =
4.6.
−
− −
−2a − b, y = 5a − b. Por tanto, U = {(−2a − b, 5a − b,a,b ) : a, b ∈ R} = {(−2, 5, 1, 0), (−1, −1, 0, 1)}
Coordenadas de un vector respecto de una base
En R 2 la base can´onica esta dada por los vectores (1 , 0) y (0 , 1). Estos vectores generan las rectas horizontal y vertical que usualmente trazamos en el plano cartesiano para ubicar puntos o trazar curvas. Cuando escribimos el punto (2 , 3) en realidad estamos diciendo que (2 , 3) = 2(1 , 0)+3(0 , 1). Decimos que 2 es la primera coordenada y 3 es la segunda, estas cantidades representan los coeficientes que debemos mulitiplicar a los elementos de la base para obtener una combinacion lineal que sea igual al vector. Cualquier punto tiene una representacion en forma de coordenadas respecto a la base canonica. Que sucede con estas coordenadas cuando cambiamos de base, y que interpretacion geometrica tenemos? A continuacion vamos a responder estas dos preguntas a traves de un ejemplo Consideremos la base de R 2 dada por B = (1, 1) , ( 1, 2) . Vamos a encontrar como representar el punto (2 , 3) en esta base. Queremos escribir (2 , 3) como combinaci´on lineal de los elementos de la base, es decir,
{
− }
(2, 3) = a (1, 1) + b( 1, 2) a b= 2 De aqu´ı podemos determinar el sistema cuya soluci´on es: b = 13 , a = 73 . Por tanto a + 2b = 3
−
−
−
(2, 3) = 7 /3(1, 1) + 1 /3( 1, 2) Ahora introducimos una notaci´on para describir esta informaci´on [(2, 3)]B = (7/3, 1/3)canonica email
[email protected]
240
βo
ξ £vι
−
−o
ζℏ
so
z
241
El sub´ındice indica en que base estamos expresando el vector. Los coeficientes de la combinaci´on lineal se llaman coordenadas o componenetes. Geometricamente, podemos visualizar la nueva base, cada vector genera dos rectas con la direccion de cada vector. Estas dos rectas representan un nuevo sistema de coordenadas. En este sistema tenemos que medir 7 /3 en el eje dado por (1 , 1) , y 1/3 en el eje dado por ( 1, 2). Podemos tambien expresar los vectores canonicos en la nueva base
−
−
− −
(1, 0) = 2 /3(1, 1) 1/3( 1, 2) (0, 1) = 1 /3(1, 1) + 1 /3( 1, 2)
−
Es decir [(1 , 0)]B = (2/3, 1/3) y [(0 , 1)]B = (1/3, 1/3) ¿Si tenemos solo como eje de coordenadas las rectas dadas en el gr´ afico anterior que debemos hacer para ubicar el punto [(1 , 2)]B ?. Podemos generalizar la pregunta anterior a un vector cualquiera (a, b), una manera de responder esto es la siguiente: (a, b) = a (1, 0) + b(0, 1) ahora reemplazamos los vectores (1 , 0) y (0 , 1) (a, b) = a(2/3(1, 1) 1/3( 1, 2)) + b (1/3(1, 1) + 1 /3( 1, 2)) = (2/3a + 1 /3b) (1, 1) + ( 1/3a + 1 /3b) ( 1, 2)
− − − (2/3a + 1/3b) , (−1/3a + 1/3b)
es decir [( a, b)]B = multiplicacion de matrices de la siguiente manera
a b
=
B
2/3 1/3 1/3 1/3
−
−
−
. Esta formula se puede poner como una
a b
canonica
esta matriz se llama matriz de cambio de base de la base canonica a la base encontrar rapidamente las nuevas componentes.
B y nos sirve para
Dado un espacio vectorial V , a continuaci´on demostramos que: B es base de V si y solo si , todo vector del espacio se escribe en forma ´ unica como combinaci´on lineal de los vectores de la base, (es decir, los coeficientes de la combinaci´on lineal son ´unicos). Esto nos permitir´a trabajar en un -espacio vectorial V de dimensi´on finita n como si estuvi´eramos en n .
K
{
}
K
TEOREMA 4.13. Un conjunto de vectores B = v1 ,...,v n de V es una base de V si y solo si todo vector v V puede escribirse de forma ´unica en la forma v = t 1 v1 + + tn vn . En este caso, (t1 ,...,t n )B se llaman las coordenadas de v en la base B.
∈
´ DEMOSTRACION.
···
⇒
( ) En primer lugar, como B genera a V , entonces cualquier vector de V se puede escribir como combinaci´on lineal de vectores de B . Veremos ahora que esa combinaci´on lineal es ´unica. email
[email protected]
241
βo
ξ £vι
−
−o
ζℏ
so
z
242
En efecto, supongamos que pueda escribirse un vector V como combinaci´on lineal de B , en dos formas distintas: v = α 1 v1 + ... + αn vn , v = β 1 v1 + ... + βn vn
−
−
Restando ambas igualdades: 0 = ( α1 β1 ) v1 + ... + (αn βn ) vn Tenemos entonces una combinaci´on lineal de B , igualada a 0. Por hip´otesis B es base, entonces B es linealmente independiente. Por definici´on de linealmente independiente los coeficientes de la combinaci´on lineal anterior deben ser ceros. O sea: α1 = β 1 , α2 = β 2 , ... , n = β n Por lo tanto las dos formas de escribir V como combinaci´on lineal de B , son la misma.
⇐
( ) Por la unicidad de las combinaciones lineales: 0 = 0v1 + 0 v2 + ... + 0vn 0 = λ 1 v1 + λ2 v2 + ... + λn vn
{
Por definici´on, resulta que B = v1 , v2 ,...,v
n
} es linealmente independiente
Una base ordenada de un espacio vectorial V de dimensi´on finita es una base en la cual se ha establecido un orden. Por ejemplo, si consideramos la base ordenada de R 2 , B1 = (1, 0);(0 , 1) , (1, 0) es el primer elemento de B1 , mientras que (0 , 1) es el segundo elemento de B1 . La base ordenada de R 2 , B 2 = (0, 1);(1 , 0) , es distinta de la base B 1 , a pesar de que los vectores que las
{
{
}
}
componen son los mismos. En general emplearemos la notaci´on B = v1 ; v2 ; ...; vn para indicar que la base est´ a ordenada, es decir, separaremos los vectores con punto y coma.
{
{
}
}
Sea B = v1 ; v2 ; ...; vn una base ordenada de V . Como hemos visto, a cada v un u ´ nico conjunto de escalares t1 , t 2 , . . . , t n tales que
v = t 1 v 1 + t2 v 2 +
∈ V corresponde
··· + t v . n n
Entonces, con los escalares t1 , t2 , . . . , t n formemos el vector columna [t1 t2
T
··· t ] n
=
∈ t1 .. . tn
Kn ,
∈
que est´a univocamente determinado por el vector v V . A tal vector v se lo denomina vector de coordenadas de v respecto de la base B , y se lo denota [ t1 t2 tn ] T = [ v ] B .
···
´ 4.12 (Coordenadas de un vector respec to de una base). Dado un KDEFINICION espacio vectorial V de dimensi´on finita n y dada una base B = v1 ; v2 ; ...; vn , cada vector v V tiene una ´unica expresi´on en funci´on de los vectores de B de la forma
v = t 1 v1 + Llamaremos a [t1 t2
T
n
··· t ] ∈ K n
}
∈
··· + t v
n n
coordenadas de v respecto de la base B y lo representaremos por [v ]B = [t1 t2
email
[email protected]
{
242
T
··· t ] n
.
βo
ξ £vι
−
−o
ζℏ
so
z
243
Por otra parte, si y = [s1 s2 sn ]T Kn , entonces existe un vector v de V , tal que [ v ]B = y . En efecto, tal vector es v = s 1 v1 + s2 v2 + + sn vn .
···
∈
···
Entonces, de acuerdo con lo que acabamos de decir, fija una base ordenada B de V podemos establecer una correspondencia biun´ıvoca entre los vectores de V y los vectores de K n ; tal correspondencia consiste en asociar cada vector de V con su vector de coordenadas en la base B .
EJEMPLO 4.101. Desde un punto de vista pr´ actico, determinar las coordenadas de un vector respecto de una base de R n cualquiera consiste en resolver un sistema de ecuaciones compatible (determinado). En concreto, consideremos en el espacio vectorial R 3 y el conjunto
{
}
B = (1, 2, 4), (2, 2, 1), (0, 3, 2) . Entonces es f´acil comprobar que B es una base de R3 (!!compru´ebese!!). Vamos a calcular las coordenadas del vector (3 , 1, 1) R3 respecto de dicha base. Se trata de encontrar tres elementos de R , a, b y c, tales que
∈
a(1, 2, 4) + b(2, 2, 1) + c(0, 3, 2) = (3 , 1, 1). Esta ecuaci´on vectorial se puede expresar como un sistema de ecuaciones lineales en las inc´ ognitas a, b, c: a + 2b = 3 2a + 2 b + 3 c = 1 4a + b + 2 c = 1 Resolviendo el sistema por el m´etodo de Gauss obtenemos que a = 0, b = 4 y c = 1. Por tanto las coordenadas de (3 , 3, 1) respecto de la base B son (0 , 4, 1)B . Comprobemos esto ´ultimo:
0(1, 2, 4) + 4(2 , 2, 1) + 1(0 , 3, 2) = (8 , 8, 4) + (0 , 3, 2) = (8 , 11, 6) = (3 , 1, 1). Si tenemos una base B , podemos identificar los vectores con sus coordenadas respecto a B . En particular, un conjunto de vectores es generador o independiente si y s´ olo si sus coordenadas lo son como vectores de R n .
EJEMPLO 4.102. Determinar las coordenadas de (2 , 3, 5) B = (0, 1, 3), (0, 2, 7), (2, 3, 5) .
{
}
∈R
y de (1 , 3, 6)
⇐⇒
⇐⇒
a + 2b + 3 c = 3 b 4c = 3 c = 1/2
−
−
⇐⇒ −
es decir,las coordenadas del vector (1 , 3, 6) en la base B son (7 /2, 1, 1/2). email
[email protected]
∈R
en la base
(2, 3, 5) en la base B son (0 , 0, 1)
(1, 3, 6) = a(0, 1, 3) + b(0, 2, 7) + c(2, 3, 5) 2a = 1 a + 2 b + 3c = 3 3a + 7 b + 5 c = 6
3
Las coordenadas del vector
(2, 3, 5) = 0(0 , 1, 3) + 0(0 , 2, 7) + 1(2 , 3, 5) Por otra parte,
3
243
c = 1/2 b = 1 a = 7/2
−
βo
ξ £vι
−
−o
ζℏ
so
z
244
EJEMPLO 4.103. En el espacio de polinomios Kn [x], se considera la base B = 1,x,x 2 ,...,x n . Dado un polinomio P (x) = a0 + a 1 x + ... + a n xn , su vector de coordenadas respecto a B es [P ]B = (a0 , a1 ,...,a n ) Kn+1 .
{
}
∈
EJEMPLO 4.104. En el espacio vectorial de polinomios R 3 [x], se considera la base 2
3
{−1, x − 3, (x − 3) , (x − 3) }. Calcular las coordenadas en dicha base del polinomio 2 x − 3x − x + 2. 3
2
´ SOLUCION.Llamando P al polinomio dado, lo podremos expresar como combinaci´ on lineal de los de la base, de la forma
P (x) = a 0 + a1 (x
− 3) + a (x − 3) 2
2
+ a3 (x
3
− 3) ,
∈
en donde los coeficientes aj R son las coordenadas pedidas. Observamos que la coordenada es el valor P (3). As´ı, empezamos evaluando en x = 3 ambas expresiones de P (x), es decir:
P (3) = a 0 = 26. Si ahora derivamos ambas expresiones para P (x), tenemos
P ′ (x) = a 1 + 2 a2 (x
− 3) + 3 a (x − 3) 3
2
= 6x2
− 6x − 1,
igualdad que, al evaluarla en x = 3, nos da:
P ′ (3) = a 1 = 35. Volviendo a derivar y a evaluar en x = 3,
P ′′(x) = 2a2 + 6 a3 (x
− 3) = 12 x − 6, =⇒
P ′′ (3) = 2 a2 = 30,
⇒
=
a2 = 15.
Y, finalmente, derivando una vez m´as,
P ′′′(x) = 6a3 = 12,
⇒
=
a3 = 2.
Luego las coordenadas pedidas son [ P ]B = (26 , 35, 15, 2).
Otra forma de resolverlo : Si desarrollamos
P (x) = a 0 + a1 (x 3) + a2 (x 3)2 + a3 (x 3)3 = a 0 3a1 + 9a2 27a3 + ( a1 6a2 + 27a3 )x + ( a2
−
email
[email protected]
−
−
−
−
244
−
2
− 9a )x 3
+ a3 x3
βo
a0
ξ £vι
−
−o
ζℏ
so
y lo igualamos coeficiente a coeficiente a 2 x3
a1 a0
z
245
2
− 3x − x + 2, obtenemos el sistema lineal a3 = 2 a2 9a3 = 3 6a2 + 27a3 = 1
−
−
− 3a +− 9 a − 27a = 2− 1
2
3
en las inc´ognitas a0 , a1 , a2 , a3 , sistema de matriz triangular cuya sencilla resoluci´ on nos lleva al mismo resultado antes calculado.
♣
{
−
R3 .
}
EJEMPLO 4.105. Hemos visto que B = (1, 1, 0), (1, 0, 1), (2, 1, 1) es una base de As´ı pues, por ejemplo, el vector v = (1, 3, 2)B no es otra cosa que:
−
− − 2(2, 1, 1) = (0 , −1, −5)
v = 1(1 , 1, 0) + 3(1 , 0, 1)
Por otro lado, si queremos escribir el vector u = (1, 0, 3) en coordenadas con respecto a con resolver el siguiente sistema de ecuaciones:
B , basta
−
(1, 0, 3) = a (1, 1, 0) + b(1, 0, 1) + c(2, 1, 1) En este caso, queda a =
−2, b = −1, c = 2, es decir, u = (−2, −1, 2)
B
.
{ −
EJEMPLO 4.106. Para ejemplificar lo expresado, consideremos la base ordenada B = x 1; x + 1; x2 + 1 de 2 (verif´ıquelo). Busquemos las coordenadas de p = x 2 x + 1 en la base B . Para ello es necesario encontrar los escalares r, s y t que verifican
} P
−
p = r (x
2
− 1) + s(x + 1) + t(x
+ 1) .
Operando en el segundo miembro de la igualdad llegamos a la ecuaci´ on
x2
2
− x + 1 = tx + (r + s)t + (−r + s + t). Por lo tanto t = 1, r + s = −1 y −r + s + t = 1. Resolviendo el sistema de ecuaciones, obtenemos r = 0.5,encontrar s = −0.5 fy en t =P1, tal conque lo cual p] v ,=calculamos [−0.5 − 0,f5 = 1] 0.5( . Por dado v x = +1) [0,5 = −para −20.5x 2]+1., [f] [= x −otra 1) −parte, 0.5(x +1)+2( T
T
B
2
2
B
2
Efectuemos ahora la suma de las coordenadas de f con las de p:
u = [f ]B + [p]B = [0 Calculemos el elemento g de
P
2
− 1 3]
.
tal que [ g ]B = u :
g = (x + 1) + 3( x2 + 1) = 3 x2
−
email
[email protected]
T
245
− x + 2.
βo
ξ £vι
−
−o
ζℏ
so
Por otra parte p + f = 3x2
z
246
− x + 2 = g , con lo cual [f ]B + [p]B = [f + p]B .
Ahora multipliquemos el vector de coordenadas de p por 2: T
2[p]B = [ 1 12] = w. que tiene a w como vector de coordenadas:
−−
P q = −(x − 1) − (x + 1) + 2( x
Determinemos el vector q de
2
2
+ 1) = 2 x2
− 2x + 2 = 2 p.
Entonces tenemos que 2[p]B = [2p]B . El u ´ ltimos ejemplo nos sugieren que la suma de los vectores de coordenadas de dos vectores es igual al vector de coordenadas de la suma de esos vectores, y que el producto de un escalar por el vector de coordenadas de un vector es el vector de coordenadas del producto de ese escalar con ese vector. Probemos tal conjetura:
TEOREMA 4.14. Sea V un K-espacio vectorial de dimensi´on finita n y sea B una base de V . Si u, v V , entonces:
∈
1. [u + v ]B = [u]B + [v ]B . 2. [au]B = a [u]B .
{
}
3. Dado un conjunto de vectores S = v1 ,...,v r de V , tendremos que S es linealmente independiente, linealmente dependiente, sistema de generadores o base de V si y s´olo si lo son sus vectores de coordenadas respecto de B en K n . ´ Sea B = v1 ,...,v n una base ordenada de V y sean u y v V . Supongamos DEMOSTRACION. [u]B = [s1 s2 sn ]T y [v ]B = [t1 t2 tn ]T .
{
···
Entonces u = s 1 v1 + s2 v2 + Por lo tanto
···
··· + s v
n n
}
∈
y v = t 1 v1 + t2 v2 +
u + v = (s1 + t1 )v1 + ( s2 + t2 )v2 + con lo cual,
··· + t v . n n
··· + (s
n
+ tn ) v n ,
T
[u + v ]B = [s1 + t1 s2 + t2 Sea ahora a un escalar cualquiera,
au = a (s1 v1 + s2 v2 +
···
s n + tn ] = [ u ] B + [ v ] B .
··· + s v ) = (as )v 1
n n
1
+ ( as2 )v2 +
··· + (as )v n
n
y, por lo tanto, [au]B = [as1 as2
···
asn ]T = a[u]B .
Todo lo dicho hasta aqu´ı puede resumirse en el siguiente email
[email protected]
246
βo
ξ £vι
−
−o
ζℏ
so
{
z
}
247
TEOREMA 4.15. Sea B = v1 ,...,v n una base ordenada de un espacio vectorial V sobre K (K = R ´o C ). Consideremos la aplicaci´on cB : V Kn, definida por cB (v ) = [v ]B . Entonces: 1 1. cB es biyectiva y c− B ([s1 s2
··· s ] n
T
→
) = s 1 v1 + s2 v2 +
··· + s v . n n
∀ ∈ K, ∀u, v ∈ V .
2. cB es lineal, es decir, cB (u + v ) = c B (u) + cB (v ) y cB (au) = ac B (u) a
A la aplicaci´on c B se la denomina usualmente isomorfismo de coordenadas. Como hemos visto reci´en, fija una base ordenada B de V podemos reducir todas las operaciones entre vectores de V a operaciones entre vectores de Kn . M´as a´un, como veremos a continuaci´on, tambi´en es posible determinar la dependencia o independencia lineal de un conjunto de vectores de V a partir de la dependencia o independencia lineal de sus vectores coordenados. ´ 4.14. Sea B = v1 , v2 ,...,v n una base ordenada de un espacio vectorial V PROPOSICION sobre K (K = R ´o C ). Sea u1 , u2,...,u r un conjunto de vectores de V , entonces son equivalentes
{ {
1. u1 ,...,u
{
{
r
}
}
} es linealmente independiente en V . }
2. [u1 ]B , ..., [ur ]B es linealmente independiente en Kn . ´ DEMOSTRACION. Por el Teorema 4.15 tenemos que a1 [u1 ]B +
··· + a [u ] r
r B
=0
⇐⇒
[a1 u1 +
··· + a u ] r
r B
=0
⇐⇒
a1 u 1 +
··· + a u r
r
= 0.
Por lo tanto, la ecuaci´on a1 [u1 ]B + + ar [ur ]B = 0 tiene como ´unica soluci´on a1 = 0,..., ar = 0 si y s´olo si la ´unica soluci´on de la ecuaci´on a1 u1 + + ar ur = 0 es a1 = 0,..., ar = 0. En otras palabras, u1 ,...,u r es linealmente independiente en V si y s´olo si [u1 ]B , ..., [ur ]B es linealmente independiente en K n .
{
···
}
···
{
EJEMPLO 4.107. Determinar si B = 1 + t ; 1 + t dim(P ) = 3 bastar´a con ver si son o no l.i.
{
}
2
2
− t , −1 + 2t − t } es base de P . Como 2
Las coordenadas de los vectores en la base can´ onica de 2 , E = 1; t; t2 son: [1 + t]E = [1 1 0] T , [1 + t t2 ]E = [1 1 1]T y [ 1 + 2t t2 ]E = [ 1 2 1]T . Entonces B es base de 2 si y s´olo si los vectores coordenados son linealmente independientes.
−
−
−
−
−
−
P
{
}
P
Para estudiar la independencia lineal de estos vectores de R 3 disponemos de varios m´etodos; por ejemplo, podemos formar una matriz de 3 3 poniendo cada uno de esos vectores como fila y determinar su rango, si ´este es igual al n´ umero de filas de la matriz, los vectores son linealmente independientes. Apliquemos ese m´etodo a este caso. La matriz con la cual traba jamos es
×
A=
1 1 1 1 1 2
0 1 1
− −− ↔ − ←→ −
Para calcular su rango aplicamos eliminaci´on gaussiana (triangulaci´on):
−
1 1 1 1 1 2
− − ←→ −
email
[email protected]
0 1 1
( 1)f1 + f2 f1 + f3
1 1 0 0 0 3
247
0 1 1
f2
f3
1 1 0 3 0 0
− − 0 1 1
βo
ξ £vι
−
−o
ζℏ
so
z
248
Como el rango de la ´ ultima matriz es 3, el rango de la matriz inicial tambi´en es 3, ya que, como es sabido, en cada paso de triangulaci´on cambia la matriz pero no el espacio fila. Por lo tanto los vectores coordenados son linealmente independientes y B es base de 2 .
P
Otra forma de proceder es la siguiente: como A es cuadrada y s´olo nos interesa saber si su rango es 3, calculamos su determinante, si ´este es distinto de cero entonces rango (A) = 3, en caso contrario rango (A) < 3. Como det( A) = 3, el rango de A es 3 y B es base de 2 .
{
}
P
EJEMPLO 4.108. Sea v1 ; v2 ; v3 ; v4 una base ordenada de un espacio vectorial V . Hallar una base del subespacio S = gen w1 , w2 , w3 , con w1 = v1 + v 2 v 3 , w2 = 2v1 + v 2 + v 4 y w3 = 4v1 + 3 v2 2v3 + v4 .
{
−
}
−
{
}
Para resolver el problema debemos eliminar, si los hay, vectores del conjunto w1 , w2 , w3 que sean combinaci´ on lineal del resto. Para ello trabajamos con las coordenadas de los vectores en la base B: 1 2 4 1 1 3 [w1 ]B = , [w2 ]B = , [w3 ]B = . 1 0 2 0 1 1
−
−
× 4, poniendo como filas
Igual que en el ejemplo anterior armamos una matriz, en este caso de 3 a los vectores coordenados, y aplicamos eliminaci´on gaussiana
− −
1 1 1 0 21 0 1 4 3 2 1
− ←→ ( 1)f1 + f2 f1 + f 3
1 0 0
1
−1 −1
−1 2 2
0 1 1
↔f ←→
f2
3
−
1 1 1 0 0 1 2 1 0 0 0 0
−
Como no se efectu´o ning´un intercambio de filas, podemos concluir que las dos primeras filas de la matriz srcinal son linealmente independientes y que la tercer fila depende linealmente de las dos primeras. Por lo tanto w 1 y w 2 son linealmente independientes y w 3 depende linealmente de estos dos. Luego w1, w2 es base S y dim( S ) = 2.
{
}
{
}
Otra base de S es u1, u2 con u1 y u2 los vectores cuyas coordenadas son las filas no nulas de la ´ultima matriz que obtuvimos al aplicar eliminaci´on gaussiana, ya que, como dijimos en el punto anterior, si bien las matrices que se van obteniendo durante el proceso de triangulaci´ on son distintas, las filas de cada matriz generan el mismo subespacio. Entonces u1 , u2 con
{
u1 = v 1 + v2
−v
3
y u2 =
−v
2
}
+ 2v3 + v4 ,
tambi´en es base de S .
Observaci´ on: Supongamos que tenemos V un espacio vectorial de dimensi´on n y B una base. Entonces, si trabajamos en coordenadas respecto de B , a todos los efectos podemos razonar como si estuvi´esemos en R n. Por ejemplo, supongamos que queremos estudiar si ciertos vectores son linealmente independientes, o sistema de generadores. Basta formar una matriz con las coordenadas respecto a B de los vectores dispues tas por columnas y estudiar su rango, al igual que se hac´ıa en Rn . email
[email protected]
248
βo
ξ £vι
−
4.7.
−o
ζℏ
so
z
249
Matriz de cambio de base
Como hemos visto, dada una base ordenada B de un espacio vectorial V de dimensi´on n podemos identificar cada vector de V con su vector de coordenadas en la base B , y operar con los vectores de V como si estuvi´esemos en Kn . En algunas aplicaciones es p osible que comencemos describi endo un problema usando las coordenadas de los vectores en una base B , pero que su soluci´on se vea facilitada si empleamos las coordenadas de los vectores en otra base ordenada C . Entonces aparece naturalmente el siguiente problema: Dadas las coordenadas de v en la base ordenada B , obtener las coordenadas de ordenada C .
v en la base
Una manera obvia de resolver el problema consiste en hacer lo siguiente: dado [ v ]B obtenemos v combinando los vectores de la base B y luego, a partir de ´este, calculamos [ v ]C . Sin embargo ´esta no es la soluci´on que deseamos, ya que no es implementable en forma computacional, en el sentido que una computadora digital s´olo trabaja con vectores y matrices de n´ umeros. Lo que queremos es obtener las coordenadas de los vectores en la base C efectuando s´olo operaciones algebraicas con las coordenadas de los vectores en la base B . Dado un espacio vectorial V de dimensi´on finita n y dadas dos bases distintas
B = v1 ,...,v
y C = u1 ,...,u
n
,
n
{ } { } queremos determinar la relaci´on entre las coordenadas de un mismo vector
x respecto de las dos
bases. Consideremos las coordenadas de los vectores de B en la base C :
v1 = a11 u1 + a21 u2 + .. . vn = a1n u1 + a2n u2 +
··· + a
u
n1 n
··· + a
u
nn n
∈
Sea w V con coordenadas [ w ]C = (t1 ,...,t n ) y [w ]B = (s1 ,...,s n ) respecto de las bases C y B , esto es, t1 u 1 + + tn u n = w = s 1 v 1 + + tn vn .
···
Entonces
t1 u1 +
··· + t u
n n
···
= s 1 a11 u1 +
··· + a
u
u1 +
n1 n
+
··· + s
n
a1n u1 +
··· + a
u
nn n
Reordenando t´erminos, queda:
t1 u 1 +
··· + t u
n n
De modo que:
= a11 s1 +
··· + a
1n sn
t1 = a11 s1 + a12 y2 + .. . tn = an1 s1 + an2 y2 + email
[email protected]
249
··· +
an1 s1 +
··· + a
s
nn n
un
··· + a
1n sn
··· + a
s
nn n
βo
ξ £vι
−
−o
ζℏ
so
z
250
´ Estas son las ecuaciones de cambio de base de B a C . Si P es la matriz
P =
entonces tenemos que
[w ]C = P [w ]B ,
esto es,
t1 .. . tn
=
a11 .. . a 1n .. . . . . .. . an1 .. . a nn
a11 .. . a 1n .. . . . . .. . an1 .. . a nn
Resumimos todo lo dicho en el siguiente
s1 .. . sn
(4.10)
{ ∈
}
TEOREMA 4.16. Sean B y C bases ordenadas del espacio vectorial V y sea B = v1 , v2 ,...,v n . Entonces, existe una ´unica matriz P M n×n (R) tal que [v ]C = P [v ]B para todo v V . Adem´as, P es la matriz cuyas columnas son los vectores coordenados de los vectores de la base B en la base [vn ]C ]. C , es decir P = [[v1 ]C [v2 ]C
∈
···
A la ecuaci´on (4.10) le denominaremos ecuaci´on matricial del cambio de coordenadas de la base B a la C . A la matriz M que tiene por columnas las coordenadas de los vectores de la base B respecto de la base C se le denomina matriz de cambio de coordenadas de la base B a la base C (o matriz cambio de base de B a C ), escribi´endose P = BC , y nos permite determinar las coordenadas de un vector v en la base C a partir de sus coordenadas en la base B , esto es:
C
[v ]C =
C
BC
[v ]B
C
donde
BC
= [[v1 ]C [v2 ]C
··· [v ]
n C
]
(4.11)
Las siguientes propiedades de las matrices de cambio de bases son de utilidad
TEOREMA 4.17. Sean B , C y D tres bases ordenadas de un espacio vectorial V de dimensi´on finita. Entonces
1. 2.
C
C C
BD
=
BC
es inversible y
CD
BC
−1 BC
=
CB
.
C
CEmpecemos C por el punto 1. Queremos ver que M = C C = C . Para ello es suficiente comprobar que [ v ] = M [v ] para todo v ∈ V , ya que la matriz de cambio de ´ DEMOSTRACION.
CD
D
´ base es Unica. Pero
M [v ]B = (
C C CD
BC
BC
BD
B
)[v ]B =
C (C CD
BC
[v ]B ) =
C
CD
[v ]C = [v ]D .
C
Probemos ahora el punto 2. En primer lugar notemos que BB = I , donde I es la matriz identidad. En efecto, como para todo v V , [v ]B = I [v ]B , nuevamente por la unicidad de las matrices de
∈
email
[email protected]
250
βo
ξ £vι
−
−o
ζℏ
so
C
z
251
cambio de base tenemos que BB = I . Entonces, usando el punto 1 deducimos que −1 CC = I y que CB BC = BB = I y con ello que BC es inversible y BC = CB .
C
C C
C
C
C
C
C C BC
=
CB
Obs´ervese que P es regular y, por tanto, [ x]B = P −1 [x]C , f´ormula que nos da las coordenadas de un vector x en la base B a partir de sus coordenadas en la base C . Escribimos P −1 = CB .
C
EJEMPLO 4.109. Consideremos la base C = 1 x; 1 + x; 1 + x + x2 de 2 y supongamos que deseamos hallar las coordenadas de p (x) = a 0 + a1 x + a2 x2 en la base C . Para resolver el problema podemos proceder de dos maneras: a) plantear la igualdad p (x) = r (1 x) + s(1 + x) + t(1 + x + x2) y resolver las ecuaciones lineales que resulten; b) teniendo en cuenta que B = 1,x,x 2 es la base can´onica de 2 , se tiene que [ p]B = [a0 a1 a2 ]T , calculamos BC y luego obtenemos [ p]C haciendo [p]C = BC [p]B .
{−
} P
−
P
C
C
{
}
C
Sigamos el segundo camino. Para hallar BC podemos hacer dos cosas, calcular los vectores coordenados de los elementos de la base can´onica, 1, x , x 2 , en la base B y luego formar con ellos BC , o, calcular CB para luego, invirtiendo esa matriz, calcular BC . Hag´amoslo de las dos formas.
C
Para calcular [1] B planteamos la igualdad 1 = r (1
C
C
2
− x) + s(1 + x) + t(1 + x + x ),
la que nos lleva, luego de aplicar la propiedad distributiva y agrupar los t´erminos de igual grado, a la igualdad 2
1 = (r + s + t) + ( r + s + t)x + tx y de all´ı al sistema de ecuaciones
−
r+s+t= 1
−r + s + t = 0 t= 0
que tiene por soluci´on r = 0.5, s = 0.5 y t = 0. Entonces [1]B = [0.5 0.5 0] T . Procediendo en la misma forma con x y x2 se obtienen, para [ x]B el sistema
r+s+t= 0
−r + s + t = 1 t= 0
cuya soluci´on es r =
−0.5, s = 0.5 y
t = 0, con lo cual [ x]B = [ 0.5 0.5 0] T , y para x2 el sistema r+s+t= 0
−
−r + s + t = 0 t= 1
email
[email protected]
251
βo
ξ £vι
−
−o
ζℏ
so
z
252 2
T
−1 y t = 1 y por lo tanto [ x ] = [0 − 1 1] . Luego, armamos la matriz C poniendo los vectores coordenados [1] , [x] de esa matriz: 0.5 −0.5 0 C = 0.5 0.5 −1 . cuya soluci´on es r = 0, s =
B
BC
B
C
BC
B
, [x2 ]B como columnas
C C
0 0 1 Como dijimos, tambi´ en podemos hallar BC invirtiendo CB . CB es f´acil de calcular, pues los vectores coordenados de 1 x, 1 + x y 1 + x + x2 en la base can´onica se obtienen directamente y son [1 x]E = [1 1 0]T , [1 + x]E = [1 1 0] T y [1 + x + x2 ]E = [1 1 1] T ,
−
con lo cual
−
−
1 1 1 1 1 1 0 0 1 obtenemos nuevamente
C
=
CB
Entonces, invirtiendo
C
CB
C Para finalizar, una vez calculada [p]C =
C
BC
−
[p]B =
=
BC
− −
0.5 0.5 0
−0.5
0
0.5 0
1 1
.
hallamos [ p]C haciendo, como ya dijimos,
BC
C
−0.5
0.5 0.5 0
0.5 0
0
1 1
a0 a1 a2
=
−
0.5a0 0.5a1 0.5a0 + 0.5a1 a2 a2
−
.
EJEMPLO 4.110. Dada la base C de R3 formada por los vectores u1 = (1, 1, 1), u2 = (0, 1, 1), u3 = (1, 0, 1), encontrar la base B = v1 , v2 , v3 tal que las ecuaciones del cambio de coordenadas vengan dadas por: 2s3 t1 = s1 t2 = s2 + 5s3 t3 = s1 3s3
{
}
− −
−
´ SOLUCION.Sean [ x]C = (t1 , t2 , tn ) y [x]B = (s1 , s2 , sn ) las co ordenadas de un vector cualquie ra x respecto de las bases C y B , respectivamente. Las ecuaciones dadas se pueden escribir en forma matricial como 1 0 2 [x] = P [x] , C
B
siendo P =
− −01 −53
− − −
0 1 por lo que P es la matriz del cambio de base. En consecuencia, la nueva base ser´ a:
v1 v2 v3 = u1 u2 u3 P =
− −
1 0 1 1 1 0 1 1 1
−
1 0 1
Es decir, v1 = (2, 1, 2), v 2 = (0, 1, 1), v 3 = ( 5, 3, 0). email
[email protected]
252
0 1 0
2 5 3
=
2 1 2
0 1 1
− −
−5 3 0
♣
βo
ξ £vι
−
−o
4.8.
ζℏ
so
z
253
Suma de Subespacios y Suma directa
∩
TEOREMA 4.18. F G es un subespacio vectorial de E . La uni´on de F y G, podemos definirla como: F G F + G = u + v u F, v G y es el m´ as peque˜no de los subespacios que contienen F y G.
∪ ≈
{
| ∈
∈ }
TEOREMA 4.19 (F´ormula de Grassman). Sean F dim(F + G) + dim( F G).
∩
⊂ E y G ⊂ E , entonces dim F +dim G =
TEOREMA 4.20. Si (F G) = 0 dim F + G = F G, es decir, es suma directa si la expresi´ on de un vector como suma de uno de F y uno de G es unica. ´ Adem´as, si dim E es finita, se tiene que: E = F G.
∩
{ }⇒
⊕
⊕
´ 4.13. Suma de subespacios: Sea V un espacio vectorial. se llama suma de los DEFINICION subespacios V 1 , V2 ,...,V n de V , (y se denota como V1 + V2 + ... + Vn ) al subconjunto de vectores W definido por:
{ ∈ V : ∃, v ∈ V , v ∈ V ,...,v ∈ V
W= v
1
1
2
2
n
n
, v = v 1 + v2 + ... + vn
}
TEOREMA 4.21. La suma de subespacios de V es un subespacio de V . ´ DEMOSTRACION.
Es f´acilque verelque 0 uWse, puede porquedescomponer 0=0+ + 0 ysuma 0 de Vi un i= 1, 2,...,n Tambi´ en es sencillo verificar vector como vector de . V1 , uno de V2 , , uno de Vn ; entonces λu tambi´en se descompone de esa forma. Es claro que W es cerrado con respecto al producto por escalares. Para verificar que W es cerrado respecto a la suma sean u y u’ tales que u = v1 + v 2 + ... + v n y u′ = v1′ + v 2′ + ... + v n′ con v1 y v1′ V1 ; v2 y v2′ V2 ; ... ; vn y vn′ Vn . Entonces u + u′ = (v1 + v1′ ) + (v2 + v2′ ) + ... + (vn + vn′ ), donde v1 + v1′ V1 ; v2 + v2′ V2 ; ... ; vn + vn′ Vn , porque V1 , V2 ,...,V n son subespacios.
∈
···
∈
∈
∈
∈
···
∈ ∀
∈
∈
´ 4.14. Suma directa: Dados los subespacios V1 , V2 ,...,V n , el subespacio suma de DEFINICION ellos se llama suma directa cuando todo vector de ´el puede expresarse de forma unica ´ como suma de vectores de los subespacios V1 , V2 ,...,V n . Cuando la suma es directa se representa V1 V2 ... Vn .
⊕ ⊕ ⊕
EJEMPLO 4.111. Sean en R3 los subespacios V1 = (a1 , a2 , a3 ) : a 3 = 0 y V2 = (a1 , a2 , a3 ) : a1 = 0 . Todo vector de R 3 se puede escribir como suma de un vector de V 1 y uno de V 2 , pero no de forma u ´ nica: (1, 1, 1) = (1 , 1, 0) + (0 , 0, 1)
{
}
{
}
(1, 1, 1) = (1 , 1/2, 0) + (0, 1/2, 1) Entonces la suma de V1 y V 2 es todo R 3 . Pero esta suma no es directa.
⊕ ⊕ ⊕ ∪ ∪ ∪
TEOREMA 4.22. Si V = V1 V2 ... Vn y si B1 , B2 ,...,B n son las bases de V1 , V2 ,...,V n , respectivamente entonces: B = B 1 B2 ... Bn es una base de V .
email
[email protected]
253
βo
ξ £vι
−
−o
´ DEMOSTRACION.
ζℏ
so
z
254
Probaremos que B genera a V , y que B es linealmente independiente
Todo vector de V es suma de vectores de V 1 , V2 ,...,V n , y a su vez, estos son combinaciones lineales de sus respectivas bases. Entonces V es combinaci´on lineal de la uni´on de esas bases, que es B. Hemos probado que todo vector de V es combinaci´on lineal de B ,o sea B genera a V . Veremos que B es linealmente independiente. Sea B1 = v11 , v12 ,...,v 1p ; B2 = v21 , v22 ,...,v 1p ; Bn = vn1 , vn2 ,...,v np . Tomemos una combinaci´on lineal de B igualada a 0: a11 v11 + a12 v12 + ... + a1p v1p + a21 v21 + a22 v22 + ... +a2p v2p + ... + an1 vn1 + an2 vn2 + ... + anp vnp = 0; como 0 V y V = V 1 V2 ... Vn , existe una ´unica manera de expresar el vector nulo como suma de vectores de V1 , V2 ,...,V n . Esa ´unica manera tiene que ser entonces 0 = 0 + 0 + 0 + ... + 0. 1
{
n
2
}
1
{
1
n
2
2
}
{
∈
n
} ··· ⊕ ⊕ ⊕
La combinaci´on lineal de m´as arriba implica entonces que:
a11 v11 + a12 v12 + ... + a1p v1p = 0 1
1
a21 v21 + a22 v22 + ... + a2p v2p = 0 2
2
···
an1 vn1 + an2 vn2 + ... + anp vnp = 0. n
n
Siendo B1 una base de V 1 , se tiene que B 1 es linealmente independiente, y de la primera igualdad 12 = ... = a 1n = 0. An´alogamente para los dem´as coeficientes aij . de mas arriba se deduce a11que = aB Entonces tenemos probado es linealmente independiente
COROLARIO 4.6. Si V es suma directa de V1 , V2 ,...,V
n
entonces
dimV = dimV1 + dimV2 + ... + dimVn ´ DEMOSTRACION.
Es inmediata a partir de la definici´on de dimensi´on y del teorema anterior.
∩
TEOREMA 4.23. Sean V 1 y V 2 dos subespacios de V tales que V = V 1 + V2 . Entonces, V 1 V2 =
{0} si y s´olo si V = V ⊕ V . (⇒) Supongamos v = v + v y v = v + v Luego, v − v = v − v ∈ V y V , por lo que , por hip´otesis v − v 1
2
´ DEMOSTRACION. 1
′
1
2
1
′
2
1
2
2
′
′
1
1
′
con v1 , v1′ V1 , v2 , v2′ V2 . ′ v2 = 0, lo que prueba 1 = v2 2
′
−
que la suma es directa.
∈
∈
( ) Sea v V1 V2 luego v V 1 V2 . Por lo tanto: 0 = v + ( v ) = 0 + 0 y por definici´on de suma directa, 0 = v = v . Entonces V1 V2 = 0 .
⇐
∈ ∩
email
[email protected]
− − ∈ ∩∩
{}
254
−
βo
CAP´ITULO 5
Transformaciones lineales
5.1.
Introducci´ on
El concepto de linealidad es muy intuitivo y aparece en m´ ultiples situaciones de la vida cotidiana. As´ı, si una persona, efectuando un trabajo “ x” percibe un salario T (x), trabajando el doble, por ejemplo, cabe esperar que su salario tambi´en se duplique, es decir: T (2x) = 2T (x). Si realiza un trabajo extra “ y ”, sus ingresos ser´an la suma de los salarios percibidos por ambas ocupaciones: T (x + y ) = T (x) + T (y ) Las dos propiedades anteriores que van a caracterizar las aplicaciones o transformaciones lineales entre espacios vectoriales, se llaman condiciones de linealidad. Nos centraremos en el estudio de las transformaciones lineales de un espacio vectorial en s´ı mismo, son las llamadas endomorfismos. Una vez fijada una base en el espacio vectorial, a cada endomorfismo le asociaremos una matriz cuadrada de forma un´ıvoca. Hablaremos indistintamente de un endomorfismo o de su matriz asociada. Analizaremos bajo qu´e condiciones existe una base del espacio vectorial tal que la matriz asociada al endomorfismo respecto de dicha base sea una matriz diagonal, con la que es mucho m´as sencillo operar. Se demostrar´a el teorema de la dimensi´on del n´ucleo y la imagen, enfatizar´a las cuestiones relativas a inyectividad y sobreyectividad de las transformaciones, y se discutir´ an las matrices asociadas y cambios de base. A lo largo del tema, V y W ser´an dos espacios vectoriales de tipo finito sobre el mismo cuerpo conmutativo K .
´ 5.1 (Transformacion Lineal). Sean V y W dos espacios vectoriales. T : V DEFINICION W se llama transformacion lineal si 255
→
ξ £vι
−
−o
ζℏ
so
1. T ( u + v ) = T ( u) + T ( v ) , para todo u, v 2. T ( au) = aT ( u) , para todo a
z
256
∈V
∈ R y para todo u ∈ V
Nota Ambas condiciones anteriores son equivalentes a la siguiente condici´ on u ´ nica:
T (ax + by ) = aT (x) + bT (y ),
∀a, b ∈ K, ∀x, y ∈ V
Nota Empleando el m´etodo de inducci´on, se demuestra que si f es una aplicaci´on lineal, entonces:
T (a1 x1 +
··· + a x ) = a T (x ) + ··· + a T (x ), ∀a ∈ K, ∀x ∈ V, 1
p p
1
p
p
i
i
i = 1, 2,...,p
Veamos algunos ejemplos de transformaciones lineales
EJEMPLO 5.1. Sean V = W = K = R, siendo R el conjunto de numeros reales con su estructura correspondiente en cada caso (de espacio vectorial o de cuerpo). La aplicaci´ on T : R R, x 3 x es lineal.
→
´ SOLUCION.En efecto, para cualesquiera x, y
∈V
yλ
T (x + y ) = 3( x + y ) = 3x + 3y = T (x) + T (y ),
→
∈ K , se verifican las dos condiciones: T (λx) = 3( λx) = λ (3x) = λT (x)
EJEMPLO 5.2. Sean de nuevo, V = W = K = R. La aplicaci´on T : R lineal.
→ R, x → x
2
no es
´ SOLUCION.De hecho no cumple ninguna de las dos condiciones de linealidad:
T (x + y ) = (x + y )2 = x 2 + y 2 + 2 xy, T (x) + T (y ) = x 2 + y 2
Luego, en general, T (x + y ) = T (x) + T (y ). Por otro lado
T (λx) = (λx)2 = λ 2 x2 ,
Por tanto, T (λx) = λT (x), salvo para λ = 0, λ =
λT (x) = λx 2
±1 o x = 0.
EJEMPLO 5.3. Sea T : R2 R2 tal que ( x, y ) (x, 0) . Vista geometricamente esta transformaci´on toma un vector y le proyecta en el eje x. Vamos a demostrar que T es trasformaci´on lineal. Para ello demostramos primero la propiedad 1 de la definici´ on. Vamos a calcular ambos lados de igualdad por separado y compararlos. Sean u = (u1 , u2 ) y v = (v1 , v2 ) dos vectores en R 2 , entonces T ( u + v ) = T ( u1 + v1 , u2 + v2 ) = (u1 + v1 , 0)
→
→
El lado derecho por otro lado esta dado por (aplicando la definici´ on de T )
T ( u) + T ( v ) = (u1 , 0) + ( v1 , 0) = ( u1 + v1 , 0) email
[email protected]
256
βo
ξ £vι
−
−o
ζℏ
so
z
257
Vemos que los dos lados coinciden. Ahora demostramos la propiedad 2
T ( au) = T ( au1 , au2 ) = (au1 , 0) El lado derecho nos da
aT ( u) = a (u1 , 0) = ( au1 , 0) Hemos comprobado que T es una trasformaci´on lineal.
EJEMPLO 5.4. La transformaci´on identidad dada en cualquier espacio vectorial I : V que I ( u) = u.
→ V tal
EJEMPLO 5.5. La operaci´on diferenciaci´on es una trasformaci´on lineal. Sea C 1 (R) el conjunto de todas las funciones diferenciables con dominio en R y C 0 (R) el conjunto de funciones continuas con dominio en R. Sea D la operaci´on derivada:
D f
:
→
C 1 (R) C 0 (R) Df = f ′
→
Para mostrar que D es lineal basta recordar las dos propiedades fundamentales de la derivada
D (f + g ) = (f + g )′ = f ′ + g ′ D (cf ) = (cf )′ = cf ′ , donde
∈R EJEMPLO 5.6. Sea C ([a, b], R) = {f : [a, b] → R : f es continua}. El operador integraci´on 0
T : C 0 ([a, b], R)
→R
dada por
T (f ) =
b
f (t)dt a
es una transformaci´on lineal, en efecto: La integral de la suma coincide con la suma de integrales:
b
(f (x) + g (x))dx = a
b
f (x)dx + a
b
f (x)dx a
Adema´a, la integral del producto de una constante por una funci´ on es igual a la constante por la integral de la funci´on, es decir, las constantes que se multiplican o dividen se pueden sacar fuera
del signo integral: donde k es una constante.
b
kf (x)dx = k a
b
f (x)dx a
→
EJEMPLO 5.7. Sea T : R R, T ( x) = sen x no es una transformaci´on lineal puesto que T ( x + y ) = s en ( x + y ) = sen x + sen y.
email
[email protected]
257
βo
ξ £vι
−
−o
ζℏ
so
z
258
EJEMPLO 5.8. Es posible encontrar una formuala generica para toda transformci´ on lineal de R en R ? Observemos que x = 1x para x R. Por tanto si T es transformaci´on lineal:
∈
T ( x) = T (1 x) = xT (1) esto quiere decir que el valor de T ( x) es siempre una constante (igual a T (1) ) por x. Por tanto toda transformaci´on lineal de R en R tiene la forma T ( x) = cx donde c es un numero real cualquiera.
EJEMPLO 5.9. Demostrar que si T :V W es transformaci´on lineal, entonces T (O ) = O ′ ′ donde O es el neutro en V y O es el neutro en W. Sugerencia escribir O = 0O
→
EJEMPLO 5.10. Sea T : P 2 lineal aplicamos la definici´on:
→P
3
tal que T ( p (x)) = xp (x) + x2 p′ (x) . Para mostrar que T es
T ( p (x) + q (x)) = x (p (x) + q (x)) + x2 (p (x) + q (x))′ = xp (x) + x2 p′ (x) + xq (x) + x2 q ′ (x) = T ( p (x)) + T ( q (x)) Ademas
T ( ap (x)) = x(ap (x)) + x2 (ap (x))′ = axp (x) + x2 ap′ (x) Por tanto T es transformaci´on lineal.
EJEMPLO 5.11. Supongamos que i = (0, 1), j = (0, 1), T : R2 R3 de forma que T ( i) = 2i j y que T ( j ) = 3i + j. Encontrar el valor de T (3 , 5) y generalizar cual es el valor de T ( x, y ) .
→
Vamos a aprovechar el hecho de que T es lineal para calcular el valor de vector en terminos de i y j
T (3 , 5) = = = = =
T (3 i + 5 j ) 3T ( i) + 5T ( j ) 3( 2 i j ) + 5 (3 i + j ) 21i + 2 j (21 , 2)
T (x, y ) = = = = =
T ( xi + yj ) xT ( i) + yT ( j ) x (2i j ) + y (3i + j ) (2x + 3 y )i + ( x + y )j (2x + 3 y, x + y )
−
T (3, 5) expresando el
−
En general
email
[email protected]
−
−
258
−
βo
ξ £vι
−
−o
ζℏ
so
z
259
Este ejercicio nos muestra un hecho importante: Una transformaci´on lineal queda determinada por el valor que toma en la base del conjunto de salida.
→ }
{
TEOREMA 5.1. Sea T : V W una transformaci´on lineal. Sean B V = v1 , v2 ,...,v de V y BW = w1 , w2 ,...,w m una base de W . Si w W, y
{
u = α 1 u1 + α2 u2 +
∈
··· + α u
n n
n
} una base
los valores de T ( ui ) = w i esta dados
entonces T ( u) = α 1 w1 + α2 w2 + ..... + αn wn ´ DEMOSTRACION.
T (u) = T (α1 u1 ) + T (α2 u2 ) +
··· + T (α u ) = α T (u ) + α T (u ) + ··· + α T (u ) 1
n n
1
2
2
n
n
´ 5.2 (Tipos de transformaciones lineales). Sea T una transformaci´on lineal DEFINICION de V en W . T es un monomorfismo cuando es inyectiva. T es un epimorfismo cuando es suprayectiva. T es un isomorfismo cuando es biyectiva. Si V = W , T es un endomorfismo de V . Si T es biyectiva y V = W , T es un automorfismo. TEOREMA 5.2. Salvo isomorfismos, el ´ unico K -espacio de dimensi´on n 1 es K n . M´ as exactamente, si V es un K -espacio de dimensi´on n 1, entonces V es sisomorfo a K n . ´ DEMOSTRACION.
{ →
≥
}
≥ }
{
Sea X = x1 ,...,x n una base de V y C = e1 ,...,e n la base can´onica de K n . Las funciones t : X C dado por t(xi ) = ei , s : C X dado por s(ei ) = xi con 1 i n, inducen de manera ´unica transformaciones lineales T : V Kn y S : Kn V que coinciden con t en X y s en C , respectivamente. Las transformaciones S T y T S son tales que S T (xi ) = xi y T S (ei ) = ei , para cada 1 i n. Nuevamente, por el Teorema 2, S T = IV y T S = I K . Esto indica que T es un isomorfismo y la prueba ha terminado.
≤ ≤
→
→
→
≤ ≤
n
Debido a este isomorfismo, se “identifican” con frecuencia los espacios vectoriales de dimension n con K n y se hace equivaler cada vector v con sus coordenadas respecto de una determinada base B.
−
LEMA 5.1. Consecuencias de la definici´on de aplicaci´on lineal: 1) T (0V ) = 0V . 2) T ( x) =
−T (x) para cada x ∈ V . ´ DEMOSTRACION.
V V V V 1. Por ser T lineal, se verifica T (0V )T (0 = V T) (0 Restando T (0V ) en ambos miembros, se obtiene por fin que = 0V+. 0 ) = T (0 ) + T (0 ).
−
2. Para demostrar que los vectores T ( x) y T (x) son opuestos, comprobemos que al sumarlos se obtiene el vector 0 V : T ( x) + T (x) = T ( x + x) = T (0V ) = 0V
−
−
aplicando que T es lineal y la consecuencia 1 reci´en demostrada. A partir de este momento, escribiremos 0 para referirnos tanto 0 email
[email protected]
259
V
como a 0 W .
βo
ξ £vι
−
5.2.
−o
ζℏ
so
z
260
N´ucleo e imagen de una aplicaci´ on lineal
Podemos asociar a cada aplicaci´on lineal T sendos subespacios vectoriales de V y W respectivamente, que juegan un papel importante en el estudio de la aplicaci´ on; son los llamados n´ucleo e imagen de T .
´ 5.3. Llamamos nucleo de la aplicaci´on lineal T : V DEFINICION W , y lo representamos por N (T ), al sistema de vectores de V cuya imagen es el 0. Es decir, N (T ) = x V : T (x) = 0
→
{ ∈
}
La imagen de T , en cambio, es el sistema de vectores de W que son imagen de alg´un vector de V . Lo representamos por Im(T ): Im(T ) = y W : x V con T (x) = y
{ ∈
∃ ∈
}
Busquemos el n´ucleo y la imagen de algunas de las aplicaciones lineales expuestas anteriormente como ejemplos.
EJEMPLO 5.12. N´ucleo e imagen de la aplicaci´on del ejemplo 5.1: T : R
→ R x → 3x.
´ SOLUCION.Por definici´on de n´ucleo, x N (T ) si y solo si T (x) = 3x = 0; es decir, si y solo si x = 0. Luego, N (T ) = 0 . Para todo y R, se verifica que y = T (y/ 3), luego, Im( f ) = R
{}
∈
TEOREMA 5.3. Sea T : V
∈
W una aplicaci´on lineal. Se verifican las siguientes propiedades:
→
1 Si F es un subespacio vectorial de V , entonces T (F ) es un subespacio vectorial de W . 2 Si G es un subespacio vectorial de W , entonces T −1 (G) es un subespacio vectorial de V . 3 El n´ucleo de T es un subespacio vectorial de V . 4 La imagen de T es un subespacio vectorial de W . 5 Si S es un sistema generador de V , entonces, T (S ) es un sistema generador de Im (f ). 6 Si S es un conjunto linealmente dependiente de V , entonces, T (S ) es un conjunto linealmente dependiente de W . 7 Si R es un conjunto linealmente independiente de W , entonces, T −1 (R) es un conjunto linealmente independiente de V . ´ DEMOSTRACION.
1 Sean x′ , y ′ vectores de T(F). Existen entonces vectores x, y de F tales que T (x) = x ′ y T (y ) = y ′ . Sean λ, µ escalares de K . Por ser T lineal se verifica:
λx′ + µy ′ = λT (x) + µT (y ) = T (λx + µy ) Como F es un subespacio vectorial de V , el vector λx + µy y pertenece a F , luego, su imagen λx′ + µy ′ pertenece a T (F ). Esta probado pues que T (F ) es un subespacio vectorial de W . email
[email protected]
260
βo
ξ £vι
−
−o
ζℏ
so
z
261
2 Sean x, y vectores de T −1 (G). Sus im´agenes T (x), T (y ) son vectores de G. Sean λ, µ escalares de K . Por ser G un subespacio vectorial de W , se verifica que λT (x) + µT (y ) G. Como T es lineal, lo anterior es equivalente a escribir T (λx + µy ) G. Luego, λx + µy T −1 (G). Por tanto, T −1 (G) es un subespacio vectorial de V .
∈ ∈
∈
3 Por definici´on, es N (T ) = T −1 ( 0 ). Como 0 es un subespacio vectorial de W , aplicando la propiedad 1.7.2, se obtiene que N (T ) es un subespacio vectorial de V .
{}
{}
4 Por definici´on, es Im( T ) = T (V ). Como V es un subespacio vectorial de V , aplicando la propiedad 1.7.1,se obtiene que Im( T ) es un subespacio vectorial de W .
{
}
∈
5 Sea S = x1 , x2 ,...,x p un sistema generador de V . Sea y Im( T ). Existe un vector x que T (x) = y . Como S engendra V , existen escalares λ1 , λ2 ,...,λp , tales que
x = λ 1 x1 + λ2 x2 +
∈V
tal
··· + λ x
p p
As´ı, aplicando que T es lineal, se tiene que
y = T (x) = T λ1 x1 + λ2 x2 +
··· + λ x
p p
= λ 1 T (x1 ) + λ2 T (x2 ) +
··· + λ T (x ) p
p
Luego, cualquier vector y de Im( T ) es combinaci´on lineal de los vectores T (x1 ), T (x2 ),...,T (xp ) y, consecuentemente T (S ) es un sistema generador de Im( T ).
{
}
6 Sea S = x1 , x2 ,...,x p un conjunto linealmente dependiente de V . Existen entonces escalares λ1 , λ2 ,...,λp no todos nulos tales que λ1 x1 + λ2 x2 + + λp xp = 0. Usando que T es lineal, se obtiene:
T λ1 x1 + λ2 x2 +
···
··· + λ x
p p
{
= λ 1 T (x1 ) + λ2 T (x2 ) +
··· + λ T (x ) = T (0) = 0 p
p
}
Luego T (S ) = T (x1 ), T (x2 ),...,T (xp ) es ligado.
7 Sea R un conjunto linealmente independiente de W . Si T −1 (R) fuera ligado, existir´ıa un vector x T −1 (R) que seria combinaci´on lineal de ciertos vectores x 1 , x2 ,...,x p de T −1 (R). Es decir, existirian escalares λ1 , λ2 ,...,λp de K tales que x = λ 1 x1 + λ2 x2 + + λp xp . As´ı,
∈
T (x) = T λ1 x1 + λ2 x2 +
··· + λ x
p p
···
= λ 1 T (x1 ) + λ2 T (x2 ) +
··· + λ T (x ) p
p
Luego, T (x) seria combinaci´on lineal de T (x1 ), T (x2 ),...,T (xp ), perteneciendo estos p + 1 vectores a R que era un conjunto linealmente independiente. Hemos llegado al absurdo suponiendo que T −1 (R) era ligado. En consecuencia, T −1 (R) es linealmente independiente.
{
}
COROLARIO 5.1. Si B = x1 , x2 ,...,x p es una base de V , puede obtenerse una base de Im( T ) a partir del sistema de vectores de Im( T ), T (B ) = T (x1 ), T (x2 ),...,T (xp ) , eliminando del mismo los vectores que sean combinaci´on lineal de los dem´as.
email
[email protected]
{
261
}
βo
ξ £vι
−
−o
´ DEMOSTRACION.
ζℏ
so
z
262
Este resultado es una consecuencia inmediata del teorema 5), ya que cualquier base de V es por definici´on un sistema generador de V . A partir de la siguiente proposici´ on, observemos c´omo las im´agenes de los vectores de una base de V determinan de forma ´unica la aplicaci´on lineal.
PROPOSICION ´ 5.1. Una aplicaci´on lineal queda determinada si se conocen las im´ agenes de los vectores de una base. Es mas: Sea B = x1 , x2 ,...,x n una base del espacio vectorial V . Sea S = y1 , y2 ,...,y n un sistema cualquiera de vectores del espacio vectorial W . Existe una ´unica aplicaci´ on lineal T : V W tal que T (xi ) = y i, i = 1, 2,...,n .
{
{
}
´ DEMOSTRACION.
}
→
Para cada vector x = λ1 x1 + λ 2 x2 +
1, 2,...,n , definimos:
T (x) = λ 1 y1 + λ2 y2 +
··· + λ x
n n
de V , con λi
∈ K, i =
··· + λ y
n n
Se verifica: 1. T (xi ) = y i , i = 1, 2,...,n , por la propia definici´on de T . 2. T es lineal: Sean x, z i = 1, 2,...,n , tales que
∈V
λ, µ
∈ K . Por ser n
x=
n
λi xi ,
z=
i=1
µi xi i=1
∈ K,
B una base de V , existen escalares λi , µi
n
As´ı, λx + µz =
λλi + µµi xi , y, por definici´on de T se tiene que
i=1
n
T λx + µz =
n
λλi + µµi yi = λ
i=1
n
λi yi + µ
i=1
µi yi = λT (x) + µT (z )
i=1
Luego, T es lineal.
→
3. T es u ´ nica: Sea G : V W otra aplicaci´on lineal tal que G(xi ) = yi , i = 1, 2,...,n ,. Para cualquier vector x = λ 1 x1 + λ2 x2 + + λn xn de V , con λi K , i = 1, 2,...,n , por ser G lineal, se verifica que
···
G(x) = λ 1 G(x1 ) + λ2 G(x2 ) +
∈
··· + λ G(x ) = λ y n
n
1 1
+ λ2 y2 +
··· + λ y
n n
= T (x)
por la propia definici´on de T .
Probemos ahora un par de resultados relativos a los subespacios n´ ucleo e imagen de T , al segundo de los cuales nos hemos referido ya anteriormente.
´ 5.2. Una aplicaci´on lineal T de V en W es inyectiva si y solo si N (T ) = 0 . PROPOSICION ´ DEMOSTRACION.
⇒
{}
(= ) Condici´on necesaria: Supongamos que T es inyectiva. Si existiera un vector x N (T ) tal que x = 0, tendr´ıamos dos vectores diferentes con la misma imagen, T (x) = T (0) = 0, lo cual es absurdo ya que, por hip´ otesis, T es inyectiva. Por tanto, N (T ) = 0
∈
email
[email protected]
262
βo
{}
ξ £vι
−
−o
ζℏ
so
⇐
z
263
{} − ∈
∈
( =) Condici´on suficiente: Supongamos ahora que N (T ) = 0 . Sean x, y V tales que T (x) = T (y ). Por ser T lineal, T (x y ) = T (x) T (y ). Luego x y N (T ). Consecuentemente, por hip´otesis, x y = 0, es decir x = y . Y esta probado que T es inyectiva.
−
−
−
´ 5.3. Sea T : V PROPOSICION
W una aplicaci´on lineal. Se verifica que
→
dimV = dim N (T ) + dimIm(T ). ´ DEMOSTRACION.
{
}
Supongamos que dim V = n y que dim N (T ) = p . Sea BN = x1 , x2 ,...,x p una base de N (T ). Completamos BN hasta obtener una base B de V , B = x1 , x2 ,...,x p , xp+1 , xp+2 ,...,x Demostremos que BI = T (xp+1 ), T (xp+2 ),...,T (xn ) es una base de Im( T ). En efecto: Sea y Im(T ). Sea x V tal que T (x) = y . Por ser B una base de V , existen escalares λ1 , λ2 ,...,λn de K tales que x = λ 1 x1 + λ2 x2 + + λn xn .
∈
{
∈
Como T es lineal, se tiene que
{
}
···
T (x) = λ 1 T (x1 ) + λ2 T (x2 ) +
··· + λ T (x ). n
n
Pero, por ser x1 , x2 ,...,x p vectores de N (T ), sus im´agenes mediante T son el vector 0, luego
y = T (x) = λ p+1T (xp+1 ) + λp+2 T (xp+2) +
··· + λ T (x ). n
n
Queda as´ı demostrado que BI engendra Im( T ). Veamos ahora que BI es linealmente independiente. Si αp+1T (xp+1 )+αp+2 T (xp+2)+
···
···+α T (x ) = n
n
0, como T es lineal, se tendr´a que T αp+1xp+1 + α p+2 xp+2 + + α n xn = 0. Luego, el vector αp+1 xp+1 + α p+2xp+2 + + α n xn N (T ) y se puede escribir como combinaci´ on lineal de los vectores de BN :
···
∈
αp+1xp+1 + αp+2xp+2 +
··· + α x
n n
= β 1 x1 + β2 x2 +
··· + β x
p p
es decir,
β1 x1 + β2 x2 +
···
··· + β x − α x − α x −···− α x = 0, =α = ··· = α = 0 por ser B una base de V y, por tanto, un p p
As´ı, β1 = β 2 = = β p = α p+1 p+2 conjunto linealmente independiente.
5.3.
p+1 p+1
p+2 p+2
n n
n
La matriz de una transformaci´on
De ahora en adelante, a lo largo del tema consideraremos V = W , con dimV = n . Es decir, vamos a estudiar los endomorfismos de un espacio vectorial V .
→
Dada una transformaci´on lineal T : V V , una vez fijada una base B de V , podemos asociar a T , una matriz A Mn (K) que determina T de forma ´unica, A = [T ]B . En efecto: sea B = u1 , u2,...,u n una base del espacio vectorial V . Si un vector x tiene de coordenadas ( x1 , x2 ,...,x n )
{
}
∈
email
[email protected]
263
βo
n
}.
ξ £vι
−
−o
ζℏ
so
respecto de la base B , esto es [ x]B = [x1 x2 T (x) respecto de la base B ?
T (x) = T x1 u1 + x2 u2 +
··· x ] n
··· + x u n
n
por ser T lineal. Supongamos que
T (u1) = a 11 u1 + a12 u2 + T (u2) = a 21 u1 + a22 u2 + ...... T (un ) = a n1 u1 + an2 u2 +
z
T
264
, ¿cuales son las coordenadas ( y1 , y2 ,...,y n ) de
= x 1 T (u1 ) + x2 T (u2) +
··· + a ··· + a
··· + x T (u ) n
1n un ,
[T (u1 )]B = [a11 a12
2n un ,
[T (u2 )]B = [a21 a22
··· + a
u ,
∈ K, i = 1,...,n , j = 1,...,n . Se tiene entonces que: T (x) = x T (u ) + x T (u ) + ··· + x T (u ) =x a u +x a u + ··· + x
1n ]
T
2n ]
T
··· a ··· a
[T (un )]B = [an1 an2
nn n
n
··· a
nn
]T
para ciertos a a ij
1
1
2
2
n
n
1
1j j
2
2j j
j =1
n
j =1
n
n
xi ai1 u1 +
=
y1 = x 1 a11 + x2 a21 + y2 = x 1 a12 + x2 a22 + .... .. yn = x 1 a1n + x2 a2n +
n
anj uj
j =1
xi ain un
+
···
i=1
n
xi ai2 u2 +
i=1
Por tanto,
n
n
i=1
··· + x a ··· + x a
n n1 n n2
··· + x a
n nn
estas son las ecuaciones o la expresi´ on anal´ıtica de T respecto de la base B . Conociendo [ x]B = (x1 , x2 ,...,x n ), las ecuaciones anteriores permiten calcular [ T (x)]B = (y1 , y2,...,y n ). Estas ecuaciones pueden escribirse en forma matricial:
esto es
y1 y2 .. . yn
=
a11 a21 a12 a22 .. .. . . a1n a2n
.. . a n1 .. . a n2 . .. . .. .. . a nn
x1 x2 .. . xn
···
[T (x)]B = [T (u1 )]B [T (u2 )]B email
[email protected]
264
[T (un )]B [x]B
βo
ξ £vι
−
−o
ζℏ
so
Definamos
z
265
···
[T ]B = [T (u1 )]B [T (u2 )]B
[T (un )]B
Esta matriz se la llama matriz asociada a T respecto de la base B ; y tiene por columnas a las im´agenes de los vectores de la base B expresadas en la misma base B . Por tanto
[T (x)]B = [T ]B [x]B .
EJEMPLO 5.13. Consideremos el espacio vectorial V = R2 sobre el cuerpo K = R. Sea T : R2 R2 , T (x, y ) = (2 x, y 3x).
→
−
´ SOLUCION.La matriz A asociada a T respecto de la base can´ onica tendr´a por vectores columna:
−
−
c1 = T (1, 0) = (2 , 3) = 2(1 , 0) 3(0, 1) c2 = T (0, 1) = (0 , 1) = 0(1 , 0) + 1(0 , 1)
− − −
2 0 . Y dado, por ejemplo, el vector (1 , 2) ¿quien sera T (1, 2)? T (x, y ) = 3 1 ′ x 2 0 1 2 A(x, y ), es decir, y ′ = 3 1 2 = 1 . Luego T (1, 2) = (2 , 1). Cabe observar que cuando la base que manejamos es la can´ onica , se puede proceder de otra forma muy sencilla para el calculo de A: Es claro que Es decir, A =
−
x′ = 2x y ′ = y 3x
−
por definici´on de T ; lo que es equivalente a escribir:
− x′ = y′
Asi, T (x, y ) = A
x y
para A =
2
−3
2 0 3 1
x y
0 . 1
Una vez escrita la aplicaci´on T en esta forma, podr´ıamos haber demostrado que T era lineal de una manera muy sencilla: Si p = (x, y ), y q = (x′ , y ′) son vectores cualesquiera de R 2 y λ, µ R, aplicando las propiedades de las operaciones con matrices, se tiene que:
∈
T (λp + µq ) = A (λp + µq ) = A (λp) + A(µq ) = λAp + µAq = λT (p) + µT (q ).
´ 5.4. Siguiendo con la misma notaci´ on que en la expresi´on anal´ıtica de una PROPOSICION transformaci´ on lineal T , se verifica: email
[email protected]
265
βo
ξ £vι
−
−o
so
ζℏ
z
266
1) Los vectores columna de A son un sistema generador de Im (T ). 2) La dimensi´on de Im (T ) coincide con el rango de A. ´ DEMOSTRACION. 1. Por la quinta propiedad de las aplicaciones lineales, la imagen de un sistema generador de V es un sistema generador de Im( T ). Pero, los vectores columna de A son precisamente las im´agenes de los vectores de la base B , que por definici´on es un sistema generador de V. 2. La dimensi´on de Im( T ) es, por el apartado anterior, el n´umero de vectores columna linealmente independientes de A, es decir, coincide con el rango de A por el teorema del rango.
→
Ahora bien, si tenemos la matriz A = [T ]B que representa a T : V V con respecto a la base B de V , entonces, v = T u si y solo si y = [v ]B = [T ]B [u]B = Ax. Encontrar el n´ucleo de T es equivalente a resolver la ecuaci´on T u = 0. Es decir queremos encontrar todas las preimagenes del neutro. Si reemplazamos T con su representaci´on matricial A, tenemos que encontrar el n´ucleo de T es equivalente a resolver el sistema de ecuaciones Ax = 0
{ }
Recordemos el teorema que afirma que T es inyectiva si el ker T = OV , o la dimension del ker T es igual a 0. Si Ax = 0, tiene una soluci´on la trivial, x = 0, esto quiere decir ker T = OV . Por tanto, teniendo en cuanta las dos ultimas aseveraciones tenemos que:
T es inyectiva si y solamente si Ax = 0 tiene unica soluci´on x = 0
{ }
∈K
n
La dimension del n´ucleo de T o de su representante A se llama nulidad por tanto
T tiene nulidad cero si y solamente si Ax = 0 tiene unica soluci´on x = 0 Ahora, si T es inyectiva sabemos que es invertible su inversa se denota T −1 (este es un resultado que talvez recuerden de calculo, cualquier funci´on inyectiva tiene inversa). La matriz que representa 1 −1 T −1 es obviamente [ T −1 ]B = [T ]− . Por tanto B = A
T es invertible si y solamente Ax = 0 tiene unica soluci´on x = 0 Finalmente, si V = W esto quiere decir que dim V = dim W = n , La matriz que representa T −1 es obviamente [ T −1 ]B = A −1 (A es una matriz cuadrada n por n )
A es invertible si y solamente T es inyectiva si y solamente si A tiene nulidad 0 . Debido al teorema de la dimension tenemos que nulidad de T + dimension del recorrido de T = n, si la nulidad de A es cero entonces dimension del recorrido de T es n. La dimension del recorrido de T se llama rango de T o de A. Por tanto
A es invertible si y solamente A tiene rango n. En este caso vemos que como la dimension del recorrido es n el recorrido es igual a W. Por tanto T es sobreyectiva y podemos decir que
A es invertible si y solamente T es uno a uno y sobreyectiva. email
[email protected]
266
βo
ξ £vι
−
−o
ζℏ
so
z
267
A continuaci´on demostramos el Teorema de caracterizaci´on de las transformacio nes lineales biyectivas.
→
TEOREMA 5.4. Sea T : V V una transformaci´on lineal del espacio vectorial V de dimension n. Sea B una base de V y A = [T ]B . Las siguientes afirmaciones son equivalentes: 1) T es biyectiva. 2) T es inyectiva. 3) N (T ) = 0 . 4) T es sobreyectiva. 5) rango (A) = n. 6) det A = 0. 7) La imagen de un conjunto linealmente independiente de V es tambi´en un sistema linealmente independiente de V .
{}
´ DEMOSTRACION.
⇒ 2).- Por la propia definici´ on de aplicaci´on biyectiva (inyectiva y
(1 =
sobreyectiva).
⇒ 3).- Esta probado anteriormente en 1.10 (pag 11) para aplicaciones lineales en general. ⇒
(2 =
(3 = 4).- Por hip´otesis, dim N (T ) = 0 y dim V = n, luego dim Im( T ) = n por verificarse que dimV = dim N (T ) + dimIm(T ). Por tanto, Im( T ) = V , es decir T es sobreyectiva.
⇒
(4 = 5).- Por ser T sobreyectiva, Im(T ) = V . En consecuencia, los vectores columna de A son una base de V y por tanto son linealmente independientes. Aplicando el teorema del rango se colige que r (A) = n .
⇒ 6).- Por definici´on de rango de una matriz. (6 =⇒ 7).- Sea S = { x , x ,...,x } un conjunto linealmente independiente de V . Si λ T (x ) + λ T (x ) + ··· + λ T (x ) = 0, entonces, por ser T lineal: T λ x + λ x + ··· + λ x = 0 ⇐⇒ A λ x + λ x + ··· + λ x = 0 Por ser det A = 0, A es inversible y multiplicando por A por la izquierda en los dos miembros de la igualdad anterior, se obtiene: λ x + λ x + ··· + λ x = 0. Y como S es un conjunto linealmente independiente, se colige que λ = λ = ··· = λ = 0, luego {T (x ), T (x ),...,T (x )} es linealmente independiente. (7 =⇒ 1).- Para demostrar que T es biyectiva, probemos que es sobre e inyectiva. Por hip´otesis, los (5 =
1
2
2
p
2
1
p
1 1
2 2
p p
1 1
2 2
1 1
2 2
p p
−1
2
p p
1
1
1
p
2
p
p
vectores columna de A = [T ]B son linealmente independientes por ser las im´agenes de los vectores de la base B . As´ı pues, r (A) = dimIm( T ) = n . Por tanto, Im( T ) = V , es decir, T es sobreyectiva. Se verifica que dim N (T ) = dim V dimIm(T ) = n n = 0. Luego, N (T ) = 0 y T es inyectiva.
−
−
{}
EJEMPLO2 5.14. Hallar el n´ucleo y la imagen de la transformaci´ on lineal del ejemplo 2.3, T : R2 R , T (x, y ) = (2 x, y 3x).
→
´ SOLUCION.-
− N (T ) = {p ∈ R
2
}
: T (p) = 0 , pero T (p) = 0 si y solo si Ap = 0. Luego, para 2 0 x 0 hallar el n´ucleo de T hay que resolver el sistema homogeneo: = 3 1 y 0 Por ser det
2
−3
−
0 = 2 = 0, el sistema anterior solo admite la soluci´on trivial y N (T ) = 0 . 1
email
[email protected]
{}
267
βo
ξ £vι
−
−o
ζℏ
so
z
268
{ −
}
Debido a la Proposici´on 5.4 se tiene que Im( T ) = vectores columna de A = (2, 3), (0, 1) . 2 0 Por otro lado, como det = 0 dichos vectores columna son linealmente independientes e 3 1 2 Im(T ) = R .
−
Tambi´en podr´ıamos haber obtenido este ultimo resultado teniendo en cuenta que dim R2 = dimN (T ) + dimIm(T ).
5.4.
Operaciones entre transformaciones lineales
→
Dada una transformaci´on lineal T : V V , una vez fijada una base B de V , podemos asociar a T , una matriz A Mn (R2 ) que determina T de forma ´unica, A = [T ]B .
∈
Rec´ıprocamente, dada una matriz A M n (R), podemos construir el endomorfismo T : Kn Kn tal que A = [T ]B , siendo B c la base can´onica de K n . Dicho endomorfismo es ´unico ya que queda determinado por las im´agenes de los vectore s de la base can´onica, es decir, por los vectores columna de A. Por tanto, una vez fijada una base B de V , referirnos a T o a A = [T ]B , es equivalente. Si no se dice lo contrario la base B sera la can´onica.
∈
c
→
Por tanto podemos decir que hay una correspondencia 1 a 1 entre matrices y transformaciones lineales, a esta correspondencia se le denomina un isomorfismo entre el espacio de transformaciones y el espacio de matrices. Todas las operaciones y propiedades de matrices se traducen en operaciones y propiedades de transformaciones. Asi, la suma de transformaciones es suma de matrices, el producto por escalar de transformaciones es producto escalar por una matriz, la multiplicaci´ on de matrices es la composici´on de transformaciones. A continuaci´on explicamos estas afirmaciones :
´ 5.5. Sea L(V ) = T : V PROPOSICION B una base de V .
{
→V
}
: T es lineal . Sean T, S
∈ L(V ) y λ ∈ K . Sea
→
1. Definimos la suma de T y S como la aplicaci´on T + S : V V tal que (T + S )(x) = T (x)+ S (x). Se verifica: a) T +S es una transformaci´on lineal de V . b) [T +S ]B = [T ]B +[S ]B . c) (L(V ), +) es un grupo conmutativo. 2. Definimos el producto de un escalar λ por un endomorfismo T como la aplicaci´on λT : V V tal que (λT )(x) = λT (x). Se verifica: a) λT es una transformaci´on lineal de V . b) [λT ]B = λ [T ]B . c) (L(V ), +, ) es un espacio vectorial sobre el cuerpo K .
→
·
◦T : V → V, “V −→V −→V ” tal que (S ◦ T )(x) = S (T (x)) para todo x ∈ V . Se verifica: a) S ◦ T es una transformaci´on lineal de V . b) [S ◦ T ] = [S ] [T ] . c) (L(V ), +, ◦) es un anillo no
3. El producto o composici´on de los endomorfismos T y S es la aplicaci´on: S S ◦T
T
S
B
B
B
conmutativo.
´ DEMOSTRACION.
email
[email protected]
268
βo
ξ £vι
−
−o
ζℏ
so
z
269
1. a) Aplicamos la definici´on de suma en L(V ) y que T y S son lineales. Sean x, y entonces
∈ V , λ, µ ∈ K,
(T + S )(λx + µy ) = T (λx + µy ) + S (λx + µy ) = λT (x) + µT (y ) + λS (x) + µS (y ) = λ T (x) + S (x) + µ T (y ) + S (y )
= λ (T + S )(x) + µ(T + S )(y )
b) Puesto que T (p) = [T ]B p y S (p) = [S ]B p. Se verifica que (T + S )(p) = T (P ) + S (p) = [T ]B p + [S ]B p = ([T ]B + [S ]B )p Luego [ T + S ]B = [T ]B + [S ]B .
c) Por ser Mn (K), + un grupo conmutativo y teniendo en cuenta la relaci´on entre transformaciones lineales y matrices, se verifica que ( L(V ), +) es tambi´ en un grupo conmutativo. 2. Se deja como ejercicio por ser an´ aloga a la del apartado anterior. 3. a) Por la propia definici´on de S T y por ser T y S lineales. Sean x, y
◦
◦
∈ V , λ, µ ∈ K, entonces
(S T )(λx + µy ) = S (T (λx + µy )) = S (λT (x) + µT (y )) = S (λT (x)) + S (µT (y )) = λ (S T )(x) + µ(S T )(y )
◦
◦
◦ T es una transformaci´on lineal de V . b) Para cada x ∈ V , se verifica que: [(S ◦ T )(x)] = [S (T (x))] = [S ] [T x] = [S ] ([T ] [x] ) = [S ] Luego, [ S ◦ T ] = [S ] [T ] . c) (L(V ), +, ◦) es un anillo no conmutativo por serlo M (K), +, · . Luego, S
B
B
B
B
B
B
B
B
B
B
[T ]B [x]B
B
n
5.5.
Cambio de base en una transformaci´on lineal
Sea T una transformaci´on lineal de un espacio vectorial V . Sean B y B ′ dos bases distintas de V . Sean las matrices A = [T ]B y A′ = [T ]B . Buscamos la relaci´on existente entre A y A′ . Sea P la matriz de cambio de base de B ′ a B . En esquema, la situaci´on que tenemos es la siguiente: ′
email
[email protected]
269
βo
ξ £vι
−
−o
ζℏ
so
[x]B ′
A′
z ✲
270
[T (x)]B ′ ✻
P −1
P ❄
[x]B
A
✲
[T (x)]B
Por la propia definici´on de las matrices que intervienen en el esquema anterior, se verifica: [T (x)]B = P −1 [T (x)]B = P −1 A[x]B = P −1 AP [x]B ′
′
Luego, la relaci´on buscada es:
A′ = P −1 AP EJEMPLO 5.15. Demostramos en el ejemplo 2.3 que la transformaci´ on lineal T : R2 R2 , T (x, y ) = (2 x, y 3x) tiene como matriz asociada respecto de la base can´ onica a la matriz 2 0 A= . 3 1
→
−
−
´ SOLUCION.Si consideramos ahora la base de R 2 , B = u1 = (1, 1), u2 = (2, 0) . ¿cual es la ′ matriz A asociada a T respecto de esta nueva base B ? A ′ = P −1 AP siendo P la matriz de cambio de base de B a la base can´onica. 1 2 0 1 Es, por tanto, P = , que tiene por matriz inversa a P −1 = . De esta forma, 1 0 1/2 1/2 se tiene que: 0 1 2 0 1 2 2 6 A′ = = 1/2 1/2 3 1 1 0 2 5
′
{
− − −
−
− −
−2(1, 1) + 2(2 , 0) = −2u −6(1, 1) + 5(2 , 0) = −6u
}
−
Obs´ervese que la matriz A podr´ıa haberse hallado directamente buscando sus vectores columna: c1 = [T (u1 )]B , c2 = [T (u2 )]B .
T (u1 ) = (2 , 2) = T (u2 ) = (4 , 6) =
−
+ 2 u2 = [(2 , 2)]B 1 + 5 u2 = [( 6, 5)]B 1
−
email
[email protected]
270
βo
CAP´ITULO 6
Valores y Vectores Propios
En este cap´ıtulo presentaremos los conceptos b´asicos de valor propio, vector propio, espacio propio y espectro de una matriz. Adem´ as, presentaremos algunos de los resultados m´ as relevantes relacionados con tales conceptos. Debido a que en un estudio de los valores y vectores propios es imposible no hablar de n´ umeros complejos, debemos hacer algunas observaciones respecto a la terminolog´ıa que utilizaremos en este cap´ıtulo. La palabra escalar se utilizar´a para referirnos a un n´ umero que puede ser real o complejo. Un vector n 1 ser´a una matriz n 1 cuyas componentes pueden ser n´umeros reales o complejos.
×
6.1.
×
Valores y Vectores Propios
´ 6.1. Sea A Mn×n (R). Un escalar λ es un valor propio de A si existe un vector DEFINICION n 1 x = 0 tal que Ax = λx. Ahora, si Ax = λx con x = 0, entonces x es un vector propio de A asociado al valor propio λ.
×
EJEMPLO 6.1.
ya que
∈
−2 es un valor propio de la matriz 2 0 1 5 −1 2 A= −3 2 −5/4 2 0 1 1 −2 5 −1 2 3 = −6 8 −3 2 −5/4 −4
271
− − =
2
1 3 4
ξ £vι
−
Adem´as,
−o
− 1 3 4
ζℏ
so
z
272
−2.
es un vector propio de A asociado al valor propio
1 2
EJEMPLO 6.2. Para la matriz A =
indique cu´ales vectores son vectores propios: v1 =
− 1 , v2 = 1
2 , v3 = 3
1 , v4 = 1
0 . 2
2 1
´ SOLUCION.Debemos multiplicar cada vector por la matriz A y ver si el vector resultante es un m´ultiplo escalar del vector.
Av1 =
1 2 2 1
1 = 1
3 1 =3 3 1
v1 s´ı es vector propio de A asociado al valor propio 3. Av2 =
1 2 2 1
2 = 3
7 8
2 3
=k
v2 no es vector propio de A. Av3 =
− − − − − 1 2 2 1
1 = 1
v3 s´ı es vector propio de A asociado al valor propio Av4 =
1 2 2 1
0 = 2
1 = 1
1 1
1
1.
4 2
=k
0 2
v4 no es vector propio de A.
−
2 4 EJEMPLO 6.3. El vector v = es un vector propio de la matriz A = 4 Determine el valor propio al cual est´a asociado.
SOLUCION.´ Determinemos Av :
−
−
−
5 0 3 16/5 1 18 /5 . 2 0 2
− − − − − −
5 0 3 16/5 1 18 /5 2 0 2
2 4 4
=
2 4 4
=
1
Por tanto, v est´a asociado al valor propio λ =
−1 de la matriz
A.
email
[email protected]
272
2 4 4
βo
ξ £vι
−
−o
EJEMPLO 6.4. Los vectores
A=
−
−
ζℏ
so
z
273
− − − − 3 2 , 1
1 2 , 2
0 6 , 0
9 6 3
s´i son vectores propios de la matriz
5 0 3 16/5 1 18 /5 . Determine los valores propios a los cuales est´ an asociados.
2 0 2 TEOREMA 6.1. Sea A M n×n (R). Entonces ning´un vector propio de A puede estar asociado a valores propios distintos de A. ´ DEMOSTRACION. Si suponemos que x es un vector propio de A asociado a valores propios distintos λi , λj de A, entonces ( λi λj ) = 0 y
∈
(λi Luego
− − λ )x = λ x − λ x = Ax − Ax = 0. j
i
j
(λi λj )−1 (λi λj )x = (λi λj )0 = 0 Entonces x = 0, lo cual es absurdo. Por tanto, ning´un vector propio de A puede estar asociado a valores propios distintos de A .
−
´ 6.2. Sea A DEFINICION
−
−
∈ M (R), el espectro de A es σ (A) = {λ escalar : λ es un valor propio de A}. n×n
El s´ımbolo R[x] denotar´a al conjunto de los polinomios en la variable x y coeficientes en R. La evaluaci´ on de un polinomio p(x) = a 0 + a1 x + + at xt de R[x] en una matriz A Mn×n (R) es la matriz p(A) = a 0 In + a1 A + + at At , i donde A para todo i = 2,...,t es el producto usual de matrices de A con sigo misma i veces. 1 1 EJEMPLO 6.5. Sean A = y p(x) = 1 3x + 2 x2 . Entonces 1 2
···
∈
···
− − − − − − − − − −
p(A) = 1 =
∈
1 0 0 1
1 0 + 0 1
1 1
3
3
1 1 +2 2 1
3
0
1 2
1 1
6
1 2
2
3
−3 −6 + 6 6 = 3 1 (R), p (x) ∈ R[x], λ ∈ σ (A) y x un vector propio de A asociado
TEOREMA 6.2. Sean A Mn×n a λ. Entonces p(λ) σ (p(A)) y x es un vector propio de p(A) asociado a p(λ). DEMOSTRACI´ ON. Supongamos que p(x) = a 0 + a1 x + + at xt , entonces p(A)x = a 0 x + a1 Ax + + at At x,
∈
···
pero
···
Aj x = A j −1Ax = Aj −1 λx = λA j −1 x = para todo j = 1,...,t . Luego p(A)x = a 0 x + a1 λx + email
[email protected]
t
··· + a λ x = (a t
0
273
+ a1 λ +
j
··· = λ x t
··· + a λ )x = p(λ)x. t
βo
ξ £vι
−
6.2.
−o
ζℏ
so
z
274
Subespacios Propios
TEOREMA 6.3. Sean A
{
∈M
n×n
(R) y λ un valor propio de A. Entonces
× 1: Ax = λx} = es un subespacio del espacio de los vectores n × 1 sobre los n´umeros complejos. Claramente A0 = λ0, por tanto 0 ∈ E (λ). Ahora, si x, y ∈ E EA (λ) = x vectores n
´ DEMOSTRACION.
A
A
(λ) y c
escalar, entonces
A(cx + y ) = cAx + Ay = cλx + λy = λ (cx + y ), por tanto ( cx + y ) complejos.
∈E
A
(λ). Luego E A (λ) es un subespacio de los vectores n
× 1 sobre los n´umeros
{}
N´otese que EA (λ) es igual a 0 unido con el conjunto formado por todos los vectores propios de A asociados al valor propio λ. Adem´as, por Teorema 6.1 se tiene que si λi , λ j son valores propios distintos de A, entonces EA (λi ) EA (λj ) = 0 .
∩
{}
´ 6.3 (Multiplicidad geom´ DEFINICION etrica). El subespacio E A (λ) se denomina subespacio propio de A asociado al valor propio λ. Adem´as, la dimensi´on de EA (λ), dim(EA (λ)), se llama la multiplicidad geom´ etrica del valor propio λ de A y se le denota por mg (A), es decir
mg (A) = dim( EA (λ)) De la definici´on de vector propio, es claro que EA (λ) tiene al menos un vector no nulo, por tanto dim(Rn ) = n
TEOREMA 6.4. Dado EA
≥ dim(E
≥ 1. (λ) un subespacio propio de A ∈ M dim(E (λ)) = n − rango( A − λI ) A
(λ))
n×n
(R), entonces
A
6.3.
Matrices Invertibles y Valores Propios
TEOREMA 6.5. Sea A no invertible. ´ DEMOSTRACION.
Mn×n (R). Entonces λ = 0 es un valor propio de A si, y s´olo si, A es
∈
Si λ = 0 es valor propio de A, el sistema lineal homog´eneo Au = 0 admite soluciones distintas de la trivial (los vectores propios asociados al valor propio λ = 0) y, por tanto, A = 0. Luego A no es inversible.
| |
Si, por el contrario, λ = 0 no es valor propio de A , el sistema Au = 0 solo tiene la soluci´on trivial, luego, A = 0 y A es inversible.
| |
email
[email protected]
274
βo
ξ £vι
−
−o
ζℏ
so
z
275
∈
TEOREMA 6.6. Sea A M n×n (R). Entonces A es invertible si, y s´ olo si, ning´un valor propio de A es cero. ´ DEMOSTRACION. Este resultado es equivalente al Teorema 6.4. TEOREMA 6.7. Sea A −1
∈M
n×n
(R) una matriz invertible. Entonces λ es un valor propio de A −1
si, s´olo olo si, si, xλ es un es un valorpropio propiodedeA−A1 asociado . A´un m´ si, yy s´ vector aas, λ−x1 . es un vector propio de A asociado a λ ´ DEMOSTRACION. Puesto que A es invertible, ninguno de sus valores propios es cero. Luego, un escalar λ es un valor propio de A y x es un vector propio de A asociado a λ, Ax = λx, A−1 Ax = A −1 λx, A −1 x = λ −1 x si, y s´olo si, λ −1 es un valor propio de A −1 y x es un vector propio de A−1 asociado a λ−1 .
6.4.
Producto de matrices y Valores Propios
∈
TEOREMA 6.8. Sean A, B Mn×n (R). Entonces σ (AB ) = σ (BA ). ´ DEMOSTRACION. Ejercicio.
6.5.
Localizaci´ on de Valores Propios
Existen muchos teoremas que dan informaci´on acerca de la localizaci´on en el plano complejo de los valores propios de una matriz. El m´as famoso de ellos es el Teorema de Gershgorin, el cual constituye el centro de esta peque˜na secci´on. ´ 6.4. Sea A Mn×n (R). El radio espectral de A es el n´umero real no negativo DEFINICION
∈
rad (A) = m´ax{|λ | : λ ∈ σ(A)}. |λ | significa m´odulo de λ si λ es complejo o valor absoluto de λ si λ es real. El radio espectral de una matriz A ∈ M (R) es justamente el radio del disco cerrado m´ j
j
n×n
peque˜no centrado en el srcen del plano complejo que contiene a todos los valores propios de ´ 6.5. Sea A Mn×n (R). Los n discos de Gershgorin de A son: DEFINICION
{
∈
| − a | ≤ R (A)}
Dp = z escalar : z Donde
pp
p
| | ··· |
| |
as A.
p = 1,...,n.
| ··· | |
Rp (A) = ap1 + + ap(p−1) + ap(p+1) + + apn La regi´ on del plano complejo formada por la uni´on de esos n discos ser´a llamada regi´on de Gershgorin y denotada por G(A). TEOREMA 6.9 (De Gershgorin). . Sea A Mn×n (R). Entonces σ (A) est´a contenido en G(A). ´ DEMOSTRACION. Ejercicio.
∈
email
[email protected]
275
βo
ξ £vι
−
6.6.
−o
ζℏ
so
z
276
C´alculo de Valores Propios
TEOREMA 6.10. Sea A
∈M
n×n
(R). Entonces
− A) = 0. x = 0 tal que
λ es un valor propio de A si, y s´olo si, det(λIn DEMOSTRACI´ ON.
existe x = 0 : ( λIn
λ valor propio de A si y solo si existe Ax = λx si y solo si λIn A) es no invertible si y solo si det(λIn A) = 0.
− A)x = 0 si y solo si (
−
´ 6.6 (Polinomio caracter´ıstico). Sea A DEFINICION de A es el polinomio de R [x] dado por
− − − x
PA (x) = det (xIn
− A) = det
∈M
n×n
−
(R). El polinomio caracter´ ıstico
− −
· ·· − a ··· − a
−
··· − a
a11 a12 a21 x a22 .. .. ... . . an1 an2 x
1n
.. .
2n
nn
La expresi´on PA (x) = 0 se llama ecuaci´on caracter´ıstica de A.
.
Mn×n (R) si, y s´olo si, λ es soluci´on de la ecuaci´on caracter´ıstica de A. Esto ´ultimo equivale a que λ es una ra´ız de PA (x). Seg´un Teorema 6.9,λ es un valor propio de A
∈
EJEMPLO 6.6. Hallemos el polinomio caracter´ıstico y los valores propios de A = En efecto,
− − − x
PA (x) = det( xI3
− A) = det
1
4 7
−2 −3 x − 5 −6 −7 x − 9
= x3
1 2 3 4 5 6 . 7 8 9
2
− 15x − 18x.
Una simple inspecci´on visual muestra que λ1 = 0 es una ra´ız de PA (x). Con esa informaci´on es f´acil probar (con ayuda de la F´ ormula General Cuadr´atica) que las otras ra´ıces de PA (x) son 15 3 15 3 15 3 15 3 λ2 = 33 y λ3 = + 33. As´ı, σ (A) = 33, + 33 . 2 2 2 2 2 2 2 2
− √
√
− √
√
Por lo general, es dif´ıcil o imposible hallar las ra´ıces de PA (x). Sin embargo, si PA (x) tiene coe´ ficientes enteros, algunas veces es ´util un resultado de Algebra elemental que dice: si p(x) es un polinomio con coeficientes enteros, entonces toda ra´ız entera de p (x) divide al t´ermino independiente de este.
EJEMPLO 6.7. Hallemos los valores propios de una matriz A que tiene como polinomio caracter´ıstico a PA (x) = x 3 + 2x2 3x 6.
− −
email
[email protected]
276
βo
ξ £vι
−
−o
ζℏ
so
z
277
Si PA (x) tiene una ra´ız entera, esa ra´ız debe ser un divisor del t´ermino constante. Los divisores de 6 son: 1, 2, 3, 6. Si sustituimos x = 2 en P A (x) se obtiene cero. De tal hecho podemos deducir que 2 es una ra´ız de PA (x) y que x + 2 divide exactamente a PA (x). Con ayuda de la F´ormula General Cuadr´atica encontramos que
± ± ± ± −
−
√3)(x + √3).
P (x) = (x + 2)( x A
Luego los valores propios de A son
− −2, √3 y −√3.
´ 6.7 (Multiplicidad algebraica). Sea λ es un valor propio de A Mn×n (R). DEFINICION El n´umero de veces que se repita λ como ra´ız del polinomio caracter´ıstico asociado a A PA (x) es la multiplicidad algebraica del valor propio λ de A y se denota por ma (λ). En otras palabras, llamamos multiplicidad algebraica del autovalor λ al mayor exponente ma (λ) para el cual el factor (x λ )m (λ) aparece en la factorizaci´on de PA (x). Es decir, si PA (x) puede factorizarse como PA (x) = (x λ)m (λ) q (x), entonces q (x) es un polinomio (de grado m ma (λ)) que no se anula para λ, q (λ) = 0.
∈
−
a
−
−
a
EJEMPLO 6.8. La matriz
A=
cuyo polinomio caracter´ıstico es
PA (x) = x 5
3
− 7x
10 00 0 0 2 0 00 1 0 5 6 0 1 0 3 4 0 00 00 2
−
+ 2 x2 + 12 x
− −
− 8 = (x + 2)2( x − 1)2(x − 2),
−
tiene como valores propios λ1 = 2 con multiplicidad algebraica 2, algebraica 2 y λ 3 = 2 con multiplicidad algebraica 1.
∈
λ2 = 1 con multiplicidad
TEOREMA 6.11. 1. Sea A M 2×2 (K), el polinomio caracter´ıstico de A es el polinomio de grado dos pA (λ) = λ 2 tr(A)λ + A .
−
2. En el caso de ser A
∈M
3×3 (
| |
K), se tiene: pA (λ) = −λ3 + tr(A)λ2 − (a11 + a22 + a33 )λ + |A|.
3. En general, si A Mn×n (K), el termino de grado n de pA (λ) es ( 1)n λn , el de grado n es ( 1)n−1 tr(A)λn−1 y el t´ermino independiente es A . Es decir, pA (λ) es de la forma
−
∈
n−1
n n
PA (λ) = ( 1) λ + ( 1) ´ DEMOSTRACION. Ejercicio.
−
1. Sea A =
∈ | − | − a11 a12 a21 a22
pA (λ) = A λI =
email
[email protected]
−
| |
n− 1
tr(A)λ
−
−1
n−2
+ an−2 λ
+
··· + a x + |A|. 1
M2×2 (K). Entonces:
a11 λ a12 = λ 2 (a11 +a22 )λ+(a11 a22 a12 a21 ) = λ 2 tr( A)λ+ A a21 a22 λ
−
−
277
−
−
| |
βo
ξ £vι
−
−o
ζℏ
so
a11 a12 a13 2. Sea A = a21 a22 a23 a31 a32 a33 Sarrus, se obtiene:
∈
| − λI | =
3
+ ( a11 + a22 + a33 )λ2
−
(a22 a33
a11 λ a12 a13 a21 a22 λ a23 = a31 a32 a33 λ
−
−a
3
+ tr(A)λ2
−
23 a32 ) +
a11 a22 a33 + a21 a32 a13 + a31 a12 a23
−λ
278
M3×3 (K). Desarrollando el determinante mediante la regla de
pA (λ) = A
−λ
z
−a
− (a
11
( a11 a33
13 a22 a31
−
−a
13 a31 ) +
−a
12 a21 a33
( a11 a22
−a
−a
12 a21 )
11 a23 a32
λ+
=
| |
+ a22 + a33 )λ + A
| − |
3. Solo uno de los n! pro ductos del desarrollo del determinante p A (λ) = A λI puede contener t´erminos en λ n o λ n−1 , y es precisamente ( a11 λ)(a22 λ) (ann λ), ya que en los dem´as productos interviene alg´un a ij con i = j , luego no interviene aii λ ni ajj λ; y, por tanto, estos n! 1 productos son polinomios de grado menor o igual que n 2. Por otra parte, se tiene que:
−
−
− ···
−
− − −
n
− λ)(a − λ) ··· (a − λ) = (−1) λ
n
+ ( 1)n−1 (a11 + a22 +
22
nn
−
n−1
A
TEOREMA 6.12. Sean A
∈M
n×n
A
(R) y λ1 ,...,λn los valores propios de A. Entonces
det(A) = λ 1 ´ DEMOSTRACION.
nn
n n
A
n−1
··· + a
)λn−1 +
··· Luego, esta demostrado que el termino de grado n de p (λ) es ( −1) λ , y el de grado n − 1 es (−1) tr(A)λ . Adem´as, el termino independiente de p (λ) es p (0) = |A − 0I | = |A|. (a11
··· λ
n
y tr (A) = λ 1 +
··· + λ . n
Ejercicio.
Mn×n (R). Se verifica que:
TEOREMA 6.13. Sea A
∈
1. A y A T tienen el mismo polinomio caracteristico, por tanto A y A T tienen los mismos valores propios con las mismas multiplicidades algebraicas correspondientes. 2. Si λ es valor propio de A, entonces λn es valor propio de An . 3. Si A es invertible y tiene valores propios λ1 , λ2 ,...,λn , entonces los valores propios de A−1 1 1 1 son , ,..., . λ1 λ2 λn email
[email protected]
278
βo
ξ £vι
−
−o
´ DEMOSTRACION.
ζℏ
so
z
279
1. Bastar´a probar que PA (x) = P A (x). En efecto, T
PA (x) = det (xIn
− A) = det((xI − A) n
T
) = det (xIn
T
−A
) = P A (x). T
Ahora bien, el hecho de que A y AT tienen los mismos valores propios es consecuencia inmediata de que PA (x) = P A (x). T
2. Empleamos el m´etodo de inducci´on completa en la demostraci´on. Para n = 2: Por ser λ un valor propio de A, existe un vector no nulo x Rn tal que Ax = λx . Entonces:
∈
A2 x = A (Ax) = A (λx) = λ (λx) = λ 2 x Luego, λ2 es valor propio de A2 . Supongamos cierta la afirmaci´on para n para n: An x = A (An−1 x) = A (λn−1 x) = λ n−1 (λx) = λ n x
− 1 y probemosla
Por tanto, λn es valor propio de An . 3. Siguiendo con la misma notaci´on del apartado anterior, se verifica:
Ax = x, Luego,
6.7.
A
−1 (
Ax) = A−1 (λx),
x = λ (A−1 x),
A−1 x = λ 1x
1 es valor propio de A−1 . λ
C´alculo de Vectores Propios
∈
TEOREMA 6.14. 6.13. Sean A Mn×n (R) y λ un valor propio de A. Entonces x es un vector propio de A asociado a λ si, y s´olo si, x es una soluci´on no trivial del sistema homog´eneo de ecuaciones lineales (λIn A)y = 0. ´ DEMOSTRACION.
(λIn
−
x es soluci´on no trivial del sistema ( λIn A)x = 0 si, y s´olo si, x = 0 y Ax = λx .
− A)y = 0, si, y s´ olo si, x = 0 y
− Presentamos a continuaci´on algunos ejemplos que ilustran la forma como se pueden hallar valores propios y vectores propios.
EJEMPLO 6.9. Hallemos los valores propios y los espacios propios de la matriz A =
email
[email protected]
279
− 2 1
12
−5
βo
.
ξ £vι
−
−o
ζℏ
so
z
280
´ SOLUCION.La ecuaci´on caracter´ıstica de A es det(xIn
− A) = det x−−12
12 = x 2 + 3x + 2 = ( x + 1)( x + 2) = 0 , x+5
de donde se obtiene que λ1 = 1 y λ2 = 2 son los valores propios de A. Para determinar los vectores propios correspondientes se resuelven los sistemas homog´eneos ( λ1 I2 A )x = 0 y (λ2 I2 A)x = 0:
−
−
−
−
−1, la matriz de coeficientes es −1 − 2 12 = −3 12 , (−1)I − A = −1 −1 + 5 −1 4 1 −4 que se reduce por filas a . Por consiguiente, x − 4x = 0. Se concluye que todo vector 0 0 propio de A asociado a λ = −1 es de la forma 4x 4 x x= = =x , x = 0. x x 1 Para λ1 =
2
1
2
1
1
2
2
2
4
Luego EA (λ1 ) = gen Para λ2 =
2
2
. 1 2, la matriz de coeficientes es
−
− 1 0 0 2 es de la forma
que se reduce por filas a
A asociado a λ 1 =
− A = −2−−1 2 −212+ 5 = −−41 123 , −3 . Por consiguiente, x − 3x = 0. Luego todo vector propio de
−
( 2)I2
x=
Luego EA (λ2 ) = gen
3 1
1
x1 = x2
3x2 x2
= x2
2
3 , 1
x2 = 0.
.
Despu´es de lo anteriormente visto p odemos concluir que para determinar los valores y vectores caracter´ısticos seguimos estos pasos. Sea A una matriz n n
×
| − A| = 0. Sera una ecuaci´on polinomial de grado
Forme la ecuaci´on caracter´ıstica λI la variable λ.
n en
Determine las ra´ıces reales de la ecuaci´on caracter´ıstica. Estas son los valores caracter´ısticos de A. email
[email protected]
280
βo
ξ £vι
−
−o
ζℏ
so
z
281
Para todo valor caracter´ıstico de λi , determine los vectores caracter´ısticos correspondientes a λi , al resolver el sistema homog´eneo ( λi I A ) = 0. Para llevar a cabo lo anterior se requiere reducir por renglones una matriz n n. La forma resultante escalonada reducida debe contener por lo menos un rengl´on de ceros.
− ×
EJEMPLO 6.10. Hallemos los valores propios y los espacios propios de la matriz A = ´ SOLUCION.La ecuaci´on caracter´ıstica de A es
− x
det( xI3
− A) =
2
x
0 0
− − − 1
2 0
2
x
0
= (x
2
− 2)
3
2 1 2 0 2 0 0 0 2
= 0.
Por tanto, λ1 = 2 es el ´unico valor propio de A. Ahora, 2 I3
−A=
0 0 0
1 0 0 0 0 0
implica que en la soluci´on del sistema homog´eneo (2I3 A)x = 0 tiene que x2 = 0 y las variables x1 , x3 est´an linealmente independientes. Luego todo vector propio de A asociado a λ1 = 2 es de la forma x1 x1 1 0 x = x2 = 0 = x 1 0 + x3 0 . x3 x3 0 1 Luego EA (λ1 ) = gen
− − − − −− − −− − 1 0 0
0 , 0 1
.
EJEMPLO 6.11. Hallemos los valores propios y los espacios propios de la matriz
A=
1 0 1 1
0 0 0 1 5 10 0 2 0 0 0 3
.
´ SOLUCION.La ecuaci´on caracter´ıstica de A es
x
det( xI4
A) = det = (x
email
[email protected]
0 1 1
−
1 0 x
1)2 (x 281
0 1
x
0 0
−
2)(x
0 5 0
−
10 0
2
x
3
3) = 0
βo
.
ξ £vι
−
−o
ζℏ
so
z
282
As´ı los valores propios de A son λ1 = 1, λ2 = 2 y λ3 = 3. Una base para el espacio propio de λ1 = 1 se encuentra como sigue:
(1)I3
y se reduce a la matriz
−A=
1 0 0 0
−
−
0 0 0 0 0 0 5 10 1 0 1 0 1 0 0 2
− −
0 0 2 0 1 0 0 0 0 0 0
−
− 2
Lo cual implica que x1 + 2x4 = 0, x3 2x4 = 0 y x2 est´a linealmente independiente. As´ı, todo vector propio de A asociado a λ1 = 1 es de la forma
− − x1 x2 x3 x4
x=
Luego EA (λ1 ) = gen
obtener EA (λ2 ) = gen
0 1 , 0 0 0 5 1 0
=
2 0 2 1
2x4 x2 2x4 x4
== x 2
0 1 0 0
+ x4
− 2 0 2 1
.
. Para λ2 = 2 y λ3 = 3, se sigue el mismo patr´on para
y que EA (λ3 ) = gen
− 0 5 0 1
EJEMPLO 6.12. Encontrar los valores propios y vectores propios de A =
2 3
3
−6
´ SOLUCION.Empecemos formando su polinomio caracter´ıstico para encontrar los valores propios. Son las soluciones de det( A λI ) = (2 λ)( 6 λ) 9 = 0. Es un polinomio de grado dos que tiene dos soluciones. Luego hay dos valores propios λ 1 = 3 y λ 2 = 7. Para encontrar los vectores propios asociados a cada valor propio tenemos que buscar los vectores tales que ( A λI )x = 0. Es decir, buscamos x N (A λI ) para cada uno de los valores propios que hemos encontrado.
−
∈
Para λ1 = 3:
A Para λ2 =
− −− −
−
−
− 3I = −31 −39 ∼ −01
3 , 0
−7:
email
[email protected]
282
V (3) = gen
−
3 1
.
βo
ξ £vι
−
−o
ζℏ
so
A + 7I =
z
∼ 9 3 3 1
9 3 , 0 0
283
−
V ( 7) = gen
− 1 3
.
A=
EJEMPLO 6.13. Determine los valores y los vectores propios correspondiente a la matriz
1 2 2 1
´ SOLUCION.-
− − −
PA (λ) = det( A = det
− λI ) = det
1 2 2 1
λ 0 0 λ
1 2 2 1 2
λ
= det
1 0 0 1
λ
1
2
2
1
2
−λ
− λ) − 4 = λ − 2λ − 3 = (λ − 3)(λ + 1) Por tanto, los ´unicos valores propios de A son λ = 3 y λ = −1. Vector propio para λ = 3. Debe ser soluci´on al sistema homog´eneo: (A − λI )x = 0. Es decir: 1 2 −3 1 0 x= 0 2 1 0 1 = (1
1
2
1
2
− ≡ − − −
Desarrollando y finalmente aplicando Gauss-Jordan:
− 1
3
2
2
1
3
x = y
0 , 0
2 2
2 0 2 0
1 0
−1 0
0 0
Convirtiendo en ecuaci´on y poniendo en la notaci´ on vectorial:
x
y = 0,
x = y,
Lo anterior indica que cualquier vector de la forma: y
x 1 =y 1 y 1 1
es un vector propio asociado a λ 1 = 3;
nosotros nos conformaremos con uno: digamos el que se obtiene para Vector propio para λ2 =
y = 1:
1 . 1
≡
−1. Debe ser soluci´on al sistema homog´eneo: (A − λI )x = 0. Es decir: 1 2 − (−1) 10 01 x = 0 2 1 2
Desarrollando y finalmente aplicando Gauss-Jordan:
1+1 2
email
[email protected]
2 1+1
x = y
0 , 0
283
2 2 0 2 2 0
1 1 0 0 0 0
βo
ξ £vι
−
−o
ζℏ
so
z
284
Convirtiendo en ecuaci´on y poniendo en la notaci´ on vectorial:
x + y = 0,
x=
− − x =y y
−y,
λ2 =
1 1
y
Lo anterior indica que cualquier vector de la forma:
1 1
es un vector propio asociado a 1 1; nosotros nos conformaremos con uno: digamos el que se obtiene para y = 1: 1
−
−
A=
EJEMPLO 6.14. Determine los valores y los vectores propios correspondiente a la matriz 1 1 0 1
´ SOLUCION.-
PA (λ) = det( A = det = (1
− λI ) = det 1 1 0 1
− 1 1 0 1
λ 0 0 λ
−
λ
= det
1 0 0 1
1
−λ 0
1
λ
1
−
− 2
λ)
Por tanto, el ´unico valor propio de A es λ1 = 1.
Vector propio para λ1 = 1. Debe ser soluci´on al sistema homog´eneo: (A
− 1 1 0 1
1
1 0 0 1
− λI )x = 0. Es decir: 2
x= 0
Desarrollando y finalmente aplicando Gauss-Jordan:
− 1
1
0
1 1
≡
−1
x 0 = , y 0
0 1 0 0 0 0
0 1 0 0 0 0
Convirtiendo en ecuaci´on y poniendo en la notaci´ on vectorial:
y = 0,
x 1 =x y 0
Lo anterior indica que cualquier vector de la forma: x
1 0
es un vector propio asociado a λ 1 = 1;
nosotros nos conformaremos con uno: digamos el que se obtiene para
email
[email protected]
284
x = 1:
1 . 0
βo
ξ £vι
−
−o
ζℏ
so
z
285
A=
EJEMPLO 6.15. Determine los valores y los vectores propios correspondiente a la matriz 1 2 1 2
−
´ SOLUCION.-
PA (λ) = det
− − λ 0 0 λ
1 2 1 2
−
El polinomio caracter´ıstico queda: P A (t) = t A no tiene valores ni vectores propios.
2
= det
1
λ 2 1 1 λ
−
−
− 3t + 4. Como este polinomio tiene ra´ıces complejas,
EJEMPLO 6.16. Determina los valores propios y vectores propios de la matriz A = ´ SOLUCION.Los valores propios son las raices del polinomio caracter´ıstico, que es
f ( λ) = det( λI
A) = det
−
= 15λ
− 9λ
2
+λ
3
1 0 0 λ 0 1 0 0 0 1
− 7 = λ − 9λ
2
= det
− 7 = (λ − 7) (λ − 1)
+ 15 λ
f ( λ) = (λ
2 1 1 2 3 2 3 3 4
− 2 −1 −1 2 λ 3 2 −3 −−3 λ−− 4
λ
2 1 1 2 3 2 3 3 4
− 3
2
2
− 7) (λ − 1)
Por tanto, los valores propios son: λ 1 = 7 y λ 2 = λ 3 = 1. As´ı, el valor propio 1, tiene multiplicidad 2. Para calcular el vector propio, correspondiente al valor propio 7, debemos resolver el sistema de ecuaciones
2 1 1 2 3 2 3 3 4
x y z
x =7 y , z
2x + y + z 2x + 3y + 2z 3x + 3y + 4z
− − − − − 7
x y z
=
5x + y + z 2x 4y + 2 z 3x + 3 y 3z
Multiplicando la primer ecuaci´on por 4, y sumandola a la segunda, obtenemos as´ı que z = 3x Multiplicando la primera por 3, y sumandola a la tercera, obtenemos
Por tanto, los vectores propios son t (1, 2, 3) con t = 0
=
0 0 0
18x + 6z = 0
−12x +6y = 0 as´ı que y = 2x
Para calcular los vectores propios, correspondientes al valor propio 1, debemos resolver el sistema de ecuaciones email
[email protected]
285
βo
ξ £vι
−
−o x y z
2 1 1 2 3 2 3 3 4
ζℏ
so
x y , z
=
z
2x + y + z 2x + 3 y + 2 z 3x + 3 y + 4 z
286
− x y z
=
x+y+z 2x + 2 y + 2 z 3x + 3 y + 3 z
Es claro que tenemos una sola ecuaci´on, x + y + z = 0.
=
0 0 0
Poniendo a x y y como par´ametros y denotandolos respectivamente como s y t, tenemos z = Por tanto, los vectores correspondientes al valor propio 1 son (s,t,
−s−t.
−s − t) = s (1, 0, −1) + t (0, 1, −1)
donde s = 0 ´o t = 0. Resumen: Valor propio λ Vectores propios Dim 7 t (1, 2, 3) con t = 0 1,1 s (1, 0, 1) + t (0, 1, 1), s ´o t = 0
−
6.8.
−
E (λ) 1 2
Independencia lineal y vectores propios
TEOREMA 6.15. Si los vectores v1 , v2 ,..., vk son vectores propios asociados a valores propios diferentes entonces el conjunto formado por ellos v1 , v2 ,...,v k es linealmente independiente.
{
´ DEMOSTRACION.
}
Llamemos λ i al valor propio al cual est´a asociado el vector vi. Supongamos que el conjunto de vectores es linealmente dependiente. Puesto que ning´ un vector propio puede ser el vector cero , de esta suposici´ on deducimos entonces que un vector vi debe ser combinaci´ on lineal de los anteriores. Escojamos aqu´el que tiene el menor ´ındice posible, digamos j , as´ı: vj es combinaci´ on lineal de los vectores v1 ,. . . , vj −1 y ning´un vector vi es combinaci´on lineal de los anteriores para i = 2, 3,...,j 1. Tenemos
−
vj = c 1 v1 + c 2 v2 +
··· + c
v
j −1 j −1
Multiplicando por A , y utilizando que cada v es vector propio, obtenemos
λj vj = c 1 λ1 v1 + c2 λ2 v2 +
··· + c
λ
v
j −1 j −1 j −1
Si multiplicamos la primera de estas ecuaciones por λj y se la restamos a la segunda obtenemos: 0 = c 1 ( λ1
− λ )v j
1
+ c2 (λ2
− λ )v + ··· + c j
2
j −1
(λj −1
− λ )v j
j −1
Como el conjunto formado p or los vectores v1 , v2 ,..., vj −1 es linealmente independiente, al no ser un vector combinaci´on de los restantes , se deduce que todos los coeficientes de esta ´ ultima ecuaci´on deben ser cero: c i (λi λj )vi = 0 para i = 1,...,j 1 Como los valores propios son diferentes entre si: λ i λj = 0. As´ı son los c i = 0 para i = 1,...,j 1. As´ı la f´ ormula inicial de este teorema queda:
−
−
vj = 0v1 email
[email protected]
− − + ··· + 0 v 286
j −1
=0
βo
ξ £vι
−
−o
ζℏ
so
z
287
Pero esto es imposible pues ning´un vector propio es el vector cero. Esta contradicci´on afirma que el conjunto formado por los vectores es linealmente independiente.
∈
∈
TEOREMA 6.16. Sean λ1 ,...,λr valores propios distintos de A Mn×n (R). Si para cada i 1,...,r Si es un conjunto linealmente independiente de vectores propios de A asociados a λi ,
{
}
entonces S = S1 ´ Sr es todav´ıa un conjunto linealmente independiente. DEMOSTRACION. Ejercicio.
∪···∪
TEOREMA 6.17. Sea A 1
∈M
n×n
(R) y λi un valor propio de A. Entonces
≤ multiplicidad geom´etrica de λ
´ DEMOSTRACION.
i
= m g (A)
Ejercicio.
≤ m (A) = multiplicidad algebraica de λ . a
i
Observaci´ on. Si λ es ra´ız simple entonces existe a lo mas un vector propio. Si λ es ra´ız doble entonces existen 1 o 2 vectores propios.
6.9.
Valores propios de algunas matrices especiales
TEOREMA 6.18. Los valores propios de una matriz sim´etrica son reales. ´ Ejercicio. DEMOSTRACION.
TEOREMA 6.19. Sean U M n×n (R) ortogonal y λ es un valor propio de U . Entonces λ = 1. ´ DEMOSTRACION. Sea x un vector propio de U asociado al valor propio λ, entonces
∈
||
x = Ux = λx = |λ|x 2
||
Luego λ = 1.
2
2
2
∈
|
|
TEOREMA 6.20. Sea U Mn×n (R) ortogonal. Entonces det(U ) = 1. ´ DEMOSTRACION. Si λ1 ,...,λn son los valores propios de U (algunos λi pueden ser iguales), entonces por Teorema 6.11,det( U ) = λ 1 λn y como λi = 1 para i = 1,...,n , entonces
··· | | | det(U )| = |λ ··· λ | = |λ |···| λ | = 1 ··· 1 = 1. 1
1
n
n
TEOREMA 6.21. Sea A Mn×n (R) es tal que AAT = A T A, entonces para todo valor propio λ de A, se tiene que EA (λ) = E A (λ). ´ DEMOSTRACION. Ejercicio.
∈
T
TEOREMA 6.22. Sean A Mn×n (R) es tal que AAT = A T A y λi , λj valores propios distintos de A. Entonces EA (λi ) EA (λj ). ´ DEMOSTRACION. Ejercicio.
⊥
email
[email protected]
∈
287
βo
ξ £vι
−
6.10.
−o
ζℏ
so
z
288
Semejanza de Matrices
´ 6.8. Sean A, B DEFINICION Mn×n (R). Decimos que A es semejante a B, si existe P Mn×n (R) invertible tal que A = P −1 BP .
∈
TEOREMA 6.23 (Lema de Schur). Toda matriz A triangular superior. ´ DEMOSTRACION.
∈M
n×n
∈
(R) es semejante a una matriz
Ejercicio.
∈
TEOREMA 6.24. Sean A, B Mn×n (R). Si A y B son semejantes, entonces A y B tienen el mismo polinomio caracter´ıstico, y por consiguiente los mismos valores propios con las mismas multiplicicades algebraicas respectivas, el mismo determinante y la misma traza. ´ DEMOSTRACION.
Como A y B son semejantes, existe P
P −1 BP , luego PA (x) = det( xIn −1
= det( P = det( P −1
∈M
n×n
(R) invertible tal que A =
−1
− A) = det( xI − P BP ) xI P − P BP ) = det( P (xI − B )P ) ) det(xI − B ) det(P ) = det( xI − B ) = P n
−1
n
−1
n
n n
B
(x).
Por ser P A (x) = P B (x), ambos polinomios tienen iguales todos sus t´erminos. En particular, tienen iguales los t´erminos independientes. Es decir, A = B .
| | | | An´alogamente, igualando los t´erminos de grado n − 1 de los polinomios P
A
(x) y P B (x), se obtiene
que tr( A) = tr( B ).
Observaci´ on.- El rec´ıproco de la proposici´on anterior no es cierto; es decir, dos matrices A y A′ pueden tener el mismo polinomio caracter´ıstico sin ser semejantes. Esto ocurre, por ejemplo, con las matrices: 0 0 0 1 A= , A′ = 0 0 0 0
−
−
− −
λ 0 λ 1 = λ 2 y, tambi´en PA (λ) = = λ 2 . A es diagonalizable 0 λ 0 λ (es semejante a si misma que es diagonal). En cambio, A′ no es diagonalizable ya que dim V0 = 1 = 2 =orden de multiplicidad de λ = 0 como ra´ız de PA (λ). Demostremos que efectivamente V0 esta engendrado por un ´ unico vector u = (1, 0). Un vector u = (x, y ) V0 si y solo si 0 1 x 0 = . Es decir, si y solo si y = 0. Luego, V 0 = (x, 0) : x R = (1, 0) . 0 0 y 0 En efecto: PA (λ) =
′
′
{
∈ }
∈
TEOREMA 6.25. Sean A, B Mn×n (R) semejantes con A = P −1 BP . Entonces para todo λ σ (A) se tiene que EB (λ) = P x : x EA (λ) .
∈ {
∈
´ DEMOSTRACION.
∈
}
Ejercicio.
email
[email protected]
288
βo
ξ £vι
−
−o
ζℏ
so
TEOREMA 6.26. Sean A, B dim(EA (λ)) = dim (EB (λ)). ´ DEMOSTRACION.
6.11.
∈M
n×n
z
289
(R) semejantes, entonces para todo λ
∈ σ(A) se tiene que
Ejercicio.
Matrices diagonalizables n cuyos elementos de la diagonal principal son
A la matriz diagonal de orden denotaremos por
diag(λ1 , λ2 ,...,
Los valores propios de diag( λ1 , λ2 ,...,
n
n
)=
λ1 0 . . . 0 λ2 . . . .. .. . . . . . 0 0 .. .
0 0 .. . n
) son λ1 , λ2 ,..., λn .
λ1 , λ2 ,..., λn la
´ 6.9 (Diagonalizable). Una matriz A M n×n (R) es diagonalizable si es semeDEFINICION jante a una matriz diagonal. Es decir, una matriz cuadrada A es diagonalizable si existen matrices D digonal y P invertible tales que: A = P DP −1
∈
−
3 1 0
EJEMPLO 6.17. La matriz A =
1 2 1
−
1 0 1
1 1 1
−
P
−1
−1 0 2 −1 −1 3
P =
es diagonalizable, ya que la matriz
es invertible y
AP =
1/6 3/6 2/6
2/6 0/6 2/6
−
1/6 3/6 2/6
−
−
3 1 0
−1 0 2 −1 −1 3
1 2 1
1 0 1
−
− 1 1 1
= diag(1 , 3, 4).
LEMA 6.1. Sea A Mn×n (R) diagonalizable, con A = P DP −1 , D = diag (λ1 , λ2 ,..., los valores propios de A son λ1 , λ2 ,..., λn .
∈
TEOREMA 6.27. Sea A
M n×n (R) y sean λ1 , λ2 ,...,λr
n
), entonces
R los autovalores de A de multipli-
cidades algebraicas ma (λ1 ), ma (λ2 ),...,ma (λr ). Entonces A es diagonalizable si y s´ olo si:
∈ ∈ i) m (λ ) + m (λ ) + ··· + m (λ ) = n (todas las ra´ıces de p a
1
a
2
a
r
A
(λ) son reales).
ii) Para cada autovalor λi se tiene que mg (λi ) = m a (λi ). ´ DEMOSTRACION.
Ejercicio.
TEOREMA 6.28. Sea A email
[email protected]
∈M
n×n
(R). 289
βo
ξ £vι
−
−o
ζℏ
so
z
290
i) Si A tiene n valores propios distintos, entonces A es diagonalizable. ii) Si A es diagonalizable con autovalores λ1 , λ2 ,...,λr , entonces se tiene la suma directa R n = EA (λ1 ) EA (λr ) y EA (λi ) 1,...,r . j =i EA (λj ) para todo i
⊕···⊕
´ DEMOSTRACION.
Ejercicio.
Algoritmo para diagonalizar una matriz
∈{
}
A
①
Calculo de los valores propios de la matriz A : λ 1 , λ 2 ,...,λp comprobando si todos pertenecen al cuerpo K .
②
Obtenci´on de la dimension de los subespacios propios asociados a los valores propios con ordenes de multiplicidad mayor que uno, observando si coinciden las dimensiones con los ordenes de multiplicidad respectivos.
③
Determinaci´on de sendas bases B1 , B 2 ,...,Bp para los subespacios propios V1 , V2 ,...,Vp .
④
Construcci´on de la base de autovectores: B = B 1
⑤
La matriz P que tiene por columnas a los vectores de B , permite la diagonalizaci´on de A: D = P −1 AP . La matriz diagonal D tiene en la diagonal principal a los valores propios, en el mismo orden que sus vectores propios correspondientes en la base B y repitiendose pj veces cada λ j , j = 1,...,p
∪ B ∪···∪ 2
Bp .
EJEMPLO 6.18. Diagonalizar, si es posible, la siguiente matriz
A=
−
1 3 3
3 5 3
−
− 3 3 1
´ SOLUCION.El algoritmo sigue los siguientes pasos: Paso I: Encontrar los valores propios de
A.
Resolvemos la ecuaci´on caracter´ıstica, det(A grado n en λ. El determinante de ( A
− λI ) = 0. Esta ecuaci´on contiene un polinomio de
λI ) es en este ejemplo
− det
− − 1
λ 3 3
3
− −
3 5 λ 3 3 1 λ
−−
=
y por tanto tenemos como valores propios λ = 1 y λ =
−(λ − 1)(λ + 2)
2
−2 (doble).
¡CUIDADO! Si hay n autovalores distintos la matriz es diagonalizable. En caso contrario (como en el ejemplo) no podemos afirmar si es diagonalizable o no. email
[email protected]
290
βo
ξ £vι
−
−o
ζℏ
so
z
291
Paso II: Encontrar los vectores propios asociados a los valores propios.
Este es el paso cr´ıtico. Necesitamos n vectores propios linealmente independientes para que la matriz sea diagonalizable. Para encontrar los vectores propios tenemos que encontrar una base de N (A λI ) para cada uno de los valores propios. Los vectores que formen esas bases ser´an los vectores propios asociados a A . Cada valor propio tiene como m´aximo tantos vectores propios asociados como multiplicidad tenga como ra´ız de la ecuaci´on caracter´ıstica. En nuestro caso, A ser´a diagonalizable si tiene tres vectores propios linealmente independientes.
−
λ = 1: Calculamos una base para N (A (A
− I) =
−
0 3 3
Por tanto la dimensi´on de N (A
λ=
3 6 3
−
− I ):
− − ∼ 3 3 0
3 0 0
−6 −3 3 3 ∼ −3 −3
1 2 1 0 1 1 0 0 0
− I ) es 1 y una base para este espacio es
−2: Calculamos una base para
v1 =
N (A + 2 I ):
(A + 2 I ) =
3 3 3
3 3 3
3 3 3
−
1 1 . 1
1 1 1 0 0 0 0 0 0
− − − ∼ − −
La dimensi´on de N (A + 2I ) es 2 (hay dos variables linealmente independientes) y una base para este espacio es 1 1 1 , 0 . v2 = v3 = 0 1 Hay tres vectores propios linealmente independientes entonces la matriz Paso III : Escribir
A = P DP
−1
A es diagonalizable
.
La matriz D es diagonal, tiene los valores propios colocados en la diagonal y 0 en el resto. Cada valor propio aparece tantas veces como sea su multiplicidad. El orden en que se colocan los valores propios no importa, determina el orden en el que hay que colocar los vectores propios en P . La columna en la que est´e situado un valor propio en D tiene que corresponder a la columna en la que est´e el vector propio asociado en P . Formamos las matrices D y P con los datos del ejemplo:
D=
1 0 0
0 2 0
−
− 0 0 2
,
| |
P = (v1 v2 v3 ) =
−
1 1 1
−1 −1 1 0
0 1
.
Conviene comprobar que A = P DP −1 (si las cuentas est´an bien hechas, P tiene columnas lineal mente independientes y por tanto es invertible). email
[email protected]
291
βo
ξ £vι
−
−o
ζℏ
so
z
292
EJEMPLO 6.19. El polinomio caracteristico de la matriz A =
1 0 , es 1 1
2
− λ)
pA (λ) = (1
2
Los valores propios A son,propios por tanto, ıcessoluciones de este polinomio: (1 del λsistema ) = 0,homog´ as´ı λ = 1 es una ra´ız doble. Los de vectores de Alas sonra´ las no triviales eneo: (A
−
x = y
0 0 1 0
− I )v = 0,
0 , 0
x= 0
Consecuentemente, los vectores propios de A son los vectores de la forma (0 , y ) para cualquier escalar no nulo y R.
∈
Ahora bien, puesto que A posee un ´unico valor propio λ = 1 que es ra´ız doble de su polinomio caracter´ıstico, es decir, su orden de multiplicidad es 2. El subespacio propio asociado es V1 = (0, y ) : y R , verific´andose, por tanto que dim V1 = 1 = 2. Al no coincidir la dimension de V1 con el orden de multiplicidad de λ = 1 como ra´ız del polinomio caracter´ıstico, concluimos, mediante este procedimiento, que A no es diagonalizable.
{
∈ }
EJEMPLO 6.20. Sea la matriz A =
7 0 0
0 0 2 4 . 6 0
−
´ SOLUCION.Sus valores propios son las ra´ıces de su polinomio caracter´ıstico:
| − λI | =
pA (λ) = A
7
−λ 0 0
−
0
0 4 λ
−2 − λ 6
λ1 = 7,
λ2 =
−6,
= (λ
− 7)(λ + 6)(4 − λ) = 0,
λ3 = 4
A es diagonalizable por poseer tres valores propios reales y distintos entre si. Los vectores propios asociados a λ1 = 7 son las soluciones no triviales del sistema homog´eneo: (A
− 7I )v = 0, {
− − ∈ }
0 0 0
0 9 6
0 4 7
x y z
=
− 0 0 0
,
9y + 4z = 0 , 6y 7z = 0
−
x = α y = 0 z = 0
Luego, V7 = (α, 0, 0) : α R = u1 = (1, 0, 0) . Observemos que dim V7 = 1, como ya esper´abamos por ser λ1 = 7 un valor propio simple de A.
λ2 =
Procedemos de igual modo para el calculo de los vectores propios asociados a (A + 6 I )v = 0,
email
[email protected]
13 0 0 0 4 4 0 6 6
x y z
=
0 0 0
292
,
13x = 0 , y+z = 0
−6:
x = 0 y = β z = β
−
βo
ξ £vι
−
−o {
ζℏ
so
−
Por tanto, V−6 = (0, β, β ) : β
∈ R} =
z
293
−
u2 = (0, 1, 1) , tambi´en de dimension uno.
{
De manera an´aloga se obtiene que V4 = (0, 2γ, 3γ ) : γ
∈ R} =
u3 = (0, 2, 3) .
7 0 0 0 6 0 , y la relaci´on 0 0 4 entre ambas matrices es: D = P −1 AP siendo P la matriz que permite la diagonalizaci´ on y que tiene por columnas a sendos vectores propios asociados a cada uno de los tres valores propios de 1 0 0 A: P = 0 1 2 . 0 1 3 La matriz A es, en consecuencia, semejante a la matriz diagonal D =
−
−
Si hici´eramos la interpretaci´ on de A como la matriz asociada al endomorfismo T de R3 tal que T (x) = Ax, x R 3 , de los c´alculos anteriores deducir´ıamos que T es una transformaci´on lineal diagonalizable y que D = [T ]B , siendo B la base de R 3 formada por vectores propios de T :
∀ ∈
−
B = u1 = (1, 0, 0), u2 = (0, 1, 1), u3 = (0, 2, 3)
EJEMPLO 6.21. Sea la matriz A =
7 0 0
0 0 2 4 . 6 0
−
´ SOLUCION.Sus valores propios son las ra´ıces de su polinomio caracter´ıstico:
| − λI
pA (λ) = A
− | − − − ∈ } − =
1
−λ 1 1
2
3 3
λ
2
2
3
= λ 2 (6
λ) = 0,
λ1 = 6,
λ2 = 0, ra´ız doble
λ
Los vectores propios asociados al valor propio λ2 = 0, son las soluciones no triviales del sistema homog´eneo: (A
− 0I )v = 0,
Luego, V = ( 2α
1 2 3 1 2 3 1 2 3
3 ,
x y z
, ) : α, β
=
0 0 0
x + 2y + 3 z = 0 ,
,
− − 3β
x = 2α y = α z = β
= v = ( 2, 1, 0), v = ( 3, 0, 1) .
{− − R Como dimV = 2 =orden de multiplicidad del valor propio 0 como ra´ız del polinomio caracter´ıstico, 0
0
2
deducimos que A es una matriz diagonalizable.
3
6 0 0 0 0 0 . Para obtener la relaci´on existente entre 0 0 0 ambas matrices A y D , necesitamos calcular el subespacio propio asociado al valor propio λ 1 = 6, cuya dimension conocemos (dim V6 = 1) por ser 6 una ra´ız simple de pA (λ). La matriz A es semejante a la matriz D =
email
[email protected]
293
βo
ξ £vι
−
−o
ζℏ
so
z
294
Los vectores propios asociados al valor propio λ1 = 6, son las soluciones no triviales del sistema homog´eneo: (A
− − − ∈ } − − ∪ − − − ··· ··· 5 1 1
− 6I )v = 0, {
Luego, V6 = (
, ,) : γ
2 4 2
3 3 3
x y z
0 0 0
=
x 4y + 3 z = 0 , x + 2 y 3z = 0
,
R = v1 = (1, 1, 1) .
−
x = γ y = γ z = γ
Con una notaci´on similar a la utilizada en la teor´ıa que sustenta este ejemplo, una base de V6 es B1 = v1 = (1, 0, 0) y una base de V 0 es B 2 = u2 = ( 2, 1, 0), v3 = ( 3, 0, 1) . As´ı, una base de
−
vectores propios de R 3 (cuya existencia es condici´on necesaria y suficiente para la diagonalizaci´on de la matriz A ) es:
B = B1
−
B2 = v1 = (1, 0, 0), u2 = ( 2, 1, 0), v3 = ( 3, 0, 1)
Ya puede escribirse la relaci´on entre las matrices A y D : D = P −1 AP siendo la matriz que permite 1 2 3 0 . la diagonalizaci´on P = 1 1 1 0 1
EJEMPLO 6.22. Demostrar que la matriz
1 1 .. .
A=
1 1 .. .
1 1
es diagonalizable.
.. .
···
1 1 .. . 1
´ SOLUCION.Vamos a demostrar que los ´unicos valores propios de A son n y 0, adem´as veremos que dim ( E (n)) = 1 y que d im ( E (0)) = n 1. El resultado es entonces consecuencia del Teoream .
−
N´otese que en efecto A (1, ..., 1)T = n. (1, ..., 1)T . Adem´as, sea (x1 ,...,x n )T E (n), entonces + xn = nx 1 ,...,x 1 + + xn = nxn , o sea que, A (x1 ,...,x n )T = n. (x1 ,...,x n )T , es decir, x1 +
∈
nx1 = = nx n , lo cual implica que x 1 = = x n , es decir, ( x1 ,...,x n )T es m´ultiplo de (1 , ..., 1)T . Veamos ahora los vectores propios de 0: n´otese que 0 es valor propio con vector propio (0, 0...., 1, 1)T . Sea ( x1 ,...,x n )T E (0), entonces A (x1 ,...,x n )T = 0, es decir, se obtiene la ´unica ecuaci´on x1 + + xn = 0, la cual evidentemente se satisface por todas las n -plas de la forma
···
···
··· ···
···
∈
− − x −···− La dimensi´on de este espacio es claramente n − 1. (x1 ,...,x
email
[email protected]
n−1
, x1
2
294
−
xn−1 )T .
βo
ξ £vι
−
−o
ζℏ
so
z
295
∈
TEOREMA 6.29. Sea A Mn×n (R) con valores propios λ1 , λ2 ,...,λn , entonces los valores propios de Ak son λ k1 , λk2 ,...,λkn . Cada vector propio de A sigue siendo vector propio de Ak , y si P diagonaliza a A, entonces P tambi´en diagonaliza a Ak . ´ DEMOSTRACION. −1
Supongamos que A es una matriz diagonalizable semejante a la matriz diagonal D = P AP , para una cierta matriz inversible P , entonces debemos demostrar que: Ak = P Dk P −1 para cualquier numero natural k . Utilizamos el m´etodo de inducci´ on completa en la demostraci´on. Para k = 2:
A2 = (P DP −1)(P DP −1 ) = P D 2 P −1 . Supongamos la igualdad cierta para k
− 1 y probemosla para
k:
Ak = AAk−1 = (P DP −1 )(P Dk−1P −1 ) = P Dk P −1 . Si A es inversible, entonces λ = 0 no es valor propio de A, por consiguiente existe D −1 y sera
A−1 = P DP −1
−1
= P D −1 P −1
De nuevo por inducci´on se demostrar´ıa para cualquier numero entero k .
Observaci´ on Para obtener Dk simplemente se elevan los elementos de la diagonal principal de D a la k -´esima potencia y entonces, utilizando la proposici´on anterior, es f´acil y r´apido calcular Ak a partir de P y D . 5
EJEMPLO 6.23. Calcular A , siendo A =
1 2 3 1 2 3 1 2 3
´ SOLUCION.Seg´un se demostr´o en el ejemplo 3.13, P −1 AP para 6 0 0 D= 0 0 0 , P = 0 0 0
Entonces,
A5 = P D 5 P −1 =
email
[email protected]
1 1 1
−2 1 0
A es diagonalizable y se verifica que D = 1 1 1
− − − 3 0 1
5
6 0 0
0 0 0 0 0 0
295
1 6 1 6 1 6
−2 −3 1 0
0 1
1 3 2 3 1 3
−
− 1 2 1 2 1 2
=
64 65 3 5 6 64 3 5 6 64 3
65 2 65 2 65 2
.
βo
ξ £vι
−
6.12.
−o
ζℏ
so
z
296
Valores y Vectores Propios de una Transformaci´on
El texto lamentablemente solo habla de valores propios de una matriz y de su uso para obtener matrices similares en forma diagonal. El concepto de valor y vector propio es mas profundo que esto y nosotros veremos desde otra perspectiva lo que esta presentado en su libro. Primero definiremos que es un valor y vector propio de una transformaci´ on y luego lo restringiremos a matrices. Luego veremos que significa diagonalizar y finalmente algunas aplicaciones importantes de este tema.
´ 6.10. Sea T : V DEFINICION elemento v V, v = 0 de forma que
∈
→ V,
una transformaci´on lineal, si existe un valor
λ y un
T v = λv
se dice que λ es valor propio de T y que v es el vector propio correspondiente. Observacion: v = 0 siempre es soluci´on de T v = λv, pero vamos a buscar otras soluciones no triviales.
EJEMPLO 6.24. Para la transformaci´on lineal T : R2 R2 definida por T (x, y ) = (2 x, 3y ), a = 2 es un valor propio con vector propio (6 , 0); a = 3 es tambi´en un valor propio de T con vector propio (0 , 2).
→
−
´ 6.11. Sea T : V → V una transformaci´on lineal y a ∈ K , el conjunto E (a) = {DEFINICI v ∈ V | T (vON ) = a . v } es un subespacio de V ; n´otese que E (a) = 0 si y s´olo si a es un valor
propio de T , en tal caso E (a) se denomina el espacio propio de T correspondiente al valor propio a. EJEMPLO 6.25. Existen transformaciones lineales sin valores propios, es decir, E (a) = 0 , para cada a K . En efecto, la transformaci´on T : R2 R2 definida por T (x, y ) = (y, x) no tiene valores propios.
∈
→
−
1
→
0
EJEMPLO 6.26. Sea D : C C la operaci´on derivada sobre el conjunto de funciones diferenciables, encontramos los valores propios escribiendo la ecuaci´ on correspondiente
Df = λf Esta es una ecuaci´on diferencial que podemos resolver por variables separables: y ′ = λy , Exact solution is : y (x) = e λx C1
y ′ = λy y (x) = eλx C1 Aqui vemos que λ puede ser cualquier valor real y que f el valor propio correspondiente debe ser de la forma f ( x) = e λx C1 . Observamos que la derivada tiene un numero infinito de valores propios y que para cada valor propio hay un numero infinito de vectores propios asociados. Sin embargo la dimension del espacio de vectores propios asociados con el valor propio λ, es Eλ = f /f ( x) = eλx C1 tiene dimension 1.
{
}
email
[email protected]
296
βo
ξ £vι
−
−o
ζℏ
so
z
297
Ahora vamos a suponer que la dimension del espacio V es finita: El problema de encontrar valores propios se puede plantear de la siguiente manera:
Tv
T v = λv = 0
− λv
Si A es la matriz que representa a T entonces podemos reescribir esta ultima igualdad como:
− −
Av λv = 0 (A λi )v = 0 Esto es un sistema de ecuaciones homogeneo, el cual siempre tiene como soluci´ on trivial v = 0. Esta soluci´on no nos interesa. Para que un sistema no homogeneo tenga una soluci´ on no trivial (es decir la soluci´on no sea unica) debe suceder que: det( A
−λ )= 0 i
Esta ultima igualdad resulta en un polinomio de grado n donde n es el orden de la matriz. Por tanto poderemos encontrar n raices complejas de este polinomio. A este polinomio se le llama
polinomio carateristico. En conclusion si V tiene dimension finita, T tiene una matriz A que le representa, para encontrar los valores propios de T resolvemos el polinomio carateristico asociado a A.
No entendieron nada? Miren el siguiente ejemplo antes de gritar auxilio o tirar la computadora por la ventana. EJEMPLO 6.27. Sea T : R2 R2 , tal que T ( x, y ) = (x + 2 y, x) , para encontrar los valores propios de T procedemos a encontrar la matriz que representa a T respecto a la base canonica:
→
T ( i) = (1 , 1) T ( j ) = (2 , 0) Por tanto
− 1 2 1 0
A=
Ahora encontramos el polinomio caracteristico de A utilizando la igualdad det( A
1 2 1 0
λ
1 0 0 1
=
1 1
−λ
− −
−λ)=0 i
2
2
λ 2
−λ + λ Igualamos el polinomio caracteristico −λ + λ − 2 = 0, {λ = −1} , {λ = 2} y obtenemos las soluciones {λ = −1} , {λ = 2} . Por tanto T tiene dos valores propios λ = −1, λ = 2. Para encontrar =
2
1
email
[email protected]
297
2
βo
ξ £vι
−
−o
ζℏ
so
z
298
los vectores propios regresamos a la definici´on de vector propio, poniendo v = (x, y ):
1
−
− −
T v λv = 0 ( A λi ) v = 0 λ 2 x 0 =
1 λ y Este es el sistema de ecuaciones reemplazando λ1 =
− − { − ∈ } x y
2 2 1 1
0 1 tenemos: 0 0
=
2x + 2y = 0 x+y= 0 De este sistema claramente obtenemos que y = x. Por tanto el espacio de vectores asociado a λ1 = 1 es x Eλ = /x R x
−
−
1
−
Una base para este conjunto es el vector v1 = (1, 1) .
Ahora encontramos el espacio del valor propio λ2 = 2, de la misma manera: 1 1
x y x y
2 2
0 0 0 0
−− − − ∈ 2
1 2
1
2
= =
De aqui obtenemos que x = 2y y por tanto
2y y
Eλ = 2
/y
R
Una base para este espacio es el vector v2 = (2, 1) . ´ : Podemos notar que B = v1 , v2 es una base para R2 y que la la matriz que OBSERVACION representa a T respecto a esta base es la matriz diagonal:
{
}
− 0
1 0 2
Demuestre que esta matriz es la matriz que representa a T en la base B .
→
TEOREMA 6.30. Sea T : V V una transformaci´on lineal de un espacio V . Sean a1 , ... ,a r valores propios diferentes con vectores propios v1 , ... ,v r , respectivamente. Entonces v1 , .. . ,v r son L I. En particular, si V es de dimensi´on finita n 1 , entonces T tiene a lo sumo n valores propios diferentes. Si T tiene exactamente n valores propios diferentes, entonces v1 , .. . ,v n es una base de V .
≥
{
}
El rec´ıproco de la proposici´ on anterior no es siempre cierto, por ejemplo, si T = I V ,cualquier base de V pertenece a 1 , que es el ´unico valor propio de IV . email
[email protected]
298
βo
CAP´ITULO 7
Formas can´ onicas elementales
7.1.
Introducci´ on
Se enuncia sin demostraci´on el resultado referente a la existencia de la forma can´ onica de Jordan para matrices cuadradas de t´erminos complejos. Se detalla, con ejemplos resueltos, el c´alculo de la forma can´onica y de la matriz de cambio de base de Jordan para matrices diagonalizables n n y para matrices cualesquiera 2 2, 3 3 y 4 4.
×
7.2.
×
×
×
Multiplicidad algebraica y geom´ etrica.
Sea A una matriz cuadrada n
n
× n con t´erminos complejos. Sea v un vector de C : v =
´ 7.1. v es vector propio de A con valor propio λ si v = 0 y Av = λv. DEFINICION
x1 .. . . xn
Se supone conocido por el lector el m´etodo para hallar los valores propios y vectores propios de A, y los siguientes resultados: ①
−
−
λ es valor propio de A si y solo si det( A λI ) = 0. El determinanate de la matriz A λI es un polinomio de grado n en λ, llamado polinomio caracter´ıstico de A. Sus ra´ıces son los valores propios de A. 299
ξ £vι ②
−
−o
ζℏ
so
z
300
En el campo complejo det(A
− λI ) = −(λ − λ ) 1
m1
(λ
m2
mk
− λ ) ··· (λ − λ ) 2
k
donde λ 1 , λ 2 ,...,λk son las k ra´ıces diferentes del polinomio caract´ıstico, y m 1 , m 2 ,...,mk son sus multiplicidades respectivas. Se tiene m1 + m2 + + mk = n . ③
···
−
Se llama subespacio propio de valor propio λi al subespacio E (λi ) = ker( A λi I ) formado por todos los vectores v tales que ( A λi I )v = 0. Es decir, E (λi ) est´a formado por el vector nulo y todos los vectores propios de valor propio λi . Es un subespacio de dimensi´ on ri con 1 ri mi . El subespacio E (λi ) se obtiene resolviendo el sistema lineal homog´eneo
−
≤ ≤
(A
− λ I) i
x1 .. . xn
=
0 .. . 0
que es siempre compatible e indeterminado con ri grados de libertad. ④
Eligiendo ri vectores linealmente independientes que verifiquen el sistema anterior, se tendr´a una base del subespacio propio E (λi ) (formada por ri vectores propios de A, todos con el mismo valor propio λi ).
´ 7.2. Al n´umero mi , multiplicidad de la ra´ız λi en el polinomio caracter´ DEFINICION ıstico de A, se le llama multiplicidad algebraica de λ i . Al n´umero r i , dimensi´on del subespacio propio E (λi ) de valor propio λi , igual a la cantidad de grados de libertad del sistema compatible indeterminado (A λi I )v = 0, se le llama multiplicidad geom´etrica de λi .
−
TEOREMA 7.1. Para cada valor propio λi se cumple: 1
7.3.
≤r ≤m i
i
Matrices diagonalizables
´ 7.3. Una matriz cuadrada A, n n, se dice diagonalizable si existe una base de DEFINICION Cn (es decir n vectores linealmente independientes) formada exclusivamente con vectores propios de A.
×
Es inmediato que A es diagonalizable si y solo si la uni´ on de bases de sus subespacios propios es una base de C n , es decir, si y solo si r1 + r2 + + rk = n .
···
El nombre diagonalizable proviene del hecho que estas matrices tienen forma can´ onica de Jordan que es una matriz diagonal, como se ver´a m´as adelante. Obs´ervese que si A es diagonal,es decir si todos sus t´erminos fuera de la diagonal principal son nulos, entonces la base can´onica est´a formada por vectores propios de A , y resulta, por definici´on que A es diagonalizable. En el ejemplo 7.2 veremos una matriz diagonalizable que no es diagonal. email
[email protected]
300
βo
ξ £vι
−
−o
ζℏ
so
z
TEOREMA 7.2. A es diagonalizable si y solo si ´ DEMOSTRACION.
y m1 + m2 +
··· + m
k
301
ri = m i para todo valor propio λi de A.
···
≤m
A es diagonalizable si y solo si r 1 + r2 + + rk = n . Como siempre r i = n , lo anterior se cumple si y solo si ri = m i .
i
COROLARIO 7.1. Si mi = 1 para todo valor propio λi (o sea, si hay exactamente n ra´ıces diferentes del polinomio caracter´ıstico), entonces A es diagonalizable. ´ DEMOSTRACION.
Si mi = 1, como 1
el teorema anterior.
≤ r ≤ m , se tiene r = 1, y entonces r = m i
i
i
i
i
aplic´andose
El rec´ıproco del corolario es falso, como lo muestra el ejemplo que sigue:
4 0 0 4 λ1 = 4 con m1 = 2 y r1 = 2.
EJEMPLO 7.1. A =
es diagonalizable porque es diagonal. Tiene un solo valor propio
EJEMPLO 7.2.
A=
− 4 1
2 , 1
det(A
− λI ) = 4 −1 λ 1−−2λ
= λ2
− 5λ + 6 = 0 ,
λ1 = 3 , λ2 = 2
A 2es=21 (multiplicidades 2 y tiene dos valores propios Entonces diferentes, rentonces es diagonalizable . En este caso m1 = 1 m algebraicas). etricas). 1 = 1 r2 = 1 (multiplicidades geom´
×
Hallemos una base de C 2 formada por vectores propios de A . Para λ1 = 3: (A
− 3I )v = 0,
−
− −
(4 3)x1 2x2 = 0 , x1 + (1 3)x2 = 0
x1 = 2x2 .
Un grado de libertad, entonces r1 = 1. Eligiendo, por ejemplo x2 = 1, se tiene una base de 2 E (3) (subespacio propio de valor propio 3), formada por el vector v1 = 1
Para λ2 = 2: (A
(4
2I )v = 0,
− 2)x − 2x + (1 − 2)x 1
2
=0
, x1 = x 2 . =0 Un grado de libertad r2 = 1. Eligiendo, por ejemplo x2 = 1, se tiene una base de 1 (subespacio propio de valor propio 2), formada por el vector v2 = 1
−
x1
2
E (2)
v1 y v2 son linealmente independientes, y forman una base de C2 integrada con vectores propios de A.
email
[email protected]
301
βo
ξ £vι
−
7.4.
−o
ζℏ
so
z
302
Forma can´onica de Jordan
Estudiaremos el caso cuando la matriz resulta no diagonalizable, que por teorema se tiene para ri < mi , esto es, cuando se obtienen menos vectores propios que la multiplicidad de λi . En este caso, si deseamos calcular la forma de jordan, necesitamos obtener de alguna manera mi r i vectores. A estos vectores que necesitamos, se denominan vectores propios generalizados. Dado un vector propio v , “Av = λi v ”, el vector propio generalizado v1 se obtiene resolviendo el sistema ( A λ i ) v1 = v
−
−
Si para completar el espacio necesitamos otro vector generalizado v2 , es posible obtenerlo resolviendo el sistema (A λi )v2 = v 1
−
y as´ı sucesivamente.
Los vectores v 1 , v 2 ,...,vs as´ı obtenidos forman una cadena, que llamaremos la cadena de Jordan de largo s asociada al vector propio v . Supongamos que tenemos una matriz A tiene un valor propio λ1 de multiplicidad algebraica 5 “m1 = 5” y multiplicidad geom´etrica 3 “r1 = 3” (esto es, tenemos 3 vectores propios u , v y w asociados a λ 1 ). Luego, tenemos que obtener los 2 vectores restantes (vect ores propios generali zados). Dichos vectores pueden ser obtenidos con s´olo uno de estos esquemas:
Au = λ 1 u Au1 = λ 1 u1 + u Av = λ 1 v Av1 = λ 1 v1 + v Aw = λ 1 w Au = λ 1 u Au1 = λ 1 u1 + u Au2 = λ 1 u2 + u1 Av = λ 1 v Aw = λ 1 w
Au = λ 1 u Au1 = λ 1 u1 + u Av = λ 1 v Aw = λ 1 w Aw1 = λ 1 w1 + w Au = λ 1 u Av = λ 1 v Av1 = λ 1 v1 + v Av2 = λ 1 v2 + v1 Aw = λ 1 w
Au = λ 1 u Av = λ 1 v Av1 = λ 1 v1 + v Aw = λ 1 w Aw1 = λ 1 w1 + w Au = λ 1 u Av = λ 1 v Aw = λ 1 w Aw1 = λ 1 w1 + w Aw2 = λ 1 w2 + w1
Con estos conceptos, procedemos a estudiar la forma que tendr´ a la matriz de Jordan, la cual va a depender del n´umero de cadenas que se necesiten formar para completar los vectores necesarios. Pasamos ahora a definir las celdas, bloques y matrices de Jordan. Sea K un cuerpo cualquiera y λ1 un elemento de K , la matriz
email
[email protected]
302
βo
ξ £vι
−
−o
ζℏ
so
Jλ
1
,k
=
≥
z
303
··· ···
λ1 1 0 0 0 λ1 0 0 .. .. . . . .. . .. . . . .. .. .. . . . 1 . . . 0 0 0 λ1
···
k ×k
de orden k 1 se denomina celda o bloque elemental de Jordan de orden k correspondiente al elemento λ1 . El caso k = 1 debe entenderse como la matriz [ λ1 ] de tama˜no 1 1.
×
´ 7.4 (Celda de Jordan). La celda de Jordan de tama˜no k DEFINICION es la matriz cuadrada k k que tiene
×
× k y valor propio λ
1
el n´umero λ1 en la diagonal principal el n´umero 1 en la supradiagonal principal el n´umero 0 en los restantes t´erminos
× 3 y valor propio 5 es
EJEMPLO 7.3. La celda de Jordan de tama˜no 3 de Jordan de tama˜no 2 y valor propio 8 es [8]
× 2 y valor propio −4 es −04 −14
5 1 0 0 5 1 . La celda 0 0 5
. La celda de Jordan de tama˜ no 1
LEMA 7.1. λ1 es el ´unico valor propio del bloque de Jordan de tama˜no k con multiplicidad algebraica k y con multiplicidad geom´ etrica 1.
×1
× k y valor propio λ , 1
´ DEMOSTRACION.
subdiagonal principal, en vez de hacerlo en la supradiagonal. La teor´ıa resulta similar a la que se expone aqu´ı, pero el c´alculo de las matrices de cambio de base que veremos m´ as adelante es diferente. Nota 7.1 En alguna bibliograf´ıa se define celda de Jordan poniendo 1 en la
La matriz Jλ con m , 1
≥ 1 celdas de Jordan, J Jλ = 1
λ1 ,k1
Jλ
1
,k1
.. . 0
, Jλ
1
,k2
, .. . ,J
··· .
0 .. .
..
Jλ
1
,km
λ1 ,km
de ´ordenes k 1
≥ k ≥···≥
km
2
,
se denomina bloque de Jordan correspondiente al elemento λ1 .
´ 7.5 (Bloque de Jordan). Un bloque de Jordan de tama˜no m m y valor propio DEFINICION λ1 es una matriz cuadrada m m formada por
×
×
email
[email protected]
303
βo
ξ £vι
−
−o
ζℏ
so
z
304
una o m´as celdas de Jordan de diversos o iguales tama˜ nos, todos con el mismo valor propio λ1 , ubicados diagonalmente (es decir, tales que la diagonal principal de cada bloque es parte de la diagonal principal del suprabloque) ceros en los restantes t´erminos del bloque.
×
EJEMPLO 7.4. Un suprabloque de Jordan de tama˜no 6 6 de valor propio 7, formado por tres bloques de Jordan de tama˜nos 2 2, 3 3 y 1 1 respectivamente es:
×
×
×
710000 070000 007100 000710 000070 000007
Como ejercicio verif´ıquese que λ1 es el ´unico valor propio del suprabloque de Jordan de tama˜ no m m , con multiplicidad algebraica igual a m y multiplicidad geom´etrica igual a r que es la cantidad de bloques de Jordan que forman el suprabloque.
×
Sean λ1 ,.. . ,
k
elementos diferentes pertenecientes al cuerpo K , k
Jλ .. . 0
··· .. . ···
1
0 .. . Jλ
k
≥ 1,la matriz
,
donde Jλ es un bloque de Jordan correspondiente al valor correspondiente a los elementos λ1 ,..., k . i
λi se denomina matriz de Jordan
´ 7.6 (Forma Can´onica de Jordan). Una matriz cuadrada n DEFINICION can´ onica de Jordan si est´a formada por
× n es una forma
uno o m´as bloques de Jordan, ubicados diagonalmente. ceros en los restantes t´erminos de la matriz EJEMPLO 7.5. Una forma can´onica de Jordan con un suprabloque 2 bloques de valor 7, un suprabloque suprabloque 1 propio 1 de valor propio 3, es: 3
×
email
[email protected]
7 0 0 0 0 0
0 7 0 0 0 0
× 2 formado por dos
× 3 formado por dos bloques de valor propio 0, y un 0 0 0 0 0 0
0 0 1 0 0 0
0 0 0 1 0 0
304
0 0 0 0 0 3
βo
ξ £vι
−
−o
ζℏ
so
z
305
V´ease que en este ejemplo la matriz tiene valores propios λ 1 = 7 con multiplicidad algebraica 2 y geom´etrica 2, λ2 = 0 con multiplicidad algebraica 3 y geom´etrica 2, y λ3 = 3 con multiplicidad algebraica 1 y geom´etrica 1.
Es f´acil probar el siguiente teorema:
TEOREMA 7.3. Una forma can´onica de Jordan tiene como valores propios a los n´ umeros de la diagonal, con multiplicidad algebraica igual a la cantidad de veces en que est´ a repetido en la diagonal (o sea igual al tama˜ no del suprabloque respectivo), y multiplicidad geom´etrica igual a la cantidad de bloques que forman el respectivo suprabloque.
diagonal (es decir, todos sus t´erminos fuera de la diagonal principal son nulos) si y solo si los bloques de Jordan tienen todos tama˜ no 1 1, y esto ocurre si y solo si la cantidad de bloques que forman cada suprabloque es igual al tama˜ no del suprabloque, o sea, la multiplicidad geom´etrica es igual a la algebraica para todo valor propio. Usando el teorema 7.4 se concluye que una forma can´onica de Jordan es diagonalizable si y solo si es diagonal . Nota 7.2.- En particular la forma de Jordan es
×
El teorema que sigue es el teorema fundamental de las formas can´ onicas de Jordan, y dice esencialmente que toda matriz cuadrada, mediante un cambio de base, se puede llevar a una forma can´onica de Jordan:
TEOREMA 7.4 (Forma can´onica de Jordan). Sea A una matriz cuadrada n n. Entonces existe una matriz J que es una forma can´onica de Jordan, y una matriz P invertible, ambas n n con t´erminos complejos, tales que: A = P JP −1 ´ 7.7. La matriz J del teorema anterior se llama forma can´onica de Jordan de A. DEFINICION La matriz P se llama matriz de cambio de base de Jordan.
×
×
J y la matriz P de cambio de base de Jordan para la matriz dada A no son ´unicas. En efecto, permutando los suprabloques de J , o los bloques dentro de cada suprabloque, se obtiene otra forma can´onica de Jordan para A. Se puede demostrar que J es u´ nica a menos de permutaciones de sus bloques. Nota 7.3.- La forma can´onica de Jordan
El teorema que sigue permite, en muchos casos, calcular la forma can´ onica de Jordan de mediante el c´alculo de los valores propios de A y de la dimensi´on de sus subespacios propios.
×
A,
TEOREMA 7.5. Sea A una matriz n n. Sean λ 1 ,...,λk sus valores propios diferentes, con multiplicidades algebraicas m 1 ,...,mk y multiplicidades geom´ etricas r 1 ,...,rk respectivamente. Entonces la forma can´onica de Jordan de A tiene k bloques, cada uno de valor propio λi , tama˜no mi mi , y formado por ri celdas.
×
As´ı
J=
J
m1 λ1
.. . 0
email
[email protected]
··· ...
0 .. .
···
Jλm
k
k
,
Jλm = i
i
n×n
305
··· ···
Jλ ,1 0 0 0 Jλ ,2 0 .. .. .. .. . . . . 0 0 Jλ ,r i
i
···
i
i
mi ×mi
βo
ξ £vι
−
donde para 1
−o ≤r ≤r
i
ζℏ
so
z
306
se tiene
Jλ ,r = i
··· ···
λi 1 0 λi .. .. . . . . .
0 0 .. .
. 0
... 1 0 λi
. 0
.
···
0 0 .. .
r ×r
Si P es la matriz que reduc e A a su forma de Jordan, entonces sus m1 primeras columnas satisfacen:
Av1 = λ 1 v1 , esto es v1 es un autovector correspondiente a λ1 Avi = λ 1 vi + vi−1 , i = 2,...,m
1
Los vectores vi i = 2,...,m 1 se llaman autovectores generalizados de A, y la sucesi´on vi ,...,vm se dice que es una cadena de Jordan correspondiente a λ1 . Naturalmente, cada bloque tiene su cadena correspondiente.
EJEMPLO 7.6. Hallemos la forma can´onica de Jordan de A =
− −
1000 1 1 0 0 0 4 0 0 0 0
−
−
1
2
1
´ SOLUCION.Los valores propios: det( A λI ) = (λ 4)(λ + 1)3 , entonces λ1 = 4 λ2 = 1 con multiplicidades algebraicas respectivas m1 = 1 y m2 = 3. Entonces J va a estar formada por dos bloques: uno de valor propio 4 y tama˜ no 1 1, y otro de valor propio 1 y tama˜no 3 3. Para determinar completamente la matriz J necesitamos saber cu´antos celdas forman el bloque de tama˜no 3 3, o sea la multiplicidad geom´etrica r2 del valor propio 1. Para ello hallemos el subespacio propio:
−
− −
×
− ×
−
×
−
x1 x2 (A + I ) x3 x4
=
x1 = 2x4 x3 = 0 x2 , x4 cualesquiera
0 -1 0 0
0 0 0 0
,
r2 = 2
× 3 de valor propio −1, est´a formado por dos celdas. Entonces estos dos celdas tendr´ n tama˜ nos 3. 1× 1 y 2 × 2, ya que 1 y 2 son los ´unicos dos n´umeros naturales mayores o iguales que 1 aque suman Entonces: Luego, el bloque 3
J=
4 0 0 0
00 0 0 -1 1 0- 1
=
4 0 0 0 0 1 0 0 0 1 0 0 0
−
−
− 0 1 1
a menos de una permutaci´on de sus bloques. email
[email protected]
306
βo
ξ £vι
−
−o
ζℏ
so
z
307
A ya es una forma can´onica de Jordan, es innecesario hacer c´alculos para determinar J y P tales que A = P JP −1 . En efecto basta tomar J = A y P = I (I indica la matriz identidad). Nota 7.4.- Si la matriz dada
Las siguientes propiedades de la forma can´onica de Jordan pueden deducirse en forma sencilla de los resultados ya vistos. Demu´ estrense como ejercicio.
´ 7.1. Sea A una matriz n PROPOSICION
× n.
La forma can´onica de Jordan es diagonal si y solo si las multiplicidades geom´etricas son iguales a las algebraicas para todo valor propio de A. (Usando el teorema 7.4 esto sucede si y solo si A es diagonalizable). Si A es diagonalizable entonces su forma can´onica de Jordan es la matriz que tiene en la diagonal los valores propios de A repetidos tantas veces como sus multiplicidades algebraicas, y ceros en todos los dem´as t´erminos. Si la matriz A es 2
× 2 y tiene un solo valor propio doble
igual a 1, entonces su forma can´onica de Jordan es J = ´ DEMOSTRACION.
λ1 con multiplicidad geom´ etrica λ1 1 0 λ1
Existen procedimientos, que no veremos en general, para encontrar −una matriz base de Jordan: es decir una matriz invertible P tal que A = P JP 1 .
P de cambio de
EJEMPLO 7.7. En el ejemplo 3.11 verif´ıquese que P JP −1 = A siendo:
P =
0200 0020 1000 0101
,
P =
0 1/2 0 1/2
Luego P es una matriz de cambio de base de Jordan para
01 0 0 00 1/2 0 0 0 01
A.
En las siguientes secciones veremos c´omo hallar una matriz de cambio de base de Jordan cuando la matriz A es diagonalizable n n, o cuando no es diagonalizable pero es 2 2.
×
7.5.
×
Matrices de Jordan para matrices diagonalizables
Usaremos la siguiente notaci´on:
P = [v1 , v2 ,
×
··· , v ] n
para la matriz n n formada colgando en sus columnas los vectores v i , es decir: la columna i -´esima de la matriz P es la columna formada con las componentes del vector vi de Cn . Por ejemplo, si 2 1 2 1 v1 = y v2 = , entonces [ v1 , v2 ] indica la matriz . 1 1 1 1
−
−
−
email
[email protected]
−
307
βo
ξ £vι
−
−o {
ζℏ
so
z
308
}
Los vectores v1 , v2 ,...,v n son linealmente independientes si y solo si la matriz [ tiene determinante no nulo.
v1 , v2 ,
··· , v ] n
×
TEOREMA 7.6 (C´alculo de J y P cuando A es diagonalizable). Sea A, n n, diagonalizable. Sea v1 , v2 ,...,v n una base de Cn formada con vectores propios de A, de valores propios respectivos λ , λ ,...,λn (aqu´ ı cada valor propio est´a repetido tantas veces como su multiplicidad 1 2 geom´etrica, que es igual a su multiplicidad algebraica, porque A es diagonalizable). Entonces la forma can´ onica de Jordan de A es, a menos de permutaciones de su diagonal principal, la matriz diagonal
{
}
J=
··· ···
λ1 0 0 λ2 .. .. . . 0 0 0 0
0 0 .. .
.. .
··· ···
0 0 .. .
λn−1 0 0 λn
y una matriz de cambio de base de Jordan (es decir, una matriz invertible es P = [v1 , v2 , , vn ]
P tal que A = P JP −1),
···
que se obtiene colgando en sus columnas los vectores propios de A (en el mismo orden en que se escribieron los valores propios respectivos para formar la matriz J ). ´ DEMOSTRACION.
{
}
En la proposici´on 7.1,punto 2, ya se dedujo c´omo es J . Siendo v1 , v2 ,...,v n linealmente independientes, el determinante de P es no nulo, y entonces P es invertible. Falta probar que P JP −1 = A , o, lo que es lo mismo, que AP = P J .
La primera columna de una matriz
×
M , cuadrada n
n es igual a M
1 0 .. . Probemos que las . 0
primeras columnas de AP y de P J son iguales:
AP
1 0 .. .
= Av 1 = λ 1 v1 = λ 1 P
0
1 0 .. .
= P λ1
0
1 0 .. . 0
=P
λ1 0 .. . 0
= PJ
1 0 .. . 0
Luego, las primeras columnas de AP y P J son iguales. An´alogamente se prueba que las columnas j -´esimas son iguales.
EJEMPLO 7.8. Sea la matriz A del ejemplo 7.2. Calculemos la forma can´onica de Jordan y la 4 2 matriz de cambio de base de Jordan. A = . Ya vimos en 7.2 que una base de vectores 1 1
−
email
[email protected]
308
βo
ξ £vι
−
−o {
ζℏ
so
}
propios de A es v1 , v2 con v1 =
λ2 = 2.
2 1
Entonces:
J=
7.6.
309
con valor propio λ1 = 3 y v1 =
3 0
1 1
con valor propio
2 1
P =
− − 0 2
Verifiquemos que A = P JP −1 :
P −1 =
z
1
−1
1 2
PJ =
1 1
6 2 3 2
P JP −1 =
4 1
2 =A 1
Matrices de Jordan para matrices 2
×2
Vamos a determinar todas las posibles formas de Jordan de matrices 2 2. Si A M2×2 (K) su polinomio caracter´ıstico ser´a de grado 2, supongamos que sus ra´ıces p ertenecen al cuerpo K, se presenta tres casos posibles:
×
①
Dos ra´ıces diferentes (en el campo complejo)
②
Una ra´ız doble a con multiplicidad geom´etrica 2.
③
Una ra´ız doble a con multiplicidad geom´etrica 1.
∈
Analicemos cada caso: Si A admite dos autovalores simples a y b, es decir: p(λ) = (λ a)(λ b) con a = b , entonces A es diagonalizable, en particular existe una base u, v cuyos elementos se determinan por las condiciones
① Dos autovalores simples .
−
−
u v
{ }
∈ N (A − aI ) ∈ N (A − bI )
o equivalentemente
de modo que la forma can´onica de Jordan de A es J = es una matriz de cambio de base de Jordan para ´ DEMOSTRACION.
A.
Au = au Av = bv
a 0 y adem´as la matriz P = [u, v ] 0 b
La matriz A es diagonalizable (por el corolario 7.1), y se aplica el teorema 7.6 para calcular la forma can´ onica de Jordan J y una matriz de cambio de base de Jordan P . ② Un autovalor doble. Si
A admite un autovalor doble a, es decir p (λ) = (λ a)2 , aqu´ı hay
−
dos posibilidades: email
[email protected]
309
βo
ξ £vι
−
−o
− −
ζℏ
so
z
310
{ }
a) Si dim( N (A aI )) = 2 entonces A es diagonalizable, en particular si u, v es cualquier base de N (A aI ),
u v
∈ N (A − aI ) ∈ N (A − aI )
o equivalentemente
entonces la forma can´onica de Jordan de A es J = es una matriz de cambio de base de Jordan para
Au = au Av = av
a 0 y adem´as la matriz P = [u, v ] 0 a A.
−
b) Si dim( N (A aI )) = 1 entonces A no es diagonalizable, en particular existe una base u, u1 cuyos elementos se determinan por las condiciones
{
}
∈
−
u1 / N (A aI ) o equivalentemente u = (A aI )(u1 )
−
de modo que la forma can´ onica de Jordan de
Au = au Au1 = au 1 + u
A es J =
P = [u, u1 ] es una matriz de cambio de base de Jordan para
a 0 , adem´as la matriz 1 a A.
´ DEMOSTRACION.
J= donde
λ1 1 = 0 λ1
N=
λ1 0 0 1 + = λ1I + N 0 λ1 0 0
0 1 , 0 0
N2 = N N =
0 0 =O 0 0
Sea Q una matriz de cambio de base de Jordan para A , que existe en virtud del teorema 7.4,y cumple:
A = QJ Q−1 = Q (λ1 I +N )Q−1 = λ 1 QIQ−1 +QNQ−1 = λ 1 QQ−1 +QNQ−1 = λ 1 I +QNQ−1 entonces
A por tanto (A
− λ I) 1
2
− λ I = QN Q 1
−1
= QN Q−1 QNQ−1 = Q NN Q−1 = QN 2 Q−1 = QOQ −1 = OQ−1 = O
de aqu´ı (A
2
− λ I ) v = 0, ∀v 1
− −
Tomemos u1 que no pertenece al subespacio propio E (λ1 ), entonces ( A λ1 I )u1 = 0. As´ı el vector u = (A λ1 I )u1 satisface u = 0. Adem´as (A λ1 I )u = (A λ1 I )2 u1 = 0. Entonces u es un vector no nulo del subespacio propio, es decir, un vector propio.
−
email
[email protected]
310
−
βo
ξ £vι
−
−o
ζℏ
so
z
−
311
Sea α 1 u + α2 u1 = 0. Aplicando A λI a la combinaci´on lineal anterior resulta el vector nulo, es decir: α1 (A λ 1 I )u + α 2 (A λI )u1 = 0, 0 + α 2 (A λI )u1 = 0, de donde 0 + α2 u = 0, como u = 0, se tiene que α2 = 0. Ahora bien, como α1 u = 0, α 1 = 0 As´ı, u y u1 son linealmente independientes, y la matriz P tiene determinante no nulo, o sea, es invertible. Para probar que A = P JP −1, basta mostrar que AP = P J , y para
−
−
−
esto alcanza probar que sus respectivas columnas son iguales. N´ otese que la primera 1 columna de una matriz M 2 2, cualquiera, es M y que su segunda columna es 0 0 M . 1
×
1 = Au = λ 1 u = λ 1 P 0
AP
1 1 = P λ1 =P 0 0
λ1 1 = PJ 0 0
Se concluye que las primeras columnas de AP y de P J son la misma. 0 1
AP
0 +P 1
= Au1 = λ 1 u1 + u = λ 1 P = P
0 1 +P =P λ1 0
1 0 = P λ1 +P 0 1
1 0
0 0 = PJ λ1 1
Se concluye que las segundas columnas de AP y de P J son la misma. Luego AP = P J , lo que termina la prueba.
EJEMPLO 7.9. A = doble, m1 = 2.
− 2
1
−1 −4
, det( A
− λI ) = λ
2
+ 6λ + 9 = ( λ + 3) 2 = 0, entonces λ1 =
−3
Subespacio propio E (λ1 ):
− −− − 2+3 1
Entonces J =
3 0
1
4+3
1
x1 = x2
0 , 0
−
x1 = x2 x2 cualesquiera
r1 = 1
.
−3
∈
Elijamos v2 / E (λ1 ): Tomando x2 = 0, x1 = 0, por ejemplo x1 = 1, se tiene v2 =
v1 = ( A + 3 I ) v2 = As´ı P =
1
−1
1 . Entonces 0
− − − 1 1
1 1
0 = 0
1 1
1 . Verifiquemos que A = P JP −1: 0
P −1 =
− 0 1
email
[email protected]
1 1
PJ =
− − 3 3
2 1
−
311
P JP −1 =
− 2
1
−1 −4
=A
βo
ξ £vι
−
−o
ζℏ
so
z
312
×
A, 2 2, con todos sus t´erminos reales. Si sus valores propios son ambos reales (iguales o distintos) se concluye que la matriz can´ onica de Jordan es real. De los procedimientos vistos, obs´ervese que los vectores v 1 y v 2 que forman las columnas de la matriz de cambio de base de Jordan, se encuentran mediante ecuaciones lineales con coeficientes reales, cuando la matriz A y sus valores propios son reales. Luego, se concluye lo siguiente: Si la matriz A tiene t´erminos reales y todos sus valores propios son reales, entonces la forma can´onica de Jordan es una matriz real, y puede elegirse una matriz de cambio de base de Jordan tambi´en real. Esto significa que no es necesario pasar al campo complejo cuando los valores propios son reales. Sin embargo, aunque la matriz dada sea real, si sus valores propios no lo son, entonces la forma can´onica de Jordan y la matriz de cambio de base de Jordan no son reales, como lo muestra el ejemplo ??. Nota 7.5.- Sea ahora una matriz
7.7.
Matrices de Jordan para matrices 3
×
×3 ∈
Analicemos ahora las p osibles formas de Jordan de las matrices 3 3. Si A M2×2 (K) su polinomio caracter´ıstico ser´ a de grado 3, supongamos que sus ra´ıces p ertenecen al cuerpo K, se presentan los siguientes casos: Si A admite tres autovalores simples a, b y c, es decir: p(λ) = (λ a)(λ b)(λ c), entonces A es diagonalizable, en particular existe una base u,v,w cuyos elementos se determinan por las condiciones
① Tres autovalores simples .
{
}
−
−
−
∈ ∈ ∈
− − −
u N (A aI ) v N (A bI ) w N (A cI )
o equivalentemente
Au = au Av = bv Aw = cw
a 0 0 0 b 0 0 0 c P = [u,v,w ] es una matriz de cambio de base de Jordan para A. de modo que la forma can´ onica de Jordan de A es J =
② Un autovalor simple y otro doble.
su polinomio caracter´ıstico ser´ a p (λ) = (λ
Si A admite un autovalor simple a y otro doble b , a)(λ b)2 con a = b , aqu´ı hay dos posibilidades:
−
−
−
a) Si dim( N (A bI )) = 1 entonces existe una base determinan por las condiciones
email
[email protected]
∈ ∈
− −
u N (A aI ) v1 / N (A bI ) v = (A bI )(v1 )
−
y adem´as la matriz
{u,v,v } de K , cuyos elementos se
o equivalentemente
312
1
3
Au = au Av = bv Av1 = bv 1 + v
βo
ξ £vι
−
−o
ζℏ
so
z
313
a 0 0 0 b 0 y adem´as la matriz 0 1 b P = [u,v,v 1 ] es una matriz de cambio de base de Jordan para A . b) Si dim( N (A bI )) = 2 entonces existe una base u,v,w de K3 , cuyos elementos se de modo que la forma can´onica de Jordan de A es J =
−
determinan por las condiciones u N (A aI ) w N (A bI ) v N (A bI ), independiente con w
∈ ∈ ∈
− − −
{
}
o equivalentemente
a 0 0 0 b 0 0 0 b P = [u,v,w ] es una matriz de cambio de base de Jordan para A. de modo que la forma can´onica de Jordan de A es J =
Au = au Av = bv Aw = bw
y adem´as la matriz
Si A admite un autovalor triple a, tendremos que su polinomio caracter´ıstico ser´ a p(λ) = (λ a)3 , aqu´ı hay tres posibilidades:
③ Un autovalor triple.
−
−
a) Si dim( N (A aI )) = 1 entonces existe una base determinan por las condiciones
3
{u, u , u } de K , cuyos elementos se 1
2
2
u2 / N (A aI ) u1 = (A aI )(u2) u = (A aI )2 (u2)
∈ −− −
o equivalentemente
Au = au Au1 = au 1 + u Au2 = au 2 + u1
a 0 1 a 0 1 P = [u, u1 , u2 ] es una matriz de cambio de base de Jordan para b) Si dim( N (A aI )) = 2 entonces existe una base u,v,v 1 de determinan por las condiciones de modo que la forma can´onica de Jordan de A es J =
−
{
∈ − ∈ − ∈ −
v1 / N (A aI ) v (A aI )(v1 ) u N (A aI ), independiente con v
}
0 0 y adem´as la matriz a A.
K3 , cuyos elementos se
o equivalentemente
Au = au Av = av Av1 = av 1 + v
a 0 0
de modo que la forma can´onica de Jordan de A es J = 00 a1 a0 y adem´as la matriz P = [u,v,v 1 ] es una matriz de cambio de base de Jordan para A . c) Si dim( N (A aI )) = 3 entonces A es diagonalizable, en particular si u,v,w es cualquier base de N (A aI ),
−
email
[email protected]
∈ ∈ ∈
−
− − −
u N (A aI ) v N (A aI ) w N (A aI )
o equivalentemente
313
{
}
Au = au Av = av Aw = aw
βo
ξ £vι
−
−o
ζℏ
so
z
314
a 0 0 a 0 0 P = [u,v,w ] es una matriz de cambio de base de Jordan para entonces la forma can´onica de Jordan de A es J =
0 0 y adem´as la matriz a A.
EJEMPLO 7.10. El operador lineal de R3 cuya matriz asociada en la base can´ onica es A = 2 4 1 0 7 0 no es diagonalizable. 0 5 2
− −
´ SOLUCION.Sus valores propios son 2 y 7, S 2 = [(1 , 0, 0)] y S 7 = [(1 , 1, 1)] y m a (2) = 2. En consecuencia la forma de Jordan del operador es
−
J=
2 0 0 1 2 0 0 0 7
Calculemos una base de Jordan v1 , v2 , v3 de R3 asociada al operador. Para esto observemos que Av1 = 2v1 + v2 , Av2 = 2v2 y Av3 = 7v3 . Por lo tanto v2 y v3 son vectores propios asociados a 2 y 7 respectivamente por lo cual podemos elegir v2 = (1, 0, 0) y v3 = (1, 1, 1). Elijamos ahora v1 = (x,y,z ). Sabemos que Av1 = 2v1 + v2 por lo tanto ( A 2I )v1 = v 2 . Entonces
{
}
−
−
(A
− 2I )v
1
=
0 0 0
−4 5 −5
x y z
1 0 0
∈
1 0 0
=
resolviendo el sistema se deduce que v1 = (x, 0, 1) con x R elijamos entonces v1 = (0, 0, 1) con lo cual la base de Jordan B resulta B = (0, 0, 1), (1, 0, 0), (1, 1, 1) . Verifique que efectivamente la matriz asociada al operador en la base B es J .
{
7.8.
− }
Matrices de Jordan para matrices 4
×
×4 ∈
Analicemos ahora las p osibles formas de Jordan de las matrices 4 4. Si A M4×4 (K) su polinomio caracter´ıstico ser´ a de grado 4, supongamos que sus ra´ıces p ertenecen al cuerpo K, se presentan los siguientes casos: Si A admite cuatro autovalores simples a, b, c y d, es decir: p (λ) = (λ a)(λ b)(λ c)(λ d), entonces A es diagonalizable, en particular existe una base u,v,p,q cuyos elementos se determinan por las condiciones
① Cuatro autovalores simples .
{
−
}
email
[email protected]
−
−
−
Au = au Av = bv Ap = cp Aq = dq
314
βo
ξ £vι
−
−o
so
ζℏ
z
315
a 0 de modo que la forma can´onica de Jordan de A es J = 0 0 P = [u,v,p,q ] es una matriz de cambio de base de Jordan para
0 b 0 0
0 0 c 0 A.
0 0 0 d
y adem´as la matriz
Si A admite dos autovalores simples a y b, y otro doble c, su polinomio caracter´ıstico ser´a p(λ) = (λ a)(λ b)(λ c)2 , aqu´ı hay dos posibilidades:
② Dos autovalores simples y uno doble.
−
−
a) Si dim( N (A cI )) = 1 entonces existe una base se determinan por las condiciones
−
−
4
{u,v,w,w } de K , cuyos elementos 1
Au = au Av = bv Aw = cw Aw1 = cw 1 + w
de modo que la forma can´ onica de Jordan de A es J =
}
a 0 0 0
0 b 0 0
0 0 c 1
0 0 0 c
y adem´as la
matriz P = [u,v,w,w 1] es una matriz de cambio de base de Jordan para A. b) Si dim( N (A cI )) = 2 entonces existe una base u,v,p,q de K 4 , cuyos elementos se determinan por las condiciones Au = au Av = bv Ap = cp Aq = cq
−
{
a 0 0 0 b 0 de modo que la forma can´ onica de Jordan de A es J = 0 0 c 0 0 0 matriz P = [u,v,p,q ] es una matriz de cambio de base de Jordan para
0 0 0 c
y adem´as la
A.
Si A admite un autovalor simple a y otro triple b , su polinomio caracter´ıstico ser´ a p (λ) = (λ a)(λ b)3 , aqu´ı se presentar´ an tres alternativas seg´un N (A bI ) tenga dimensi´on uno, dos o tres.
③ Un autovalor simple y otro triple.
−
−
−
−
a) Si dim( N (A bI )) = 1 entonces existe una base se determinan por las condiciones
email
[email protected]
{u,v,v
1 , v2
4
} de K , cuyos elementos
Au = au Av = bv Av1 = bv 1 + v Av2 = bv 2 + v1 315
βo
ξ £vι
−
−o
so
ζℏ
z
316
a 0 0 0 0 b 0 0 de modo que la forma can´ onica de Jordan de A es J = y adem´as la 0 1 b 0 0 0 1 b matriz P = [u,v,v 1 , v2 ] es una matriz de cambio de base de Jordan para A. 4
b) Si dim( N (A bI )) = 2 entonces existe una base se determinan por las condiciones
−
{u,v,w,w } de K , cuyos elementos 1
Au = au Av = bv Aw = bw Aw1 = bw 1 + w
a 0 0 0 0 b 0 0 de modo que la forma can´ onica de Jordan de A es J = y adem´as la 0 0 b 0 0 0 1 b matriz P = [u,v,w,w 1] es una matriz de cambio de base de Jordan para A. c) Si dim( N (A bI )) = 3 entonces existe una base u,v,p,q de K 4 , cuyos elementos se determinan por las condiciones Au = au
−
{
Av = bv Ap = bp Aq = bq
}
a 0 0 0 b 0 de modo que la forma can´ onica de Jordan de A es J = 0 0 b 0 0 0 matriz P = [u,v,p,q ] es una matriz de cambio de base de Jordan para ④ Dos autovalores dobles. 2
0 0 0 b
y adem´as la
A.
Si A admite dos autovalores dobles a y b, se tendr´a p(λ) =
2
− a) (λ − b) , aqu´ı se presentar´an los siguientes casos. a) Si dim( N (A − aI )) = dim( N (A − bI )) = 1 entonces existe una base { u, u ,v,v } de
(λ
1
1
K4 , cuyos elementos se determinan por las condiciones Au = au
Au1 = au 1 + u Av = bv Av1 = bv 1 + v
a 0 0 0 1 a 0 0 de modo que la forma can´ onica de Jordan de A es J = y adem´as la 0 0 b 0 0 0 1 b matriz P = [u, u1 ,v,v 1 ] es una matriz de cambio de base de Jordan para A. email
[email protected]
316
βo
ξ £vι
−
−o
so
ζℏ
−
z
317
−
{u,v,w,w } de
b) Si dim( N (A aI )) = 2, dim( N (A bI )) = 1 entonces existe una base K4 , cuyos elementos se determinan por las condiciones
1
Au = au Av = av Aw1==bw Aw bw 1 + w
a 0 0 0 0 a 0 0 de modo que la forma can´ onica de Jordan de A es J = y adem´as la 0 0 b 0 0 0 1 b matriz P = [u,v,w,w 1] es una matriz de cambio de base de Jordan para A.
−
4
−
{u,v,p,q } de K ,
c) Si dim( N (A aI )) = dim( N (A bI )) = 2 entonces existe una base cuyos elementos se determinan por las condiciones
Au = au Av = av Ap = bp Aq = bq
a 0 0 0 a 0 de modo que la forma can´ onica de Jordan de A es J = 0 0 b 0 0 0 matriz P = [u,v,p,q ] es una matriz de cambio de base de Jordan para
0 0 0 b
y adem´as la
A.
´ druple. ⑤ Un autovalor cu a
Si A admite un autovalor cu´adruple a, tendremos que su polinomio caracter´ıstico ser´a p(λ) = (λ a)4 , aqu´ı hay tres posibilidades:
−
−
a) Si dim( N (A aI )) = 1 entonces existe una base se determinan por las condiciones
3
{u, u , u , u } de K , cuyos elementos 1
2
3
Au = au Au1 = au 1 + u Au2 = au 2 + u1 Au3 = au 3 + u2
a 0 0 0 1 a 0 0 de modo que la forma can´onica de Jordan de A es J = 0 1 a 0 0 0 1 a matriz P = [u, u1 , u2 , u3 ] es una matriz de cambio de base de Jordan para
email
[email protected]
317
y adem´as la
A.
βo
ξ £vι
−
−o
so
ζℏ
z
318
b) Si dim( N (A aI )) = 2 y dim( N (A aI )2 ) = 3 entonces existe una base de K 3 , cuyos elementos se determinan por las condiciones
−
−
{u,v,v
1 , v2
}
Au = au Av = av Av1 = av 1 + v Av2 = av 2 + v1
a 0 0 0 0 a 0 0 de modo que la forma can´onica de Jordan de A es J = y adem´as la 0 1 a 0 0 0 1 a matriz P = [u,v,v 1 , v2 ] es una matriz de cambio de base de Jordan para A. c) Si dim( N (A aI )) = 2 y dim( N (A aI )2 ) = 4 entonces existe una base u, u1 ,v,v 2 de K 3 , cuyos elementos se determinan por las condiciones
−
−
{
}
Au = au Au1 = au 1 + u Av = av Av1 = av 1 + v
a1 a0 00 00 y adem´as la 0 0 a 0 0 0 1 a matriz P = [u, u1 ,v,v 2 ] es una matriz de cambio de base de Jordan para A. d) Si dim( N (A aI )) = 3 entonces existe una base u,v,w,w 1 de K 3 , cuyos elementos se determinan por las condiciones de modo que la forma can´onica de Jordan de A es J =
−
{
}
Au = au Av = av Aw = aw Aw1 = aw 1 + w
a 0 0 0 0 a 0 0 de modo que la forma can´onica de Jordan de A es J = y adem´as la 0 0 a 0 0 0 1 a matriz P = [u,v,w,w 1] es una matriz de cambio de base de Jordan para A. e) Si dim( N (A aI )) = 4 entonces existe una base u,v,p,q de K 3 , cuyos elementos se determinan por las condiciones Au = au Av = av Ap = ap Aq = aq
−
email
[email protected]
318
{
}
βo
ξ £vι
−
−o
so
ζℏ
z
319
a 0 0 0 a 0 de modo que la forma can´onica de Jordan de A es J = 0 0 a 0 0 0 matriz P = [u,v,p,q ] es una matriz de cambio de base de Jordan para
email
[email protected]
319
0 0 0 a
y adem´as la
A.
βo