1. Ma Matr tric ices es y de dete term rmin inan ante tess
1.1
Notacion o ´n y definiciones
Definici´ on 1.1 [Matriz] on
Una matriz matriz es es una tabla de m m ×n elementos dispuestos en m filas m filas y n columnas. n columnas. Se suelen representar por letras may´usculas usculas A, A, B , . . ., . , etc. y a sus elementos de la forma a forma aij donde el primer sub´ sub´ındice indica la fila y el segundo la columna a la que pertenece dicho elemento. As´ı pues, pues , una matriz mat riz A = (aij ) con 1 ≤ i ≤ m 1 ≤ j ≤ n es de la forma: A =
A =
a11 a21 .. .
a12 a22 .. .
· · · a1n · · · a2n .. .
am1 am2 · · · amn
Definici´ on 1.2 [Orden de una matriz] on
Una matriz de m filas y n columnas se dice que tiene dimensi´ tiene dimensi´ on o o que es de orden m orden m × n lo denotaremos m × n, y al conjunto de todas las matrices de orden m m×n por R (en el supuesto de que los elementos de la matriz A sean elementos de R). Dos matrices A, B ∈ Rm×n se dice que son equidimensionales . Dos matrices A, matrices A, B ∈ Rm×n , se dice que son iguales son iguales si: si: 1 , 2, . . . , n aij = bij ∀ i = 1, 2, . . . , m y ∀ j = 1, 7
8
Matrices y determinantes determinantes
Definici´ on 1.3 [Matrices fila y columna] on
Se denomina matriz matriz fila a a aquella que consta de una ´ unica fila. A = (a1 a2 · · · an ) ∈ R1×n De igual manera, se denomina denomina matriz columna columna a aquella que consta de una unica ´ columna. a1 a2 ∈ Rn×1 A = .. .
an
Definici´ on 1.4 [Matriz cuadrada] on
Se denomina matriz matriz cuadrada de orden n a aquella que tiene n filas y n columnas. a11 a12 · · · a1n a21 a22 · · · a2n A = A ∈ Rn×n .. .. . . .. . . . .
an1 an2 · · · ann
Se denomina diagonal diagonal principal de de una matriz cuadrada a la formada por los elementos aii i = 1, 2, . . . , n.
a11
a21 .. . an1
a12 · · · a1n a22 · · · a2n .. . . . . .. . an2 · · · ann
Definici´ on 1.5 [Matrices diagonales, escalares y unidad] on
Se denomina matriz diagonal diagonal a aquella matriz cuadrada cuyos elementos no diagonales son todos nulos. Es decir aij = 0 si i = j
D =
a11 0 0 a22 .. .. . . 0 0
··· ··· ...
0 0 .. .
· · · ann
9
Notaci´ on on y definiciones
Se denomina matriz matriz escalar a a aquella matriz diagonal cuyos elementos diagonales son todos iguales. α 0 ··· 0 0 α ··· 0 .. .. . . .. . . . .
0 0 ··· α
Se denomina matriz matriz unidad de orden n a n a aquella matriz escalar cuyos elementos diagonales son todos unos. Es decir
I n =
0 ··· 0 1 ··· 0 .. . . .. . . . 0 0 ··· 1 1 0 .. .
Definici´ on 1.6 [Matrices triangulares y escalonadas] on
Se denomina matriz triangular superior (inferior) a aquella matriz cuadrada cuyos elementos situados por debajo (encima) de su diagonal principal son todos nulos.
a11 a12 a13 0 a22 a23 0 0 a33 .. .. .. . . . 0 0 0
· · · a1n · · · a2n · · · a3n . . . .. . · · · ann
0 a11 0 a21 a22 0 a31 a32 a33 .. .. .. . . . an1 an2 an3
··· ··· ··· ...
0 0 0 .. .
· · · ann
• Triangular superior: aij = 0 si i > j . • Triangular inferior: aij = 0 si i < j .
El equivalente para matrices rectangulares de una matriz triangular son las denominadas matrices matrices escalonadas que que son aquellas matrices en las que a que aij = 0 si i > j .
10
Matrices y determinantes determinantes
En caso de tratarse de una matriz matri z cuadrada se s e tendr´ıa ıa una triangular triangula r superior.
1.2
a11 a12 a13 0 a22 a23 0 0 a33 .. .. .. . . . 0 0 0
· · · a1 m−1 · · · a2 m−1 · · · a3 m−1 .. ... . · · · amm
· · · a1n · · · a2n · · · a3n · · · amn
a11 a12 a13 0 a22 a23 0 0 a33 .. .. .. . . . 0 0 0 0 0 0 .. .. .. . . . 0 0 0
· · · a1n · · · a2n · · · a3n . . . .. . · · · ann ··· 0 .. . ···
0
Aritm´ Aritm ´ etica de etica de matrices matrices
• Suma de matrices Sean A, B ∈ Rm×n , se denomina matriz suma de A y B , y se denota por C por C = A + B , a la matriz C matriz C ∈ Rm×n tal que cij = aij + bij
i = 1, . . . , m j = 1, . . . , n. n.
Propiedades – Asociativa :
(B + C ). ∀ A, B, C ∈ Rm×n =⇒ (A + B ) + C = A + (B – Conmutativa : ∀ A, B ∈ Rm×n =⇒ A + B = B = B + + A. – Elemento neutro: neutro: Exis Existe te la matri matrizz 0 ∈ Rm×n denominada matriz denominada matriz
nula y y cuyos elementos son todos nulos, tal que = A. ∀ A ∈ Rm×n =⇒ A + 0 = 0 + A = A. – Elemento opuesto: opuesto: Para cualquier matriz A matriz A ∈ Rm×n existe la matriz denominada matriz opuesta y y cuyos elementos son los −A ∈ Rm×n denominada matriz
opuestos de los elementos de la matriz A matriz A tal que A + (−A) = −A + A = 0 Por tanto, (Rm×n , +) es un un grupo conmutativo. conmutativo.
11
Aritm´etica de matrices
• Producto por un escalar Sean A ∈ Rm×n y α ∈ R, se define producto por un escalar de α por A a la matriz Rm×n tal que sus elementos son los de A multiplicados por α. Se denota por αA. αA = α(aij ) = (αaij )
1
≤i≤m
1
≤ j ≤ n
Propiedades – Asociativa : ∀ α, β ∈ R y ∀ A ∈ Rm×n =⇒ α(βA) = (αβ )A. – Distributivas :
∀ α, β ∈ R y ∀ A ∈ Rm×n =⇒ (α + β )A = αA + βA. ∀α ∈ R y ∀ A, B ∈ Rm×n =⇒ α(A + B) = αA + αB.
– Elemento unidad : ∀ A ∈ Rm×n =⇒ 1 · A = A.
Por tanto, (Rm×n , +, ·) es un espacio vectorial sobre el cuerpo R de los n´umeros reales. Para matrices complejas, (Cm×n , +, ·) ser´ıa un espacio vectorial sobre el cuerpo C de los n´umeros complejos.
• Producto de matrices Si A ∈ Rm×n y B ∈ Rn× p (n´umero de columnas de A igual al n´ umero de filas de B), se define la matriz producto de A por B como la matriz C ∈ Rm× p tal que: n
cij =
aik bkj
1 ≤ i ≤ m 1 ≤ j ≤ p
k =1
Propiedades: – Asociativa :
A ∈ Rm×n B ∈ Rn× p C ∈ R p×q =⇒ (AB)C = A(BC ) – Distributiva :
A ∈ Rm×n B, C ∈ Rn× p =⇒ A(B + C ) = AB + AC
12
Matrices y determinantes
– No conmutativa : en general, es AB = BA. – No cancelativa :
⇒ B = C AB = AC = Para el caso de matrices cuadradas de orden n: – Elemento unidad : Existe I n ∈ Rn×n (matriz unidad de orden n) tal
que
∀ A ∈ Rn×n =⇒ I n A = AI n = A – Si A ∈ Rn×n diremos que es regular o no singular si posee matriz inversa , es decir, si existe A −1 ∈ Rn×n tal que A −1 A = AA −1 = I n .
´n Trasposici o Sea A ∈ Rn×n . Se denomina matriz traspuesta de A y se denota por AT a la matriz resultante de cambiar, ordenadamente, las filas por las columnas de la matriz A de tal manera, que si llamamos A = (aij ) y AT = (aij ) tenemos: aij = a ji 1 ≤ i ≤ m 1 ≤ j ≤ n por lo que si A ∈ Rm×n =⇒ AT ∈ Rn×m . Propiedades – (AT )T = A. n T
T
– (A + B) = A + B
T
o generalizando, (
n
Ai ) =
T
T
i=1
n T
T
T
– (AB) = B A
o generalizando, (
Ai ) =
i=1
AT i .
i=1
1
AT i .
i=n
Definici´ on 1.7 [Matriz sim ´ etrica]
Una matriz cuadrada A se dice que es sim´etrica si coincide con su traspuesta. (Es sim´etrica respecto a su diagonal principal). A sim´etrica ⇐⇒ A = A T
13
Transformaciones elementales. Definici´ on 1.8 [Matriz antisim´ etrica]
Una matriz cuadrada A se dice que es antisim´etrica si coincide con la opuesta de su traspuesta. (Los elementos sim´ etricos respecto de la diagonal principal son opuestos y su diagonal es de ceros). A antisim´etrica ⇐⇒ A = −AT Definici´ on 1.9 [Matriz ortogonal]
Una matriz cuadrada y no singular se dice ortogonal si su traspuesta coincide con su inversa, es decir, si AT = A −1 o lo que es lo mismo: A ortogonal ⇐⇒ AAT = AT A = I n Definici´ on 1.10 [Traza de una matriz]
Se define la traza de A y se denota por tr A como la suma de los elementos de su diagonal principal. n
tr A =
aii
i=1
Propiedades de la traza de una matriz
• tr (A + B) = tr A + tr B. • tr (αA) = α tr A.
1.3
Transformaciones elementales.
Se denominan transformaciones elementales a ciertas transformaciones que se realizan en una matriz y que nos ser´an de gran utilidad en la resoluci´o n de sistemas de ecuaciones lineales as´ı como en otras operaciones con matrices que estudiaremos en temas posteriores. Estas transformaciones modifican, de determinadas formas, los elementos de una fila o una columna de la matriz o intercambian dos filas o columnas de esta. Las clasificaremos en dos grupos:
• Transformaciones elementales fila. • Transformaciones elementales columna.
14
Matrices y determinantes
1.3.1
Transformaciones elementales fila.
• Transformaciones F ij Intercambian las filas i y j de una matriz A ∈ Rm×n . Este efecto se produce al multiplicar, por la izquierda , la matriz A por la matriz F ij , siendo esta el resultado de intercambiar las filas i y j de la matriz I m . Ejemplo 1.1 Consideremos la matriz
A =
2 1 3 4 4 2 1 5 1 0 2 3
.
Para intercambiar las filas 2a y 3a aplicamos F 23 cuya matriz es 1 0 0 (en I 3 se han permutado las filas segunda y tercera). F 23 = 0 0 1 0 1 0
F 23 A =
1 0 0 0 0 1 0 1 0
2 1 3 4 4 2 1 5 1 0 2 3
=
2 1 3 4 1 0 2 3 4 2 1 5
observ´andose que han quedado permutadas las filas segunda y tercera de la matriz A.
• Transformaciones F i (α) Multiplican la fila i de una matriz A ∈ Rm×n por un n´ umero α = 0. Este efecto se produce al multiplicar, por la izquierda , la matriz A por la matriz F i (α), siendo esta el resultado de multiplicar por α la fila i de la matriz I m . Ejemplo 1.2 Para multiplicar por 3 la segunda fila de A (v´ease el Ejem-
plo 1.1), aplicamos F 2 (3) cuya matriz asociada es F 2 (3) =
1 0 0 0 3 0 0 0 1
15
Transformaciones elementales.
(se ha multiplicado por 3 la segunda fila de I 3 ). F 2 (3)A =
1 0 0 0 3 0 0 0 1
2 1 3 4 4 2 1 5 1 0 2 3
=
2 1 3 4 12 6 3 15 1 0 2 3
pudi´endose ver que ha quedado multiplicada por 3 la segunda fila de la matriz A.
• Transformaciones F ij (α) Suman a la fila i de una matriz A ∈ Rm×n su fila j multiplicada por = 0. α Este efecto se produce al multiplicar, por la izquierda , la matriz A por la matriz F ij (α), siendo esta la resultante de sumar a la fila i de la matriz I m su fila j multiplicada por α, es decir, la matriz resultante de sustituir el elemento i ij = 0 por α. Ejemplo 1.3 Si queremos restar a la segunda fila de A (v´ease el Ejem-
plo 1.1) el doble de la primera, aplicamos F 21 (−2) cuya matriz asociada 1 0 0 es F 21 (−2) = −2 1 0 (se ha sustituido por -2 el elemento i21 = 0 0 0 1 de la matriz I 3 ).
F 21 (−2)A =
1 0 0 −2 1 0 0 0 1
2 1 3 4 4 2 1 5 1 0 2 3
=
2 1 3 4 0 0 −5 −3 1 0 2 3
observ´andose que se ha producido en la matriz A el efecto deseado.
1.3.2
Transformaciones elementales columna.
Son las mismas que las transformaciones elementales fila pero operando por columnas:
• Transformaciones C ij Intercambian las columnas i y j de una matriz A ∈ Rm×n . Este efecto se produce al multiplicar, por la derecha , la matriz A por la matriz C ij , siendo esta el resultado de intercambiar las columnas i y j de la matriz I n .
16
Matrices y determinantes
Ejemplo 1.4 Si deseamos intercambiar las columnas primera y cuarta
de la matriz A (v´ease el Ejemplo 1.1), aplicamos C 14 cuya matriz asociada 0 0 0 1 0 1 0 0 es C 14 = (se han permutado las columnas 1 y 4 de la 0 0 1 0 1 0 0 0 matriz I 4 ).
AC 14 =
2 1 3 4 4 2 1 5 1 0 2 3
0 0 0 1
0 1 0 0
0 0 1 0
1 0 0 0
=
4 1 3 2 5 2 1 4 3 0 2 1
Se han permutado las columnas 1 y 4 de la matriz A.
• Transformaciones C i (α) Multiplican la columna i de una matriz A ∈ Rm×n por un n´ umero α = 0. Este efecto se produce al multiplicar, por la derecha , la matriz A por la matriz C i (α), siendo esta el resultado de multiplicar por α la columna i de la matriz I n . Ejemplo 1.5 Para multiplicar por 2 la tercera columna de la matriz A
(v´ease el Ejemplo 1.1) aplicamos C 3 (2), cuya matriz asociada es
C 3 (2) = de I 4 ).
1 0 0 0
AC 3 (2) =
0 1 0 0
0 0 2 0
0 0 0 1
(se ha multiplicado por 2 la tercera columna
2 1 3 4 4 2 1 5 1 0 2 3
1 0 0 0
0 1 0 0
0 0 2 0
0 0 0 1
=
2 1 6 4 4 2 2 5 1 0 4 3
habiendo quedado multiplicada por 2 la tercera columna de la matriz original A
17
Algoritmo de Gauss-Jordan.
• Transformaciones C ij (α) Suman a la columna i de una matriz A ∈ Rm×n su columna j multiplicada por α = 0. Este efecto se produce al multiplicar, por la derecha , la matriz A por la matriz C ij (α), siendo esta la resultante de sumar a la columna i de la matriz I n su columna j multiplicada por α, es decir, la matriz resultante de sustituir elemento i ji = 0 por α. Ejemplo 1.6 Para sumar a la tercera columna de A (v´ease el Ejem-
plo 1.1) el doble de la primera aplicamos C 31 (2) cuya matriz asociada es 1 0 2 0 0 1 0 0 (se ha sustituido el elemento i13 de la matriz C 31 (2) = 0 0 1 0 0 0 0 1 I 4 por 2).
AC 31 (2) =
2 1 3 4 4 2 1 5 1 0 2 3
1 0 0 0
0 1 0 0
2 0 1 0
0 0 0 1
=
2 1 7 4 4 2 9 5 1 0 4 3
donde puede observarse que se ha producido en A el efecto deseado.
1.4
Algoritmo de Gauss-Jordan.
Teorema 1.1 Dada una matriz cualquiera A ∈ Rm×n existen matrices F y
U tales que F A = U siendo U una matriz escalonada. Demostraci´ on. Probaremos el teorema de forma constructiva.
• Comencemos por anular todos los elementos ai1 con 1 < i ≤ n. – Si a11 = 0, mediante transformaciones elementales filas F ij (α) po-
demos anular todos los elementos de la primera columna situados por deba jo de ´el. Estas transformaciones ser´ıan de la forma F i1 (−
ai1 ). a11
18
Matrices y determinantes
– Si a11 = 0 y alg´ un elemento de la primera columna es no nulo,
podemos llevarlo al lugar (11) mediante una transformaci´on F ij y proceder despu´es como en el caso anterior. – Si ai1 = 0 ∀ i = 1, . . . , m, la primera columna es de ceros y por
tanto, ai1 = 0 ∀ i > 1, es decir, se trata de una columna del tipo de las matrices escalonadas.
• Procedemos despu´es con a22 (el elemento a22 resultante de las transformaciones anteriores) al igual que procedimos con a11 anteriormente, es decir, si a22 = 0 lo utilizamos para hacer ceros por debajo de ´el en la segunda columna. Si fuese a22 = 0 vemos si existe por debajo de ´el alg´un elemento ai2 = 0 y, en caso de haberlo, realizamos la transformaci´on F 2i , etc. • Reiterando el proceso, llegamos a una matriz escalonada U . La matriz F no es m´as que el producto de las matrices de las transformaciones elementales filas realizadas para pasar de A a U . Ejemplo 1.7 Consideremos la matriz A del Ejercicio 1.1.
F 21 (−2)
A −→
2 0 1
1 3 4 0 −5 −3 0 2 3
−→
) F 31 (− 1 2
−→
2 1 3 4 0 − 1/2 1/2 1 0 0 −5 −3
que es una matriz escalonada. Dado que
2 1 3 4 0 0 −5 −3 0 − 1/2 1/2 1
F 23
−→
= U
1 F 23 F 31 (− )F 21 (−2)A = U =⇒ F A = U 2 con 1 F = F 23 F 31 (− )F 21 (−2) = 2
1 0 0 0 0 1 0 1 0
F =
1 0 0 0 1 0 − 1/2 0 1
1 0 0 − 1/2 0 1 −2 1 0
1 0 0 −2 1 0 0 0 1
⇒
19
Algoritmo de Gauss-Jordan.
´ nica] Definici´ on 1.11 [Matriz escalonada can o Se denomina matriz escalonada can´ onica a una matriz escalonada con la propiedad de que el primer elemento no nulo de una fila es un uno y adem´ as, es el unico ´ elemento no nulo de su columna. Teorema 1.2 Toda matriz puede ser reducida mediante transformaciones ele-
mentales fila a una escalonada can´ onica. Demostraci´ on. Basta con observar que una vez obtenida la matriz U , si en
una fila hay alg´ un elemento no nulo, la dividimos por el primer elemento no nulo de ella mediante F i (α) y lo utilizamos para hacer ceros todos los de su columna (que se encontrar´an por encima de ´el). Ejemplo 1.8 En el Ejemplo 1.7 se vi´o que
A −→ U =
1 0 0
F 13 (−2)
−→
2 1 3 4 0 − 1/2 1/2 1 0 0 −5 −3
2 1 −1 −2 0 −5 −3
1/2
3/2
) F 12 (− 1 2
−→
1 0 0 9/5 0 1 −1 −2 0 0 1 3/5
F 1 ( 1 ) 2
−→
1 0 2 3 0 1 −1 −2 0 0 −5 −3
F 23 (1)
−→
1/2 3/2 1 2 0 − 1/2 1/2 1 0 0 −5 −3
) F 3 (− 1 5
−→
9/5 1 0 0 0 1 0 − 7/5 3/5 0 0 1
que se trata de una escalonada can´onica.
F 2 (−2)
−→
1 0 2 3 0 1 −1 −2 0 0 1 3/5
Los elementos que utilizamos para anular a los dem´as elementos de una columna se denominan pivotes . Si en un determinado paso del proceso de pasar de A a U alguna columna es de ceros, diremos que el correspondiente pivote es nulo. Teorema 1.3 Toda matriz A ∈ Rm×n puede, mediante transformaciones ele-
I r 0 teniendo en cuenta que 0 0 para ello es necesario realizar tanto transformaciones fila como transformaciones columna. mentales, transformarse en una del tipo
20
Matrices y determinantes
Ejemplo 1.9 Si nos fijamos en la matriz del Ejemplo 1.7 que transformamos,
mediante transformaciones elementales fila (ver Ejercicio 1.8) en la escalonada can´onica 9/5 1 0 0 0 1 0 − 7/5 3/5 0 0 1
podemos ahora, mediante la composici´ on de las transformaciones columna 1 0 0 0 = I 3 | 0 . C 31 (− 95 )C 32 ( 75 )C 33 (− 35 ) llevarla a 0 1 0 0 0 0 1 0
Teorema 1.4 Una condici´ on necesaria y suficiente para que una matriz cua-
drada posea inversa es que su forma escalonada can´ onica sea la matriz unidad. Demostraci´ on. Si su forma escalonada can´ onica es I n , existe F ∈ Rn×n tal
que F A = I n =⇒ F = A −1 . Si existe A −1 tal que A −1 A = I n =⇒ ∃ F = A−1 tal que F A = I n y por tanto, I n es la forma escalonada can´onica de A. Algoritmo de Gauss-Jordan Este teorema nos permite calcular la matriz inversa, de una matriz dada, mediante transformaciones elementales (filas o columnas, pero no ambas simult´aneamente). El organigrama de la Figura 1.1, muestra el algoritmo de escalonamiento de una matriz A ∈ Rm×n , mediante transformaciones elementales filas. Cuando se alcanza la condici´on de parada, la nueva matriz A es una matriz escalonada.
Ejemplo 1.10 Consideremos la matriz A =
(I 3 | A) =
1 0 0 1 3 0 0 1 0 0 1 1 0 0 1 1 2 0
F 31 (−1)
−→
1 3 0 0 1 1 1 2 0
1 0 0 1 3 0 1 0 0 1 −1 0 1 0 −1
0 1 0
F 12 (−3)
−→
21
Algoritmo de Gauss-Jordan.
A ∈ R m×n i := 1, j := 1
¿ i
j := j + 1
m
>
≠
n ?
>
STOP
NO
NO
¿ ∃asi
SI
?
ó ¿ j
SI
0,
s > i?
¿ aij
=
SI
0?
NO
k := i + 1
A:=Eis ⋅ A
SI
i := i + 1
¿ k
m ?
>
A := E ki (
NO
−aki
aii
)⋅A
k := k + 1
Figura 1.1: Organigrama del algoritmo de Gauss-Jordan
1 −3 0 1 0 −1
0 1 0 −3 0 0 1 1 1 0 −1 0
−2 0 3 1 0 0 0 1 0 0 1 1 −1 1 1 0 0 1
−1
A ya que:
F 32 (1)
−→
F 23 (−1)
−→
=
−2 1 −1
1 −3 0 1 1 −1
−2 1 −1
0 1 0 0 1 0
0 −3 1 1 0 1
0 3 1 0 0 0 −1 0 1 0 1 1 0 0 1
0 3 0 −1 1 1
F 13 (3)
−→
=⇒
F 23 (−1)F 13 (3)F 32 (1)F 12 (−3)F 31 (−1)(A) = I 3 =⇒ [F 23 (−1)F 13 (3)F 32 (1)F 12 (−3)F 31 (−1)]A = I 3 =⇒
A−1 =
−2 1 −1
0 3 0 −1 1 1
−2 1 −1
0 3 0 −1 1 1
A = I 3 ⇒
22
Matrices y determinantes
1.5
Determinante de una matriz cuadrada.
Los determinantes nos proporcionan un m´etodo para el c´alculo de la matriz inversa de una dada (en caso de existir) y un criterio para estudiar si una matriz es o no invertible. Sus aplicaciones son m´ ultiples en todas las ramas de las ciencias que tratan problemas lineales en los que necesariamente aparecen matrices y por tanto, determinantes. A cada matriz cuadrada A = (aij ) 1 ≤ i, j ≤ n se le asigna un n´umero real que llamaremos determinante de A y representaremos por det A o |A|. Definici´ on 1.12 [Submatrices y menores de una matriz]
Una submatriz de una matriz A es la matriz resultante de eliminar en A determinadas filas y/o columnas. Un menor de una matriz A es el determinante de una submatriz cuadrada. Definici´ on 1.13 [Menor complementario y Adjunto de aij ]
Se denomina menor complementario del elemento a ij de una matriz cuadrada, y se denota por αij , al determinante de la submatriz obtenida al eliminar en A la fila i y la columna j. Se denomina adjunto del elemento a ij de una matriz cuadrada, y lo denotaremos por Aij a Aij = (−1)i+ j αij ´ rmula recurrente para el c a ´ lculo de un determinante Fo El c´alculo del determinante de una matriz cuadrada A puede ser realizado mediante la siguiente f´ormula recurrente sobre el tama˜ no n:
• para n = 1 → A = (a11 ), se define det(A) = a11 n
• para n > 1 → det(A) =
aki Aki para cualquier k fijo con 1 ≤ k ≤ n
i=1
Obs´ervese que mediante esta f´ormula recurrente, el c´alculo de un determinante de una matriz de orden n se traslada al c´alculo de n determinantes de otras tantas matrices de orden n − 1, los menores complementarios de todos los elementos de la fila k-´esima.
23
Determinante de una matriz cuadrada. Ejemplo 1.11 [Caso n = 2]
Sea A una matriz cuadrada de orden 2: A =
a11 a12 a21 a22
=⇒ det A = a 11 a22 − a12 a21
Ejemplo 1.12 [Caso n = 3]
Sea A una matriz cuadrada de orden 3: A =
a11 a12 a13 a21 a22 a23 a31 a32 a33
det(A) = a 11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32
Regla de Sarrus Una forma nemot´ecnica para el desarrollo de un determinante de orden 3 consiste en repetir bajo la fila tercera las filas primera y segunda de la matriz. Los productos de las tres diagonales resultantes en el sentido de la diagonal principal resultan ser los tres t´erminos positivos del determinante, mientras que los productos de las diagonales en sentido contrario resultan ser los t´erminos negativos del determinante.
a11 a21 a31 a11 a21
1.5.1
T´erminos a12 a13 a22 a23 a32 a33 a12 a13 a22 a23
positivos
→ a11 a22 a33 → a21 a32 a13 → a31 a12 a23
T´erminos negativos a11 a12 a13 a21 a22 a23 a13 a22 a31 ← a31 a32 a33 a23 a32 a11 ← a11 a12 a13 a33 a12 a21 ← a21 a22 a23
Propiedades de los determinantes
1.- El valor de det A no depende de la fila k elegida . 2.- det AT = det A.
24
Matrices y determinantes
Como consecuencia de esta propiedad, podemos dar una definici´ on equivalente del determinante cambiando el papel de las filas por el de las columnas: n
det A =
aik Aik para cualquier k fijo con 1 ≤ k ≤ n
i=1
3.- Si la matriz A posee una l´ınea (fila o columna) de ceros, su determinante
es nulo. 4.- Si se intercambian dos l´ıneas de A, el determinante cambia de signo. 5.- Si la matriz A tiene dos l´ıneas paralelas iguales, su determinante es nulo. 6.- Si todos los elementos de una l´ınea se multiplican por un n´ umero α, todo
el determinante queda multiplicado por dicho n´ umero. 7.- Si la matriz A posee dos l´ıneas paralelas proporcionales, su determinante
es nulo. 8.- Si descomponemos una l´ınea (fila o columna) en suma de dos, podemos
descomponer el determinante en suma de dos determinantes .
det
···
a11
a1n
.. .
.. .
ai1 + b i1
···
ain + b in
. . . an1
. . .
···
ann
=det
a11
···
a1n
.. . ai1
.. .
···
ain
. . . an1
. . .
···
ann
+det
a11
···
.. . bi1
.. .
···
. . . an1
a1n
bin
. . .
···
ann
No confundir con det(A + B) = det A + det B 9.- El determinante de una matriz no var´ıa si a una l´ınea se le suma una
combinaci´ on lineal de l´ıneas paralelas . 10.- Si una l´ınea de la matriz A es combinaci´ on lineal de otras paralelas, su
determinante es nulo. Teorema 1.5 Si A, B ∈ Rn×n se verifica que:
det(AB) = det A · det B
25
Factorizaci´ on triangular.
1.6
Factorizaci´ on triangular.
El Teorema 1.1 nos garantizaba la existencia de una matriz F tal que F A = U siendo U una matriz triangular superior. Ampliaremos ahora ese resultado mediante el siguiente teorema.
Teorema 1.6 Dada una matriz A cualquiera, existen matrices P, L y U
tales que P A = LU siendo L triangular inferior y U triangular superior.
Demostraci´ on. La matriz F es el producto de intercambios del tipo F ij y
transformaciones del tipo F ij (α). Dado que: F ij F ik (α) = F jk (α)F ij F ij F kj (α) = F ki (α)F ij F ij F hk (α) = F hk (α)F ij F ij F ki (α) = F kj (α)F ij F ij F jk (α) = F ik (α)F ij podemos llevar en F todas las transformaciones a la izquierda y todos los intercambios a la derecha: F = (Matriz de las transformaciones) ·(Matriz de los intercambios) llamando P a la matriz de los intercambios y L −1 a la de las transformaciones, tenemos: L−1 P A = U ⇒ P A = LU L−1 es una triangular inferior con unos en la diagonal y su inversa L es una matriz del mismo tipo. Adem´as, como en la diagonal de U se encuentran los pivotes , podemos descomponerla en el producto DU donde D es una matriz cuadrada y diagonal con sus elementos iguales a los pivotes y U una triangular superior con unos en su diagonal . Por tanto, podemos decir que: Dada cualquier matriz A, existen matrices P, L, D y U tales que P A = LDU con las caracter´ısticas dadas para P, L D y U .
26
Matrices y determinantes
Ejemplo 1.13 Consid´ erese la matriz A =
F 21 (−2)
A −→
2 1 3 0 0 −1 6 5 4
F 31 (−3)
−→
2 1 3 4 2 5 6 5 4
2 1 3 0 0 −1 0 2 −5
que es una matriz triangular superior
F 23
−→
2 1 3 0 2 −5 0 0 −1
= U
F = F 23 F 31 (−3)F 21 (−2) = F 21 (−3)F 23 F 21 (−2) = F 21 (−3)F 32 (−2)F 23 ⇒ F = L −1 P
con
L =
A su vez U =
2 0 0
Es decir: P A = LDU .
L−1 = F 21 (−3)F 31 (−2) =
1 0 0 3 1 0 2 0 1
y P = F 23 =
0 0 2 0 0 −1
1 0 0
1 2
1 0
3 2 − 52
1
1 0 0 −3 1 0 −2 0 1
1 0 0 0 0 1 0 1 0
=⇒
= DU .
Como P es un producto de matrices del tipo F ij (intercambios) y dado que det F ij = −1, tenemos que det P = ±1. Por otra parte, sabemos que det L = det U = 1 por tratarse de matrices triangulares con sus diagonales de unos. Dado que la matriz D es diagonal y sus elementos diagonales son los pivotes , se tiene que det D es el producto de los pivotes. Por todo ello, tenemos que det A es el producto de los pivotes precedido de signo m´ as o menos. det(A) = ± producto de los pivotes Este es el m´ etodo utilizado en el algoritmo de c´ alculo del determinante mediante reducci´ on.
Inversa de una matriz cuadrada
1.7
27
Inversa de una matriz cuadrada
Dada una matriz cuadrada A hab´ıamos visto que era inversible si y s´olo si su forma escalonada can´onica era la matriz unidad. Esto era posible si y s´olo si todos los pivotes eran no nulos. Al ser det A = ± producto de los pivotes podemos enunciar el siguiente corolario. Corolario 1.7 A es inversible si, y s´ olo si, det A = 0. Teorema 1.8 Una matriz es singular (det A = 0) si, y s´ olo si, tiene una l´ınea
combinaci´ on lineal de las paralelas. Demostraci´ on.
a) Si det A = 0 alg´u n pivote es nulo, por lo que su forma escalonada can´onica tiene una fila de ceros. Deshaciendo las transformaciones efectuadas, esa fila era necesariamente combinaci´on lineal de las dem´as. b) Si una fila es combinaci´ on lineal de las dem´as, por la propiedad 9 de los determinantes se tiene que det(A) = 0 y por tanto, A es singular.
Propiedades de la matriz inversa unica . • La matriz inversa, en caso de existir, es ´ Supongamos que existieran dos inversas A 1 y A 2 de la matriz A. Entonces, (A1 A)A2 = A 1 (AA2 ) ⇒ IA2 = A1 I ⇒ A1 = A 2 .
• Si la matriz producto AB posee inversa, A y B tambi´en las tienen y se verifica que (AB)−1 = B −1 A−1 . = 0 ⇒ det A · det B =0⇒ AB inversible ⇒ det(AB)
det A = 0 =⇒ ∃ A−1 det B = 0 =⇒ ∃ B −1
(AB)−1 AB = I ⇒ (AB)−1 ABB −1 = I B −1 ⇒ (AB)−1 A = B −1 ⇒ (AB)−1 AA−1 = B −1 A−1 ⇒ (AB)−1 = B −1 A−1 .
28
Matrices y determinantes
• Si A posee inversa A−1 se verifica que det A−1 =
1 . det A
A−1 A = I ⇒ det(A−1 A) = det I =⇒ det A−1 · det A = 1 =⇒ det A−1 =
1.7.1
1 det A
C´ alculo de la matriz inversa.
Proposici´ on 1.9 La suma de los productos de los elementos de una l´ınea por
los adjuntos de una paralela es cero. n
= i akj Aij = 0 si k
j =1
Demostraci´ on. Este sumatorio corresponder´ıa al desarrollo de un determi-
nante con las filas k e i iguales. Definici´ on 1.14 Se denomina matriz adjunta de A y se denota por Adj A a
la matriz resultante de sustituir cada elemento de la matriz cuadrada A por su adjunto. Proposici´ on 1.10 A · Adj A T = det A · I . Demostraci´ on. Sea C = A · Adj AT .
cij =
n
n
con
aik bkj
bkj = A jk =⇒ cij =
k=1
aik A jk
k=1
= j =⇒ cij = 0 (suma de los productos de los elementos de la fila • Si i i por los adjuntos de los de la fila j ). n
• Si i = j =⇒ cii =
aik Aik = det A =⇒ C = det A · I =⇒
k=1
A · Adj A T = det A · I. Corolario 1.11 Si A es inversible
A−1 =
1 · AdjAT . det A
29
Ejercicios resueltos
¿Qu´e coste conlleva el c´ alculo de la inversa de una matriz A ∈ Rn×n ?
• Calculando A−1 =
1 · AdjAT . det A
det A ∼ n determinantes de orden n − 1. Aij ∀ i, j → n2 determinantes de orden n − 1.
=⇒
Un total de n2 + n determinantes de orden n − 1. El proceso es O((n + 1)!)
• Mediante transformaciones elementales (Gauss-Jordan) n − 1 transformaciones con cada uno de los n pivotes. n operaciones para cada transformaci´on.
=⇒
Un total de n3 − n2 operaciones. El proceso es O(n3 ) Con un ordenador que realice un mill´on de operaciones por segundo estimar´ıamos un tiempo de c´alculo para el determinante de una matriz cuadrada de orden 100 de
• Calculando A−1 =
1 nos . · AdjAT . −→ 3 · 10139 millones de a˜ det A
• Mediante transformaciones elementales. −→ 1 segundo.
1.8
Ejercicios resueltos
Ejercicio 1.1 Se considera la matriz A =
0 −1 1 0 1 −1 0 0 1
Hallar una f´ormula para A n , siendo n un entero positivo.
.
´ n: Solucio A2 =
0 −1 1 0 1 −1 0 0 1
0 −1 1 0 1 −1 0 0 1
=
0 −1 2 0 1 −2 0 0 1
30
Matrices y determinantes
3
2
A = AA =
0 −1 1 0 1 −1 0 0 1
0 −1 2 0 1 −2 0 0 1
=
Probemos por inducci´on en n que An =
0 −1 n 0 1 −n 0 0 1
0 −1 3 0 1 −3 0 0 1
• Para n = 1 se verifica. • Si An =
0 −1 n 0 1 −n 0 0 1
An+1 = AAn =
= por lo que
=⇒
0 −1 1 0 1 −1 0 0 1
0 −1 n 0 1 −n 0 0 1
0 −1 n + 1 0 1 −(n + 1) 0 0 1
An =
0 −1 n 0 1 −n 0 0 1
1 Ejercicio 1.2 Dada la matriz A = I n − n
1 1 .. .
·
a) Es sim´etrica. b) A2 = A. c) tr A = n − 1. ´ n: Denotemos por u n = Soluci o
=
∀ n ∈ Z+
1
que:
1 1 ··· 1
T
1 1 ··· 1
, probar
31
Ejercicios resueltos
1 a) A = I n − un uT n n 1 1 1 T T T T ) = I (u ) = I − − AT = (I n − un uT u un uT n n n n n n = A n n n por lo que A es sim´etrica . b) 1 1 2 1 2 T A2 = (I n − un uT un uT un uT un uT n )(I n − n ) = I n − n + n un un = 2 n n n n 2 1 2 1 T T = I n − un uT + = I + − u n u u u un uT n n n n n n n = 2 n n n n 1 2 = I n − un uT n = A =⇒ A = A n 1 1 c) tr A = tr I n − tr (un uT n = n − 1. n ) = n − n n Ejercicio 1.3 Demostrar que el determinante de una matriz de orden n ≥ 2
con todos sus elementos iguales a ± 1 es siempre un n´umero par. ´ n: Cuando al escalonar la matriz hacemos ceros por debajo del eleSolucio mento a11 todos los elementos de la matriz ai j con i, j ≥ 2 s´olo pueden resultar 0, 2 o´ −2, por lo que al desarrollar por la primera columna nos queda un determinante con todos sus elementos pares y, por tanto, el determinante es par . Puede verse en el siguiente ejemplo
1 −1 −1 1 −1 −1 1 −1 −1
=
1 −1 −1 0 0 −2 0 −2 2
=−
0 −2 2 −2
resultando un determinante con todos sus elementos pares.
Ejercicio 1.4 Los determinantes de Vandermonde son de la forma:
1 a1 a21 .. .
1 a2 a22 .. .
1 a3 a23 .. .
··· ··· ··· ...
1 an a2n .. .
an1 −1 an2 −1 an3 −1 · · · ann−1
32
Matrices y determinantes
Demostrar que el valor de este determinante es
(a j − ai )
1≤i
´ n: Basta observar que si restamos a cada fila la anterior multiplicada Soluci o por a 1 obtenemos que el determinante es el mismo que
1 0 0 .. .
1 a 2 − a1 a2 (a2 − a1 ) .. .
··· ··· ··· .. .
1 a 3 − a1 a3 (a3 − a1 ) .. .
1 an − a1 an (an − a1 ) .. .
0 an2 −2 (a2 − a1 ) an3 −2 (a3 − a1 ) · · · ann−2 (an − a1 )
=
a2 − a1 a2 (a2 − a1 ) .. .
a3 − a1 a3 (a3 − a1 ) .. .
··· ··· ...
an − a1 an (an − a1 ) .. .
an2 −2 (a2 − a1 ) an3 −2 (a3 − a1 ) · · · ann−2 (an − a1 )
= (a2 − a1 )(a3 − a1 ) · · · (an − a1 )
1 a2 .. .
1 a3 .. .
··· ··· ...
=
=
1 an .. .
an2 −2 an3 −2 · · · ann−2
que es otro Vandermonde de un orden inferior en el que falta a1 , por lo que resultar´ a el producto de (a3 − a2 ) · · · (an − a2 ) por un nuevo Vandermonde de otro orden inferior en el que falte ahora a2 y as´ı sucesivamente, por lo que el determinante buscado resulta ser (a j − ai )
1≤i
1.9
Ejercicios propuestos
Ejercicio 1.5 Demostrar que el producto de dos matrices diagonales es otra
matriz diagonal. ¿Es conmutativo este producto? Sol : Es conmutativo. Ejercicio 1.6 Hallar todas las matrices cuadradas de orden 2 cuyo cuadrado
sea nulo.
33
Ejercicios propuestos
Sol :
2
ac −a c2 −ac
.
Ejercicio 1.7 Hallar las potencias n-´ esimas de las matrices
A =
Sol : A n = 3n−1 A,
1 1 1 1 1 1 1 1 1
B n = α n−1
α n 0 α
B =
α 1 0 α
.
Ejercicio 1.8 Decidir cu´ ales de las siguientes afirmaciones son verdaderas y
cu´ales falsas, dando en cada caso una demostraci´ on o un contraejemplo, seg´un corresponda: a) Si A y B son sim´etricas, entonces A B es sim´etrica. b) Si A es sim´etrica y P es cuadrada, entonces P AP T es sim´etrica. c) Si A es una matriz cualquiera, entonces AAT y A T A son sim´etricas. d) Si A B es sim´etrica, entonces A y B tambi´en lo son. Sol : V,V,V,F. Ejercicio 1.9 Demostrar que una matriz cuadrada de orden n puede des-
componerse de forma ´unica como suma de una matriz sim´etrica y otra antisim´etrica. Realizar la descomposici´on de la matriz
A =
Sol : A =
6 1 −2 6 4 −2 1 −2 5
+
7 −2 5 4 2 −5
0 1 5
0 1 −1 0 3 −1 1 −3 0
.
Ejercicio 1.10 Sea A una matriz antisim´etrica. Demostrar:
a) A2 es sim´etrica.
34
Matrices y determinantes
b) Si B es sim´etrica, entonces A B es sim´etrica si, y s´olo si A B = −B A. Ejercicio 1.11 Hallar todas las matrices que conmutan con A =
Sol : Las matrices escalares de orden 2.
1 −2 4 −3
.
Ejercicio 1.12 Calcular los siguientes determinantes:
Sol : 2,
1 −1 1
3 0 2 −4 1 2
x3 − 3x + 2,
x 1 1 1 x 1 1 1 x
x3 + 3x2 .
1 1 x+1 1 1 x + 1 1 1 x + 1
Ejercicio 1.13 Calcular los siguientes determinantes por dos procedimientos:
desarrollando por los elementos de la primera fila y mediante triangularizaci´on por transformaciones elementales.
Sol : 276 y 4.
1 −3 4 0 1 2 3 3
1 5 3 −2 4 −2 4 1
7 6 7 8
6 8 5 7 10 6 8 8 9 7 9 6
Ejercicio 1.14 Demostrar que el determinante del producto de una matriz
2 × 1 por otra 1 × 2 es siempre cero. Sol : Observar que tiene las columnas proporcionales. Ejercicio 1.15 ¿Es cierto que el determinante de una matriz antisim´etrica es
siempre cero? Sol : S´olo si es de orden impar. Ejercicio 1.16 Sabiendo que los n´ umeros 23715, 23529, 21359, 19437 y 17453
son m´ ultiplos de 31, probar que el determinante de la matriz
A =
2 2 2 1 1
3 3 1 9 7
7 5 3 4 4
1 2 5 3 5
5 9 9 7 3
es divisible por 31, sin calcular el determinante .
35
Ejercicios propuestos
Ejercicio 1.17 Hallar los posibles valores del determinante de una matriz A
en cada uno de los casos siguientes: a) A es idempotente , es decir A2 = A. b) A es ortogonal , es decir AA T = I . c) A es k-nilpotente , es decir existe k tal que Ak = 0. Sol : a) 1, b) ±1 y c) 0. Ejercicio 1.18 Calcular los siguientes determinantes:
1 0 0 .. .
a 2 0 .. .
··· ··· ··· ...
a a 3 .. .
a a a .. .
a a a .. .
0 0 0 ··· n − 1 a 0 0 0 ··· 0 n
Sol : n! y (n − 1)!.
1 1 1 .. .
2 3 2 .. .
··· ··· ··· ...
3 3 5 .. .
n−1 n−1 n−1 .. .
n n n .. .
1 2 3 · · · 2n − 3 n 1 2 3 · · · n − 1 2n − 1
Ejercicio 1.19 Resolver la siguiente ecuaci´on:
1+x 1 1 1 1 1+x 1 1 1 1 1+x 1 1 1 1 1+ x
Sol : x 3 (x + 4) = 0 =⇒ 0, 0, 0, −4.
=0
Ejercicio 1.20 Calcular el valor de los determinantes:
2 1 0 .. .
1 2 1 .. .
0 1 2 .. .
0 0 1 .. .
··· ··· ··· ...
0 0 0 .. .
0 0 0 .. .
0 0 0 0 ··· 2 1 0 0 0 0 ··· 1 2
Sol : n + 1 y 2n − 1.
1 1 2 −1 0 −1 .. .. . . 0 0 0 0
1 0 2 .. .
··· ··· ··· ...
1 0 0 .. .
1 0 0 .. .
0 ··· 2 0 · · · −1
0 2
36
Matrices y determinantes
Ejercicio 1.21 Calcular los siguientes determinantes:
a b c c a b b c a
a b b .. .
b a b .. .
b b a .. .
··· ··· ··· ...
b b b .. .
b b b ··· a
Sol : a 3 + b3 + c3 − 3abc y (a − b)n−1 (a − (n − 1)b).
2. Sistemas de ecuaciones lineales. Espacios vectoriales.
´ Uno de los problemas fundamentales del Algebra Lineal es la resoluci´o n simult´anea de ecuaciones lineales, siendo el caso m´as simple aquel en el que el n´umero de inc´ognitas coincide con el n´umero de ecuaciones. Desde los textos de secundaria se proponen dos m´etodos para resolver tales sistemas de ecuaciones lineales: eliminaci´ on y determinantes . El primer m´etodo, eliminaci´on, consiste en sustraer m´ultiplos de la primera ecuaci´ on de las restantes, de tal manera que sea posible eliminar una misma inc´ognita en el resto de las ecuaciones, con lo que se obtiene un sistema con una ecuaci´ on y una inc´ognita menos. El proceso se repite una y otra vez hasta que s´olo queda una ecuaci´on con una inc´ognita, que se resuelve inmediatamente. No es dif´ıcil recorrer los pasos seguidos en sentido contrario y calcular el resto de las inc´ognitas. El procedimiento permite adem´as detectar aquellos casos en que no existe soluci´on o, por el contrario, existe infinidad de ellas. El segundo m´etodo, determinantes, m´as complicado, introduce la idea de los determinantes y mediante la regla de Cramer se obtienen las soluciones como cocientes de dos determinantes. Su estudio no ser´ a abordado en esta asignatura. El coste de c´alculo de dicho m´etodo lo hace viable para tama˜ no n = 2 o 3, pero cuando se trata de resolver sistemas con un n´umero grande de inc´ognitas, se utiliza el m´etodo de eliminaci´on, de coste bastante inferior. ´ Esta primera parte corresponde al Algebra Cl´asica que se ocupa, fundamentalmente, de la resoluci´on de ecuaciones y sistemas de ecuaciones. La segunda ´ parte corresponde al Algebra Moderna, que estudia las llamadas estructuras ´ algebraicas. Estas se pueden interpretar como sistemas de elementos entre los que se definen operaciones similares a las que podemos realizar con n´umeros. El estudio abstracto de tales estructuras permite su aplicaci´on casi inmediata 37
38
Sistemas de ecuaciones lineales. Espacios vectoriales.
en numerosos a´reas donde aparecen estructuras particulares de forma natural, lo que pone de manifiesto la unidad profunda entre los diversos campos de la matem´atica. Una de las estructuras algebraicas m´ as relevantes, dentro del ´algebra lineal, es la estructura de espacio vectorial , ´ıntimamente ligada al estudio y resoluci´ on de sistemas de ecuaciones lineales.
2.1
Notaci´ on y definiciones
ognitas a un • Se denomina sistema de m-ecuaciones lineales con n-inc´ sistema de ecuaciones de la forma:
S ≡
a11 x1 + a12 x2 + · · · + a1n xn = b 1 a21 x1 + a22 x2 + · · · + a2n xn = b 2 .. . am1 x1 + am2 x2 + · · · + amn xn = b m
siendo x1 , x2 , . . . , xn las inc´ognitas del sistema y todos los aij y bi representan valores escalares pertenecientes a un cuerpo de n´umeros, K , que para nuestros prop´ositos en esta asignatura corresponder´a con el cuerpo de los n´umeros reales, R. on del sistema consiste en la asignaci´on de valores de R a • Una soluci´ cada una de las inc´ognitas de tal forma que se verifique cada una de las ecuaciones que componen el sistema.
• Sea S (S ) el conjunto de todas las posibles soluciones de un sistema S . Se pueden presentar los siguientes casos: ∗ Si S (S ) = ∅ =⇒ Sistema Incompatible = ∅ =⇒ Sistema Compatible ∗ Si S (S )
− S (S ) unitario =⇒ Compatible determinado − S (S ) no unitario =⇒ Compatible indeterminado • Dos ecuaciones se dicen equivalentes cuando las soluciones de la primera lo son tambi´ en de la segunda y viceversa. Por extensi´on, dos sistemas se dicen equivalentes cuando sus conjuntos de soluciones son id´enticos.
39
Notaci´ on y definiciones
Propiedades de los sistemas de ecuaciones lineales on por un escalar (real) • Si se multiplican los dos miembros de una ecuaci´ no nulo, la ecuaci´ on resultante es equivalente a la primitiva .
• Si se suman, miembro a miembro, dos ecuaciones con soluciones comunes, la ecuaci´ on resultante conserva las soluciones comunes . Los sistemas lineales admiten una sencilla representaci´on matricial. As´ı, podemos denotar Ax = b siendo:
A =
a11 a21 .. . am1
a12 · · · a1n a22 · · · a2n .. .. ... . . am2 · · · amn
x =
x1 x2 .. . xn
y b =
b1 b2 .. . bm
gracias a la definici´on dada para el producto entre matrices y la de igualdad entre matrices. Es importante observar que en esta notaci´on matricial se establece un orden para las variables del sistema ya que los coeficientes asociados a una variable se corresponden con una columna de la matriz A, llamada por ello matriz de los coeficientes ; x es la matriz de las variables y b es la matriz de los t´erminos independientes del sistema. Para hacer m´as operativa la notaci´on a la hora de resolver sistemas lineales, podemos prescindir de la matriz columna de las variables del sistema y en su lugar representar el sistema mediante una ´unica matriz ampliada , (A|b), que consiste en a˜ nadir a la matriz A una u ´ ltima columna correspondiente a la matriz b. De esta forma, una vez ordenadas las variables del sistema podemos identificar visualmente cada fila de la nueva matriz con una de las ecuaciones del sistema. Las propiedades enunciadas anteriormente pueden expresarse ahora en t´erminos de las transformaciones elementales fila. on • Si se aplica a la matriz ampliada de un sistema una transformaci´ elemental fila F i (α), con α no nulo, la matriz resultante representa un sistema lineal equivalente al anterior . on • Si se aplica a la matriz ampliada de un sistema una transformaci´ elemental fila F ij (1), la matriz resultante representa un sistema lineal equivalente al anterior .
40
Sistemas de ecuaciones lineales. Espacios vectoriales.
Evidentemente, la combinaci´on de ambos tipos de transformaciones elementales, nos permite aplicar transformaciones fila del tipo F ij (α), obteni´endose sistemas equivalentes. Finalmente, la transformaci´on elemental F ij tan solo representa una permuta entre las ecuaciones i-´esima y j-´esima, por lo que resulta un sistema equivalente. Estamos en condiciones de abordar el primer m´etodo para la resoluci´ o n de sistemas de ecuaciones lineales.
2.2
M´ etodo de eliminaci´ on gaussiana
Este m´etodo de resoluci´on de sistemas de ecuaciones admite una f´acil programaci´on, lo que permite resolver un sistema con la ayuda del ordenador. La idea del m´etodo consiste en aplicar a la matriz ampliada del sistema transformaciones elementales sobre las filas (no pueden realizarse transformaciones columna) obteniendo, de esta forma, sistemas equivalentes al dado pero cada vez m´as manejables. Mediante transformaciones, se consigue obtener un sistema equivalente al dado que tiene por matriz de los coeficientes una matriz escalonada. La notaci´ on quedar´a simplificada empleando matrices ampliadas para representar en todo momento a los sistemas lineales equivalentes que resultan tras las transformaciones. Vamos a iniciar el m´etodo con un ejemplo de orden tres. Ejemplo 2.1 Sea el sistema:
S ≡
2x + y + z = 1 4x + y = −2 7 −2x + 2y + z =
(2.1)
y nuestro problema es determinar los valores de x, y, z . En primer lugar, tomaremos la matriz ampliada del sistema, siguiendo el orden natural para las variables de mismo: (A|b) =
2 4 −2
1 1 2
1 1 0 −2 1 7
Este m´etodo, tambi´en conocido como de eliminaciones sucesivas o m´etodo de escalonamiento comienza restando m´ultiplos de la primera ecuaci´on (fila) a las
41
M´ etodo de eliminaci´ on gaussiana
restantes, con el fin de eliminar una inc´ognita, la x de las u ´ ltimas ecuaciones. Para ello:
• Sumamos a la segunda ecuaci´on la primera multiplicada por -2. • Sumamos a la tercera ecuaci´on la primera multiplicada por 1. F 21 (−2)
(A|b) −→
2 1 1 1 0 −1 −2 −4 2 1 7 −2
F 31 (1)
−→
2 1 1 1 0 −1 −2 −4 0 3 2 8
El resultado es un sistema equivalente al dado:
S ≡
2x +
1 y + z = −y − 2z = −4 3y + 2z = 8
El coeficiente de x en la primera ecuaci´on se denomina pivote . En el segundo paso, ignoramos la primera ecuaci´on y aplicamos el proceso a las dos ecuaciones restantes, donde las inc´ognitas son y y z . En este caso, el pivote es -1 (coeficiente de y en la segunda ecuaci´on).
• Sumamos a la tercera ecuaci´on la segunda multiplicada por 3
2 1 1 1 0 −1 −2 −4 0 3 2 8
F 32 (3)
−→
2 1 1 1 0 −1 −2 −4 0 0 −4 −4
y llegamos al sistema equivalente:
S ≡
2x + y + z = 1 − y − 2z = −4 − 4z = −4
Ahora, el proceso de eliminaci´on est´a completo. Hay un orden evidente para resolver este sistema: de la ´ultima ecuaci´on obtenemos −4z = −4 =⇒ z = 1
42
Sistemas de ecuaciones lineales. Espacios vectoriales.
Sustituyendo este resultado en la segunda ecuaci´on obtenemos
−y − 2 = −4 =⇒ y = 2 Por u ´ ltimo, sustituyendo ambos resultados en la primera ecuaci´ on, se obtiene 2x + 2 + 1 = 1 =⇒ x = −1 Este proceso para obtener los valores de las inc´ognitas, se conoce con el nombre de sustituci´ on regresiva . Es f´acil entender c´omo podemos extender la idea de la eliminaci´on gaussiana a un sistema de n-ecuaciones con n-inc´ognitas: a) En un primer paso, utilizamos m´ultiplos de la primera ecuaci´on para anular todos los coeficientes bajo el primer pivote. b) A continuaci´ on, se anula la segunda columna bajo el segundo pivote, etc. c) La u ´ ltima columna contiene s´o lo a la u ´ ltima de las inc´ognitas. d) La sustituci´on regresiva conduce a la soluci´on en sentido contrario, es decir, comenzando por la ´ultima inc´ognita hasta llegar a la primera. ¿Conduce siempre a la soluci´ on el proceso de eliminaci´ on gaussiana? y, en caso contrario ¿Bajo qu´e condiciones puede fallar el proceso? Ejemplo 2.2 Para resolver el sistema
S ≡
x + y + z = 1 2x + 2y + z = 2 = 1 x + y
(2.2)
Procedemos a escalonar la matriz ampliada del sistema:
1 1 1 1 2 2 1 2 1 1 0 1
F 21 (−2)
−→
1 0 1
1 1 0 − 1 1 0
1 0 1
F 31 (−1)
−→
1 0 0
1 1 0 − 1 0 − 1
1 0 0
F 32 (−1)
−→
43
M´ etodo de eliminaci´ on gaussiana
F 32 (−1)
−→
1 0 0
1 1 0 −1 0 0
1 0 0
La presencia de la ´ultima fila de ceros indica que exist´ıan dos ecuaciones proporcionales en el u ´ ltimo paso (la segunda y tercera ecuaciones son id´enticas) por lo que puede ser eliminada del sistema equivalente:
x + y +
z = 1 −z = 0
La sustituci´on regresiva, proporciona los valores z = 0 y x = 1 − y. Obs´ervese que en este ejemplo existe una relaci´on de dependencia entre las variables x e y. Si tomamos un valor cualquiera para y, ´este determina otro para la x. Existen infinitas soluciones en este caso, que podemos expresar de forma param´etrica como x = 1 − λ y = λ z = 0
Se dice que y act´ ua como variable independiente y x, z son variables dependientes . Estamos ante un sistema compatible indeterminado.
Ejemplo 2.3 Para resolver el sistema
S ≡
x − 2y + 2z = 3 x − 5y + 4z = 1 2x − 3y + 2z = 1
(2.3)
Una vez m´as procedemos a escalonar la matriz ampliada del sistema:
1 − 2 3 − 5 2 − 3
2 4 2
3 1 1
1 − 2 2 3 0 1 −2 − 8 0 1 −2 − 5
F 21 (−3)
−→
F 32 (−1)
−→
1 − 2 2 3 0 1 − 2 − 8 2 − 3 2 1
1 − 2 2 3 0 1 −2 − 8 0 0 0 3
F 31 (−2)
−→
44
Sistemas de ecuaciones lineales. Espacios vectoriales.
La u ´ltima fila representa la ecuaci´on 0x + 0y + 0z = 3 lo que produce un sistema incompatible ya que 0 = 3. Por tanto, no hay soluciones para nuestro sistema original . Se trata de un sistema incompatible .
Tras estos tres ejemplos, podemos analizar el comportamiento del m´etodo de eliminaci´ on gaussiana en relaci´on con los pivotes del m´etodo de escalonamiento de Gauss-Jordan.
• El caso de sistema incompatible (Ejemplo 2.3) se identifica f´acilmente por el hecho de que existe un pivote en la ´ultima columna de la matriz ampliada. • En caso contrario, resulta un sistema compatible – Determinado si el n´ umero de pivotes coincide con el de variables. – Indeterminado si el n´ umero de pivotes es menor que el de variables.
¿Qu´ e coste computacional tiene el algoritmo de eliminaci´ on para resolver un sistema n × n? En el primer paso hay que realizar una operaci´on por cada t´ ermino de la primera ecuaci´on para cada una de las n − 1 ecuaciones que hay debajo: n(n − 1) = n2 − n operaciones. En el segundo paso (n − 1)2 − (n − 1), etc. hasta (2 − 1)2 − (2 − 1). Es decir, en total: n(n + 1)(2n + 1) (n + 1)n n3 − n (1 + 2 + · · · + n ) − (1+2+ · · · + n) = = − 6 2 3 2
2
2
por lo que es de orden O (n3 ). (n + 1)n =⇒ O(n2 ). 2 Por lo que en total, podemos decir que el m´etodo de eliminaci´on gaussiana es de orden O (n3 ). La sustituci´on regresiva requiere 1 + 2 + · · · + n =
Aunque no incluiremos aqu´ı su demostraci´on, el orden del m´etodo de Cramer es O ((n + 1)!). Resulta evidente el considerable ahorro de tiempo que supone el m´etodo de eliminaci´ on gaussiana frente a la regla de Cramer.
M´ etodo de eliminaci´ on gaussiana
2.2.1
45
Sistemas de ecuaciones lineales homog´ eneos
Un sistema de ecuaciones lineales se dice que es homog´eneo cuando todos sus t´erminos independientes son nulos, es decir, es un sistema del tipo:
S ≡
a11 x1 + a12 x2 + · · · + a1n xn = 0 a21 x1 + a22 x2 + · · · + a2n xn = 0 .. .. .. .. . . . . am1 x1 + am2 x2 + · · · + amnxn = 0
De la secci´on anterior se deduce que si aplicamos el m´etodo de eliminaci´ on gaussiana, puesto que la matriz ampliada tiene su ´ultima columna nula, por m´as transformaciones elementales fila que hagamos, siempre resultar´ a otra columna nula. En conclusi´ on: nunca habr´a un pivote en esa columna y por tanto el sistema siempre es compatible. Si el n´ umero de pivotes es igual al n´umero de variables, el sistema es compatible determinado con soluci´on u ´nica trivial (todas las variables toman el valor nulo) mientras que si el n´umero de pivotes es menor, habr´a infinitas soluciones y el sistema es compatible indeterminado. Podemos por tanto clasificar a los sistemas homog´eneos como
• incompatibles : aquellos que s´olo admiten la soluci´on trivial. • compatibles : aquellos que admiten infinitas soluciones. Al resolver un sistema homog´eneo compatible mediante eliminaci´ on gaussiana, las variables asociadas a las columnas que contienen a los pivotes se denominan variables dependientes , siendo todas las dem´as variables independientes . Podemos despejar, mediante sustituci´on regresiva, las variables dependientes en funci´on de las independientes. Las infinitas soluciones pueden expresarse mediante una serie de par´ametros, tantos como variables independientes haya. Veamos un ejemplo: Ejemplo 2.4 Resolvamos el sistema homog´eneo:
S ≡
2x + y − z + t = 0 x + 2y + z − t = 0 3x − y − 2t = 0
(2.4)
46
Sistemas de ecuaciones lineales. Espacios vectoriales.
Como ya comentamos, la matriz ampliada tiene su ´ultima columna llena de ceros y ´estos permanecer´an por muchas transformaciones elementales fila que hagamos. As´ı pues, para resolver sistemas homog´eneos mediante escalonamiento se prescinde de emplear la matriz ampliada y en su lugar tomamos simplemente la matriz de los coeficientes. Procedemos a escalonar dicha matriz: 2 1 −1 1 2 1 −1 1 F (− ) F (− ) −→ −→ 1 2 1 −1 0 3/2 3/2 − 3/2 3 −1 0 −2 3 −1 0 −2
1
21
2 1 −1 1 3/2 3/2 − 3/2 0 0 − 5/2 3/2 − 7/2
2
F 32 ( 5 ) 3
−→
1 −1 1 3/2 3/2 − 3/2 0 4 −6
2 0 0
3
31
2
Aunque el proceso de escalonamiento ha concluido, podemos simplificar algunas ecuaciones aplicando ahora F 2 ( 2 ) 3
−→
2 0 0
1 −1 1 1 1 −1 0 4 −6
F 3 ( 1 ) 2
−→
2 0 0
1 −1 1 1 1 −1 0 2 −3
con lo que resulta el sistema equivalente
S ≡
2x + y − y +
z + t = 0 z − t = 0 2z − 3t = 0
Los pivotes se encuentran sobre las tres primeras columnas por lo que tomaremos como variables dependientes x, y, z , resultando t la u ´nica variable independiente. El sistema homog´eneo es compatible; presenta infinitas soluciones que podemos expresar, param´etricamente, como 1 x = λ 2
1 y = − λ 2
z =
3 λ 2
t = λ
Habitualmente, cuando los c´ alculos se realizan a mano, con objeto de reducir la cantidad de anotaciones, se realizan transformaciones elementales paralelamente a varias filas a la vez. Por otra parte, tambi´en es deseable evitar, en la medida de lo posible, la manipulaci´on de fracciones. Para ello, realizaremos transformaciones entre las filas que denotaremos a F i − b F j y que representan el equivalente a dos transformaciones elementales filas consecutivas: F i (a)