tema
18
MATEMÁTICAS Matrices. Álgebra de matrices. Aplicaciones al campo de las ciencias sociales y de la naturaleza.
3 1 0 1 8 3 1 4 2
tema 18
matemáticas
1. 1.1. 1.2.
2.
MATRICE S CONCEPTO DE MATRI Z TIPOS DE M ATRICES
ÁLGEBRA DE MA MATRICE TRICE S
2.1.
EL ESPACIO VECTORIAL DE LAS MATRICES � M × N �
2.2.
PRODUCTO DE MATRICES: PROPIEDADE S
2.3.
ANILLO DE LAS MATRICES CUADRADAS DE ORDEN N
2.4.
MATRIZ MA TRIZ IN VERSIBLE
3.
APLICACIONES AL CAMPO DE LAS CIENCIAS SOCIALES Y DE LA NATURALEZ A
3.1.
MATRIZ MA TRIZ ASOCIADA A UNA APLICACIÓN LINEAL
3.2.
MATRIZ MA TRIZ ASOCIADA A UN SISTEMA DE ECUACIONES LINEALES
3.3.
APLICACIÓN EN EL CÁLCULO DE VARIAS VARIABLE S
3.4.
APLICACIÓN EN LA GEOMETRÍ A
3.5.
APLICACIÓN EN LA ESTADÍSTICA
3.6.
APLICACIÓN EN LA TEORÍA DE LA PROBABILIDA D
3.7.
APLICACIÓN EN LA ECONOMÍ A
3.8.
APLICACIÓN EN CONT CONTABILIDA ABILIDAD
3
tema 18
matemáticas
INTRODUCCIÓN
Son numerosos los contextos en los que se puede aplicar el álgebra de matrices: geometría, física, estadística, economía entre otros y sobre todo en la informática y la tecnología puesto que la utilización matrices constituye hoy en día una parte esencial de los lenguajes de programación, hojas de cálculo, tratamiento de imágenes, reconocimiento reconocimiento de voz, voz, etc. Esto nos muestra la importancia del presente tema, sobre todo en lo referente a las aplicaciones del álgebra de matrices. El tema se inicia con la denición del concepto matriz, así como el análisis de tipos parti culares de matrices. El rango o la inversa de una matriz son conceptos clave, así como las operaciones básicas entre matrices. Antes de entrar en materia realizar un breve acercamiento hacia la historia. Es a mediados del siglo XIX cuando Sylvester (1814-1897) introduce por primera vez el término de matriz para referirse a un cuadro rectangular de números. El desarrollo inicial de la teoría de matrices se debe a Hamilton (1805-1865), y es Cayley (1821-1895) quien introduce la notación matricial como una forma abreviada de escribir un sistema lineal de m ecuaciones con n incógnitas.
5
tema 18 matemáticas
1
1.1.
MATRICES
CONCEPTO DE MATRIZ Sean I , J , K tres conjuntos; se llama matriz de tipo ( I , J ) con elementos en un cuerpo K , o matriz de tipo ( I , J ) sobre K , a toda familia A = (aij)(i, j j)) ∈ I × J de elementos de K en los que el conjunto de índices es el conjunto 1 × J . Para todo i ∈ I , la familia (aij) j ∈ J es llamada la la de índice i de A; para todo j ∈ J , la familia (aij)i ∈ I se llama la columna de índice j de A. Si I , respectivamente J , es nito, se dice que A es una matriz, teniendo un número nito de las, respectivamente de columnas. Las denominaciones de «las» y de «columnas» proviene de que en el caso en el que I y y J sean sean los intervalos cerrados [1, m], [1, n] de N se consideran los elementos de la matriz dispuestos en un cuadro rectangular, teniendo m-las (dispuestas horizontalmente) y n-columnas (alineadas verticalmente):
a a ... a 11 12 1n a21 a22 ... a2n A = .................... ..................... ........ am1 am2 ... amn
(1)
De esta forma, en lugar de una matriz de tipo ([1, m], [1, n]) se dirá de tipo ( m, n) o de orden m × n n o matriz de m las y n columnas. Al conjunto de matrices de orden m orden m × n sobre el cuerpo K cuerpo K se se le denota M mxn (K ). ). n sobre Para abreviar escritura, en algunos casos representaremos las matrices por la no = 1, 2, 2, ..., m; j =1 = 1, 2,..., 2,..., n; tación ya mencionada en un principio A = (aij ), i =1
(el primer índice indica las filas y el segundo las columnas), en lugar de la notación (1). El símbolo aij representa el elemento que ocupa la fila i-ésima y la columna j-ésim j-é sima a de la matriz A y recibe el nombre de elemento (i , j) de A. Dos matrices se dicen iguales cuando son del mismo orden y tienen iguales todos A, B B ∈ M mxn (K ) los elementos que ocupan la misma posición, es decir, si A, A = B ⇔ aij = bij ∀(i, j)
6
tema 18
matemáticas
1.2.
TIPOS DE MATRICES Una matriz 1 × n se llama matriz fla, fla, y una matriz m × 1 se llama matriz columna.
a1j a2 j .. . . a mj
(ai1 ai 2 ai 3 ... ai n ) matriz fi fila
matriz atriz columna Una matriz que tiene igual número de las que de columnas, m =n, se dice cuadra-
conjunto unto de todas ellas se le representa representa simplem simplementepor Mn (K ). ). da de orden n y al conj Si m ≠ n, es decir, tiene distinto número de filas que de columnas, la matriz de dice rectangular. Una matriz con todos sus elementos iguales a 0 se llama matri se denota denota atriz z nula nula y se por 0mxn o simp simplemente 0 cuando se sobreentienden sus dimensiones. Una matriz se llama escalonada cuando el primer elemento no cero en cada fila está más a la la derecha que el de la la fila fila anteri nterior. or. Sea A =(aij )∈ M mxn (K ). Se llama matriz opuesta d de e A, y se representa por – A, a la matriz que resulta de sustituir cada elemento de A por su opuesto, es decir, – A =( =(––aij ). Se llama matriz traspuesta d de e A, y se repres representa enta por At, a la la matri atriz z que se obti obtiene ene t intercambi biand ando ordenadam ordenadamentelasfil filas aspor colum col umnas, es deci cir, r, A A =(a ji ) ∈ M mxn (K ). Se cumpl cumple: ( A At )t = A
Sea A
– ((–– A) = A
(– A)t =– ( A At )
(K ) una matriz cuadrada de orden n, A = (aij), se llama diagonal principal de una matriz A a la sucesión formada por los elementos aii, es decir, a11, a 22, ... , a nn. Asimismo, se llama diagonal secundaria de A a la sucesión de elementos aij tales que i + j = 1 + n. Diremos que A es una triangular superior si tiene nulos los elementos situados por debajo de la diagonal principal, esto es, aij = 0 ∀ i > j. Se llama triangular inferior si son nulos los elementos situados por encima de la diagonal principal, esto es, aij = 0 ∀ i < j. Una matriz se dice diagonal si son nulos los elementos situados fuera de la diagonal principal, esto es, aij = 0 ∀ i ≠ j. ∈ M n
Presentan, pues, la siguiente escritura:
7
tema 18 matemáticas
Una matriz diagonal con todos los elementos de la diagonal principal iguales entre sí recibe el nombre de matriz escal calar ar; si además aii =1 ∀ i dicha matriz se le llama matr atriiz unidad o i ide dentidad y se representa por In.o simplemente I cuando se sobreentiende su dimensión. Una matriz cuadrada se llama simétrica si coincide con su traspuesta, y se llama coincide de con su su opuesta. opuesta. antisimétrica si su traspuesta coinci X
Subdivisión en cajas Dada una matriz A de tipo m × n, sean i1, ..., i p índices de la, y j1, ..., jq índices de columna. Entonces, la matriz p × q cuyas las son: (a¡j, aijij22, ... aij ); i = i1, ..., i p q
se dice submatriz de A co A.. Se obtiene también suprimiendo en A las las y las columnas de índices distintos de los mencionados. Una submatriz cuyos índices de la sean consecutivos y asimismo los de columna se llama bloque o caja de la matriz A. Los bloques más notables son los bloques la Ai, que son submatrices formadas por una la, y los bloques columna A j, que son submatrices formadas por una columna. La expresión de A mediante ellos es:
A1 ← matriz fila A 2 A = . . A m
( A1,..., An ) ↓ matri triz z col colum umna
Una matriz la 1 × n es en realidad una n-upla de elementos de K , y por tanto un vector de K n. Los nombres con que se designe pueden considerarse sinónimos y se usarán según convenga; así, un bloque la se dice también un vector la y un bloque columna se dice también un vector columna. columna. Se llama descomposición de A en bloques o cajas a una partición de A en bloques .
A11 .......... A1k A = ..................... A .......... A h1 hk
8
tema 18
matemáticas
Ejemplo:
A11
A12
A13
a b c d e f g a′ b′ c′ d′ e′ f ′ g ′ Descomposición en cajas A A A A = a′ ′ b′′′′ c′ ′ d′ ′ e′ ′ f ′ ′ g ′ ′ = 11 12 13 α β γ δ ε ξξ η A21 A22 A23 α′ β ′ γ ′ δ′ ε′ ξ′ η′ A21
A22
A23
Si en la descomposición anterior h = k , y todos los bloques Aij con i ≠ j son nulos, la matriz A se llama suma diagonal o suma directa de las matrices Aii, y se escribe: A = ( A A11, A22, A33, ..., Ahh)
Por ejemplo:
A11 a b c 0 a′ b′ c ′ 0 a′ ′ b′ ′ c ′ ′ 0
0 0 0 0 0 0 Suma directa o diagonal de las A ii 0 0 0 = ( A11 , A22 , A33)
dirrecta odiagonal delas A 0 0 0 δ 0 0 0 Sumadi A22 0 0 0 0 ε′ ξ′ η′
ii
A33
9
tema 18 matemáticas
2
2.1.
ÁLGEBRA DE MATRICES
EL ESPACIO VECTORIAL DE LAS MA MATRICES TRICES � M × N� Designamos por M m × n al conjunto de las matrices m × n de elementos de un cuerpo K . Las deniciones que damos a continuación tienen por objeto dotar a dicho conjun to de una estructura de espacio vectorial sobre el cuerpo K . Defnición Dadas dos matrices A = ( aij) y B = ( bij), m × n, se dene su suma como la matriz cuyo elemento (i, j) es aij + bij para todo i y j. Es decir: A = (aij)
+ B = ( a + b ⇒ A ,j) A + B = aij + bij) , ∀(i j B = (bij)
Notemos que la aplicación ( A, B)→ A + B no es una operación binaria en el con junto total de las matrices (para sumar matrices es necesario que sean m × n), pero sí es una operación binaria interna en el conjunto de las matrices m × n, donde «m» y «n» son jos. X
Teorema El conjunto de las matrices m × n con la operación suma (denida anteriormente) tiene estructura de grupo abeliano y lo denotaremos: ( M m × n, +).
Demostración: Es consecuencia inmediata de ser ( K , +) grupo abeliano (por tanto, la asociativa y conmutativa son evidentes). El elemento neutro es la matriz ( aij) / a¡j = 0 ∀(i, j), que se llama matriz cero:
0 0 ...... 0 0 0 ...... 0 .. 0 0 ...... 0 m× n El opuesto de la matriz A = (aij) es la matriz – A = (– aij), ∀(i, j). Defnición Dada una matriz A = (a¡j), m × n, y un escalar t ∈ K , se dene la matriz producto por un escalar , y se designa por t · · A como la matriz que se obtiene multiplicando cada elemento de A por t . · A = (t · · aij), ∀(i, j) t ·
10
tema 18
matemáticas
Es de comprobación inmediata las propiedades: 1 · A = A
(1 elemento unidad de K )
λ · ( µ µ · A) = ( λ λ · µ) · A λ + µ) · A = λ · A + µ · A ( λ λ · ( A A + B) = λ · A + λ · B
∀ λ, µ ∈ K ; ∀ A, B ∈ Mn × n Por tanto, teniendo en cuenta estas propiedades y el teorema anterior, se dene el siguiente teorema: X
Teorema El conjunto de las matrices m × n con las operaciones suma y producto por un escalar es un espacio vectorial sobre el cuerpo K , que representaremos por: ( M ), o simplemente m × n M m x n , +, · K ), Es interesante observar que hasta ahora no se diferencia entre los conceptos de matriz m × n y (m · n)-upla, pues en ambos casos se trata de un conjunto totalmente ordenado de (m · n) elementos de K , que en el caso de matriz se escriben en forma de cuadrado (de m las y n columnas) y en el caso de ( m · n)-upla en una sola la. Pero la denición de suma y producto por un escalar es la misma en ambos casos y por ello, ello, la aplicac aplicación: ión: M m x n → K m . n A = (aij) → (a11, a12, ..., a1n, ..., am1, ..., amn)
es un isomorsmo de espacios vectoriales. La diferencia matemática entre los dos conceptos reside en el producto de matrices que deniremos más adelante, y que utiliza de manera especial la distribución de los números en m-las. Teniendo en cuenta el isomorsmo anterior, vemos que la base natural o canónica del K -espacio -espacio vectorial m × n está formada por las matrices m × n, que tienen sus elementos nulos excepto el que ocupa el lugar ( i, j) (situado en la la i, columna j que vale 1. Se suele designar por εij la matriz que tiene el elemento ( i, j) igual a 1 y todos los demás elementos nulos. Una matriz A = ( aij) se escribe en función de esta base: m
A =
n
∑∑a ε ij
ij
i =1 j =1
Por tanto, la dimensíón de
es m · n m x n es m · n..
11
tema 18 matemáticas
X
Teorema Toda matriz cuadrada es la suma de una matriz simétrica y de otra antisimétrica. Además esta descomposición es única.
Demostración: Admitiendo una descomposición A = S + + T , con S simétrica simétrica y T antisimétrica. antisimétrica. Se tiene que: At = S t + T t
(es inmediato que la traspuesta de una suma es la suma de las traspuestas)
Ahora bien: S t = S por por ser simétrica. T t = – T T por por ser T antisimétrica. antisimétrica.
Y por tanto: = 1/2 ( A + At ) S =
+ T A = S +
⇒ – T At = S –
= 1/2 ( A – At ) T =
de donde resulta la existencia y unicidad de la descomposición. Observamos que el teorema pierde todo signicado si el cuerpo K es es de característica 2, pues aparecería 2S , que es cero. (Obsérvese que la matriz A tiene que ser cuadrada, pues las matrices simétricas son cuadradas).
2.2.
PRODUCTO DE MATRICES: PROPIEDADES Vamos ahora a denir una nueva ley de composición que, en ciertos casos, permi te asociar a dos matrices A y B una tercera matriz C , llamada producto, y representada por la notación habitual C = = A · B. Esta operación no va a ser en general conmutativa, pero es asociativa y distributiva a la derecha y a la izquierda con respecto a la suma, lo que justica el nombre de producto. prod ucto. Defnición El producto de una matriz A de tipo m × n por una matriz B de tipo n × p
b11 ... b1 p a11 ... a1n . . . . . . . . . . . . = b A = . . = (aij ) ; B = . . ( jk ) . . . . . . . . a .. bn1 ... bnp m1 .... amn
12
tema 18
matemáticas
es una matriz m × p, A · B = (cik ), dada por: n
ci k =
∑ a ⋅b ij
jk
= ai 1 b1k + ai 2 b2k + ... + ain bnk siendo i = 1, ... m , k = 1, ... p
j =1
Ejemplo:
1 0 3 2 1 3 2 1 ⋅ = −2 − 1 0 1 2 −6 − 5 − 4 2× 2 2× 3 2× 3 Notemos que ( A A, B) → A · B no es una operación binaria en el conjunto total de las matrices. Para que exista A · B es necesario y suciente que el número de columcolum nas de A sea igual al número de las de B. Veamos ahora algunas propiedades de la multiplicación de matrices. X
Teorema 1 Sean A, B, C matrices. matrices. Supongamos que existen los productos A · B y A · C y y que pueden sumarse. Entonces, existe el producto A · ( B + C ) y se verica: B y C pueden A · ( B B + C ) = A · B + A · C
Análogamente, se probaría la distributiva por el otro lado: si existen los productos y además B y C son sumables entonces: B ·A y A · C y ( B · A B + C ) · A = B · A + C ·
Demostración: Sea A = (aij) una matriz m × n. Para que existan: y B + C ha ha de ser: A · B, A · C y B = (b jk ) una matriz n × p
= (c jk ) una matriz n × p C = = (b jk + c jk ) es una matriz n × p, y por tanto existe: A · ( B ). B + C = B + C ). Veamos ahora la igualdad: A · ( B + C ) = A · B + A · C . El elemento que ocupa el lugar (i, k ) de A · ( B B + C ) vendrá dado por: n
∑ a ⋅ (b ij
+ c jk )
jk
j =1
Y el elemento que ocupa el lugar ( i, k ) de A · B + A · C será: será: n
n
n
∑ a ⋅ b + ∑ a ⋅ c = ∑ (a ⋅ b ij
j =1
jk
ij
j =1
jk
ij
j =1
jk
n
+ aij ⋅ c jk ) =
∑ a ⋅ (b ij
+ c j jk )
jk
j =1
13
tema 18 matemáticas
X
Teorema 2 Sean A y B dos matrices que se pueden multiplicar. Si t ∈ K , se verica: · B) = t · · ( A · B) A · (t ·
Demostración:
Sean
A = (ai j )
B = (bjk )
,
↓
↓
m× n
n× p
n
A ⋅ (t ⋅ B ) ik = X
n
n
∑ a ⋅ (t ⋅ b ) = ∑ t t ⋅ (a ⋅ b ) = t ⋅ ∑ a ⋅ b ij
j =1
jk
ij
jk
j =1
ij
jk
= t ⋅ (AB )ik
j =1
Teorema 3 Sean A, B y C matrices matrices tales que existan los productos A · B y B · C . Entonces, existen los productos A · ( B B · C ) y ( A A · B) · C , y además se verica: ( A = A · ( B A · B) · C = B · C ) Es decir, el producto de matrices es asociativo.
Demostración: Por existir A · B y B · C ha ha de vericarse:
Número de columnas de A = Número de las de B.
Número de columnas de B = Número de las de C .
Sean entonces: A una matriz ( m × n), B: ( n × p), C: ( p × r ). ). Entonces:
B · C es es una matriz (n × r ) y A · ( B ): (m × r ). ). B · C ):
). A · B es una matriz ( m × p) y ( A A · B) · C : (m × r ).
Probemos ahora la igualdad ( A · B) · C = = A · ( B ). Sean, para ello: B · C ). = (ckl) A = (aij) ; B = (b jk ) ; C = Se tiene:
n ⋅ = ⋅ ⇒ ⋅ ⋅ = ⋅ A B a b A B C a b ( )ik ) il ij jk ij jk ⋅ ckl = ( j =1 k =1 j =1 n
∑
p
∑∑
p bjk ⋅ ckl ⇒ A ⋅ ( B ⋅ C ) il = aij ⋅ b jk ⋅ ckl = ( B ⋅ C ) jl = k =1 j =1 k =1 p
∑
= ( A ⋅ B ) ⋅ C il
14
n
∑ ∑
p
n
∑∑a ⋅b ij
jk
⋅ ckl
k =1 j =1 n
p
∑∑a ⋅b ij
j =1 k =1
jk
⋅ ckl =
tema 18
matemáticas
No conmutatividad
En general, no cabe hablar de conmutatividad en el producto de matrices, ya que si A es una matriz m × n, y B una matriz n × p, existe el producto A · B, y es una matriz m × p; mientras que el producto B · A es sólo posible cuando m = p, pero aún en este caso A · B es cuadrada de orden m, y B · A es cuadrada de orden n. Obsérvese que si fuese conmutativa y considerando:
Luego B: (n × m) Pero:
Así pues, no se obtienen dos productos de igual dimensión más que multiplicando matrices cuadradas del mismo orden, pero aún en este caso, en general, A · B ≠ B · A, en razón de los distintos papeles que desempeñan las las y las columnas en la multiplicación multiplicación.. Así, por ejemplo:
1 0 0 1 0 1 ⋅ ⋅ = 1 1 0 0 0 1 0 1 1 0 1 1 ⋅ ⋅ = 0 0 1 1 0 0 X
Teorema 4 La traspuesta de un producto se obtiene multiplicando en orden inverso las tras puestas de sus diferentes factores. ( A A · B)t = Bt · At
Demostración: Sean las matrices: A = (aij) una matriz ( m × n) B = (b jk ) una matriz ( n × p)
15
tema 18 matemáticas
Entonces,
( A ⋅ B ) = ( A ⋅ B ) = ik ki t
n
∑ a ⋅b ij
jk
j =1
Por otra parte: n
( B ⋅ A ) ki = t
2.3.
t
∑ (B )
n
t
j =1
+ ( A ) ji = t
kj
∑b j =1
n
jk
⋅ aij =
∑a ⋅b ij
jk
j =1
ANILLO DE LAS MATRICES CUADRADAS DE ORDEN N Hay que volver a recalcar que si m ≠ n y A, B ∈ M m × n, entonces las matrices A y B no se pueden multiplicar. Estudiemos ahora qué ocurre si m = n.
X
Teorema El conjunto M n de las matrices cuadradas de orden n (sobre un cuerpo K ) dotado de la suma y el producto de matrices, tiene estructura de anillo con elemento unidad.
Demostración: ( M M n, +) es grupo abeliano. El producto de matrices verica la propiedades asocia tiva y la distributiva respecto a la adición. Sólo hay que observar que dos matrices cualesquiera, de M n se pueden multiplicar, y además el producto pertenece a M n. Así, ( M M n, +, ·) tiene estructura de anillo. Por último, la matriz I m ∈ M n que tiene todos sus elementos nulos salvo los de la diagonal principal, que son 1, es el elemento unidad del anillo M n.
1 0 ... 0 0 1... 0 I n = ............... 0 0 ...1 Se comprueba fácilmente que: A · I n = A = I n · A para cualquier A ∈ M n. Obsérvese que en M n tampoco se cumple la conmutatividad de la multiplicación. Por ejemplo:
1 1 = 1 2 ⋅⋅ 1 1 ≠ 1 1 ⋅⋅ 1 2 = 1 3 0 0 0 1 0 0 0 0 0 1 0 0 Si dos matrices son tales que A · B = B · A se dice que conmutan o que son permutables, o que verican la propiedad conmutativa.
16
tema 18
matemáticas
También se comprueba que el anillo M n tiene divisores de cero, por ejemplo:
2 4 0 2 0 0 = −1 − 2 0 − 1 0 0 En síntesis: M n, + , · ) representa el anillo de las matrices cuadradas, que tiene elemento ( M unidad I n, no verifca la propiedad conmutativa y posee divisores de cero. Además, resumiendo todas las propiedades de la suma de matrices, producto de matrices y multiplicación por un número, podemos decir que ( M M n, +, ×, ·) es un álgebra (álgebra de las matrices cuadradas de orden n).
Observación: en la notación de la estructura de álgebra, el signo × denota el producto de matrices. Defnición Llamaremos potencia de una matriz A ∈ Mn al producto reiterado de A por sí mis-
ma hasta hasta un número de factores factores igua igual al exponente, k , y lo escribiremos Ak .
Relacionados con el concepto de potencia aparecen algunos tipos de matrices:
2.4.
Se dice que A es idempotente cuando A2 = A.
Se dice que A es involutiva cuando A2 = I.
Se dice que A es nilpotente de orden k cuando cuando Ak = 0.
MATRIZ MA TRIZ INVERSIBLE INVERSI BLE Una matriz cuadrada se dice inversible (o también se llama no-singular o regular) si tiene inversa. Es decir: A ∈ M n, A es inversible si existe una matriz cuadrada B de orden n, tal que: A · B = B · A = I n, donde I n denota, como ya dijimos antes, la matriz unitaria de orden n.
Es fácil comprobar que: Si A es inversible la matriz B vericando A · B = B · A = In es única. En efecto: Supongamos que existe B’ ∈ Mn / B’ · A = A · B’ = I n. Probaremos que B = B’. Para ello, B = B · I n = B · ( A A · B’) = ( B B · A) · B’ = I n · B’ = B’ ⇒ B = B’
La matriz B se llama matriz inversa de A, y se representa por A –1. (Cuando hagamos el estudio de los determinantes daremos una caracterización práctica de las matrices inversibles, así como el cálculo de la matriz inversa.) Veamos cómo es el producto de dos matrices inversibles. i nversibles. Se verica:
17
tema 18 matemáticas
Proposición: Si A y B son dos matrices inversibles, su producto es también una matriz inversi ble, y, y, además, su matriz inversa ( A · B) –1 = B –1 · A –1.
Demostración: Basta ver que: ( A A · B) · ( B B –1 · A –1) = ( B B –1 · A –1) · ( A A · B) = I n En efecto, basándonos en la propiedad asociativa del producto de matrices: ( A A · B) · ( B B –1 · A –1) = A · [ B B · ( B B –1 · A –1)] = A · [( B B · B –1) · A –1] = A · ( I I n · A –1) = A · A –1 = I n Análogamente se prueba que ( B –1 · A –1) ( A A · B) = I n
Proposición: Si A es una matriz inversible entonces At es inversible y además
( A =(( A At)–1 = A–1)t Defnición Dos matrices A y B de tipo ( m, n) se dicen equivalentes si existen las matrices inversibles P: (m, m) y Q: (n, n), tales que: B = P · A · Q
Se dice que el rango de una matriz A ∈ M mxn es r ≤ min {m, n} si ésta es equivalente a una matriz suma directa de I r y 0m-r,n-r Se cumple que:
La equivalencia de matrices es una relación de equivalencia
Dos matrices equivalentes tienen la misma dimensión
Dos matrices equivalentes tienen el mismo rango
Dos matrices son equivalentes si y sólo si tienen igual rango y dimensión
Esta denición de rango se ha dado siguiendo una coherencia de los conceptos elementales introducidos a lo largo del tema, que de otra manera implicaría hablar de dependencia e independencia lineal de vectores, de rango por las y rango por columnas, y además probar que estos son iguales.
18
tema 18
matemáticas
3
APLICACIONES AL CAMPO DE LAS CIENCIAS SOCIALES Y DE LA NATURALEZA Las aplicaciones de las matrices son muy variadas: desde la confección de horarios, hasta el tratamiento digital de imágenes. Las matrices juegan un papel importantísimo en todas las ramas de las matemáticas, ramas subyacentes en todas las ciencias y, en particular, en el campo de las ciencias sociales y de la naturaleza. Es por ello, que veremos aplicaciones en las distintas ramas de las matemáticas indicando o dando un ejemplo de su aplicación al campo de las ciencias sociales y de la naturaleza.
3.1.
MATRIZ MA TRIZ ASOCIADA A UNA APLICACIÓN AP LICACIÓN LINEAL Sean E y y F dos dos espacios vectoriales de dimensiones n y p respectivamente y sobre un cuerpo conmutativo K . Sea B = {e1, e2, ..., en) una base de E y y C = = {u1, u2, ... uP} una base de F , y sea I una una aplicación lineal de E en en F , por tanto, cumple que: ( x ( x ( y (k · · x) = k · · I ( ( x ). I ( x + y) = I ( x) + I ( y), I ( x), ∀ x, y ∈ E , ∀k ∈ k ). Vamos a estudiar cómo está denida esta aplicación lineal. Sea: n
x ∈ E , x = x1e1 + x2e2 + ... + xnen =
∑
xi ei,
i =1
siendo ( x1, ..., xn) las coordenadas de x en B; entonces como I ( x) será de la forma: p I ( x x) = y1u1 + y2u2 + ... + yPuP =
∈
F
∑
y ju j
j =1
donde ( y y1, ..., yP) son las coordenadas de l ( x x) en la base C . Se trata, pues, de buscar quiénes son las coordenadas ( y1, y2, ... , yP) de I (x) en la base C . También sabemos que una aplicación lineal queda totalmente denida si conoce mos las imágenes de una base. Sea pues: (e1) = a11 u1 + a12u2 + ... + al p pu p , (a11, a12, ..., a1 p) coordenadas de I ( (e1) en C I ( (e2) = a21 u1 + a22u2 + ... + a2 pu p , (a21, a22, ..., a2 p) coordenadas de I ( (e2) en C I ( ....................................................................... .................................. ......................................................................... ................................................ ............ (en) = an1 u1 + an2u2 + ... + anpu p , (an1, an2, ..., anp) coordenadas de I ( (en) en C I ( Hay, pues, n relaciones que se pueden escribir de manera más condensada: p
I (ei ) =
∑au ij
j
,
∀i = 1, ..., n.
j =1
19
tema 18 matemáticas
Calculemos ahora quién es I ( ( x x): ( x ( x (e1) + x2 I ( (e2) + ... xn · I ( (en) = I ( x) = I ( x1e1 + x2 e2 + ... + xnen) = x1 · I ( = x1 (a11u1 + a12u2 + ... + a1 pu p) + x2 (a21 u1 + a22u2 + ... + a2 pu p) + ... + + xn (an1 u1 + an2u2 + ... + anpu p) _ ( x1a11 + x2a21 + ... + xnan1) · u1 + + ( x x1a12 + x2a22 + ... + xnan2) u2 + ... + ( x1a1 p + x2a2 p + ... + xnanp) · u p =
p
∑
y ju j
j =1
Y, por tanto, en notación abreviada: n
y j =
∑x a i
ij
,
∀j = 1, ... p.
i =1
que escrito detalladamente resulta:
y1 = x1 a11 + x2 a21 + .. .... + x n an1 y2 = x1 a12 + x2 a22 + .. .... + x n an2 Ecuación de la aplicación ................................................... ........................................ lineal I, y p = x1 a1p + x2 a2 p + ... + xn anp y que matricialmente se puede escribir como:
.... a1 p a11 a12 .. a21 a22 .. .... a2 p y1, y2, ..., y p ) = ( x1, x2, ..., x n ) ⋅ ( ..................... x I (x ) a a ... a n1 n2 np que es la ecuación matricial de la aplicación lineal I . Así, hemos visto que una aplicación lineal queda totalmente denida por la si guiente matriz cuyas las son las imágenes de la base.
coor ord denadas de I (e1) {u1, u2, ..., u p} .... a1 p → co a11 a12 .. a21 a22 .. .... a2 p → coordenadas de I (e2 ) {u1, u2, .. ..., ., u p} M (I ) = ................................... ..................... .......................... ................................... a a ... a n1 n2 np → coo coorrdena denadas das de I (en ) {u1, u2, .. ..., u p} ( I M ( I ) se denomina matriz asociada a la aplicación lineal I .
3.2.
MATRIZ MA TRIZ ASOCIADA A UN SISTEMA SIST EMA DE ECUACIONES LINEALES Una de las principales utilidades del álgebra matricial dentro de todas las ciencias está en la posibilidad de poder representar, estudiar y resolver sistemas de ecuaciones lineales con ayuda de nociones como rango de una matriz, matriz inversa y determinante.
20
tema 18
matemáticas
Dado cualquier sistema lineal de m ecuaciones con n incógnitas:
a11 x1 a x m1 1
a1n xn
amn xn
= c1 = cm
puede escribirse en forma matricial como:
a11 a m1
x1 c1 ⋅ = amn xn cm a1n
= A-1 · C . es decir, A · X =C , y cuando A es inversible la solución del sistema es X =
3.3.
APLICACIÓN EN E N EL CÁLCULO C ÁLCULO DE VARIAS VARIAS VARIABLES Dentro del análisis, y por tanto en una amplia gama de problemas físicos, de ingeniería, etc., aparecen las matrices para estudiar las funciones de varias variables y determinar sus máximos y mínimos. En efecto, si tenemos una función f : Rn → Rm, se dene su derivada por medio de una matriz m × n llamada jacobiana y cuyos elementos son aij = D j f ¡ ( x) (derivada de la componente i-ésima respecto a la variable j-ésima, i = 1, ... m, j = 1, ... n), por ejemplo: Sea f : R2 → R3, denida como f ( x x, y) = (2 x + y, 5 y, 2 xy) sus componentes son: f 1 ( x x, y) = 2 x + y f 2 ( x x, y) = 5 y y f f 3 ( x x, y) = 2 xy
y su matriz jacobiana será:
2 1 D1 f1 ( x) f ′ ( x, y ) = 0 5 = D1 f 2 ( x) 2 y 2x D f ( xx ) 1 3
D 2 f1 ( x)
D 2 f2 ( x)
D 2 f3 ( x )
La, matriz de las segundas derivadas se llama hessiana. También se trabaja con matrices a la hora de aplicar la regla de la cadena en funciones de varias variables. Veamos Veamos un ejemplo: Sean dos funciones g y f , R 2 → R 2 g
f → R 3 denidas como:
g ( x x, y) = ( x x · y, y2 – 2) f (u, v) = (v, u2, u – v)
21
tema 18 matemáticas
vamos a calcular ( f ° g) ‘ (1, –2) con la regla de la cadena:
y x −2 1 − = g y, por tanto, 1 , 2 ′ ( ) 0 − 4 0 2 y
g ′ ( x, y ) =
0 1 0 1 f ′ (u, v v) = 2u 0 y como g (1, −2) = (−2, 2), entonce entonces s f ′ (− 2, 2 ) = −4 0 1 − 1 1 − 1 y así,
0 1 0 − 4 − 2 1 ⋅ = 8 − 4 ( f g ) ′ (1, −2) = f ′ (−2, 2) ⋅ g ′ (1, −2) = −4 0 0 − 4 1 − 1 −2 5 con lo que hemos calculado la derivada de la composición utilizando el producto de matrices. La herramienta principal para el estudio de ecuaciones diferenciales lineales es el análisis matricial, donde adquiere especial relevancia la llamada matriz de Jordan.
3.4.
APLICACIÓN EN LA GEOMETRÍA Dentro de la geometría, las matrices sirven para representar los movimientos y semejanzas en el plano y en el espacio que son de vital importancia en los mosaicos, la dinámica, cristalografía, ... Recordemos que se llama movimiento a una aplicación f : Rn → Rn no necesariamente lineal, que se puede escribir en la forma: f (u) = Au + b
(la a li line neal aliida dad d o no depen depende de de que que con A una matriz ortogonal, A At =I n, y b ∈ Rn (l b sea al vector nulo o no).
He aquí algunos ejemplos:
Ecuación de la traslación de vector t = = (a, b, c)
x ′ 1 0 0 x a y ′ = 0 1 0 ⋅ y + b z ′ 0 0 1 z c
Ecuación del giro de ángulo α y eje Z :
x ′ cos α −senα y ′ = sen α −cosα z ′ 0 0
22
0 x 0 ⋅ y 0 z
tema 18
matemáticas
También se pueden estudiar de forma matricial las simetrías axiales, centrales, con deslizamiento, etc. Siguiendo con la geometría, las matrices se utilizan también para estudiar los planos y rectas, y sus posiciones relativas. Por último, señalar la importancia del cálculo de matrices al trabajar con cónicas, que son pieza clave en el estudio del movimiento de los planetas y en toda la astronomía. Por ejemplo:
x 2 y 2 Ecuación matricial de la elipse 2 + 2 − 1 = 0: a b
−1 0 0 1 x = 0 ⋅ (1× y) ⋅ 0 1/a2 0 0 0 1/b2 y Igualmente se estudian las cuádricas por medio de matrices.
3.5.
APLICACIÓN EN LA ESTADÍSTICA En el campo de la estadística también se emplean las matrices: matriz de datos para presentar la información; matriz de desviaciones; matriz de varianza-covarianza que está denida así: aii = varianza de la variable i aij = covarianza entre la variable i y j (i ≠ j).
Esta matriz es simétrica y se emplea a menudo en psicología para estudiar, por ejemplo, una serie de conductas de sujetos determinados. Otra matriz simétrica que aparece en los trabajos estadísticos es la matriz de correlaciones, cuya diagonal principal está formada por «unos».
3.6.
APLICACIÓN EN LA TEORÍA DE LA PROBABILIDAD Una matriz real cuadrada P = ( p pij ) ∈ Mn (R) se llama estocástica si pij ≥ 0 ∀(i , j ) y
los elem elementos de cada una de sus filas fil as suman 1: n
∑ p
ij
= 1,
i = 1, n
j =1
Ejemplo:
0 1 2 1 3
1
0
1
1
6 2 3
3
0
23
tema 18 matemáticas
Consideremos un proceso aleatorio en el que se produce un cambio de estado en ciertos instantes de tiempo discretos t = = 0, 1, 2,… Supongamos que hay un número nito de estados posibles E 1,…, E n. Surge así una sucesión (o cadena) de s ituaciones X 0, X 1…, X t ,… en donde cada X t es igual a uno de los n estados. Este proceso recibe el nombre de cadena de Markov cuando las probabilidades condicionadas que expresan este cambio de situaciones satisfacen la siguiente propiedad:
(
P X t +1
= Ej
Xt
= Ei , X t −1 = Ei − ,, X 0 = Ei ) = P ( X t +1 = E j t 1
0
Xt
= Ei )
para todos los instantes t , todos los estados E i, E j y todas las posibles sucesiones de estados previos E i , ..., E i . Esta propiedad es la formulación de una idea muy t 0 – 1 sencilla que viene a decirnos que en las cadenas de Markov la evolución al siguiente estado sólo depende del estado actual, no de los estados por los que ha pasado anteriormente. Esta dependencia es la que disti ngue a las cadenas de Markov de las series de sucesos independientes como tirar una moneda al aire. Al valor:
( =E
pij (t ) = P X t
j
X t −1
= E i )
que es la probabilidad de que en el instante t la la cadena esté en el estado E j dado que haya pasado por el estado E i en el instante t-1 se le llama probabilidad de transición de moverse del estado E i al E j en el instante t . Resulta entonces que, la matriz de las probabilidades de transición en el instante t : P(t )=( p pij(t))
es una matriz estocástica, para todo t . Recíprocamente, si P = p (pij ) es una matriz estocástica los elementos pij definen un
conjunto de probabi conjunto probabillidades de transi transici ción ón de una cadena de Markov estaci cionari onaria a con n estados. Se cumple que:
El producto de dos matrices estocásticas es una matriz estocástica.
Toda potencia de una matriz estocástica es una matriz estocástica.
Hemos visto así la aplicación de matrices en procesos estocásticos que responden a fenómenos aleatorios que evolucionan, generalmente, con el tiempo.
3.7.
APLICACIÓN EN LA ECONOMÍA En el campo de la economía , Von Neuman demostró que muchas situaciones competitivas que se presentan tantas veces en economía, pueden estudiarse con ayuda de las matrices de pago que informan de las ganancias o pérdidas que pueden darse en determinadas situaciones.
24
tema 18
matemáticas
Por ejemplo: Supongamos dos empresas A y B de de electrodomésticos electrodomésticos en un mismo centro centro comercial. Cuando llega la época de rebajas ambas empresas acostumbran a realizar inversiones altas en publicidad que suelen implicar la pérdida de todo el benecio. Este año se han puesto de acuerdo y han decidido no hacer publi cidad por lo que cada una si cumple el acuerdo puede obtener unos benecios de 12000 €. Sin embargo una de ellas puede preparar en secreto una campaña publicitaria y lanzarla en el último momento con lo que conseguiría atraer a todos los consumidores. Sus benecios en ese caso serían de 18000€ mientras que la empresa competidora perdería 6000 €. La matriz de pagos de esta competencia publicitaria sería: B cu mp mple el acuerd o
B incum pl ple el acu er er do do
A c u m p l e el ac u er d o
1 2, 1 2
– 6, 1 8
A i n c u m p l e e l a cu e r d o
1 8, – 6
0, 0
Los benecios o pérdidas (en miles miles de euros) mostrados a la izquierda izquierda de cada casilla son los que obtiene A cuando elige la estrategia mostrada a la izquierda y B la mostrada arriba. Los resultados a la derecha en las casillas son los correspondientes a B. La rama de las matemáticas que estudia estos aspectos se conoce como Teoría de Juegos, y ha adquirido gran importancia últimamente. Esta sería otra otra matriz de pagos, la del conocido juego infantil de piedra-papel-tijera:
A→
Piedr a
P a p el
Tijer a
Pi ed r a
0, 0
– 5, 5
5, – 5
Papel
5, – 5
0, 0
– 5, 5
Ti jera
– 5, 5
5, – 5
0, 0
B↓
en la que los los números de la izquierda indican el dinero que gana gana o pierde el jugador A (se pagan 5 euros por jugada) y los números de la derecha corres ponden a B, valores que que en cada caso están en función de la estrategia seguida por cada jugador. jugador. Continuando en el área de las ciencias económicas y empresariales, hay que referirse a una matriz de especial relevancia: Matriz input-output de una economía. Esta matriz de entradas y salidas fue presentada por el ruso Leontief, lo cual le l e ayudó a conseguir el premio Nobel de Economía en 1973.
25
tema 18 matemáticas
La matriz input-output permite ofrecer una visión cuantitativa del conjunto de transacciones que se establecen entre los distintos sectores (agricultura, industria, alimentación, etc.) de un sistema económico (ciudad, país, etc.). Esta matriz nos proporciona modelos de estimación y simulación de situaciones no vividas. Cada término aij de dicha matriz indica cuantitativamente la producción que el sector i suministra al sector j. Valiéndose de la matriz input-output y de la matriz demanda nal (es una matriz de una sola columna en la que cada la reeja la demanda de los sectores), se puede contestar a preguntas como ¿cuánto ¿cuánto debe producir cada rama para satisfacer una demanda ya determinada?, ¿cómo se ven afectados los precios de cada rama al variar ciertos aspectos como salarios o impuestos?
3.8.
APLICACIÓN EN CONT CONTABILIDAD ABILIDAD Una agencia de viajes tiene tres sucursales S 1, S 2 y S 3. En dichas sucursales quedan billetes de cuatro tipos B1, B2, B3 y B4. Las existencias se indican en esta matriz ( ai j j = billetes del tipo B, que quedan en la sucursal S j):
5 7 3 0 2 5 E = 1 3 2 10 3 1 Los medios (en euros) de los billetes son: B, = 14; B2 = 5; B3 = 8; B4 = 3. Se pide calcular el dinero máximo que puede facturar cada sucursal y la agencia.
Matricialmente operamos así:
5 7 3 0 2 5 = (108 141 86) (14 5 8 3) ⋅ 1 3 2 10 3 1 Las 3 columnas de la matriz obtenida representan la facturación de cada sucursal, y si hacemos la suma obtenemos el total de la agencia.
26
tema 18
matemáticas
BIBLIOGRAFÍA GODEMENT, R.: Álgebra. R.: Álgebra. Ed. Ed. Tecnos, 1983. GÓMEZ BERROCAL, F. J. Y OTROS: Introducción a las Matemáticas para las Ciencias Sociales. Ed. Agora, 1990. moderno. Ed. Blume, 1974. GUZMÁN DE, M.: Matemáticas en el mundo moderno. Ed. I. U.N.E.D. Madrid, 1982. JIMÉNEZ GUERRAS, P.: Álgebra P.: Álgebra I. U.N.E.D. II. Alianza Editorial. KLIME, M.: El pensamiento matemático de la antigüedad a nuestros días, II. Alianza Madrid, 1992. II. COU. MacGraw-Hill. Madrid, 1993. MARTÍNEZ MEDIANO, J. Y OTROS: Matemática II. COU. Matemáticas. Ed. Lex Nova, 1995. MARTÍNEZ SALAS, J.: Elementos de Matemáticas. Ed. Introducción ción a la economía aplicada. Diego aplicada. Diego Marín Librero Editor, 1997. MUÑOZ CIUDAD, E.: Introduc
27
tema 18
matemáticas
RESUMEN
MATRICES. ÁLGEBRA DE MATRICES. APLICACIONES AL CAMPO DE LAS CIENCIAS SOCIALES Y DE LA NATURALEZA. 1. 1
1.1.
MATRICES CONCEPTO DE MATRIZ Se denen los conceptos de matriz sobre un cuerpo, igualdad de matrices y dimensión.
1.2.
TIPOS DE D E MATRICES En este apartado se denen los distintos tipos de matrices: matriz la, matriz columna, matriz cuadrada, matriz rectangular, matriz nula, matriz escalonada, matriz opuesta, matriz traspuesta, matriz diagonal, matriz escalar, matriz identidad, matriz simétrica, matriz antisimétrica, matriz por bloques.
2. 2
2.1.
ÁLGEBRA DE MATRICES EL ESPACIO VECTORIAL DE LAS MATRICES �M × N� Sobre el conjunto de las matrices m×n, Mm ×n, se definen unas operaci raciones, ones, sumay producproduc-
to por un escal escalar, que lo dotarán de estructura de espaci cio o vectorial vectorial de dimensión (m (m · n). 2.2.
PRODUCTO DE MA MATRICES: TRICES: PROPIEDADES Se trata de una nueva ley de composición que, en ciertos casos, permite asociar a dos matrices una tercera matriz llamada producto. Se demuestra que esta operación no va a ser en general conmutativa, pero es asociativa y distributiva a la derecha y a la izquierda con respecto a la suma, lo que justica que se le llame producto. Se cumple también que la traspuesta de un producto se obtiene multiplicando en orden inverso las traspuestas de sus diferentes factores.
2.3.
ANILLO DE LAS MATRICES CUADRADAS DE ORDEN N El producto de matrices siempre existe cuando estas son cuadradas del mismo orden. Se cumple que el conjunto M n de las matrices cuadradas de orden n (sobre un cuerpo K ) dotado de la suma y el producto de matrices, tiene estructura de anillo no conmutativo con elemento unidad, la matriz identidad de orden I n, y con divisores de cero. Para terminar este punto, se dene el concepto de potencia de una matriz cuadrada y los conceptos de matriz idempotente, involutiva y nilpotente, subyacentes a él.
29
tema 18 matemáticas
2.4.
MATRIZ MA TRIZ INVERSIBLE I NVERSIBLE Se dene el concepto de matriz regular o inversible y el de matriz inversa. Se demuestra que ésta es única y se estudia la inversa de un producto de matrices regulares y de la tras puesta de una matriz regular. Se dene además además rango de una matriz a través del concepto de equivalencia de matrices.
3. 3
3.1.
APLICACIONES AL CAMPO DE LAS CIENCIAS SOCIALES Y DE LA NATURALEZA MATRIZ MA TRIZ ASOCIADA A UNA APLIC ACIÓN LINEAL Una matriz permite representar toda la información de una trasformación lineal entre dos espacios vectoriales de dimensión nita.
3.2.
MATRIZ MA TRIZ ASOCIADA A UN SISTEMA DE ECUACIONES LINEALES Una de las principales utilidades del álgebra matricial dentro de todas las ciencias, est á en la posibilidad de poder representar, estudiar y resolver sistemas de ecuaciones lineales.
3.3.
APLICACIÓN EN EL CÁLCULO NUMÉRICO DE VARIAS VARIABLES Dentro del análisis, y por tanto en una amplia gama de problemas físicos, de ingeniería, etc., aparecen las matrices para estudiar las funciones de varias variables.
3.4.
APLICACIÓN EN LA GEOMETRÍA Dentro de la geometría, las matrices sirven para representar los movimientos y semejanzas en el plano y en el espacio que son de vital importancia en los mosaicos, la dinámica, cristalografía,…. También También permiten clasicar cónicas y cuádricas.
3.5.
APLICACIÓN EN LA ESTADÍSTICA En este campo se emplean las matrices de datos para presentar información así como parámetros estadísticos.
3.6.
APLICACIÓN EN LA TEORÍA DE LA PROBABILIDAD Las matrices estocásticas permiten estudiar procesos de Markov Markov..
3.7.
APLICACIÓN EN LA ECONOMÍA En este campo, Von Neuman demostró que muchas situaciones competitivas que se presentan tantas veces en economía, pueden estudiarse con ayuda de las matrices de pago, que informan de las ganancias o pérdidas que pueden darse en determinadas situaciones.
3.8.
30
APLICACIÓN EN CONT CONTABILIDAD ABILIDAD