Cap¶³tulo 5 Sistemas de ecuaciones diferenciales.
5.1
Preliminares. om
De¯niciones
ic
a1
.c
Sea una matriz A(t) = (aij (t))i;j=1:::n donde aij (t) son funciones de¯nidas en un intervalo I;
em
at
5.1.1 De¯nici¶ on.- Diremos que la matriz A es continua en el punto t0 2 I, si cada una de las funciones aij es continua en el punto t0 .
ww
w.
M
at
5.1.2 De¯nici¶ on.- Diremos que la matriz A es derivable en el punto t0 2 I, si cada una de las funciones aij es derivable en el punto t0 . Si la matriz A(t) es derivable en todo I, de¯nimos la matriz derivada por: A0 (t) = (a0ij (t))i;j=1;::: ;n t 2 I 5.1.3 Proposici¶ on.- Son inmediatas las siguientes propiedades: ²
d d (CA) = C: (A) donde C es una matriz constante dt dt
²
d d d (A + B) = (A) + (B) dt dt dt
²
d d d (A:B) = (A):B + A: (B). dt dt dt
5.1.4 De¯nici¶ on.- Diremos que la matriz A es integrable en I, si cada una de las funciones aij es integrable en I. Si la matriz A(t) es integrable en I, de¯nimos la integral de la matriz A(t) en el intervalo I = [a; b] por Z
b
Z
b
A(t) dt = ( a
a
aij (t) dt)i;j=1;::: ;n
60
(k)
5.1.5 De¯nici¶ on.- Dada la familia de matrices Ak = (aij )i;j=1;::: ;n k = 1; 2; : : : se de¯ne la matriz aij a
1 P
k=1
1 P
Ak = lim
n P
n!1 k=1
k=1
Ak como aquella matriz que tiene por elemento
(k)
aij .
Sistemas en forma normal Un sistema de n ecuaciones diferenciales de primer orden escrito en forma normal es un sistema de la forma: 8 > y10 = f1 (t; y1 ; : : : ; yn ) > > > > < y 0 = f2 (t; y1 ; : : : ; yn ) 2 > > > > > :
.. . 0 yn = fn (t; y1 ; : : : ; yn )
Es decir, en realidad es una ecuaci¶on diferencial vectorial ~y 0 = f~(t; ~y )
t2I
.c
om
intervalo
at
ic a1
Si Á1 ; : : : ; Án son n funciones, diremos que (Á1 ; : : : ; Án ) es una soluci¶on de dicho sistema en el intervalo I, si se veri¯ca:
m
² Á1 ; : : : ; Án , son derivables en el intervalo I
> > > > > :
M
= f1 (t; Á1 (t); : : : ; Án (t)) = f2 (t; Á1 (t); : : : ; Án (t)) .. .. . .
w.
8 > Á01 (t) > > > > < Á0 (t) 2
ww
²
at e
² (t; Á1 (t); : : : ; Án (t)) 2 Dom(fi ) 8i = 1; 2; : : : ; n
.. . 0 Án (t) = fn (t; Á1 (t); : : : ; Án (t))
8t 2 I
Nota: Aunque s¶olo estudiaremos sistemas de primer orden, observemos que algunos sistemas de orden superior al primero, pueden convertirse en sistemas de primer orden en forma normal, sin m¶as que aumentar el n¶ umero de inc¶ognitas. Por ejemplo, dado el sistema: 8 2 d y1 dy1 > > > = 2 + 3y2 + e2t < 2
dt
dt
> > d2 y2 dy2 > : = ¡y1 ¡ 2 2
dt
dt
dy1 dy2 si hacemos z1 = y1 ; z2 = ; z3 = y2 ; z4 = obtenemos el sistema de primer dt dt orden:
61
8 dz1 > > > = z2 > > > dt > > > > dz2 > > > = 2z2 + 3z3 + e2t <
dt
> dz3 > > > = z4 > > > dt > > > > dz4 > > : = ¡z1 ¡ 2z4
dt
5.2
Sistemas lineales de primer orden
Son aquellos de la forma: 8 > y10 > > > > < y0 2
.. . yn0 = an1 (t)y1 + an2 (t)y2 + ¢ ¢ ¢ + ann (t)yn + bn (t)
om
> > > > > :
= a11 (t)y1 + a12 (t)y2 + ¢ ¢ ¢ + a1n (t)yn + b1 (t) = a21 (t)y1 + a22 (t)y2 + ¢ ¢ ¢ + a2n (t)yn + b2 (t) .. .
ic a1 .c
donde las aij (t) y bi (t) son funciones continuas en un intervalo I para i; j = 1; : : : ; n: Escribiremos este sistema m¶as c¶omodamente en forma matricial: (sl)
at em at
~y 0 = A(t)~y + ~b(t) t 2 I
ww w.
M
donde A(t) = (aij (t))i;j=1;::: ;n y ~b(t) = (b1 (t); : : : ; bn (t))T Cuando ~b(t) ´ ~0, el sistema se llama homog¶eneo; y cuando los coe¯cientes aij son constantes, el sistema se llama de coe¯cientes constantes. Un problema de Cauchy para el sistema lineal (sl), es (
~y 0 = A(t)~y + ~b(t) ~y (t0 ) = ~y0
t2I
donde t0 2 I e ~y0 2 Rn . Condiciones de existencia y unicidad 5.2.1 Teorema.- Consideremos el problema de Cauchy (
~y 0 = A(t)~y + ~b(t) ~y (t0 ) = ~y0
t2I
donde las componentes de A(t) y ~b(t) son funciones continuas en un intervalo I de R, t0 2 I e ~y0 es un vector arbitrario de Rn . Entonces, existe una soluci¶on de dicho problema de Cauchy, ~y (t), de¯nida y de clase C 1 en todo el intervalo I. Adem¶as, si ~z(t) es otra soluci¶on de este problema, entonces, en el intervalo com¶ un de de¯nici¶on, ambas soluciones coinciden.
62
5.2.2 Corolario.- Si ~y (t) es soluci¶on del sistema homog¶eneo ~y 0 = A(t)~y y se anula en un punto, entonces ~y(t) ´ ~0 en todo el intervalo de de¯nici¶on. Transformaci¶ on de una ecuaci¶ on lineal de orden n en un sistema lineal de primer orden La ecuaci¶on lineal de orden n y n) + a1 (t)y n¡1) + : : : + an¡1 (t)y 0 + an (t)y = p(t) se transforma mediante el cambio y2 = y 0 ; : : : ;
y1 = y ;
n
om .c
a1
> > > 0 > > yn¡1 > > > : y0
y2 y3 .. .
= = .. .
= yn = p(t) ¡ an (t)y1 ¡ : : : ¡ a1 (t)yn
ic
y10 y20 .. .
at
8 > > > > > > > > <
em
en
yn = y n¡1)
Es decir, en el sistema
at
~y 0 = M(t)~y + p~(t)
6 6 6 6 6 M (t) = 6 6 6 6 6 4
5.3
0 0 0 .. .
1 0 0 .. .
ww w.
2
M
donde
0 1 0 .. .
::: ::: ::: .. .
0 0 0 .. .
0 0 0 .. .
0 0 0 ::: 0 1 ¡an (t) ¡an¡1 (t) ¡an¡2 (t) : : : ¡a2 (t) ¡a1 (t)
3 7 7 7 7 7 7 7 7 7 7 5
2
y
6 6 6 6 6 p~(t) = 6 6 6 6 6 4
0 0 0 .. . 0 p(t)
3 7 7 7 7 7 7 7 7 7 7 5
Sistemas lineales homog¶ eneos
5.3.1 Proposici¶ on.- Las soluciones de un sistema lineal homog¶eneo de n ecuaciones ~y 0 = A(t)~y forman un espacio vectorial de dimensi¶on n.
63
Demostraci¶on: Es inmediato comprobar que cualquier combinaci¶ on lineal de soluciones es soluci¶on del sistema homog¶eneo, por lo que ¶estas forman un espacio vectorial. Encontremos una base de dicho espacio: Sean ~a1 ;~a2 ; : : : ; ~an ; una base de Rn y t0 un punto arbitrario de I. Para k = 1; 2; : : : ; n el teorema de existencia y unicidad garantiza que existe una u ¶nica soluci¶on ~yk (t) del problema de Cauchy (
~y 0 = A(t) ~y ~y(t0 ) = ~ak
Veamos que ~y1 (t); ~y2 (t); : : : ; ~yn (t); constituyen la base buscada. ² Son linealmente independientes en I ya que si ¸1 ~y1 (t) + : : : + ¸n ~yn (t) ´ ~0 escribiendo dicha igualdad en el punto t0 , tendremos ¸1~a1 + : : : + ¸n~an = ~0
at em at ic a1
.c
om
y por ser ~a1 ; : : : ; ~an linealmente independientes, se deduce que ¸1 = ¸2 = : : : = ¸n = 0
ww w.
M
² Constituyen un sistema generador. En efecto, sea ~y (t) una soluci¶on del sistema; y consideremos ~v = ~y (t0 ). Como los ~a1 ; : : : ;~an son sistema de generadores en Rn , sean ¸1 ; ¸2 ; : : : ; ¸n tales que ~v = ¸1~a1 + ¸2~a2 + : : : + ¸n~an Las soluciones ~y (t) y ¸1 ~y1 + ¸2 ~y2 + : : : + ¸n ~yn del sistema homog¶eneo valen lo mismo en t0 , luego por el corolario 5.2.2 aplicado a su diferencia, se deduce que ~y ´ ¸1 ~y1 + ¸2 ~y2 + : : : + ¸n~yn
Sistemas fundamentales de soluciones 5.3.2 De¯nici¶ on.- Una base del espacio de soluciones del sistema homog¶eneo ~y 0 = A(t)~y se llama sistema fundamental de soluciones de dicho sistema. Una matriz Y (t) cuyas columnas ~y1 (t); ~y2 (t); : : : ; ~yn (t) constituyen un conjunto fundamental de soluciones, se llama matriz fundamental del sistema. Es obvio que la soluci¶on general del sistema ser¶a: ~y (t) = c1 ~y1 + c2~y2 + : : : + cn ~yn = Y (t) ~c donde c1 ; : : : ; cn son constantes arbitrarias y ~c = (c1 ; : : : ; cn )T
64
5.3.3 Proposici¶ on.- Si Y (t) es una matriz cuyas columnas son soluciones del sistema ~y 0 = A(t)~y entonces Y veri¯ca la ecuaci¶on matricial Y 0 = AY llamada \ ecuaci¶on matricial asociada" al sistema. Rec¶³procamente, si Y veri¯ca la ecuaci¶on matricial, entonces sus columnas son soluci¶on del sistema ~y 0 = A(t)~y . Demostraci¶on: Es inmediata. 5.3.4 Proposici¶ on.- Si Y (t) es una matriz cuyas columnas son soluciones del sistema, entonces son equivalentes las siguientes propiedades:
ic a1
ii) Existe un t0 tal que det Y (t0 ) 6 =0
.c om
i) Y (t) es una matriz fundamental, es decir, sus columnas son linealmente independientes.
(sl) ~y 0 = A(t)~y + ~b(t) t 2 I (sh) ~y 0 = A(t)~y t 2 I
ww
w.
Denotemos
at e
Soluciones de un sistema no homog¶ eneo. Variaci¶ on de los par¶ ametros.
M
5.4
m at
iii) Para todo t 2 I se veri¯ca que det Y (t) 6 =0
y estudiemos la relaci¶on que existe entre las soluciones de (sl) y de (sh). 5.4.1 Proposici¶ on.- Sea ~y1 (t); ~y2 (t); : : : ; ~yn (t) un sistema fundamental de (sh) e Y (t) la correspondiente matriz fundamental; sea ~yp (t) una soluci¶on de (sl), (que llamaremos soluci¶on particular). Entonces, la soluci¶on general del sistema (sl) es ~y (t) = ~yp (t) + Y (t)~c = ~yp (t) + c1~y1 (t) + : : : + cn ~yn (t) donde el vector ~c o las constantes c1 ; : : : ; cn toman valores arbitrarios. Demostraci¶on: Es inmediato comprobar que ~yp (t) + c1 ~y1 (t) + : : : + cn ~yn (t) es soluci¶on de (sl), para constantes cualesquiera. Por otra parte, si ~y (t) es una soluci¶on cualquiera de (sl), entonces ~y (t) ¡ ~yp (t) es
65
soluci¶on del sistema (sh), y como ~y1 (t); ~y2 (t); : : : ; ~yn (t) es un sistema fundamental de (sh), entonces ~y (t)¡~yp (t) se expresa como combinaci¶on lineal de ~y1 (t); ~y2 (t); : : : ; ~yn (t), es decir ~y(t) ¡ ~yp (t) = c1 ~y1 (t) + : : : + cn ~yn (t) para una elecci¶on adecuada de las constantes. 2 5.4.2 Proposici¶ on.- (Principio de superposici¶on de soluciones). Si ~yp1 (t); ~yp2 (t), son soluciones respectivas, de los sistemas ~y 0 = A(t)~y + ~b1 (t) t 2 I
~y 0 = A(t)~y + ~b2 (t) t 2 I
;
entonces ~yp1 (t) + ~yp2 (t) es soluci¶on del sistema ~y 0 = A(t)~y + ~b1 (t) + ~b2 (t) t 2 I Demostraci¶on: Es trivial.
.c om
5.4.3 Proposici¶ on.- M¶ etodo de variaci¶ on de los par¶ ametros.
ww
w.
M
at
em
at
ic a1
Ya estudiamos el m¶etodo de variaci¶on de los par¶ametros para ecuaciones lineales de segundo orden, que consist¶³a en que si la soluci¶on general de la ecuaci¶on homog¶enea era de la forma yh (t) = c1 y1 (t) + c2 y2 (t) donde y1 (t) y y2 (t) son soluciones linealmente independientes de la ecuaci¶on homog¶enea, entonces busc¶abamos una soluci¶on particular de la ecuaci¶on no homog¶enea de la forma yp (t) = v1 (t)y1 (t) + v2 (t)y2 (t) donde v1 (t) y v2 (t) eran dos funciones que deb¶³amos determinar. Vamos a emplear para sistemas la misma idea: Supongamos que conocemos una matriz fundamental Y (t) del sistema homog¶eneo ~y 0 (t) = A(t)~y (t)
Puesto que la soluci¶on general del sistema homog¶eneo viene dada por ~yh (t) = Y (t)~c, donde ~c es un vector constante, buscaremos una soluci¶ on particular del sistema no homog¶eneo ~y 0 (t) = A(t)~y (t) + ~b(t) de la forma ~yp (t) = Y (t)~v (t) donde ~v (t) = [v1 (t); : : : ; ~vn (t)]T es una funci¶on vectorial a determinar. Como ~yp (t)0 = Y (t)~v 0 (t) + Y 0 (t)~v (t) sustituyendo en el sistema debe veri¯carse: Y (t)~v 0 (t) + Y 0 (t)~v (t) = A(t)Y (t)~v (t) + ~b(t) y como Y 0 (t) = A(t)Y (t) , se deduce que se debe veri¯car que Y (t)~v 0 (t) = ~b(t)
66
de manera que ~v 0 (t) = [Y (t)]¡1~b(t) e integrando ~v (t) =
Z
[Y (t)]¡1~b(t) dt
con lo que la soluci¶on particular buscada ser¶a: Z
~yp (t) = Y (t)~v (t) = Y (t): [Y (t)]¡1~b(t) dt y la soluci¶on general ser¶a: Z
~y (t) = Y (t)~c + Y (t): [Y (t)]¡1~b(t) dt En particular, la soluci¶on del sistema que veri¯ca la condici¶on inicial ~y (t0 ) = ~y0 ser¶a: Z t ~y (t) = Y (t)[Y (t0 )]¡1~y0 + Y (t): [Y (s)]¡1~b(s) ds t0
em
at ic a1
.c om
Insistamos en que para aplicar las f¶ormulas de variaci¶on de los par¶ametros es necesario determinar previamente una matriz fundamental del sistema homog¶eneo asociado. Estudiaremos esto m¶as adelante para matrices de coe¯cientes constantes. Veamos un ejemplo del m¶etodo de variaci¶on de los par¶ametros.
at
5.4.4 Ejemplo.-
M
Resolver 0
ww
w.
~y (t) =
"
2 ¡3 1 ¡2
#
~y (t) +
"
e2t 1
#
sabiendo que una matriz fundamental para el sistema homog¶eneo asociado es Y (t) =
"
Calculamos ¡1
[Y (t)]
1 = 2
3et e¡t et e¡t "
#
:
e¡t ¡e¡t ¡et 3et
#
con lo que 1 [Y (t)] :~b(t) = 2 ¡1
Z
"
1 [Y (t)] :~b(t) = 2 ¡1
e¡t ¡e¡t ¡et 3et
" R
#"
e2t 1
et ¡ e¡t dt R ¡e3t + 3et dt
67
#
#
1 = 2
1 = 2
"
"
et ¡ e¡t ¡e3t + 3et
et + e¡t ¡1=3e3t + 3et
# #
Z
1 Y (t) [Y (t)] :b(t) = 2 1 = 2
¡1 ~
"
"
3et e¡t et e¡t
3e2t + 3 ¡ 1=3e2t + 3 e2t + 1 ¡ 1=3e2t + 3
#
# "
:
=
"
¡t
"
et + e¡t ¡1=3e3t + 3et 4=3e2t + 3 1=3e2t + 2
#
=
#
La soluci¶on general ser¶a: ~y (t) = Y (t)~c + ~yp (t) = c1 e
5.5
t
"
#
3 1
+ c2 e
1 1
#
+
"
4=3e2t + 3 1=3e2t + 2
#
Sistemas lineales homog¶ eneos de coe¯cientes constantes
B¶ usqueda de soluciones Consideremos el sistema ~y 0 (t) = A ~y (t)
em
at
ic
a1
.c
om
donde A es una matriz cuadrada, real y constante de orden n. La soluci¶on general que buscamos estar¶a de¯nida para todo t 2 R , ya que los elementos de A son funciones constantes, y por lo tanto continuas en R. Como ya sabemos, la soluci¶on general del sistema homog¶eneo se puede construir a partir de un conjunto fundamental de soluciones. Nuestro objetivo, entonces, es encontrar n soluciones del (sh), linealmente independientes.
ww w.
M
at
Busquemos soluciones de la forma ~y (t) = e¸t~v donde ~v es un vector constante. Como d ¸t e ~v = ¸e¸t~v A(e¸t~v ) = e¸t A~v dt e¸t~v ser¶a soluci¶on del (sh) si, y s¶olo si, A~v = ¸~v , es decir, si ¸ es un autovalor de la matriz A y ~v un autovector correspondiente a ¸. Resoluci¶ on en un caso particular 5.5.1 Teorema.- Si la matriz constante A, de orden n, tiene n vectores propios linealmente independientes, ~v1 ; : : : ; ~vn , correspondientes a los autovalores ¸1 ; : : : ; ¸n (no necesariamente distintos), entonces fe¸1 t~v1 ; : : : ; e¸n t~vn g es un conjunto fundamental de soluciones del sistema ~y 0 (t) = A ~y (t) en R, y por tanto la soluci¶on general de este sistema es: ~y(t) = c1 e¸1 t~v1 + : : : + cn e¸n t~vn
68
Demostraci¶on: Es obvio que son n soluciones. Veamos que son linealmente independientes: =0 det[e¸1 t~v1 je¸2 t~v2 j : : : je¸n t~vn ] = e(¸1 +:::+¸n )t : det[~v1 j : : : j~vn ] 6 ya que la funci¶on exponencial no se anula nunca y los vectores ~v1 ; : : : ; ~vn son linealmente independientes. Recordemos algunos casos en que una matriz tiene n vectores linealmente independientes. 5.5.2 Proposici¶ on.- Si ¸1 ; : : : ; ¸n , son valores propios distintos de A y ~vi es un vector propio asociado a ¸i , para cada i, entonces los vectores ~v1 ; : : : ; ~vn son linealmente independientes. 5.5.3 Corolario.- Si la matriz A tiene n autovalores distintos ¸1 ; : : : ; ¸n y ~vi es un vector propio asociado a ¸i , entonces fe¸1 t~v1 ; : : : ; e¸n t~vn g es un sistema fundamental de ~y 0 (t) = A~y (t)
ic a1 .c
om
5.5.4 Proposici¶ on.- Una matriz real A de orden n, sim¶etrica, tiene n autovalores reales y n vectores propios linealmente independientes.
at e
m
at
Ejercicio: Resolver el sistema
donde
ww
w.
M
~y 0 (t) = A ~y (t)
0
B B B A=B B B B @
1 2 3 4 5
1 2 3 4 5
1 2 3 4 5
1 2 3 4 5
1 2 3 4 5
1 C C C C C C C A
Observamos que 0
B B B A ~y = A B B B B @
y1 y2 y3 y4 y5
1
0
C B C B C B C B C = (y1 + y2 + y3 + y4 + y5 ) B C B C B A @
1 2 3 4 5
1 C C C C C C C A
(5.1)
Por tanto, para los puntos que veri¯quen y1 + y2 + y3 + y4 + y5 = 0 tendremos que 0
B B B AB B B B @
y1 y2 y3 y4 y5
1
0
C B C B C B C B C = 0B C B C B A @
69
y1 y2 y3 y4 y5
1 C C C C C C C A
y dichos puntos ser¶an vectores propios asociados a ¸ = 0. Tomemos entre ellos a cuatro linealmente independientes: (1; 0; 0; 0; ¡1); (0; 1; 0; 0; ¡1); (0; 0; 1; 0; ¡1); (0; 0; 0; 1; ¡1) Por otra parte, en 5.1, observamos que 0
B B B AB B B B @
1 2 3 4 5
1
0
C B C B C B C B C = (1 + 2 + 3 + 4 + 5) B C B C B A @
1
1 2 3 4 5
0
C B C B C B C B C = 15 B C B C B A @
1 2 3 4 5
1 C C C C C C C A
luego el otro valor propio es 15, y un vector propio (1; 2; 3; 4; 5). Luego la soluci¶on del sistema es 0
0 1 0 0 ¡1
C B C B C B C B C + c2 B C B C B A @
1
0
C B C B C B C B C + c3 B C B C B A @
0 0 1 0 ¡1
1
Ejercicio: Resolver
C B C B C B C B C + c4 B C B C B A @
3
em
2
0
.c om
1
a1
B B B ~y (t) = c1 B B B B @
1 0 0 0 ¡1
at ic
0
2
1
0
C B C B C B C 15t B C + c5 e B C B C B A @
1 2 3 4 5
1 C C C C C C C A
3
¡1 6 7 6 ~y (0) = 4 0 7 5 0
ww
w.
M
at
1 2 ¡1 6 7 0 6 y (t) ; ~y (t) = 4 1 0 1 7 5~ 4 ¡4 5
0 0 0 1 ¡1
Resoluci¶ on en el caso general Estudiemos ahora la resoluci¶on del (sh) ~y 0 (t) = A ~y(t)
A matriz real constante n £ n
cuando la matriz A tiene exactamente k · n autovectores linealmente independientes. Observemos que la soluci¶on de la ecuaci¶on escalar y 0 = ay
a2R
es y(t) = Ceat . Podr¶³amos pensar que tal vez la soluci¶on del (sh) fuera ~y (t) = eAt~v , donde ~v es un vector constante. Sin embargo, eAt no est¶a de¯nida ya que A es una matriz. Pero, recordemos que cuando a es un escalar a2 t2 an tn e = 1 + at + + ::: + + ::: 2! n! at
70
y, por tanto, parece l¶ogico de¯nir cuando A es una matriz eAt = I + At +
A2 t2 An tn An+1 tn+1 + ::: + + + ::: 2! n! (n + 1)!
Se puede demostrar que esta serie converge para todo t y que se puede derivar t¶ermino a t¶ermino, obteni¶endose que d At A3 t2 An+1 tn e = A + A2 t + + ::: + + ::: = dt 2! n! = A(I + At +
A2 t2 An tn + ::: + + : : : ) = AeAt 2! n!
con lo que
.c om
d At e ~v = AeAt~v = A (eAt~v ) dt on del sistema homog¶ eneo (sh) para cada vector y, por tanto eAt~v es soluci¶ constante ~v . Se deduce de aqu¶³ que como las columnas de la matriz eAt son eAt~ei , entonces las columnas de eAt son soluciones del sistema (sh).
a1
Propiedades de la matriz exponencial:
ic
1. eA0 = e0 = I
em
at
2. erI = er I
at
3. eA(t+s) = eAt eAs
5. (eAt )¡1 = e¡At
ww w.
M
4. e(A+B)t = eAt eBt () AB = BA
En particular, de la propiedad 5) se deduce que eAt es inversible, y que por tanto, sus columnas son linealmente independientes, y como eran soluciones, eAt es una matriz fundamental del (sh) Por desgracia, aunque te¶oricamente el problema est¶a resuelto, el c¶alculo de eAt no es f¶acil. Ya veremos en los ejercicios algunos casos en los que este c¶alculo es sencillo. Estudiemos ahora la relaci¶on que existe entre matrices fundamentales: 5.5.5 Proposici¶ on.- Si ©(t) es una matriz fundamental del (sh) y C es una matriz constante no singular, la matriz ©(t)C es una matriz fundamental del (sh). Adem¶as, cualquier otra matriz fundamental es de la forma ©(t)C con C no singular. Demostraci¶on: Sea C una matriz no singular y ©(t) una matriz fundamental. [©(t)C]0 = ©0 (t)C = A©(t)C = A[©(t)C]
71
y como det(©(t)C) = det(©(t)): det C 6 = 0 8t 2 [a; b] cualquier matriz ©(t)C ser¶a fundamental. Rec¶³procamente , si ¤(t) es fundamental, consideremos la matriz no singular ¡(t) = ©¡1 (t)¤(t); es decir ¤(t) = ©(t) ¡(t). Debemos ver que ¡(t) es constante. En efecto, ¤0 (t) = ©0 (t)¡(t) + ©(t)¡0 (t) teniendo en cuenta que ¤ y © son fundamentales, y por tanto veri¯can la ecuaci¶on matricial asociada, sustituyendo en ambos miembros, A ¤(t) = A ©(t)¡(t) + ©(t)¡0 (t) = A ¤(t) + ©(t)¡0 (t) lo que implica que ©(t):¡0 (t) = 0 8t y como ©(t) es inversible por ser una matriz fundamental, resulta que ¡0 (t) = 0 8t , de donde se deduce que ¡(t) es constante.
.c om
Relaci¶ on entre la matriz eAt y otra matriz fundamental
at ic
a1
Supongamos ahora que conocemos una matriz fundamental X(t) del (sh). Como eAt es tambi¶en una matriz fundamental, deducimos de la proposici¶on 5.5.5 que eAt = X(t)C
ww
w.
M
at
em
Haciendo t = 0 en esta expresi¶on, se obtiene I = X(0)C, es decir C = (X(0))¡1 = X ¡1 (0), y por tanto eAt = X(t)X ¡1 (0)
Construcci¶ on efectiva de una matriz fundamental Pero seguimos sin conocer en forma pr¶actica ninguna matriz fundamental. Sabemos que eAt~v es soluci¶on del (sh) para cualquier vector ~v ; por tanto, si ~v1 ; : : : ; ~vn , son vectores columna linealmente independientes, la matriz (eAt~v1 jeAt~v2 j : : : jeAt~vn ) es una matriz cuyas columnas son soluci¶on, que coincide con eAt (~v1 j : : : j~vn ) = eAt C, donde C es una matriz no singular, y por la proposici¶on 5.5.5, se tratar¶a de una matriz fundamental. Ahora, el \truco" consiste en elegir los vectores ~v1 ; : : : ; ~vn de forma que eAt vi se calcule f¶acilmente. Veamos esto: Como, (por las propiedades 2) y 4)), eAt = ert e(A¡rI)t tendremos que: eAt~v = ert e(A¡rI)t~v =
72
(A ¡ rI)2 t2 + : : : ]~v = 2! (A ¡ rI)2 t2 ~v + : : : ] = ert [~v + (A ¡ rI)t~v + 2! Si elegimos ~v tal que (A ¡ rI)k~v = ~0 para alg¶ un r y alg¶ un k, la suma anterior es k+l una suma ¯nita inmediata de calcular, ya que (A ¡ rI) ~v = (A ¡ rI)l (A ¡ rI)k~v = (A ¡ rI)l~0 = ~0 8l = 1; 2 : : : = ert [I + (A ¡ rI)t +
5.5.6 De¯nici¶ on.- Sea A una matriz constante n £ n, y r un valor propio de A. Un vector no nulo ~v que satisfaga (A ¡ rI)k~v = ~0 para alg¶ un entero positivo k, se llama vector propio generalizado asociado a r.
at ic a1
.c
om
Un resultado de ¶algebra que no demostraremos, asegura que si el polinomio caracter¶³stico de A tiene los autovalores (complejos) r1 ; r2 ; : : : ; rk de multiplicidades m1 ; m2 ; : : : ; mk , respectivamente, entonces para cada i = 1; : : : ; k existen mi vectores propios generalizados linealmente independientes, asociados con ri , de forma que el conjunto de los n = m1 + : : : + mk vectores propios generalizados es linealmente independiente. Adem¶as, si ~vi es un vector propio generalizado asociado con ri , veri¯ca que
Por tanto:
M at
em
(A ¡ ri I)mi ~vi = ~0
ww
w.
¶ METODO para obtener un conjunto fundamental de soluciones de la ecuaci¶ on homog¶enea de coe¯cientes constantes ~y 0 = A ~y 1. Calculamos el polinomio caracter¶³stico de A para encontrar los valores propios distintos r1 ; r2 ; : : : ; rk . 2. Para cada valor propio ri encontramos mi vectores propios generalizados linealmente independientes, donde mi es la multiplicidad de ri . (Todos ellos deben veri¯car que (A ¡ ri I)mi ~v = ~0) 3. Usamos los n vectores propios generalizados obtenidos en el paso anterior para calcular las n soluciones linealmente independientes de la forma eAt~v = ert [~v + t(A ¡ rI)~v +
t2 (A ¡ rI)2 ~v + : : : ] 2!
(Si r tiene multiplidad m, la serie anterior tiene m sumandos.)
73
Dichas soluciones, que denotaremos ~yi , constituyen las columnas de una matriz fundamental Y (t). A partir de ella, podemos calcular eAt = Y (t)Y ¡1 (0) Notas: 1. Si la matriz A tiene n vectores propios linealmente independientes, el m¶etodo proporciona las soluciones er1 t~v1 ; : : : ; ern t~vn ya conocidas. 2. Obs¶ervese que si se trataba de obtener la soluci¶on general del sistema homog¶eneo basta con encontrar Y (t) por el m¶etodo descrito. Ahora bien, si se trata de un (o con mayor raz¶on m¶ ultiples) problema de valores iniciales: ~y 0 = A ~y ~y (t0 ) = y~0
.c
om
² Si conocemos una matriz fundamental cualquiera X(t), por ejemplo la constru¶³da anteriormente, la soluci¶on general ser¶a:
at ic a1
~y (t) = X(t):~c = c1~x1 (t) + : : : + cn~xn (t)
em
y, por tanto, para encontrar aquella que veri¯que la condici¶on ~y (t0 ) = ~y0 debemos resolver el sistema de ecuaciones
at
~y0 = c1~x1 (t0 ) + : : : + cn~xn (t0 )
w.
M
² Pero si conocemos la matriz eAt
ww
como (eAt )t=0 = I, la matriz Z(t) = eA(t¡t0 ) veri¯ca Z(t0 ) = I y tambi¶en es una matriz fundamental. Entonces la soluci¶on buscada ser¶a de la forma ~y (t) = eA(t¡t0 )~c y como debe veri¯car ~y (t0 ) = ~y0 entonces ~y (t0 ) = I~c = ~c con lo que la soluci¶on buscada es ~y (t) = eA(t¡t0 ) ~y0
Desde luego, en estos casos, es mejor conocer la matriz exponencial. 3. Adem¶as, en el m¶etodo de variaci¶on de los par¶ametros para el sistema no homog¶eneo estudiado en el apartado 5.4.3 llegamos a que la soluci¶ on de ~y 0 = A ~y + ~b(t)
~y (t0 ) = ~y0
era ~y (t) = Y (t)Y ¡1 (t0 )~y0 + Y (t)
74
Z
t t0
Y ¡1 (s)~b(s) ds
donde Y (t) era una matriz fundamental. Ahora, si elegimos como matriz fundamental a Y (t) = eAt , tenemos [Y (t)]¡1 = e¡At y la f¶ormula se nos convierte en Z t At ¡At0 At ~y(t) = e e ~y0 + e e¡As~b(s) ds = = eA(t¡t0 ) ~y0 +
Z
t0
t
eA(t¡s)~b(s) ds
t0
mucho m¶as sencilla a la hora de efect¶ uar los c¶alculos. Obtenci¶ on de soluciones reales 5.5.7 Proposici¶ on.- Dado el sistema ~y 0 = A~y
a1
.c
om
donde A es una matriz real de orden n, supongamos que ~y (t) es una soluci¶on compleja de dicho sistema. Entonces, si ~y (t) = ~y1 (t) + i ~y2 (t) con ~y1 ; ~y2 reales, se veri¯ca que ~y1 (t) e ~y2 (t) tambi¶en son soluciones del sistema. A dichas funciones vectoriales, las llamaremos parte real e imaginaria de ~y (t).
ic
En efecto,
em
at
~y1 0 (t) + i ~y2 0 (t) = ~y 0 (t) = A(~y1 (t) + i ~y2 (t)) = A~y1 (t) + i A~y2 (t)
at
Igualando la parte real y la parte imaginaria, deducimos el resultado.
ww w.
M
Sea A es una matriz de coe¯cientes reales y de orden n; sabemos que su polinomio caracter¶³stico tiene n ra¶³ces complejas, y que si ¸ = a + i b es un valor propio complejo, su conjugado tambi¶en ser¶a un valor propio. Adem¶as, si ~v = ~v1 + i ~v2 es un vector propio generalizado asociado a ¸, con ~v1 ; ~v2 vectores reales, entonces el vector ~v1 ¡ i ~v2 , que llamaremos conjugado de ~v , y deno¹ taremos ~vc , tambi¶en es un vector propio generalizado asociado a ¸: En efecto, supongamos que para un cierto k (A ¡ ¸I)k ~v = ~0 Teniendo en cuenta las propiedades de la conjugaci¶ on k
¹ k ~vc = ~0 (A ¡ ¸I)
(A ¡ ¸I) ~vc = ~0
Entonces, las soluciones que se construyen a partir de los vectores propios generalizados ser¶an: ~y1 = e¸t [~v + t(A ¡ ¸I)~v + : : : +
75
tk¡1 (A ¡ ¸I)k¡1~v ] (k ¡ 1)!
¹
¹ vc + : : : + ~y2 = e¸t [~vc + t(A ¡ ¸I)~
tk¡1 ¹ k¡1~vc ] (A ¡ ¸I) (k ¡ 1)!
siendo esta u ¶ltima conjugada de la anterior. Por tanto, la parte real y la parte imaginaria de la primera son dos soluciones reales del sistema. Son linealmente (~y1 + ~y2 ) (~y1 ¡ ~y2 ) independientes ya que corresponden a ; . (Recordemos que ~y1 e 2 2i ~y2 eran linealmente independientes.) Resumiendo, de las n soluciones complejas del sistema ~y 0 = A~y
ww
w.
M
at
em
at
ic
a1
.c om
obtenemos n soluciones reales linealmente independientes.
76
5.6
Ejercicios
1. Calcular la soluci¶on general del sistema: Ã
x0 (t) y 0 (t)
!
=
Ã
a11 (t) a12 (t) a21 (t) a22 (t)
!Ã
x(t) y(t)
!
+
Ã
t 0
!
sabiendo que las funciones Ã
Á1 (t) =
1 0
!
;
Ã
Á2 (t) =
t 1
!
son soluciones particulares del sistema homog¶eneo. >Pueden determinarse los coe¯cientes aij (t) expl¶³citamente?
8 0 > > < x = 3x
y 0 = 2x + 3y
.c
(a)
om
2. Resolver los sistemas siguientes:
x0 = x + y y0 = x + y + t
at em
(
at
(b)
ic
a1
> > : z 0 = x + y + 3z
ww
w.
M
(c) ~y 0 (t) = A~y(t), donde A es la matriz: 0
1
1 0 0 B C B 0 1 ¡1 C @ A 0 1 1
con la condici¶on inicial ~y(0) = (1; 1; 1)t . 3. Resolver, utilizando la transformada de Laplace, los sistemas diferenciales siguientes: (a) 2x00 + y 0 ¡ 2x ¡ y = ¡ cos t ¡ sen t 2y 00 ¡ 2x0 + y ¡ 2x = 3 cos t + 4 sen t
con las condiciones iniciales x(0) = 4, x0 (0) = 32 , y(0) = 6, y 0 (0) = 5.
77
(b) El sistema de ecuaciones diferenciales m1 x001 = ¡K1 (x1 ¡ l1 ) + K2 (x2 ¡ x1 ¡ l2 ) m2 x002 = ¡K2 (x2 ¡ x1 ¡ l2 ) + K1 (l1 + l2 ¡ x2 )
)
rige el comportamiento de los sistemas de masas en ausencia de fuerzas exteriores. Considerando que las masas m1 y m2 valen 1 Kg., las constantes el¶asticas K1 = 4N=m y K2 = 52 N=m y las longitudes l1 = 2m: y l2 = 3m:, calcular la posici¶on de las masas x1 (t), x2 (t), para t > 0, sabiendo que en el instante inicial las masas estaban en reposo en los puntos x1 (0) = 2 y x2 (0) = 4. 4. Demostrar que si Y~ (t) es una soluci¶on del sistema Y~ 0 (t) = AY~ (t), entonces Y~ 0 (t) es tambi¶en una soluci¶on, e igualmente las sucesivas derivadas del vector Y~ (t). De un sistema Y~ 0 (t) = AY~ (t), se sabe que dos soluciones son de la forma 0
1
0
1
t2 e®t B C B C C B C Á1 (t) = B @ 2t A ; Á2 (t) = @ 0 A 2 0
om
(a) Hallar el valor de ® para que sean soluciones del sistema Y~ 0 (t) = AY~ (t).
1.c
(b) Hallar para dicho ®, la matriz A.
em
at
ic a
5. Si Á(t) es la matriz fundamental de un sistema de ecuaciones diferenciales ordinarias de primer orden, lineal y homog¶eneo y K es una matriz cualquiera, de la misma dimensi¶on que la matriz del sistema y no singular, demostrar que Á(t)K es otra matriz fundamental.
M at
>Y KÁ(t) es tambi¶en matriz fundamental?.
ww w.
6. Resolver el sistema: 8 2 dy dx > > > + 3 + 3y = 0 > > < dt2 dt > > > d2 x > > :
x(0) = 0
x0 (0) = 2
+ 3y = te¡t
dt2
7. Resolver los sistemas ~y 0 (t) = A ~y (t) , donde A es la matriz: 0
a)
1 ¡2 2 C 1 2 C A 2 2 1
B A=B @ ¡2
8. Resolver el sistema
0
1
0
B B
b) A = B B @
1
0
1
1 0 0 1 B C B C ct 0 B C B ~y = @ 2 1 ¡2 A ~y + @ 0 C A e 3 2 1 0
78
1
2 ¡1 0 0 C ¡1 2 0 0 C C 1 1 2 1 C A 1 ¡1 1 2
c6 =1