1,0
X0
1,5
-4 -1,0
2,0
E[f0(x)]
4
2
2
0
0
-2
-2
-0,5
P1[f0(x)]
0,0
0,5
x
0
1,0
X0
1,5
(c) -4 -1,0
-0,5
0,0
Pref[f0(x)] x
x0
0,5
1,0
1,5
2,0
2,0
E[f0(x)]
(d) -4 -1,0
-0,5
Pref[f0(x)]
0,0
x
x0
0,5
1,0
1,5
2,0
Figura 5.3. Parámetros característicos de dos señales sinusoidales de amplitud, período y fase A = 2; X0 = 1 y '0 = 3¼=2 rad: (a) Señal seno y valor medio; (b) Señal coseno y valor medio; (c) Para la señal en (a): potencia instantánea, media y energía, y (d) Mismos parámetros para la señal en (b). Se han incluído también las siguientes representaciones: (i) las señales de referencia para la potencia instantánea, Pre f [f0 (x)] ; y (ii) la potencia instantánea sin su valor medio, P1 [f0 (x)] :
4. Potencia media: el valor medio de la potencia, hP [f0 (x)]i ; será el valor medio de las funciones en (5.12). Resulta evidente que dicho valor, promediado a un período, será el valor de la energía dividido por X0 ; esto es, el valor al cuadrado de su amplitud dividido por dos, hP [f0 (x)]i = A2 =2:
(5.14)
Como ya habiamos adelantado, la potencia media representa una densidad de energía por unidad de x, en este caso, la distribución de energía en un período. 5.2.2
Exponenciales de exponente imaginario.
La descripción de estas funciones resulta de especial importancia en los desarrollos de este libro. En particular, si el período de la señal es …jo, X0 ; el subespacio de señales generado a partir de considerar este tipo de señales de períodos X0m = X0 =m; actuará como base del espacio de señales periódicas de período X0 , dando lugar al desarrollo en serie de Fourier tratado en el Cap. 8. Realizando una extensión analítica de X0m = X0 =m ! X; esto es, haciendo que el período deje de ser un múltiplo divisor de X0 y se convierta en una variable o parámetro continuo descriptivo de un nuevo subespacio de señales, las mismas funciones actuarán como base del espacio de señales aperiódicas de…nidas para todo x en la transformada de Fourier analizada en el Cap. 9. Describiremos inicialmente este tipo de señales asumiendo que pertenecen al espacio P (X0 ) donde el período X0 o cualquier múltiplo divisor de éste se supone de valor …jo.
c Emilio Gago-Ribas, 2002 °
111
² Representación inicial. Consideraremos una representación inicial de una exponencial de exponente imaginario como una combinación lineal compleja de funciones coseno y seno de pulsación » 0 = 2¼=X0 en la forma, f0 (x) = ej»0 x = cos » 0 x + j sin » 0 x:
(5.15)
Obviamente, la señal compleja resultante de dicha combinación lineal también será una señal periódica de período X0 : Resulta evidente que su descripción en partes real e imaginaria vendrá dada por, Re ff0 (x)g = cos » 0 x;
(5.16)
Im ff0 (x)g = sin » 0 x:
(5.17)
De forma similar, su representación en módulo y fase vendrá dada por, jf0 (x)j = 1;
(5.18)
'f0 (x) = » 0 x:
(5.19)
Resulta trivial generalizar dicha representación cuando las exponenciales tengan una amplitud diferente de la unidad y una fase diferente de cero. ² Representación en partes real-imaginaria y en módulo-fase. Fasores. Consideremos una exponencial en la forma, f0 (x) = Aej(»0 x+'0 ) = A cos(» 0 x + '0 ) + jA sin(» 0 x + '0 ); A 2 R:
(5.20)
Su análisis se reducirá al realizado en el apartado anterior para señales sinusiodales considerando que la función coseno representa la parte real de la señal y que la función seno representa su parte imaginaria. Desde el punto de vista de su análisis en módulo y fase, resultan evidentes las siguientes relaciones, jf0 (x)j = A;
(5.21)
'f0 (x) = » 0 x + '0 :
(5.22)
En base a esta representación, y teniendo en cuenta que f0 (x) = Aej(»0 x+'0 ) = Aej»0 x ej'0 ;
(5.23)
podremos de…nir un número complejo F~ = Aej'0 que describa la amplitud y fase de la exponencial. A dicho número se le denominará habitualmente por el término de fasor, esto es, dado un cierto fasor F~ descriptivo de una determinada magnitud, se asume que la variación de dicha magnitud respecto a una cierta variable x es de la forma, f0 (x) = F~ ej»0 x ;
(5.24)
de forma que: (i) el módulo de F~ determina la amplitud de la exponencial, y por lo tanto de las señales ceseno y seno, y (ii) la fase de F~ determina la fase de la exponencial, y por lo tanto, de las señales sinusoidales que la forman, 8 9 < Re ff0 (x)g =j F~ j cos(» 0 x + 'F~ ) = f0 (x) = F~ ej»0 x ¡! ; (5.25) : Im ff (x)g =j F~ j sin(» x + ' ) ; ~ 0 0 F f0 (x) = F~ ej»0 x ¡!
8 < jf0 (x)j =j F~ j
9 =
: Fase ff (x)g = » x + ' ; 0 0 F~
:
(5.26)
En la Fig. 5.4 se muestra un ejemplo de estas señales y su relación con F~ en sus representaciones real-imaginaria y módulo-fase. 112
c Emilio Gago-Ribas, 2002 °
3
Re{f0(x)}
x0 2,5
2
|f0(x)|
2,0
1 1,5 0 1,0 -1 0,5
-2 -3 -1,0 3
-0,5
Im{f0(x)}
0,0
x0
x
0,5
1,0
1,5
2,0
0,0 -1,0
-0,5
Fase{f0(x)}
0,0
x
0,5
1,0
1,5
2,0
0,0
x
0,5
1,0
1,5
2,0
x0
1,00π 2 1
0,50π
0
0,00π
-1
-0,50π
-2 -3 -1,0
-1,00π -0,5
0,0
x
0,5
1,0
1,5
2,0
-1,0
-0,5
Figura 5.4. Exponenencial de exponente imaginaria de período X0 = 1 descritas por los fasores F~ = 1 (j F~ j= 1; 'F~ = 0); y F~ = 2ej¼=2 (j F~ j= 2; 'F~ = ¼=2): En este segundo caso, el desfase de ¼=2 rad. representa un desplazamiento de la señal a la izquierda de valor jx0 j = X0 =4: En ambas …guras se ha destacado un período de referencia.
² Notaciones habituales. Las notaciones habituales serán las mismas que en el caso de las señales sinusoidales. 1. x ´ t : f0 (x) = F~ ej!0 t :
2. x ´ z : f0 (x) = F~ e¡j¯ 0 z : La justi…cación de este cambio de signo se puede encontrar en la Secc. 5.4.
² Propiedades. f0 (x) = ej»0 x :
¡ ¢¤ 1. Compleja y hermítica, dado que f0¤ (¡x) = e¡j»0 x = ej»0 x = f0 (x):
2. Su parte real es par y hermítica y su parte imaginaria impar y antihermítica. 3. Su módulo es constante, y por lo tanto par. Su fase es lineal con x; siendo » 0 el valor de su pendiente. ² Parámetros característicos. Dado que este tipo de exponenciales son una combinación lienal de señales sinusoidales, los parámetros característicos estarán directamente relacionados con los de estas últimas. En la Fig. 5.5 se muestra una descripción grá…ca de estos valores. 1. Valor medio: el valor medio de cualquier señal exponencial de fasor F~ ; (5.24), es nulo en base a (5.11), esto es, su componente continua es siempre cero, hf0 (x)i = hf00 (x)i + j hf000 (x)i = 0 + j0:
(5.27)
2. Potencia instantánea: la potencia instantánea vendrá dada por jf0 (x)j2 ; de forma que para una señal en la forma descrita por (5.20) ó (5.24), la potencia instantánea será constante con x y de valor igual al cuadrado de la amplitud de las señales sinusoidales, esto es, P[f0 (x)] =j F~ j2 = A2 : c Emilio Gago-Ribas, 2002 °
(5.28) 113
3
Re{f0(x)}
2
E[f0(x)]
1 0 5
-1 -2
4
-3 -2 3
X0
P[f0(x)]
-1
0
1
Im{f0(x)}
2
x
3
4
X0
3
2
2 1 1 0 -2
0
-1
0
1
2
x
3
4
-1 -2 -3 -2
-1
0
x0
1
2
x
3
4
Figura 5.5. Parámetros característicos de una exponenencial de exponente imaginaria de período X0 = 2 descrita por el fasor F~ = 2e¡j¼=2 ; j F~ j= 2; y 'F~ = ¡¼=2 rad: En este caso, el desfase de ¡¼=2 rad. representa un desplazamiento de la señal a la derecha de valor jx0 j = X0 =4: La potencia instantánea en este ejemplo es igual a 4; siendo la energía igual a 8:
Nótese que una función de valor constante2 también pertenece al espacio de señales P (X0 ) si se considera como una señal periódica de período X0 : 3. Energía: la energía de una señal de exponente imaginario vendrá dada por la amplitud al cuadrado multiplicada por el período, (Ap. E.6), E [f0 (x)] = X0 j F~ j2 = X0 A2 :
(5.30)
4. Potencia media: el valor medio de la señal constante en (5.28) será, lógicamente, igual al valor de la constante. Visto de otra forma, la energía promediada sobre un período será igual a, hP[f0 (x)]i =
5.3
1 E [f0 (x)] =j F~ j2 = A2 : X0
(5.31)
Espacio de señales aperiódicas.
5.3.1
Exponenciales reales.
Estas funciones son de gran interés práctico dado que se utilizan para modelar muchos procesos físicos bien en el espacio o en el tiempo. Estas funciones están de…nidas para todo valor de la variable independiente, perteneciendo así al espacio S(¡1; 1): ² De…nición. Una exponencial real vendrá caracterizada por, f (x) = A eax ; A; a 2 R:
(5.32)
Como el parámetro a es real, se podrán distinguir tres comportamientos: 2 La
función f0 (x) = 1 considerada como una función de período X0 será el elemento neutro del espacio P (X0 ) respecto al producto punto a punto de funciones periódicas, g0 (x) ¢ 1 = g0 (x):
114
(5.29)
c Emilio Gago-Ribas, 2002 °
1. a > 0 : la exponencial es creciente en el sentido de crecimiento de x: 2. a = 0 : la exponencial toma el valor constante A; de forma que f (x) = A para todo x: Nótese que, en este caso, la función constante también pertenece al espacio de señales S(¡1; 1) vista como una señal de período X0 ! 1: Si A = 1; f (x) = 1 representará el elemento neutro de S(¡1; 1) respecto del producto de funciones.
3. a < 0 : la exponencial es decreciente en el sentido de crecimiento de x:
Para cualquiera de los casos anteriores, el valor del parámetro A claramente representa el valor en el origen de la exponencial, esto es, f (0) = A: En la Fig. 5.6 se presentan algunos ejemplos de este tipo de señales reales. 8
f (x)=exp(a x)
7 6
a>0 5
a<0
4 3 2
a=0
1 0 -2
-1
0
x
1
2
Figura 5.6. Exponenciales reales con A = 1; y a = 1; 0 y ¡1:
² Representación en partes real-imaginaria y módulo-fase. Dado que la exponencial es real y siempre positiva para todo x; 8 9 < Re ff (x)g = eax = f(x) = eax ¡! ; (5.33) : Im ff (x)g = 0 ; f (x) = eax ¡! ² Propiedades. f (x) = eax :
8 < jf (x)j = eax
9 =
: Fase ff(x)g = 0 ;
:
(5.34)
1. Función real decreciente o creciente si a 6= 0. No es ni par ni impar, ni hermítica ni antihermítica. 2. Función real constante si a = 0; esto es par y hermítica. 3. Su fase es nula para todo x: ² Parámetros característicos. En base a las de…niciones realizadas en la Secc. 2.9, podremos de…nir los parámetros característicos de una señal exponencial real en la forma eax , a 2 R : 1. Valor medio: el valor medio de una exponencial real de exponente a arbitrario es divergente, (Ap. E.6), hf(x)i ! 1:
(5.35)
Este resultado es sencillo de adivinar a la vista del comportamiento mostrado en la Fig. 5.6. En el caso particular en que el exponente a = 0; la señal es la constante unidad, de forma que su valor medio coincide con el valor de dicha constante, esto es, la unidad.
c Emilio Gago-Ribas, 2002 °
115
2. Potencia instantánea: vendrá dada por P [f (x)] = f 2 (x) = e2ax ;
(5.36)
esto es, otra exponencial real de exponente el doble del valor de a: Esto permite anticipar que su valor medio será también divergente, (5.38). Si a = 0; la potencia instantánea será la función constante unidad, y su valor medio será la unidad. 3. Energía: estas señales son también de energía in…nita como se puede deducir fácilmente de las grá…cas de su comportamiento para todo valor del parámetro a; ¯1 Z 1 eax ¯¯ E [f (x)] = eax dx = ! 1: (5.37) a ¯¡1 ¡1
4. Potencia media: el valor medio de la potencia será el valor medio de la función en (5.36). Resulta evidente que dicho valor, promediado a lo largo de todo el rango de la variable independiente será divergente, (Ap. E.6), (5.38)
hP [f(x)]i ! 1:
En el caso en que a = 0; la potencia instantanea será la unidad, y su valor medio o componente continua coincidirá con dicho valor. 5.3.2
Exponenciales complejas.
La descripción de estas funciones resultará de especial importancia en los desarrollos de este libro, dado que estas funciones actuarán como base del espacio S(¡1; 1) de señales aperiódicas de…nidas para todo x; dando lugar a la transformada de Laplace analizada en el Cap. 11. ² De…nición.
Una exponencial compleja se podrá escribir de la siguiente forma, f(x) = F es0 x ; F = jF j ej'F y s0 = s00 + js000 2 C:
(5.39)
Desarrollando esta expresión, 0
00
0
00
f(x) = jF j es0 x ejs0 x ej'F = jF j es0 x ej(s0 x+'F ) ;
(5.40)
expresión en la que claramente se puede identi…car una variación en la amplitud de tipo exponencial como la descrita en la Secc. 5.3.1, y una variación exponencial de exponente imaginario como la descrita en la Secc. 5.2.2. La combinación de ambas dará lugar a una señal compleja cuyas partes real e imaginaria varían como el coseno y el seno, respectivamente, pero de amplitudes creciendo o decayendo exponencialmente. En las Figs. 5.8 y 5.9 se muestran algunos ejemplos de este tipo de señales. En la Fig. 5.10 se muestra un ejemplo de su representación compleja. El conjunto completo de este tipo de funciones en términos del parámetro s puede ser descrito fácilmente sin más que identi…car todos los posibles valores de s en su plano complejo, Fig. 5.7.
Figura 5.7. Plano complejo del parámetro s0 :
116
c Emilio Gago-Ribas, 2002 °
1
Re{f(x)}
5
| f (x) |
4 4
2 2
3
3
0 2 -2 1 -4 -2,0
-1,5
-1,0
-0,5
0,0
Im{f(x)}
x
0,5
1,0
1,5
2,0
0 -2,0
4
1,0π
2
0,5π
0
1
3
2
-0,5π
-4
-1,0π -1,5
-1,0
-0,5
-1,0
-0,5
0,0
x 0,5
1,0
1,5
2,0
-0,5
0,0
x
1,0
1,5
2,0
0,0π
-2
-2,0
-1,5
Fase{f(x)}
0,0
x
0,5
1,0
1,5
2,0
-2,0
-1,5
-1,0
0,5
Figura 5.8. Exponencial compleja con jF j = 1; 'F = 0 rad, s00 = ¡0:75; y s000 = 2¼ rad: es decir, con s0 situado en el segundo cuadrante. El período de las señales sinusoidales que la componen vendrá dado por 2¼=s000 = 1:
x0
Re{f(x)}
5
| f (x) |
4 4 2 3 0 2
3
-2
2
1
-4
1 -2,0
-1,5
-1,0
-0,5
0,0
Im{f(x)}
x0
0,5
x
1,0
1,5
2,0
0 -2,0
4
1,0π
2
0,5π
0
1
2
3
-0,5π
-4
-1,0π -1,5
-1,0
-0,5
0,0
-1,0
-0,5
0,0
0,5
x
1,0
1,5
2,0
-0,5
0,0
0,5
x
1,0
1,5
2,0
0,0π
-2
-2,0
-1,5
Fase{f(x)}
0,5
x
1,0
1,5
2,0
-2,0
-1,5
-1,0
Figura 5.9. Exponencial compleja con jF j = 1; 'F = ¡¼ rad, s00 = ¡0:75; y s000 = 2¼ rad: es decir, con s0 situado en el segundo cuadrante. El período de las señales sinusoidales que la componen vendrá dado por 2¼=s000 = 1: El factor de fase 'F produce un desplazamiento a la derecha de la mitad del período, esto es, x0 = 0:5:
c Emilio Gago-Ribas, 2002 °
117
Así: 1. Si s0 en el primer cuadrante (s00 > 0; s000 > 0), obtendremos señales de parte real coseno y de parte imaginaria seno, de pulsación s000 creciendo exponencialmente. 2. Si s0 en el segundo cuadrante (s00 < 0; s000 > 0); obtendremos señales de parte real coseno y de parte imaginaria seno, de pulsación s000 decreciendo exponencialmente. 3. Si s0 en el tercer cuadrante (s00 < 0; s000 < 0), obtendremos señales de parte real coseno y de parte imaginaria -seno, de pulsación js000 j ; decreciendo exponencialmente.
4. Si s0 en el cuarto cuadrante (s00 > 0; s000 < 0); obtendremos señales de parte real coseno y de parte imaginaria -seno, de pulsación js000 j ; creciendo exponencialmente.
5. Si s000 = 0; estaremos en el caso descrito en la Secc. 5.3.1, esto es, exponenciales reales.
6. Si s00 = 0; estaremos en el caso descrito en la Secc. 5.2.2, esto es, exponenciales de exponente imaginario. En este caso, las señales serán periódicas de período 2¼=s000 : 7. Nótese que el papel de la pulsación viene descrito ahora por s000 = Imfs0 g: ² Representación en partes real-imaginaria y módulo-fase.
f (x) = F es0 x =
9 8 < Re ff(x)g = jF j es00 x cos(s000 x + 'F ) =
: Im ff (x)g = jF j es00 x sin(s00 x + ' ) ; F 0 9 8 0 = < jf (x)j = jF j es0 x : = : Fase ff(x)g = s00 x + ' ; 0 F
6
Im{f(x)}
1: x = -2 2: x = -1 3: x = 0 6
5
5
4
4
3
3
2
2
1
1
3 2
0
0
1
-1
-2
-3
-3
-4
-4
-5
-5 0
1
Re{f(x)}
2
3
4
1
1: x = -2 2: x = -1 3: x = 0
2 3
-1
-2
-6 -6 -5 -4 -3 -2 -1
Im{f(x)}
(5.41)
=
5
6
-6 -6 -5 -4 -3 -2 -1
0
1
2
3
4
5
6
Re{f(x)}
Figura 5.10. Representación en el plano compljeo de las exponenciales analizadas en las Figs. 5.8 y 5.9.
118
c Emilio Gago-Ribas, 2002 °
² Notaciones habituales. 1. x ´ t : Período (X0 ) Variable compleja (s0 ) Frecuencia
Notación habitual
Denominación habitual
Unidades
T0 = 2¼=! 0 ¾ 0 + j! 0 f0 = !0 =2¼
Período
s
Pulsación compleja
(s¡1 ;rad/s)
Frecuencia
Hz=s-1
f (t) = e§s0 t = F e§(®0 +j!0 )t : 2. x ´ z : Período (X0 ) Variable compleja (s0 )
Notación habitual
Denominación habitual
Unidades
¸0 = 2¼=¯ 0 k0 = k00 + jk000
Longitud de onda
m
Número de onda complejo
(m¡1 ;rad/m)
° 0 = ®0 + j¯ 0
f (z) = F e§° 0 z = F e§(®0 +j¯ 0 )z : ² Propiedades. 1. es0 x ; s0 2 C : compleja, no es par ni impar, ni hermítica ni antihermítica.
2. s00 = 0 : propiedades descritas en la Secc. 5.2.2.
3. s000 = 0 : propiedades descritas en la Secc. 5.3.1. ² Parámetros característicos.
En base a las de…niciones realizadas en la Secc. 2.9, podremos de…nir los parámetros característicos de una señal exponencial de exponente complejo en la forma es0 x , s0 2 C : 1. Valor medio: el valor medio de una exponencial compleja de exponente s0 arbitrario es divergente, (Ap. E.6), hes0 x i ! 1:
(5.42)
Este resultado es sencillo de adivinar a la vista del comportamiento mostrado en las Figs. 5.8 y 5.9. Si s00 = 0; la exponencial será imaginaria y su valor medio será el obtenido en la Secc. 5.2.2. Si s000 = 0; la exponencial será real y su valor medio será el obtenido en la Secc. 5.3.1. 2. Potencia instantánea: vendrá dada por 2
0
P [es0 x ] = jes0 x j = e2s0 x ;
(5.43)
esto es, una exponencial real de exponente el doble del valor de s0 = Refsg: Esto permite anticipar que su valor medio será divergente, (5.45). Si s00 = 0; la potencia instantánea será la función constante unidad, de…nida en el espacio S(¡1; 1); y su valor medio será la unidad.
3. Energía: para un valor arbitrario de s; estas señales son de energía in…nita, (Ap. E.6), E [f(x)] ! 1:
(5.44)
Si s0 = 0; la exponencial será imaginaria y su energía será la obtenida en la Secc. 5.2.2. Si s00 = 0; la exponencial será real y su energía será la obtenido en la Secc. 5.3.1. 4. Potencia media: el valor medio de la potencia será el valor medio de la función en (5.43). Resulta evidente que dicho valor, promediado a lo largo de todo el rango de la variable independiente será divergente, hP [es0 x ]i ! 1:
(5.45)
Si s00 = 0; su valor medio será la unidad. Si s000 = 0; la exponencial será real y su energía será la obtenido en la Secc. 5.3.1. c Emilio Gago-Ribas, 2002 °
119
5.4
Una familia importante de señales bidimensionales. A pesar de que los contenidos del presente texto están encaminados al análisis de señales unidimensionales, el autor considera importante analizar cierto tipo de señales de gran interés práctico a la hora de describir fenómenos de propagación de señales. A su vez, estas señales serán la base de la transformada de Fourier analizada en el Cap. 9 pero aplicada a aquellos problemas donde se describen los citados fenómenos de propagacion. Para ello, expondremos aquí aquellas señales que son la base de dicha descripción. El caso más sencillo de todos consistirá en considerar un espacio de señales bidimensionales, donde las variables descriptivas de dicho espacio serán el tiempo, t; y una cierta coordenada espacial, z; que describa un espacio físico unidimensional3 . Estas señales serán de la forma f(t; z): La representación común en la práctica a un espacio de cuatro dimensiones, esto es, el tiempo, y el espacio físico 3D, de este tipo de fenómenos estará basado en la generalización de estas señales, f (t; ~r):
5.4.1
Señales sinusoidales de fase lineal. ² De…nición y análisis. Basándonos en todas las consideraciones realizadas en la Secc. 5.2.1 del presente capítulo, consideraremos inicialmente señales de la forma4 , f(t; z) = sin(!0 t ¡ ¯ 0 z):
(5.46)
Resulta evidente que dichas señales describen variaciones periódicas en la variable t de pulsación temporal ! 0 ; esto es, de período T0 = 2¼=! 0 ; y variaciones periódicas en la variable z de pulsación espacial (número de onda) ¯ 0 ; esto es, de período espacial o longitud de onda ¸0 = 2¼=! 0 : Como cualquier señal bidimensional, su análisis se podrá realizar …jando una de las coordenas y variando la otra; por ejemplo, …jado un cierto punto z del espacio, analizar la variación temporal, o bien, …jado un cierto instante de tiempo, analizar la instantánea de la señal a lo largo de la coordenada z: De esta forma, podremos visualizar inicialmente los parámetros que la describen, esto es, pulsaciones y períodos asociados a cada variable. En la Fig. 5.11 se presentan dos ejemplos de este tipo de señales, donde la interpretación en cada variable será similar a la realizada en la Secc. 5.2.1 para señales sinusoidales unidimensionales.Así, …jando un cierto punto z = z1 > 0 del espacio, la señal sinusoidal en t estará retrasada respecto a la señal de referencia en z = 0 un cierto valor t0 dado por, µ ¶ ¯ ¯ T0 z1 f(t; z1 ) = sin ! 0 t ¡ 0 z1 ¡! t0 = 0 z1 = z1 = T0 : (5.47) !0 !0 ¸0 ¸0 Nótese que este retraso de la señal respecto a lo que ocurría en z = 0 está representando un fenomeno de propagación de la señal f (t; z) a lo largo de la coordenada espacial z: La última expresión, aunque evidente, nos muestra que el retraso viene expresado en una fracción del período T0 ; dada por el cociente entre el punto z1 de observación y el período espacial, ¸0 : Generalizando este resultado para cualquier valor de z; podremos asociar dicho retraso de la señal con una cierta velocidad de propagación de la señal que denominaremos velocidad de fase en la forma, t0 =
¸0 z !0 = ¡! vf = (m/s). vf ¯0 T0
(5.48)
Nótese que la velocidad de fase asociada a la señal senoidal es constante y viene dada por la relación entre el período espacial y el período de repetición temporal, lo que signi…ca que sea cual sea el punto de observación z; la velocidad de fase de la onda es la misma. Leído de otra forma, aparece la de…nición habitual de la longitud de onda como el espacio recorrido por una señal con variación sinusoidal de período T0 durante un tiempo igual al período de la señal T0 a la velocidad de fase vf : Habitualmente, esta velocidad de fase será un parámetro característico, y por tanto conocido, asociado al problema descrito por la señal f(t; z): De forma similar, podremos analizar la variación a lo largo de z para diferentes instantes de tiempo, lo que permite visualizar claramente el proceso de propagación de la señal a lo largo de z: Consideremos como señal de referencia en este caso la señal en z para un cierto instante t = 0; f (t = 0; z) = ¡ sin ¯ 0 z:
(5.49)
3 La de…nición de estas variables particulares, y no dos variables generales x y x ; se debe al interés práctico de las 1 2 primeras. Un análisis bidimensional genérico consideraría señales genéricas en la forma f (x1 ; x2 ); igual que en el caso unidimensional, la notación general utilizada es la de f (x): 4 El análisis de la variación cosenoidal será totalmente paralelo al expuesto a continuación.
120
c Emilio Gago-Ribas, 2002 °
2
t0
f (t, z)
z=0
T0
z = z1
1
A
0
-1
-2 -2,0 2
-1,5
f (t, z)
-1,0
-0,5
0,0
-1,0
-0,5
0,0
t = 0 t = t1
z0
0,5
1,0
0,5
1,0
t (s)
1,5
2,0
2,5
3,0
1,5
2,0
2,5
3,0
λ0
3,5
4,0
3,5
4,0
1
0
-1
-2 -2,0
-1,5
z (m)
Figura 5.11. Ejemplo de una señal senoidal bidimensional de período T0 = 1 s. y de longitud de onda ¸0 = 2 m: (a) variando t para z1 = 0:5 m. y (b) a lo largo de z para t1 = 0:25 s. En ambos casos se representan las señales de referencia en z = 0 y t = 0; respectivamente. En el primer caso, la señal estará retrasada un tiempo t0 = z1 T0 =¸0 = 1=4 = 0:25 s. respecto a la señal de referencia; en el segundo caso, la señal estará desplazada a la derecha una distancia z0 = ¸0 t1 =T0 = 1=2 = 0:5 m.
Si analizamos la instantánea de la señal en un cierto instante t1 > 0; la señal en z vendrá dada por, ¶ µ !0 t1 ; (5.50) f(t1 ; z) = sin(! 0 t1 ¡ ¯ 0 z) = ¡ sin ¯ 0 z ¡ ¯0 lo que signi…ca un desplazamiento de la señal en el sentido positivo de z respecto a la señal en t = 0 un cierto valor z0 dado por, z0 =
!0 ¸0 t1 t1 = t1 = ¸0 : ¯0 T0 T0
(5.51)
En este caso, el desplazamiento espacial viene expresado en fracciones t1 =T0 del período espacial ¸0 : Generalizando este resultado para cualquier instante de tiempo t; vemos que la velocidad asociada al proceso de…nida como espacio dividido por el tiempo transcurrido coincide con la obtenida previamente, z0 =
!0 ¸0 ¸0 t= t ¡! vf = (m/s): ¯0 T0 T0
(5.52)
En la Fig. 5.12 se muestran varias instantáneas de la señal a lo largo de z, esto es, para diferentes instantes de tiempo, visualizándose sobre ella el proceso de propagación a lo largo de z descrito por la señal. Nótese que, sea cual sea el análisis realizado, la propagación de la señal la estamos midiendo considerando el movimiento de un punto de fase constante5 , de ahí el nombre de velocidad de fase.
5 Por ejemplo, en el caso de la señal seno, tomaremos como referencia el punto de fase nula, esto es cuando t = 0 s. y z = 0 m. lo que es lo mismo, el comienzo de un período de la señal senoidal cuando ésta es creciente, punto A en la Fig. 5.11.
c Emilio Gago-Ribas, 2002 °
121
2
f (t, z)=sin(ω0t - β0z) t = 0.5s t = 1.25s
t = 0s 1
A
0
A
A
-1
z01
z02
-2 -2
-1
0
1
z (m)
2
3
4
Figura 5.12. Instantáneas de la señal senoidal de período T1 = 1 s. y de longitud de onda ¸0 = 2 m. para los instantes t0 = 0 s. (señal de referencia de fase ¼ rad. indicada por el punto A), t1 = 0:5 s. y t2 = 1:25 s. Los desplazamientos de la fase serán z01 = ¸0 t1 =T0 = 0:5¸0 = 1 m. y z02 = ¸0 t2 =T0 = 1:25¸0 = 2:5 m. respectivamente.
² Generalización. Velocidad de fase. Consideremos la señal (5.53)
f(t; z) = sin(!0 t ¨ ¯ 0 z):
Fijando un punto de referencia de fase constante y diferenciando la expresión, obtendremos la velocidad de fase en la forma, !0 t ¨ ¯ 0 z = cte ¡! ! 0 dt ¨ ¯ 0 dz = 0 ¡! vf =
dz ¸0 !0 =§ =§ (m/s): dt ¯0 T0
(5.54)
Nótese que el signo § indicará en este caso velocidades positivas si la propagación de la señal se produce en el sentido positivo de z; y velocidades negativas si la propagación se produce en el sentido negativo de z: Con esta interpretación en mente se pueden analizar señales más generales de gran interés práctico dado que representan señales propagativas con velocidades de fase no constantes. Pasaremos a analizar estas señales y algunos ejemplos importantes. 5.4.2
Señales sinusoidales de fase arbitraria. ² Análisis general. Consideremos una señal como la representada por (5.53) pero considerando un término de fase dependiente de z en la forma, (5.55)
f (t; z) = sin [! 0 t ¡ '0 (z)] ;
esto es, con un término de fase '0 (z) dependiente de z en forma arbitraria. Como ya es habitual, dicho término de fase representará, respecto de la variable t; un cierto adelanto o retraso de la señal para cada valor de z y, por lo tanto, estará representando fenómenos propagativos. Fijando entonces un punto de referencia de fase constante y diferenciando la expresión, obtendremos una expresión general para la velocidad de fase asociada a dicha señal en la forma, ! 0 t ¡ '0 (z) = cte ¡! ! 0 dt ¡ '00 (z)dz = 0 ¡! vf (z) =
!0 dz = 0 (m/s); dt '0 (z)
(5.56)
denotando por '00 (z) a la primera derivada de la función de fase '0 (z) respecto de z; esto es, d'0 (z)=dz: Nótese que esta expresión indica que, para una función de fase genérica, la velocidad de fase asociada a la señal será otra función de z; es decir, que en cada punto z del espacio, la señal tendrá una velocidad de fase diferente. La interpretación grá…ca de este resultado se puede entender 122
c Emilio Gago-Ribas, 2002 °
bien si pensamos en una cierta función de fase '0 (z) de forma que, en cada punto z; la pendiente de la tangente será la derivada de la función; el valor inverso de dicha magnitud escalado por la pulsación ! 0 nos dará la velocidad de fase en cada punto. Así, si la pendiente en un cierto punto z es positiva, la velocidad de fase será también positiva, lo que representará propagación local en el sentido positivo; si la pendiente en un cierto z es negativa, la velocidad de fase lo será también, representando propagación local de la señal en el sentido negativo. Veamos a continuación algunos ejemplos importantes. ² Fase lineal. Consideremos una señal senoidal de fase lineal en la forma, '0 (z) = §¯ 0 z;
(5.57)
donde ¯ 0 indica la pendiente de la recta. Resulta evidente que este caso se reduce al estudiado en primer lugar, obtenéndose el resultado ya conocido obtenido en (5.54), '00 (z) = §¯ 0 ¡! vf = §
!0 ¸0 =§ (m/s): ¯0 T0
(5.58)
En este caso, la primera derivada de la función de fase es constante e igual a §¯ 0 ; obteniéndose una velocidad de fase constante para todo z: En la Fig. 5.13 se muestra una descripción completa de este caso. Una forma alternativa de representación es la mostrada en la Fig. 5.14, donde se muestra la señal en el tiempo para diferentes puntos del espacio. ² Fase lineal y sinusoidal. Consideremos la señal
f (t; z) = sin [! 0 t ¡ '0 (z)] ! '0 (z) = ¯ 0 z + sin(2¯ 0 z); ¯ 0 = 2¼=¸0 :
(5.59)
En este caso, la función de fase tiene un término lineal y un termino sinusoidal (función seno en este caso), ambos dependientes de z: Su representación será como la mostrada en la Fig. 5.15. La velocidad de fase vendrá dada entonces por, '00 (z) = ¯ 0 + 2¯ 0 cos(2¯ 0 z) ! vf (z) =
¸0 =T0 : 1 + 2 cos(2¯ 0 z)
(5.60)
Nótese cómo tanto '00 (z) como vf (z) son periódicas de período ¼=¯ 0 = ¸0 =2: A las vista de la representación de vf (z) en la Fig. 5.15, es posible entresacar las siguientes propiedades importantes: 1. Existen tramos en z en los que la velocidad de fase es positiva, lo que signi…ca que la señal, en esos puntos, tenderá a avanzar en la dirección positiva de z: 2. Existen otros tramos en z en los que la velocidad de fase es negativa; en dichos puntos, la señal tenderá a avanzar en sentido negativo de z (propagación en la dirección opuesta). 3. Por último, existen puntos z especí…cos donde la pendiente de '0 (z) es nula; en dichos puntos, la velocidad de fase tiende a in…nito, lo que es lo mismo, los efectos propagativos son despreciables dado que la propagación sería instantánea. Estas diferencias de velocidad en cada punto del espacio dan lugar a que la señal sufra deformaciones a lo largo de z como las que se muestran en la columna derecha de la Fig. 5.15, donde se muestra la distribución de la magnitud f (t; z) para diferentes instantes de tiempo. Estos efectos serán los habituales para funciones de fase arbitrarias. En la Fig. 5.16 se muestra una representación z ¡ t de la señal en (5.59) representada en la Fig. 5.15 para diferentes puntos del espacio identi…cados por zi : En cada caso, será posible de…nir el adelanto o retraso de la señal respecto a la señal de referencia en z = 0 sin más que aplicar la relación (5.47) para la señal de fase arbitraria, esto es, µ ¶ ' (zi ) ' (zi ) ' (zi ) f(t; zi ) = sin ! 0 t ¡ 0 ! t0i = 0 = 0 T0 : (5.61) !0 !0 2¼ La siguiente tabla muestra los valores de t0i correspondientes a los casos presentados en la Fig. 5.16.
c Emilio Gago-Ribas, 2002 °
z0i (m)
'0 (zi )
t0i =T0
0
0
0
0.2
1.5794
0.2514
0.4
1.8444
0.2935
0.6
1.2972
0.2065
0.8
1.5622
0.2486
Tabla 5. I
123
15
ϕ0(z)
2
sin[-ϕ0(z)]
12 9
1
6 3
0
0
β0
-3 -6 -9 -2 4
ϕ'0(z)
-1
0
1
z
-1
2
3
4
-2 -2 2
β0
3
1
2
0
1
-1
0 -2 3
vf (z)
-1
0
1
z
2
3
4
-2 -2 2
1
z
2
3
4
0
1
z
2
3
4
0
1
2
3
4
-1
0
-1
-1
sin[ω0t1 - ϕ0(z)]
z01
sin[ω0t2 - ϕ0(z)]
1 2 0 1 -1 0 -2
-1
0
1
z
2
3
4
-2 -2
z02 z
Figura 5.13. Función senoidal f (t; z) de período T0 = 1 s. y con una función de fase lineal '0 (z) = ¯ 0 z rad, ¯ 0 = 2¼ rad/m. La velocidad de fase es constante e igual a !0 =¯ 0 m/s. Se muestran tres instantaneas de la señal para t = 0; t = 0; 75T0 ; y t = 1:25T0 :
3T0
t
z = 3λ0/8
z = 7λ0/8
2T0
1T0
vf=λ0/T0 0T0
0,000λ0
z
0,125λ0
0,250λ0
0,375λ0
0,500λ0
0,625λ0
0,750λ0
0,875λ0
1,000λ0
Figura 5.14. Diagrama z ¡ t de la función representada en la Fig. 5.13. Se representan las señales en función de t para los valores z = 0; z = 3¸0 =8; y z = 7¸0 =8:
124
c Emilio Gago-Ribas, 2002 °
15
A: Puntos de pendiente nula B: Tramos de pendiente negativa A A A B
ϕ0(z)
12 9
A
0,0
B
3 0 0,0
-0,5
B 0,5
1,0
ϕ'0(z)
1,5
sin[-ϕ0(z)]
0,5
B
6
10
1,0
2,0
z
2,5
3,0
3,5
4,0
-1,0 0,0 1,0
0,5
1,0
1,5
2,0
z
2,5
3,0
3,5
4,0
0,5
1,0
1,5
2,0
z
2,5
3,0
3,5
4,0
0,5
1,0
1,5
2,0
z
2,5
3,0
3,5
4,0
sin[ω0t1 - ϕ0(z)]
0,5 5 0,0 0 -0,5 -5 0,0 10
0,5
1,0
vf (z)
1,5
2,0
z
2,5
3,0
3,5
4,0
-1,0 0,0 1,0
5
0,5
0
0,0
-5
-0,5
-10 0,0
0,5
1,0
1,5
2,0
z
2,5
3,0
3,5
4,0
sin[ω0t2 - ϕ0(z)]
-1,0 0,0
Figura 5.15. Función senoidal f (t; z) de período T0 = 1 s. con una función de fase '0 (z) = ¯ 0 z + sin(2¯ 0 z) rad, ¯ 0 = ¼ rad/m. Se muestran tres instantáneas de la señal a lo largo de z para t = 0; t1 = 0; 15T0 ; y t2 = 0:25T0 : En las grá…cas de la función y de la velocidad de fase están indicados los valores de z que se presentan en la Fig. 5.16.
3T0
z1
t
z2
z3
z4
2T0
1T0
t01 0T0
0,0
z
0,2
t02 0,4
t03 0,6
t04 0,8
Figura 5.16. Diagrama z ¡t de la función representada en la Fig. 5.15. Se muestran las variaciones en t para ciertos valores zi = 0; 0:2; 0:4; 0:6; y 0:8 m. Los valores de '0 (zi ) y vf (zi ) son los indicados la Fig. 5.15; los retrasos t0i respecto a la señal en z = 0 son los mostrados en la tabla 5. I.
c Emilio Gago-Ribas, 2002 °
125
126
c Emilio Gago-Ribas, 2002 °
6.
Operadores y Sistemas Lineales. La Delta de Dirac
6.1
Sistemas y espacios de señales aperiódicas. Funciones localizadoras. Consideremos un sistema cualquiera caracterizado en la forma habitual por, g(x) = F[f (x)]:
(6.1)
Como ya hemos anticipado en algunos ejemplos citados en la sección anterior, una forma intuitivamente clara de visulizar el problema directo sería la de considerar que la señal de entrada f (x) es la señal de excitación o fuente del problema descrito por dicho sistema, siendo la señal g(x) la respuesta a dicha excitación. Con estas ideas básicas en mente, intentamos ver si existe alguna manera de caracterizar o describir un sistema de forma única, entendiendose por este término que cualquier sistema se pueda representar en alguna forma común, sea quien sea el operador F que lo describe. En el caso más general, pensaremos incluso que dicho operador pueda no tener una representación analítica conocida. Una primera forma de caracterizar dicho sistema consistiría en disponer de un conjunto de funciones de entrada muy grande en número tal que, analizando la salida a cada una de esas señales, pudieramos de alguna forma identi…car el sistema, Fig. 6.1. Parece claro que este proceso, así descrito, resultaría inviable o inexacto: ¿cuántas señales serían necesarias?, ¿aseguramos así la correcta identi…cación del sistema y su correcto comportamiento frente a cualquier otra señal arbitraria?, etc.
Figura 6.1. Identi…cación de un sistema usando múltiples señales fuente y respuesta.
Una segunda forma de abordar el problema consistiría en pensar en aprovechar alguna propiedad general que conociéramos del sistema; por ejemplo, si supiéramos que el sistema es causal, intentaríamos restringir de alguna forma su posible descripción en virtud de dicha propiedad. Desde este punto de vista, las propiedades más importantes que utilizaremos para intentar obtener dicha caracterización son las propiedades de linealidad e invarianza, como veremos a lo largo del presente texto. A pesar de adelantar ya la importancia que estas dos propiedades presentarán en la caracterización de un sistema, queda un tercer aspecto importante por afrontar, esto es, el problema de qué tipo de señales deberemos utilizar para lograr su caracterización. En este sentido, el álgebra de señales y de operadores nos facilita la labor a través del concepto de bases de un espacio. Así, supuesto un cierto espacio de señales de partida, y asumiendo que hemos encontrado una base para representar dicho espacio, Secc. 2.5, el sistema quedará caracterizado a través de la transformación de los elementos de la base, esto es, F : f'(x; m)g ¡! F [f'(x; m)g] = fF ['(x; m)]g :
(6.2)
De esta forma lograríamos predecir el comportamiento del sistema para cualquier señal del espacio de partida. Sin embargo, este concepto no aclara qué conjunto de funciones deberíamos de elegir como base para poder caracterizar el sistema dado que, como ya se citó en el Cap. 4, la elección de una base viene determinada no sólo por el espacio a representar sino también por los operadores que van a actuar sobre dicho espacio. Este aspecto será uno de los puntos de partida para introducir el concepto de funciones 127
localizadoras y de…nir, a partir de él, una función que acabará siendo un objeto matemático1 denominado delta de Dirac, ±(x); con una serie de propiedades importantes asociadas, entre ellas, la de servir como conjunto base ideal para representar cualquier espacio de señales y, por lo tanto, permitir la caracterización de un sistema con alguna de las propiedades citadas anteriormente. Este objeto matemático ideal servirá como punto de partida para generar nuevos objetos de carácter localizador, lo que dará lugar posteriormente a las Distribuciones o Funciones Generalizadas introducidas en el Cap. 7. 6.1.1
Funciones localizadoras de tipo impulsivo. La distribución delta de Dirac.
Habíamos visto en la sección anterior cómo para describir o ejempli…car ciertas propiedades generales de los sistemas, podía ser conveniente pensar en términos de algún tipo de función que se caracterizase por estar de…nida2 en un intervalo de la variable independiente ¢x muy pequeño. Este tipo de funciones constituirán el punto de partida para pensar a su vez en funciones con un comportamiento localizador ideal justamente cuando dicho intervalo tienda a cero, ¢x ! 0: Desde un punto de vista práctico, este tipo de objetos servirían, por ejemplo, para: ² Representar variaciones instantáneas en el tiempo, es decir, representar magnitudes muy localizadas en un determinado instante de tiempo, Fig. 6.2(a). ² Representar magnitudes muy localizadas en torno a un punto del espacio, Fig. 6.2(b).
Figura 6.2. Representación genérica de dos señales de tipo impulsivo localizadas en torno al origen (a) de tiempos, y (b) de una coordenada espacial.
² Desde el punto de vista de las propiedades de un sistema, parece que este tipo de señales serían especialmente adecuadas para su caracterización de forma que, en lugar de usar funciones arbitrarias para lograr dicho objetivo, intentaremos usar señales de entrada con este comportamiento. Generalizando estos conceptos a señales de…nidas sobre una variable cualquiera intentaremos generar un objeto matemático de partida que se ajuste al comportamiento descrito; así, estaríamos hablando de funciones i¢x (x) que podríamos caracterizar inicialmente de la siguiente forma, Fig. 6.3(a): 1. De…nidas en (¡1; 1); esto es, pertenecientes al espacio S(¡1; 1):
2. Continuas y de buen comportamiento en torno al punto de de…nición (inicialmente el origen del sistema de coordenadas). 3. Reales de variable real, lo que facilitará su de…nición inicial. 4. Pares (esta propiedad se puede imponer a priori si pensamos que el comportamiento de la función en torno al punto de de…nición nos es indiferente una vez que el comportamiento de estas funciones se haya llevado al límite cuando ¢x ! 0):
5. Desde el punto de vista analítico impondremos: (i) que sean señales nulas para cualquier valor de x fuera del intervalo de longitud ¢x; (ii) dentro de dicho intervalo, su forma de variación y valores son desconocidos y arbitrarios, exceptuando las características citadas en los puntos 2 y 4. 1 Este objeto matemático resultante será un funcional que operará sobre una función de buen comportamiento, Seccs. 3.2.1 y 3.3.1. 2 En este sentido, el término estar de…nida se usa como sinónimo de tomar valores no nulos en un cierto intervalo. Por supuesto, el espacio de señales sobre el que estamos trabajando inicialmente es S(¡1; 1) y, por lo tanto, cualquier señal estará de…nida para todo el rango de la variable independiente.
128
c Emilio Gago-Ribas, 2002 °
1,5
i∆x(x) ∆x
1,0
(a) 0,5
0,0 -4 1,5
δ(x)
-3
-2
-1
0
x
1
2
3
4
∆x
0
1,0
(b) 0,5
0,0 -4
-3
-2
-1
0
x
1
2
3
4
Figura 6.3. Obtención de la distribución ±(x) a partir de una señal i¢x (x) arbitraria de…nida en un cierto intervalo ¢x cuando ¢x ! 0:
Nótese cómo con esta de…nición inicial, el caracter impulsivo de dichas señales aparece claramente, independientemente de la forma de variación que tengan en el intervalo donde dichas funciones no se anulan. A partir de ellas, el comportamiento impulsivo ideal quedaría de…nido cuando ¢x ! 0: De forma intuitiva, parece evidente que, en el límite, lo que obtenemos no es una función usual sino un nuevo objeto que podríamos de…nir inicialmente de la siguiente forma, Fig. 6.3(b): 1. De…nido en (¡1; 1):
2. En el límite, la continuidad se pierde, de forma que este nuevo objeto presenta un comportamiento discontinuo justo en el origen. Este comportamiento ya nos da pie a pensar que el nuevo objeto pertenecerá, bien a un espacio de señales diferente al de partida., bien a ampliar nuestro espacio de funciones con funciones discontinuas.
3. Real de variable real. 4. El comportamiento de este objeto es claramente par, propiedad que previamente se ha usado al de…nir las funciones i¢x (x) iniciales. 5. Analíticamente, este objeto quedaría descrito de la siguiente forma: (a) De valor nulo para todo x 6= 0:
(b) No de…nido en x = 0:
A este nuevo objeto le llamaremos delta de Dirac, y lo denotaremos por ±(x): Su representación grá…ca será como la mostrada en la Fig. 6.3(b). El proceso de de…nición que hemos seguido ha consistido en partir de una función i¢x (x) de buen comportamiento y ver qué objeto se obtendría al hacer tender el intervalo de de…nición de dicha función a cero, ¢x ! 0: Este hecho sugiere que un proceso más riguroso consistiría en de…nir una sucesión de funciones dn (x) de buen comportamiento tales que el límite de la sucesión diese lugar a ±(x): Este será el método habitual seguido en el Cap. 7 para introducir las distribuciones o funciones generalizadas en su forma más general. Es importante destacar también que el hecho de que ±(x) no esté de…nida en el origen supone un grado de libertad inicial que nos tomamos en la de…nición de un objeto de estas características. De hecho, esta inde…nición vendría intuitivamente promovida por haber considerado funciones de partida i¢x (x) cuya forma de variación no hemos de…nido en el intervalo ¢x:
c Emilio Gago-Ribas, 2002 °
129
Figura 6.4. Representación de una transformación operando entre dos espacios de señales por un sistema arbitrario asumiendo que dichos espacios puedieran contener objetos matemáticos de tipo localizador.
Con estas ideas en mente, el objetivo …nal será estudiar si estos objetos facilitan la obtención de alguna de…nición característica de un sistema, Fig. 6.4. Desde el punto de vista algebraico, esto será equivalente a obtener alguna representación alternativa del operador F que describe el comportamiento del sistema. Este proceso pasará por ver si este tipo de objetos pueden ser usados como base del espacio de señales, analizando así la transformación de dicha base citada previamente. Para ello intentaremos basarnos una vez más en aquellas propiedades especiales que poseen objetos localizadores como la ±(x): Así, parece lógico imaginar que cualquier función localizadora i¢x (x) podría servir también para representar funciones de entrada al sistema f(x) arbitrarias dado que su comportamiento nulo fuera del intervalo de de…nicion en torno al origen nos permitirá seleccionar un intervalo de f (x) de ancho ¢x en torno a x = 0: Si posteriormente desplazamos de forma continua la función i¢x (x) a otros puntos, i¢x (x ¡ xi ), iremos seleccionando nuevos intervalos de f(x) centrados en xi hasta conseguir así seleccionar la función completa. Si este proceso lo intentamos visualizar cuando ¢x ! 0; estaríamos obteniendo, si esto es posible, la representación de una función f(x) arbitraria en términos de ±(x ¡ xi ); concepto equivalente a pensar en los objetos ±(x ¡ xi ) como elementos de una base del espacio de funciones. En la Fig. 6.5 se esquematizan estos conceptos. i∆x(x - xi)
1
f (x)
(a)
0
∆x
-1 -6 1
δ(x - xi)
-4
-2
0
x
f (x)
2
4
6
∆x
0
(b)
0
-1 -6
-4
-2
0
x
2
4
6
Figura 6.5. Proceso de ’muestreo’ de una señal mediante el desplazamiento de funciones localizadoras i¢x (x¡ xi ): En el límite cuando ¢x ! 0; dichas funciones serían objetos en la forma ±(x ¡ xi ): Se representan los casos con xi = ¡3; xi = 0 y xi = 2:
130
c Emilio Gago-Ribas, 2002 °
Figura 6.6. Visualización del concepto de proyección de un elemento f (x) del espacio S(¡1; 1) sobre el objeto ±(x):
Este proceso de construcción, aparentemente razonable, nos llevará rápidamente a la de…nición rigurosa del objeto ±(x): Como se analizará en el Cap. 7, a partir de la de…nición de este objeto, se podrán construir nuevos objetos de carácter localizador, ya sean impulsivos o no. Lo que parece evidente a estas alturas del proceso es que la forma inicial de seleccionar pequeños trocitos de una función arbitraria f (x) mediante i¢x (x) sería multiplicando ambas funciones. Fuera cual fuera el resultado en el intervalo ¢x; resulta evidente también que fuera de dicho intervalo, el producto siempre será nulo, y la función producto resultante estaría directamente relacionada con f(x) dentro del intervalo ¢x; 8 8 ¢x < 0 < 0 x 6= 0 x2 = (¡ ¢x 2 ; 2 ) (6.3) ¡! [¢x ! 0] ¡! f (x)±(x) = f (x)i¢x (x) = : no def. x = 0 : no def. x 2 (¡ ¢x ; ¢x ) 2 2
6.1.2
De…nición del objeto ±(x).
Nótese en primer lugar que el producto de f (x) por ±(x) sigue siendo un objeto no de…nido en el origen, así que dicha operación no parece su…ciente para conseguir la representación …nal de f (x) buscada. Es por esto que, una vez más, deberíamos de recurrir a la métrica de…nida sobre nuestro espacio de funciones para ver si, a través de ella, podemos lograr alguna medida concreta. En concreto, buscando representar f (x) en términos de una base formada por objetos del tipo ±(x); deberíamos intentar representar los coe…cientes de dicha combinación lineal en términos del producto escalar de…nido en (2.54) donde la segunda función en este caso sería el objeto ±(x); pensando entonces en ’muestrear’ la función f (x) en la coordenada donde se encuentra el objeto localizador, podríamos realizar la siguiente asignación, Z 1 hf (x); ±(x)i = f (x)±(x) dx = f(0): (6.4) ¡1
En esta expresión, hemos usado el hecho de que ±(x) sea un objeto real. Justamente el valor asignado a este producto escalar será el de la función f (x) en el origen, es decir, f(0): De esta forma estaremos logrando, a través de dicha operación, obtener el carácter de objeto muestreador continuo de ±(x) que estábamos buscando, usando además el grado de libertad del que todavía disponíamos respecto a su de…nición en torno al origen. Aquí aparece precisamente el carácter de funcional mencionado en la Secc. 3.3.1 del objeto delta de Dirac, dado que su de…nición en el origen no pasa por asignarle un valor concreto sino que pasa por actuar sobre otra función de buen comportamiento. Podríamos entonces describir el funcional ±(x) de la siguiente forma, ±(x) : S(¡1; 1) ¡! C; Z 1 ±(x) : f(x) ¡! f (0) = f(x)±(x) dx 2 C:
(6.5)
¡1
Es decir, el objeto ±(x) es en realidad un funcional, Secc. 3.3.1 y Fig. 3.4 que se aplica sobre una función f (x) en el espacio vectorial de funciones S(¡1; 1), devolviéndonos un valor complejo igual al valor de la función en el origen, f (0): Esta de…nición se puede leer de otras formas también importantes: ² Desde el punto de vista algebraico, esa de…nición se podría interpretar como la proyección de una función f(x) de buen comportamiento sobre un nuevo objeto matemático ±(x) introducido en el espacio de señales. Dicho objeto se de…niría entonces como aquel elemento tal que la proyección de una función arbitraria sobre él es exactamente igual al valor de la función en el origen, Fig. 6.6. c Emilio Gago-Ribas, 2002 °
131
f (x)
i∆x(x)
2 1 0 -1 -2 -6
-4
-2
0
x
f(0)
2
4
6
2
4
∆x
2
4
6
f (x) i∆x(x)
2 1 0
∆x
-1 -2 -6
-4
-2
0
f(0)
x
f (x)
6
0
2 1 0 -1 -2 -6
-4
-2
0
x
Figura 6.7. Interpretación grá…ca de la de…nición integral del funcional ±(x) aplicado a una función f (x) de buen comportamiento partiendo de una función localizadora i¢x (x) cuando ¢x ! 0:
² Desde el punto de vista de las funciones localizadoras i¢x (x); la interpretación se podría realizar en términos del esquema mostrado en la Fig. 6.7, donde la integral del producto f(x)i¢x (x) se obliga a que sea justamente f (0) cuando ¢x ! 0; y no otro valor. Nótese cómo, a partir de la de…nición dada en (6.4), es posible obtener una propiedad también básica del objeto ±(x); particularizando dicha expresión cuando f (x) = 1; es decir, la función constante unidad, Z 1 h1; ±(x)i = ±(x) dx = f (0) = 1; (6.6) ¡1
es decir, que el objeto, o funcional ±(x); integrado en cualquier intervalo tal que contenga a la posición donde se localiza el objeto (el origen en este caso), será siempre igual a la unidad. De esta propiedad se desprende claramente que el comportamiento en el origen de la delta debería ser singular (! 1) de forma que el área bajo este objeto localizador impulsivo dé lugar a una indeterminación 0 ¢ 1 tal que su valor sea justamente la unidad. Una vez de…nido el carácter muestreador de ese objeto impulsivo en el origen, bastará desplazarlo a valores fuera del origen para generalizar el concepto de muestreo de ±(x) en cualquier valor de la variable independiente, generando así un conjunto de funciones base de tipo localizador que permite representar cualquier elemento f(x) 2 S(¡1; 1): 6.1.3
De…nición del objeto ±(x ¡ x0 ).
La de…nición de la delta de Dirac fuera del origen se obtiene sin más que generalizar la expresión (6.4) a un punto cualquiera x0 ; obteniéndose directamente Z 1 hf (x); ±(x ¡ x0 )i = f (x)±(x ¡ x0 ) dx = f (x0 ): (6.7) ¡1
La representación grá…ca sería como la mostrada en la Fig. 6.5 con x0 6= 0: Diremos entonces que el objeto ±(x ¡ x0 ) localizado en x0 y de…nido para todo x; aplicado sobre una función de buen comportamiento f (x); nos devuelve el valor de dicha función en el punto x0 : Como funcional podremos entonces escribir
132
c Emilio Gago-Ribas, 2002 °
la siguiente expresión, ±(x ¡ x0 ) : S(¡1; 1) ¡! C; Z 1 ±(x ¡ x0 ) : f(x) ¡! f (x0 ) = f (x)±(x ¡ x0 ) dx 2 C:
(6.8)
¡1
Tanto las interpretaciones como las formas de visualización serán totalmente similares a las expuestas para el objeto ±(x) descrito previamente. 6.1.4
Conjunto de objetos f±(x ¡ x0 )g :
Consideremos a continuación que el punto de localización x0 pueda tomar cualquier valor en el intervalo de de…nición de la variable independiente de forma que pueda ser considerado como un parámetro descriptivo de diferentes objetos impulsivos de tipo delta localizados en diferentes posiciones. Denotaremos por x0 al desplazamiento considerado como un parámetro variable del problema, de forma que la expresión (6.7) se podrá escribir en la forma siguiente, Z 1 0 hf(x); ±(x ¡ x )i = f (x)±(x ¡ x0 ) dx = f (x0 ); (6.9) 0
¡1
es decir, la distribución delta localizada en x nos devuelve el valor de la función sobre la que se aplica en dicho valor. Nótese que en esta última ecuación, x0 denota el continuo de valores a lo largo de los cuales iremos localizando objetos de tipo ±(x); en otras palabras, x0 es una variable que describe la posición donde se localiza la fuente impulsiva, denominada habitualmente como coordenada o punto fuente. Si consideramos el continuo de posibles valores del parámetro x0 ; estaremos describiendo una familia continua de objetos localizadores de tipo impulsivo en la forma, fi(x; x0 )g = f±(x ¡ x0 )g :
(6.10)
Nótese que todos estos objetos son discontinuos, de forma que estaremos ampliando el espacio de funciones original S(¡1; 1) con este conjunto de elementos impulsivos y discontinuos. También es posible intuir el hecho de que, aplicando diferentes operadores sobre una distribución delta de Dirac, obtendremos nuevas señales de tipo localizador con nuevas propiedades asociadas. Al conjunto de funciones localizadoras fD(x)g que denominaremos como distribuciones y que analizaremos en el Cap. 7 lo denotaremos por D(¡1; 1): Así, el conjunto de distribuciones en (6.10) será un subconjunto de D(¡1; 1): 6.1.5
Representación de funciones en términos del conjunto f±(x ¡ x0 )g :
Hemos visto previamente cómo el conjunto in…nito y continuo de distribuciones fi(x; x0 )g = f±(x ¡ x0 )g descrito por el parámetro x0 permite muestrear de forma continua una función f (x) de buen comportamiento sobre la que actúa dicho conjunto. Siguiendo entonces el esquema general presentado en (2.42) junto con (2.43), o bien su versión más detallada presentada en el Cap. 4, ecuaciones (4.20)-(4.21)3 , podremos intentar escribir f (x) en términos de una combinación lineal continua de los elementos del conjunto fi(x; x0 )g en (6.10), Z Z 0 0 0 f (x) = A(x )i(x; x ) dx = A(x0 )±(x ¡ x0 ) dx0 ; (6.11) x0
x0
siendo los coe…cientes A(x0 ) los dados por el producto escalar, Z A(x0 ) = hf(x); ±(x ¡ x0 )i = f (x)±(x ¡ x0 ) dx = f (x0 ):
(6.12)
x
En la última igualdad se ha utilizado la de…nición en (6.9) ya conocida. Esto quiere decir que los coe…cientes de la combinación lineal son justamente la misma función sobre la que actúa el conjunto f±(x ¡ x0 )g de…nida sobre la variable x0 que describe la posición de cada una de las deltas, esto es, Z f(x) = f (x0 )±(x ¡ x0 ) dx0 : (6.13) x0
Podemos entonces resumir el proceso en los siguientes puntos: 3 Nótese que lo que allí denominábamos variable espectral » es, en este caso, otra variable en el dominio real, x0 : Así, el conjunto de coe…cientes A(») ´ A(x0 ); siendo a(¿ ) ´ f (x): El conjunto de funciones base denotado allí por e(¿ ; ») será ahora i(x; x¶):
c Emilio Gago-Ribas, 2002 °
133
² La variable x original del problema describe la forma de variación de cualquier función f(x); pudiéndose denominar como la coordenada o punto de observación de una cierta magnitud representada por f (x) y descrita por dicha variable. ² La nueva variable x0 describe el conjunto de funciones f±(x ¡ x0 )g identi…cando la posición donde se localiza cada una de las señales impulsivas. Asumiendo que ésta sea la fuente original para caracterizar el sistema, denotaremos a dicha variable como la coordenada o punto fuente. Veremos en las siguientes secciones cómo estos objetos matemáticos permiten caracteriza un sistema, objetivo …nal del presente desarrollo. ² La expresión de la combinación lineal continua en (6.13) en términos de la nueva variable x0 se puede reescribir usando la expresión de la convolución en (3.87) sobre dicha variable, Z f(x) = f (x0 )±(x ¡ x0 ) dx0 = f(x) ¤ ±(x); (6.14) x0
expresión sobre la variable x que identi…ca las siguientes propiedades: 1. El objeto ±(x) de…nido es capaz de muestrear de forma ideal cualquier función continua, esto es, permite seleccionar un valor de un conjunto continuo de valores. En este caso, el conjunto continuo de valores será cualquier función f (x) de buen comportamiento. Si la delta se localiza en el origen, selecciona el valor f (0); fuera del origen, la delta selecciona el valor de la función en dicho punto. 2. En virtud de la propiedad anterior, el conjunto continuo f±(x ¡ x0 )g es capaz de representar a través de una combinación lineal continua sobre x0 a cualquier función f(x) de buen comportamiento para todo valor de x; (6.14). 3. Esta combinación lineal continua puede escribirse en la forma de una convolución de dos señales, f(x) 2 S(¡1; 1) y ±(x) 2 D(¡1; 1): Se satisfacen entonces todas las propiedades asociadas a la convolución descritas en la Secc. 3.7.1; así por ejemplo, podremos escribir, (6.15)
f(x) = f (x) ¤ ±(x) = ±(x) ¤ f (x); lo que equivale a, f(x) =
Z
x0
f (x0 )±(x ¡ x0 ) dx0 =
Z
x0
f(x ¡ x0 )±(x0 ) dx0 :
(6.16)
² Nótese cómo el carácter de funcional del objeto ±(x) en la expresión (6.14) se mantiene sin más que interpretar adecuadamente la operación de convolución. Consideremos para ello a f (x) como un conjunto de in…nitos elementos descrito por la variable x considerada ésta como parámetro descriptivo del conjunto ff (x)g : Así, para cada valor de x = xi obtendremos un valor complejo f (xi ); Z f(xi ) = f (x0 )±(xi ¡ x0 ) dx0 2 C: (6.17) x0
El carácter de funcional descrito en (6.5) y (6.8) se mantiene entonces4 para todo valor de xi ; esto es, para todo valor de la variable original x: 6.1.6
Sistemas lineales.
En virtud de los objetos localizadores de…nidos así como de las propiedades que presentan, retomaremos ahora el problema inicial de intentar caracterizar un sistema con ayuda de estos nuevos objetos funcionales, Fig. 6.4. Parece evidente que, para un sistema genérico descrito por un operador F arbitrario, el hecho de haber introducido estas nuevas señales no facilita, a priori, la caracterización del mismo, a menos que seamos capaces de extraer dicha caracterización de alguna propiedad importante. Así, ¸ Z 0 0 0 F : f(x) = f (x) ¤ ±(x) ! g(x) = F [f (x)] = F f(x )±(x ¡ x ) dx : (6.18) x0
4 Nótese que la operación de convolución analizada respecto a x0 conlleva una re‡exión y un desplazamiento que no afecta al carácter de funcional descrito.
134
c Emilio Gago-Ribas, 2002 °
Figura 6.8. Representación esquemática del concepto asociado al conjunto continuo de funciones respuesta al impulso fh(x; x0 )g descriptivas de un sistema caracterizado por un operador F lineal.
Si sobre esta expresión general consideramos la propiedad de linealidad descrita en (3.4.1) la expresión anterior podrá ser desarrollada como en (3.34), identi…cando una vez más la variable » que allí aparece con x0 ; y los coe…cientes de la combinación lineal A(») con los valores f(x0 ) en (6.12) Así, Z F : f (x) = f(x) ¤ ±(x) ¡! g(x) = F [f (x)] = f(x0 )F [±(x ¡ x0 )] dx0 : (6.19) x0
En esta última ecuación aparece ya la conveniencia de las funciones impulsivas del tipo ±(x) para la caracterización de un sistema, dado que la combinación lineal que representa la señal de salida está escrita en términos de F [±(x ¡ x0 )] ; es decir, del sistema operando sobre deltas. De esta forma, podremos concluir que: ² Sea quien sea el operador F que describe el sistema, si es lineal, lo único que deberemos conocer para obtener la respuesta a cualquier señal de entrada f (x) es la respuesta a señales impulsivas del tipo delta de Dirac localizadas a lo largo de todo el dominio de de…nición de la variable independiente, Fig. 6.8, esto es, h(x; x0 ) = F [±(x ¡ x0 )] :
(6.20)
Estas funciones constituirán un conjunto de in…nitas funciones fh(x; x0 )g descritas por el parámetro x0 y que denominaremos conjunto de respuestas del sistema al impulso. Denotaremos a su vez por L(S; D) al espacio o conjunto de operadores que son lineales sobre los espacios S(¡1; 1) y D(¡1; 1):
² Conocido el conjunto de funciones fh(x; x0 )g ; cualquier operador o sistema que sea lineal tendrá siempre una representación alternativa única en términos de un operador integral cuyo núcleo, Secc. 3.6.4, ecuación (3.73), es dicho conjunto de funciones en la forma, Z Para todo F 2 L(S; D) ! F(¢) ´ (¢)h(x; x0 ) dx0 : (6.21) x0
Nótese que esta integral no es, en general, una integral de convolución como la de…nida en (3.87). ² La colección de funciones fh(x; x0 )g ; por ser consecuencia de una cierta transformación (lineal) del conjunto de distribuciones f±(x ¡ x0 )g ; será un subconjunto de D(¡1; 1); esto es, un conjunto in…nito de nuevas distribuciones, Fig. 6.11. En la Fig. 6.9 se muestra un ejemplo sencillo de varias funciones respuesta al impulso arbitrarias. Estas consideraciones contribuyen también al hecho de estudiar este tipo de funciones con un poco más de detalle, lo que se abordará en el Cap. 7. 6.1.7
Sistemas lineales e invariantes.
A partir de la representación de un sistema lineal obtenida previamente, es posible dar un paso más en su caracterización si, además, el sistema presenta la propiedad de invarianza, Secc. 3.4.2. En base a dicha propiedad resulta evidente que si la excitación impulsiva se localiza en un cierto x0 6= 0; la respuesta a dicha excitación será la misma que la correspondiente a una excitación impulsiva localizada en el origen pero con un desplazamiento de valor x0 ; es decir, 8 < ±(x) ¡! h(x) = F [±(x)] (6.22) : ±(x ¡ x0 ) ¡! h(x; x0 ) = F [±(x ¡ x0 )] = h(x ¡ x0 ) c Emilio Gago-Ribas, 2002 °
135
2,0
δ(x - x')
1,5
x' =4
x' =0
1,0
x' =8
0,5
0,0 -10 1,0
-8
h(x;x')
-6
-4
-2
0
x
h(x;0)
2
4
6
10
h(x;8)
h(x;4)
0,5
8
0,0 -0,5
-1,0 -3
-2
-1
0
1
x
2
3
4
5
6
Figura 6.9. Algunos ejemplos de distribuciones pertenecientes al conjunto fh(x; x0 )g para diferentes localizaciones de ±(x ¡ x0 ):
La representación correspondiente a una señal de entrada arbitraria f(x) vendrá dada sin más que aplicar este resultado a la forma integral del sistema obtenida en (6.21). Así pues, para un sistema lineal e invariante, Z F : f(x) = f (x) ¤ ±(x) ¡! g(x) = F [f (x)] = f(x0 )h(x ¡ x0 ) dx0 = f (x) ¤ h(x): (6.23) x0
En base a este resultado podemos entresacar las siguientes conclusiones:
² Sea quien sea F; si es lineal e invariante, sólo necesitaremos conocer una única función respuesta al impulso h(x) a una delta localizada en el origen, ±(x); para lograr su caracterización en forma integral. Dicha función describirá el conjunto de in…nitas funciones fh(x ¡ x0 )g ; núcleo del operador integral que representa al sistema, h(x) = F [±(x)] ; F(¢) ´
Z
x0
(¢)h(x ¡ x0 ) dx0 :
(6.24) (6.25)
² Denominaremos por LI(S; D) al conjunto de operadores que son lineales e invariantes sobre los espacios vectoriales S(¡1; 1) y D(¡1; 1):
² La respuesta del sistema a una señal arbitraria f (x) se podrá obtener, por tanto, en base a dicha representación integral que, además, se reduce a una integral de convolución como la de…nida en (3.87), en este caso de la función de entrada con la respuesta al impulso del sistema, Z F : f (x) ¡! g(x) = f (x0 )h(x ¡ x0 ) dx0 = f(x) ¤ h(x): (6.26) x0
² Las propiedades de esta representacion integral serán entonces las descritas en la Secc. 3.7.1.
² De especial relevancia resulta interpretar el papel que juega en este caso la respuesta al impulso dentro de la operación de convolución; para ello, bastará con trasladar la interpretación grá…ca de la convolución a este caso. Asumiendo que los términos subintegrales fuesen como los mostrados en la Fig. 6.10, es fácil notar que la respuesta al impulso juega en este caso el papel de aquella función que determina el rango de valores de la señal de entrada que in‡uye o aporta valores a la integral, y por lo tanto, a la señal de salida para cada valor de x: Esta característica será fundamental a la hora de trasladar las propiedades de los sistemas al caso de los sistemas lineales e invariantes, como veremos en la Secc. 6.2. 136
c Emilio Gago-Ribas, 2002 °
Figura 6.10. Representación esquemática del papel de ’selección’ que juega la respuesta al impulso h(x) asociada a un sistema lineal e invariante frente a la señal de entrada.
6.1.8
Nuevo espacio de señales.
En virtud de las consideraciones realizadas en las secciones anteriores, podremos considerar un nuevo ~ espacio de señales ampliado que denotaremos por S(¡1; 1): Este espacio contendrá tanto al espacio inicial S(¡1; 1) de funciones continuas de buen comportamiento, como al espacio D(¡1; 1) de las distribuciones. Así, a partir de ahora mantendremos en mente el esquema mostrado en la Fig. 6.11.
Figura 6.11. Representación esquemática de un sistema descrito por un cierto operador F actuando inicialmente sobre el espacio de funciones S(¡1; 1): Al espacio de distribuciones fD(x)g generado aplicando diferentes transformaciones al objeto impulsivo inicial ±(x) lo denominaremos por D(¡1; 1): El conjunto de funciones f±(x ¡ x0 )g así como su transformado fh(x; x0 )g a través de un operador F serán ~ subconjuntos de este último espacio. Denominaremos por S(¡1; 1) al espacio completo que contiene tanto a las funciones continuas en S(¡1; 1) como a las funciones ~ discontinuas que serán analizadas como distribuciones, D(¡1; 1); Cap. 7.
c Emilio Gago-Ribas, 2002 °
137
6.2
Sistemas lineales e invariantes. Hemos visto cómo la de…nición de una función impulsiva básica nos ha permitido lograr una caracterización de cualquier sistema que sea lineal en términos de un operador integral de núcleo el conjunto de respuestas al impulso fh(x; x0 )g ; (6.21). Si el sistema es, además, invariante, la caracterización se realiza a través de una única función respuesta al impulso h(x); (6.24)-(6.25). Como resultado de esto, conviene analizar y describir el resto de las propiedades de un sistema de…nidas en la Secc. 3.4 en términos de la respuesta al impulso del sistema para el conjunto de sistemas lineales e invariantes (SLI) identi…cado ~ por el espacio de operadores LI(S):
6.2.1
Propiedades asociadas a la convolución.
En base a las propiedades de la operación de convolución descritas en la Secc. 3.7.1, podemos identi…car las siguientes propiedades trasladadas a uno o varios sistemas lineales e invariantes: ² Conmutatividad: f(x) ¤ h(x) = h(x) ¤ f(x):
Esta propiedad, básica a priori, proporciona una lectura adicional muy importante, y es que un problema descrito en términos de un SLI caracterizado por h(x) y alimentado por una señal f (x) se puede analizar como un problema diferente en el que el SLI que lo describe tiene una respuesta al impulso f(x); siendo h(x) la señal a la entrada. En la Fig. 6.12 se representa grá…camente esta propiedad.
Figura 6.12. Propiedad conmutativa de la convolución transladada a un sistema lineal e invariante. Los dos problemas, caracterizados por sistemas diferentes, darían la misma respuesta g(x).
² Asociatividad: f (x) ¤ [h1 (x) ¤ h2 (x)] = [f(x) ¤ h1 (x)] ¤ h2 (x):
Esta propiedad está directamente relacionada con la asociación de sistemas en serie descrita en la Secc. 3.5. Nótese cómo el término a la derecha de la igualdad representa la salida de un primer SLI de respuesta al impulso h1 (x) que, a su vez, pasa por un segundo SLI de respuesta al impulso h2 (x): El término a la izquierda identi…ca el hecho de que la asociación en serie de dos SLI’s se pude ver como un único SLI cuya respuesta al impulso hs (x) es la convolución de las respuestas al impulso de los sistemas iniciales, Fig. 6.13, (6.27)
hs (x) = h1 (x) ¤ h2 (x):
Figura 6.13. Propiedad asociativa de la convolución trasladada a dos sistemas lineales e invariantes caracterizados por sus respuestas al impulso h1 (x) y h2 (x):
138
c Emilio Gago-Ribas, 2002 °
² Distributividad: f (x) ¤ [h1 (x) + h2 (x)] = f (x) ¤ h1 (x) + f(x) ¤ h2 (x):
Esta propiedad está directamente relacionada con la asociación de sistemas en paralelo descrita en la Secc. 3.5. Nótese cómo el término a la derecha de la igualdad representa la suma de las salidas de dos SLI’s de respuestas al impulso h1 (x) y h2 (x) alimentados por la misma señal de entrada f (x): El término a la izquierda identi…ca el hecho de que la asociación en paralelo de dos SLI’s se pude ver como un único SLI cuya respuesta al impulso hp (x) es la suma de las respuestas al impulso de los sistemas iniciales, Fig. 6.14, hp (x) = h1 (x) + h2 (x):
(6.28)
Figura 6.14. Propiedad distributiva de la convolución trasladada a dos sistemas lineales e invariantes caracterizados por sus respuestas al impulso h1 (x) y h2 (x):
6.2.2
Memoria.
En base a la de…nición de memoria dada en la Secc. 3.4.3 y teniendo en cuenta el papel que juega la función respuesta al impulso dentro de la integral de convolución descrita en la sección anterior, parece evidente que un sistema como el descrito en la Fig. 6.10 sería un sistema con memoria, dado que la señal de salida en cualquier x dependerá de la señal de entrada en valores diferentes a ese x; tal y como se muestra en dicha …gura. Así, podremos hacer la pregunta al revés: ¿qué respuesta al impulso caracterizaría a un sistema sin memoria? La respuesta es sencilla, dado que, hasta el momento, sólamente conocemos un tipo de señal que seleccione un único punto de la función de entrada f(x); que es la delta de Dirac. En base a esto, el caso de un sistema lineal e invariante sin memoria sería como el representado en la Fig. 6.15, esto es, h(x ¡ x0 ) = ±(x ¡ x0 ) =) h(x) = ±(x) =) F ´ I;
(6.29)
es decir, la respuesta al impulso del operador identidad5 . Nótese que en este análisis, h(x) se obtendrá después de deshacer el desplazamiento y la re‡exión respecto al eje vertical (término a la derecha de la ecuación anterior). Este hecho sólo es factible gracias a la propiedad asociada a la familia de distribuciones f±(x ¡ x0 )g obtenida en (6.16) que resulta ser justamente la respuesta del sistema identidad para cualquier señal arbitraria, Z g(x) = I [f (x)] = f (x) = f(x0 )±(x ¡ x0 ) dx0 : (6.30) x0
5 Resulta
trivial comprobar que si h(x) = ±(x); el operador que describe el sistema será el operador identidad, F ´ I:
c Emilio Gago-Ribas, 2002 °
139
Figura 6.15. Visualización del concepto asociado a un sistema sin memoria en relación con su respuesta al impulso.
Resulta también evidente generalizar dicho resultado para cualquier operador en la forma, (6.31)
F = K ¢ I ¡! g(x) = Kf (x) ¡! h(x) = K±(x);
es decir, los únicos sistemas lineales e invariantes que son sin memoria son el identidad y la familia de operadores de escalado por una constante K 2 C: Nótese que el problema de una resistencia de valor R recorrida por una corriente i(t) puesto como ejemplo de sistema sin memoria en la Secc. 3.4.3 no es más que un caso particular del operador escalado cuando K = R: 6.2.3
Invertibilidad.
En la Secc. 3.4.4 de…nimos el operador inverso como aquel operador F¡1 que satisface la relación, F¡1 fF [f (x)]g = f (x);
(6.32)
equivalente a la asociación en serie de dos sistemas descritos por F y F¡1 ; respectivamente, donde las señales de entrada y de salida serían f (x): Esto signi…ca que la composición de ambos operadores, en caso de existir F¡1 ; debería ser igual al operador identidad, F¡1 fF(¢)g = I:
(6.33)
Asumiendo que ambos operadores, F y F¡1 ; son lineales e invariantes, cada uno de ellos estaría caracterizado por su respuesta al impulso h(x) y h¡1 (x); respectivamente, de forma que el operador completo vendría caracterizado por la convolución de ambas respuestas al impulso (Secc. 6.2.1). Como el operador identidad tiene por respuesta al impulso a ±(x); fácilmente podremos escribir la siguiente relación, (6.34)
h(x) ¤ G(x) = ±(x);
denotando6 por G(x) a la respuesta al impulso de F¡1 : Diremos entonces que un SLI caracterizado por h(x) tiene operador inverso si existe otro SLI caracterizado por G(x) tal que satisface la relación (6.34). Nótese que la posible existencia de operador inverso de un SLI no implica a priori que el inverso sea tambien lineal e invariante, ~ ; F¡1 2LI(S): ~ F 2LI(S) 6.2.4
(6.35)
Causalidad.
En base a la de…nición dada en la Secc. 3.4.5, y teniendo en cuenta el papel que la respuesta al impulso juega como determinante de qué parte de la señal de entrada in‡uye en la integral de convolución que caracteriza la señal de salida, resulta evidente describir la propiedad de causalidad en términos de h(x ¡ x0 ): Si h(x ¡ x0 ) toma valores diferentes de cero para puntos fuente x0 mayores que el punto de observación x; entonces el sistema será anticausal, dado que estaremos seleccionando valores de f(x0 ) a la derecha del valor x analizado. Este es el caso descrito, por ejemplo, en la Fig. 6.10. Analizado a la inversa, diremos que un SLI es causal si h(x ¡ x0 ) = 0 para todo x0 > x; 6 La
140
(6.36)
notación G(x) hace referencia a lo que habitualmente se conoce como función de Green de un operador.
c Emilio Gago-Ribas, 2002 °
tal y como se muestra en la Fig. 6.16. Deshaciendo una vez más el desplazamiento a x y la re‡exión respecto al eje vertical, diremos que el sistema es causal si h(x) = 0 para todo x < 0;
(6.37)
es decir, que la respuesta al impulso de un SLI sólo podría tomar valores diferentes de cero para x ¸ 0: En la Fig. 6.17 se muestra un ejemplo de respuesta al impulso para un SLI causal. Nótese cómo, con este ejemplo, se está anticipando una vez más que la respuesta a una ±(x) podrá ser, en general, otra señal de carácter localizador (impulsiva o no), en este caso una señal discontinua con una discontinuidad de valor …nito unidad. El paso de cero a uno se localiza en el origen produciéndose dicho salto de forma instantánea.
Figura 6.16. Visualización de la propiedad de causalidad de un sistema lineal e invariante en relación con su respuesta al impulso.
Figura 6.17. Ejemplo de la respuesta al impulso h(x) asociada a un sistema causal.
6.2.5
Estabilidad.
La propiedad de estabilidad de…nida en la Secc. 3.4.6 se puede trasladar directamente a la respuesta al impulso sin más que imponer la condición de valor acotado a la integral de convolución que de…ne la señal de salida, esto es, jf (x)j
F ¡! jg(x)j
G;
¯Z ¯ ¯Z ¯ ¯ ¯ ¯ ¯ 0 0 0¯ 0 0 0¯ ¯ ¯ jg(x)j = ¯ f (x )h(x ¡ x ) dx ¯ = ¯ f (x ¡ x )h(x ) dx ¯ 0 x0 Zx jf(x ¡ x0 )j jh(x0 )j dx0 x0 Z F jh(x0 )j dx0 = G:
(6.38)
(6.39)
x0
En este desarrollo se han tenido en cuenta las siguientes propiedades: (i) en la segunda igualdad se ha aplicado la propiedad conmutativa de la convolución; (ii) en la segunda desigualdad se ha tenido en cuenta que una re‡exión y un desplazamiento de la señal de entrada no modi…can la cota superior F que c Emilio Gago-Ribas, 2002 °
141
esta función peseía inicialmente y, por lo tanto, el valor del módulo de f (x ¡ x0 ) siempre será menor o igual que F; y (iii) que el valor …nal obtenido podría igualarse a la cota de g(x): De esta forma, podemos concluir que siendo F una cantidad …nita, para que la cota G lo sea también ha de satisfacerse que, Z 1 jh(x)j dx < 1; (6.40) ¡1
o lo que es lo mismo, que la respuesta al impulso del sistema h(x) sea absolutamente integrable.
142
c Emilio Gago-Ribas, 2002 °
7.
Distribuciones o Funciones Generalizadas
7.1
Introducción. Hemos estudiado hasta el momento los conceptos más básicos relativos a los espacios de señales de variable continua así como a la caracterización general de los sistemas operando sobre dichos espacios. En forma de resumen, podríamos hacer un esquema general de las principales ideas que deberíamos tener en mente en estos momentos: ² En relación con los espacios de señales, hemos considerado como punto de partida los espacios S(¡1; 1) y P (X0 ); compuestos de funciones complejas de variable real, aperiódicas o periódicas de período X0 ; continuas y de buen comportamiento. Una vez dotados dichos espacios de una estructura de espacio vectorial, hemos de…nido también un producto escalar válido, que dota al espacio de una norma y una métrica naturales, lo que nos permite medir distancias entre señales, medidas de la propia señal, proyecciones de unas señales sobre otras, y representaciones de elementos en teérminos de conjuntos de base, Caps. 2, 4 y 5.
Figura 7.1. Representación general de un problema descrito mediante los espacios de señales de partida S(¡1; 1) ó P (X0 ); y un sistema descrito por un operador F 2 L(S); L(P ); LI(S) ó LI(P ):
² Desde el punto de vista de los sistemas, es conveniente recordar dos hechos especialmente importantes: 1. Hemos introducido unos objetos matemáticos nuevos caracterizados por ser señales básicas localizadoras de tipo impulsivo. De forma totalmente intuitiva hemos llegado a obtener la de…nición de cómo sería uno de estos objetos, obteniéndose así: (i) el objeto conocido como delta de Dirac, ±(x); señal impulsiva que tomaremos como punto de partida; (ii) el mismo objeto desplazado fuera del origen, ±(x ¡ x0 ); y (iii) la colección de objetos f±(x ¡ x0 )g descritos por el parámetro x0 que describe todas las posibles localizaciones en forma continua, Cap. 6. 2. El punto anterior, junto con ciertas propiedades de los sistemas, nos ha permitido caracterizar cualquier sistema en términos de un operador integral cuya función núcleo es la así llamada respuesta al impulso. Si el sistema es lineal, la respuesta al impulso es un conjunto in…nito y continuo de funciones denotado por fh(x; x0 )g ; si el sistema es lineal e invariante, el sistema queda caracterizado por una única función respuesta a una delta localizada en el origen, h(x): El conjunto de funciones fh(x ¡ x0 )g queda, por lo tanto, descrito por una única función, Seccs. 6.1.6 y 6.1.7. 143
Figura 7.2. Representación general de las respuestas al impulso de un sistema lineal y de un sistema lineal e invariante. En el primer caso, la respuesta al impulso es un conjunto in…nito y continuo de funciones fh(x; x0 )g descritas por la variable x0 ; en el segundo caso, una única función h(x) identi…ca al conjunto fh(x ¡ x0 )g y, por lo tanto, el comportamiento del sistema. En todos los casos es previsible que dichas respuestas al impulso sean nuevas distribuciones D(x; x0 ) ó D(x):
3. Como consecuencia de ello, para un sistema lineal, el operador integral que de…ne el sistema puede ser escrito en términos de una integral de tipo convolutivo en la forma, Z g(x) = f (x0 )h(x; x0 ) dx0 : (7.1) x0
Para un sistema lineal e invariante, el operador integral de tipo convolutivo que de…ne el sistema se reduce a la operación de convolución estudiada en la Secc. 3.7.1, esto es, la salida g(x) se puede expresar en términos de la entrada f (x) en la forma Z g(x) = f (x) ¤ h(x) = f (x0 )h(x ¡ x0 ) dx0 : (7.2) x0
Nótese que esta de…nición es aplicable también a señales pertenecientes a P (X0 ) a menos que el sistema venga caracterizado por una respuesta al impulso periódica de perído X0 ; en cuyo caso la convolución será de tipo periódico tal y como se estudió en la Secc. 3.7.2. ² En base a este esquema general, hemos anticipado también que, una vez introducida una primera señal localizadora en el espacio de señales (la delta de Dirac), es natural anticipar el hecho de que aparezcan nuevas señales de carácter localizador sin más que aplicar diferentes operadores F sobre dicha señal de partida. Es decir, h(x) = F [±(x)] será, previsiblemente, una nueva función de carácter localizador (de tipo impulsivo o no), Fig. 7.2. Esto sugiere que deberíamos ampliar nuestros espacios de señales con objetos de este tipo. Estos objetos, tratados en forma general, serán lo que denominaremos distribuciones o funciones generalizadas, que denotaremos por D(x) dado, como veremos, su carácter de funcional.Así, hemos anticipado ya la ampliación de los espacios de señales de partida mediante la inclusión de D(¡1; 1) y P(X0 ); objeto de análisis del presente capítulo. ~ Dicha ampliación dio lugar a los espacios S(¡1; 1) y P~ (X0 ); Secc. 6.1.8.
² La obtención de distribuciones, y por lo tanto, de los espacios D(¡1; 1) y P(X0 ) se puede entender bien si tenemos en mente el concepto de generar nuevos objetos localizadores a partir de aplicar diferentes operadores sobre el objeto inicialmente de…nido, ±(x): De esta forma, las nuevas distribuciones se podrán interpretar como las respuestas al impulso de los diferentes operadores aplicados sobre ±(x); Fig. 7.2. Es más, como probaremos más adelante, y como se puede intuir fácilmente, la distribución ±(x) podrá ser considerada como la respuesta al impulso del operador identidad, F ´ I, operador básico dentro del espacio de operadores lineales e invariantes. Matemáticamente, podríamos expresar estos conceptos de la siguiente forma, I : ±(x) ¡! h(x) = I [±(x)] ´ D(x) = ±(x);
(7.3)
F : ±(x) ¡! h(x) = F [±(x)] ´ D(x): ² Parece lógico pensar entonces que, dado el carácter que cualquier distribución D(x) va a presentar como respuesta al impulso asociada a un determinado operador F lineal, o lineal e invariante, su de…nición como funcional pasa por el concepto de ser la función núcleo del operador integral de tipo convolutivo en (7.1), o la integral de convolución en (7.2), esto es, Z g(x) = F [f(x)] = f (x0 )D(x; x0 ) dx0 ; (7.4) x0
144
c Emilio Gago-Ribas, 2002 °
Figura 7.3. Ejemplo del modelado macroscópico de un problema en el tiempo mediante distribuciones. La señal de entrada será la distribución delta de Dirac de peso V0 , esto es, V0 ±(t); siendo la señal de salida (respuesta al impulso del sistema) la carga en el condensador Q(t) = F [V0 ±(t)] = CV0 ¡(t); descrita en términos de la distribución de Heaviside. El operador que describe el sistema será un operador Rt integral en la forma F = C ¡1 (¢) dt0 :
g(x) = F [f(x)] = f (x) ¤ D(x) =
Z
x0
f (x0 )D(x ¡ x0 ) dx0 :
(7.5)
Sólamente con estas razones de partida sería más que necesario intentar generalizar el concepto de funciones localizadoras. Sin embargo, podemos acudir a ejemplos de problemas físicos típicos para obtener más razones que avalen la ampliación de nuestros espacios de señales. Veamos algunos de estos ejemplos. ~ 1. Ejemplo en S(¡1; 1) siendo x ´ t:
Consideremos un sistema como el mostrado en la Fig. 7.3 constituído por un generador de tensión continua de valor V0 V. que se conecta a un condensador en el instante t = 0: Resulta evidente que existe un proceso transitorio de carga del condensador en instantes muy próximos a t = 0 que hace que no se produzca un salto instantáneo de carga en el mismo desde 0 hasta Q = C ¢ V0 Coulomb; sin embargo, dicho proceso transitorio se produce en instantes de tiempo extremadamente cortos, lo que hace que desde un punto de vista temporal macroscópico resulte muy útil modelar tanto la tensión como la carga por funciones escalón como las mostradas en la Fig. 7.3.
Nótese cómo estas funciones escalón, en principio, no serían tales dado que en el origen, t = 0; no tienen porqué estar de…nidas, y de hecho, sin describir el proceso transitorio, no lo están. Sólamente tendrían de…nido su valor a la derecha e izquierda del origen, de forma similar a la ±(x); mientras que justamente en el origen, lo que describen es un cambio instantáneo (localizado) de la señal, por lo cuál deberíamos considerarlas como un nuevo objeto localizador1 . ~ 2. Ejemplo en S(¡1; 1) siendo x ´ r:
Un ejemplo típico de discontinuidad espacial sería el problema del potencial creado por una carga puntual en el espacio de valor Q (Coulomb) a una distancia r de dicha carga2 , tal y como se muestra en la Fig. 7.4. Es bien sabido que el potencial varía inversamente proporcional a la distancia r; esto es, '(r) / 1=r; tal y como se muestra también en la Fig. 7.4. Este resultado es fruto de asumir toda la carga Q concentrada o localizada en un punto ideal del espacio de tamaño despreciable, aunque resulta evidente que desde el punto de vista físico, dicha carga ocupará una cierta región del espacio por muy pequeña que sea. Así mismo, la respuesta a dicho sistema resulta ser una función no de…nida en el origen (en este caso, además, es singular), es decir, justamente en el punto donde está localizada la fuente; desde este punto de vista, la función representa perfectamente lo que ocurre fuera de la carga; es más, si asumimos que la variable r fuese continua en (¡1; 1); la respuesta a esa carga podría pertenecer al espacio S(¡1; 1) de forma que, justamente en r = 0; tendríamos
1 Como veremos, una función escalón de salto unidad vista como una distribución será justamente la que denominaremos como distribución de Heaviside o distribución escalón. 2 Nótese que este problema es una versión unidimensional de un problema tridimensional donde r denota la coordenada esférica de…nida sólamente en el intervalo [0; 1):
c Emilio Gago-Ribas, 2002 °
145
Figura 7.4. Ejemplo del modelado macroscópico de un problema en el espacio mediante distribuciones. La señal de entrada será la distribución delta de Dirac de peso Q, esto es, Q±(r); siendo la señal de salida el potencial generado por dicha carga puntual '(r) = F [Q±(r)] = K Q=r; expresión que podríamos describir en términos de la distribución de Heaviside en la forma '(r) = [K Q=r] ¡(r). En este caso, '(r) ´ h(r); es decir, la respuesta al impulso del sistema. Nótese la singularidad en el origen de esta función, que da lugar a una discontinuidad in…nita.
una vez más un salto de tipo impulsivo (en este caso particular, en torno a r = 0; el salto sería entre 0 e in…nito, dada la singularidad de la función 1=r). 3. Ejemplo en P~ (X0 ) siendo x ´ t:
Otro ejemplo de interés práctico es considerar un sistema en el tiempo cuya señal de entrada es un tren de pulsos como el mostrado en la Fig. 7.5. Nos interesará en este caso analizar la respuesta del sistema frente a señales de variación instantánea de cero (apagado) a un cierto valor (encendido), y de un cierto valor a cero, de forma que, además, ese proceso se repita cada cierto tiempo T0 de forma inde…nida. Estaríamos hablando de nuevos objetos que describen un número in…nito y numerable de variaciones instantáneas localizadas3 de la señal. En este caso, el sistema estará operando sobre señales del espacio P (T0 ) discontinuas con saltos localizados en ciertos valores de la variable independiente. El resultado será entonces una distribución periódica de período T0 :
Figura 7.5. Ejemplo de un sistema operando sobre el espacio de señales P (T0 ): La señal de entrada f (t) será un tren de pulsos de amplitud unidad que consideraremos como una distribución periódica.
3O
146
…nito, si nos centramos en el análisis de un solo período de la señal.
c Emilio Gago-Ribas, 2002 °
Figura 7.6. Ejemplo práctico de recorte de una señal de buen comportamiento en un cierto intervalo. Desde el punto de vista matemático debería verse como el producto de una función de buen comportamiento f (x) y una distribución D(x); resultando de dicha operación una nueva distribución T (x) = f (x)D(x):
Nótese cómo en todos estos ejemplos, no sólo aparece el concepto ya mencionado de transformación de una señal localizadora que da lugar a nuevas señales localizadoras, sino que intrínsecamente aparecen nuevas señales localizadoras de gran interés práctico. Por otro lado, analizando cuidadosamente este tipo de objetos, podemos observar que tienen en común una propiedad muy importante, y es que en todos ellos aparecen funciones discontinuas. Esto signi…ca que con el análisis de estos objetos, estaremos incorporando de forma implicita a nuestros espacios de señales las señales discontinuas, o lo que es equivalente, las señales de…nidas a tramos. En cualquier caso, como funciones discontinuas que son, estaremos de alguna forma deshaciendo el concepto inicial de señales de buen comportamiento, dado que, por ejemplo, estas funciones, presentan la cualidad de no ser derivables en los puntos de discontinuidad. Nótese que las operaciones diferenciales (d=dx; d2 =dx2 ; etc.) son operaciones básicas desde dos puntos de vista: (i) introducen propiedades adicionales para la descripción del comportamiento de una función de forma local en cada punto (i.e. pendiente de la tangente para la primera derivada), y (ii) constituyen la base de todos aquellos sistemas descritos en términos de ecuaciones diferenciales, de especial importancia en la resolución de problemas prácticos. En este sentido, el incluir distribuciones o funciones generalizadas será también sumamente importante, dado que permitirán dar sentido a este tipo de operaciones para todo el dominio de de…nición de la variable independiente. Matemáticamente, sea f(x) una función discontinua en un punto x0 y de buen comportamiento a ambos lados de dicho punto; en este caso, df (x)=dx estaría de…nida para todo x excepto en x0 : Considerando f (x) como una distribución o función generalizada f(x) ´ F (x), la dF (x)=dx estará de…nida para todo x; incluído x0 : Este aspecto será tambien fundamental como razón para establecer la teoría de distribuciones y representar funciones en términos de ellas. Es importante hacer notar también que, en virtud de los conceptos expuestos anteriormente, las funciones discontinuas vistas como distribuciones, nos permitirán representar funciones a tramos a partir de funciones de buen comportamiento, tal y como se muestra en el ejemplo de la Fig. 7.6, conservando así las propiedades diferenciales para todo el dominio de de…nición de la nueva función, dado que el resultado del producto de una función f(x) de buen comportamiento por una distribución D(x) será, como veremos, una nueva distribución T (x) = f (x)D(x). Citar …nalmente que en las referencias [28]-[33] se puede encontrar una información mucho más detallada, exhaustiva y rigurosa acerca de la teoría algebraica de espacios de funciones generalizadas o espacios de distribuciones.
c Emilio Gago-Ribas, 2002 °
147
7.2
De…nición general de una distribución.
7.2.1
De…nición general.
Una distribución es un funcional lineal sobre un espacio su…cientemente amplio de funciones de buen comportamiento actuando sobre éstas a través del producto escalar de…nido en dicho espacio de funciones, Z 1 D : f(x) ¡! hf (x); D(x)i = f(x)D(x)dx 2 C: ¡1
(7.6)
Si la función f (x) = 1; obtendremos una de…nición propia de la distribución en la forma, Z 1 h1; D(x)i : 1 ¡! D(x) dx 2 R ½ C:
(7.7)
¡1
Nótese que justamente esta propiedad es la que se usó en el caso de ±(x) para su de…nición inicial, (6.4). La de…nición en términos del producto escalar y su traducción en términos de un operador integral de núcleo la distribución D(x) no es arbitraria sino que viene motivada por todo lo expuesto en el Cap. 6 en relación con la distribución delta y la posterior representación de cualquier operador en términos de la respuesta al impulso. 7.2.2
De…nición a partir de una sucesión de funciones.
En base al desarrollo realizado para ±(x) en la Secc. 6.1.1 partiendo de funciones continuas, podremos generalizar este resultado diciendo que cualquier distribución se podrá construir como el límite de una sucesión de funciones de buen comportamiento. Esta de…nición será especialmente útil para visualizar algunas de las propiedades asociadas a las distribuciones. En general, de…niremos dicha sucesión de funciones en la forma, fd¢ (x)g tal que lim d¢ (x) = D(x):
(7.8)
n!0
Veremos algunos ejemplos de este tipo de sucesiones al estudiar las distribuciones que analizaremos en el presente capítulo. 7.2.3
Distribuciones como respuestas al impulso de un operador lineal e invariante.
Teniendo en cuenta los conceptos expuestos anteriormente y recalcándo el hecho de que un sistema (o el operador que lo identi…ca) que sea lineal e invariante, basa su caracterización general en términos de una función localizadora e impulsiva a su entrada (la delta de Dirac) y de la operación de convolución ya de…nida (7.5), podremos generalizar este resultado a cualquier función localizadora de la forma siguiente: ² Consideremos el esquema mostrado en la Fig. 7.2 donde cualquiera de los operadores F que actúen sobre la señal de entrada sean lineales e invariantes. La respuesta al impulso se corresponderá con una nueva distribución de…nida a través de dicho operador en la forma, 8 9 > < F : ±(x) ¡! h(x) = D(x) = F [±(x)] > = =) > > : F : f (x) ¡! g(x) = F [f (x)] ; =) F [f (x)] =
Z
x0
f(x0 )D(x ¡ x0 ) dx0 :
(7.9)
² Esta última expresión se puede generalizar de la siguiente forma, F [f (x)] = f (x) ¤ D(x);
(7.10)
expresión que representará la forma de actuación de D(x) sobre una función f(x) para todo valor de x:
148
c Emilio Gago-Ribas, 2002 °
² Dehaciendo las dos operaciones básicas asociadas a la operación de convolución, esto es: (a) el desplazamiento sobre D(x ¡ x0 ); por ejemplo, calculando la función de salida en el origen, g(0); Z g(0) = f (x)D(¡x) dx; (7.11) x
y (b) la re‡exión D(¡x); podremos relacionar la de…nición de una distribución con la siguiente de…nición: Una distribución D(x) es un funcional real (Seccs. 3.2.1 y 3.3.1) tal que a una función f (x) de buen comportamiento le asocia un número complejo (o real como caso particular), esto es, D : FK ¡! C; D : f(x) ¡!
Z
x
(7.12)
f (x)D(x) dx 2 C;
denotando por el subíndice x de la integral el dominio de de…nición adecuado de la función4 . En virtud de las propiedades que tenga la distribución D(x) bajo análisis, así será la relación entre ambas expresiones. ² De…nición propia: considerando la función f(x) = 1 en (7.12) obtendremos la que denominamos previamente como de…nición propia de la distribución, D : FC ¡! R ½ C; D : 1 ¡!
Z
x
(7.13)
D(x) dx 2 R ½ C:
Esta de…nición hará normalmente referencia a alguna propiedad particular de la distribución; por ejemplo, en el caso en que D(x) ´ ±(x); la de…nición propia vendrá dada por (6.6).
² En las siguientes secciones del presente capítulo analizaremos algunas de las distribuciones asociadas a algunos de los operadores lineales e invariantes más importantes, en particular los relativos a operadores diferenciales e integrales. Los desarrollos allí expuestos nos permitirán visualizar mejor las di…niciones previamente analizadas. En la tabla de la Secc. 7.9 se recogen en forma de resumen los casos que analizaremos en las siguientes secciones. 7.2.4
Distribuciones como respuestas al impulso de un operador lineal.
Si el sistema (o el operador que lo identi…ca) es lineal sólamente, su caracterización vendrá dada en términos de una función localizadora e impulsiva a su entrada (la delta de Dirac) y de la operación de tipo convolutivo de…nida en (7.4). Podremos entonces generalizar este resultado a cualquier función localizadora de la forma siguiente: ² Consideremos el esquema mostrado en la Fig. 7.2 donde cualquiera de los operadores F que actúen sobre la señal de entrada sean lineales. El conjunto de respuestas al impulso fh(x; x0 )g se corresponderá con un conjunto de nuevas distribuciones fD(x; x0 )g de…nidas a través de dicho operador en la forma, 8 9 < F : ±(x ¡ x0 ) ¡! h(x; x0 ) = D(x; x0 ) = F [±(x ¡ x0 )] = =) : F : f(x) ¡! g(x) = F [f(x)] ; =)
F [f (x)] =
Z
x0
f (x0 )D(x; x0 ) dx0 :
(7.14)
² En este caso la de…nición de la distribución no se puede reducir a una única distribución, obteniendo una de…nición para todo el conjunto de distribuciones descritas por D(x; x0 ) a través de la relación en (7.14). 4 Valores
de x donde la función no es nula.
c Emilio Gago-Ribas, 2002 °
149
7.3
La distribución delta de Dirac. Dado que la función impulsiva ±(x) ya se obtuvo en el Cap. 6, realizaremos aquí un análisis de dicha distribución a modo de repaso en base a las de…niciones generales dadas anteriormente.
7.3.1
De…nición a partir de una sucesión de funciones de buen comportamiento.
Consideremos la siguiente sucesión de funciones de buen comportamiento5 , d¢ (x) =
2 2 1 p e¡x =¢ : ¢ ¼
(7.15)
Dicha sucesión de funciones, controlada por el parámetro ¢; se ha de…nido de forma que su integral a lo largo de su intervalo de de…nición (¡1; 1) sea la unidad, esto es, Z 1 d¢ (x) dx = 1: (7.16) ¡1
Nótese que esto se hace pensando en la condición previamente exigida de que la integral de ±(x) a lo largo de todo el eje x es siempre la unidad. La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(a), Secc. 7.9. A medida que ¢ disminuye, las funciones tienden a hacerse cada vez más estrechas y de amplitud cada vez mayor, pero conservado la propiedad de que el área bajo la curva es siempre la unidad. En el límite cuando ¢ ! 0 obtendremos una señal de tipo localizador e impulsivo de…nida ésta como aquella de ancho nulo y de amplitud in…nita tal que su integral es siempre la unidad. Dicha señal de tipo impulsivo será la delta de Dirac, ±(x); ¸ Z 1 2 2 1 p e¡x =¢ ; tal que ±(x) = lim d¢ (x) = lim ±(x) dx = 1: (7.17) ¢!0 ¢!0 ¢ ¼ ¡1 Como siempre, esta visión nos da una idea intuitiva del comportamiento de la distribución. Veamos ahora su de…nición más rigurosa. 7.3.2
De…nición general.
La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 ± : f(x) ¡! hf(x); ±(x)i = f(x)±(x) dx = f (0): ¡1
7.3.3
(7.18)
La distribución delta de Dirac como respuesta al impulso. ² Reproduciendo el esquema de la Secc. 7.2.3, resulta trivial identi…car a ±(x) como la respuesta al impulso del operador identidad; así, 8 9 Z < I : ±(x) ¡! D(x) = I [±(x)] = ±(x) = =) f(x) = f (x0 )±(x ¡ x0 ) dx0 ; (7.19) : I : f(x) ¡! g(x) = I [f(x)] = f(x) ; 0 x f(0) =
Z
f(x)±(¡x) dx;
(7.20)
f (x)±(x) dx:
(7.21)
x
f(0) =
Z
x
5 En este caso consideraremos funciones de tipo Gaussiano aunque se pueden utilizar otro tipo de funciones para su de…nición, algunas de las cuales se estudian en el Ap. C. En el Ap. F.3 se presenta un análisis detallado de las funciones usadas en este capítulo.
150
c Emilio Gago-Ribas, 2002 °
En la última relación se ha utilizado la propiedad de paridad de ±(x) para deshacer la re‡exión. Diremos entonces que ±(x) es un funcional tal que, ± : FC ¡! C; Z 1 ± : f (x) ¡! f (x)±(x) dx = f (0);
(7.22)
¡1
expresión totalmente equivalente a la dada por (7.18). ² Su de…nición propia vendrá dada por, ± : 1 ¡! h1; ±(x)i =
Z
1
±(x) dx = 1:
¡1
(7.23)
² Nótese que estas de…niciones vendrían complementadas con la propiedad trivial, ±(x) = 0 para todo x 6= 0;
(7.24)
mientras que en x = 0 la distribución no está de…nida. 7.3.4
Propiedades básicas.
Describiremos a continuación algunas propiedades importantes de la delta de Dirac. ² La distribución ±(x) es real y par: ±(x ¡ y) = ±(y ¡ x):
(7.25)
Un caso particular de esta propiedad resulta cuando el desplazamiento es nulo, de forma que (7.26)
±(¡x) = ±(x): ² Resulta también trivial demostrar la siguiente propiedad: Z 1 Z 1 f (0) = f(x)±(x) dx = f(x)±(¡x) dx: ¡1
(7.27)
¡1
² Escalado de la variable independiente: sea a un número real no nulo; la siguiente propiedad de escalado se satisface siempre, ±(ax) =
1 ±(x); jaj
(7.28)
La demostración de esta propiedad se puede encontrar en el Ap. D. Nótese que la expresión anterior debe interpretarse como, Z 1 1 1 ±(x)f (x) dx = f(0): (7.29) jaj jaj ¡1 ² Unidades de ±(x): A partir de la de…nición básica puede observarse que las unidades de ±(x) han de ser el inverso de las unidades de la magnitud que represente la variable independiente, por ejemplo, s-1 en el caso del tiempo, o m-1 en el caso de representar una magnitud espacial unidimensional. Nótese que desde un punto de vista físico, la relación f (x)±(x) = f(0)±(x);
(7.30)
(véase la Secc. 7.8) representa una densidad de la magnitud f(x) en el origen respecto de la magnitud representada por la variable independiente. Veamos algunos ejemplos sencillos: 1. La densidad de corriente impulsiva en el tiempo J (Amp/s) correspondiente a una corriente I (Amp) se puede representar de la siguiente forma, Z 1 Z 1 J(t) = I±(t) ¡! J(t) dt = I±(t) dt = I (Amp): (7.31) ¡1
c Emilio Gago-Ribas, 2002 °
¡1
151
2. La representación de una densidad de carga impulsiva en un espacio-1D ½(r) (Coulomb/m) correspondiente a una carga total Q (Coulomb) se puede realizar de la siguiente forma, Z 1 Z 1 ½(r) = Q±(r) ¡! ½(r)dr = Q±(r)dr = Q (Coulomb): (7.32) ¡1
0
Es por esta razón que la distribución delta se usa de forma extensiva para representar densidades de fuentes en modelos matemáticos de diferentes problemas físicos tales como problemas de radiación y propagación de ondas electromagnéticas y acústicas, etc. ² Nótese de la ecuación (7.19) que la convolución de una función f(x) con la distribución ±(x) da lugar al muestreo de la función f(x); f(x) ¤ ±(x) = f (x):
7.4
(7.33)
La primera derivada de la delta de Dirac. Consideremos ahora el esquema mostrado en la Fig. 7.2 cuando el operador F = d=dx: En este caso, la respuesta al impulso será un nuevo objeto matemático que identi…caremos con ± 0 (x):
7.4.1
De…nición a partir de una sucesión de funciones de buen comportamiento.
Para obtener la primera derivada de ±(x) bastará con considerar la sucesión de funciones de buen comportamiento obtenida a partir de derivar la sucesión de funciones para la delta en (7.15), obteniéndose fácilmente la siguiente expresión6 , d0¢ (x) =
2 2 ¡2 p xe¡x =¢ : 3 ¢ ¼
(7.34)
Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función es nula, esto es, Z 1 d0¢ (x) dx = 0: (7.35) ¡1
La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(b), Secc. 7.9. A medida que ¢ disminuye, las funciones tienden a hacerse cada vez más estrechas a izquierda y derecha del origen y, en ambos casos, de amplitud mayor, pero conservado la propiedad de que el área bajo la curva es siempre cero. En el límite cuando ¢ ! 0 obtendremos un nuevo objeto de tipo localizador e impulsivo que puede ser representado, a tenor del comportamiento de la sucesión de funciones en el límite, por dos deltas localizadas en x = 0¨ : Denotaremos a este nuevo objeto impulsivo por ± 0 (x); ¸ Z 1 ¡2 0 0 ¡x2 =¢2 p xe ; tal que ± 0 (x) dx = 0: (7.36) ± (x) = lim d¢ (x) = lim ¢!0 ¢!0 ¢3 ¼ ¡1 En el Ap. C se muestran otras posibles sucesiones de buen comportamiento igualmente válidas para su caracterización. 7.4.2
De…nición general.
La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 ® ± 0 : f (x) ¡! f (x); ± 0 (x) = f (x)± 0 (x) dx = ¡f 0 (0): ¡1
(7.37)
Veremos a continuación la demostración de esta de…nición. 6 En
152
el Ap. F.3 se presenta un análisis detallado de esta función.
c Emilio Gago-Ribas, 2002 °
7.4.3
La primera derivada de la delta de Dirac como respuesta al impulso. ² Como respuesta al impulso, ± 0 (x) identi…ca al es lineal e invariante. Así, 8 d±(x) > > = ± 0 (x) < F : ±(x) ¡! D(x) = dx > > : F : f (x) ¡! g(x) = df(x) = f 0 (x) dx f 0 (0) =
operador primera derivada, F ´ d=dx; operador que 9 > > = > > ;
Z
=) f 0 (x) =
Z
x0
f (x0 )± 0 (x ¡ x0 ) dx0 ;
f (x)± 0 (¡x) dx;
(7.38)
(7.39)
x
¡f 0 (0) =
Z
f(x)± 0 (x) dx:
(7.40)
x
Nótese que en este caso se ha utilizado la propiedad de imparidad de ± 0 (x) para deshacer la re‡exión, propiedad que resulta evidente a partir del comportamiento de la sucesión de funciones en (7.34). La demostración de la última igualdad se podría también analizar sin más que aplicar una integración por partes7 . Diremos entonces que ± 0 (x) es un funcional tal que, ± 0 : FC ¡! C; Z 1 ± 0 : f (x) ¡! f(x)± 0 (x) dx = ¡f 0 (0);
(7.41)
¡1
expresión que se corresponde exactamente con (7.37). ² Su de…nición propia vendrá dada por, ® ± (x) : 1 ¡! 1; ± 0 (x) = 0
Z
1
± 0 (x) dx = 0:
¡1
(7.42)
² La distribución primera derivada de la delta se de…ne entonces como aquella distribución que, aplicada sobre una función de buen comportamiento, nos devuelve el valor de la derivada de dicha función en el origen cambiada de signo. Nótese que estas de…niciones vendrían complementadas con la propiedad trivial, ± 0 (x) = 0 para todo x 6= 0;
(7.43)
mientras que en x = 0 la distribución no está de…nida y presenta un comportamiento impulsivo como el indicado previamente. 7.4.4
Propiedades básicas.
Describiremos a continuación algunas propiedades importantes de la primera derivada de la delta de Dirac. ² La distribución ± 0 (x) es real e impar: ± 0 (x ¡ y) = ¡± 0 (y ¡ x):
(7.44)
Un caso particular de esta propiedad resulta cuando el desplazamiento es nulo, de forma que
7 Consideremos
R
± 0 (¡x) = ¡± 0 (x):
(7.45)
u(x) = f (x) y v(x) = ± 0 (x) dx = ±(x): De esta forma, R1 R1 1 0 0 0 ¡1 f (x)± (x) dx = [f (x)±(x)]¡1 ¡ ¡1 f (x)±(x) dx = ¡f (0):
c Emilio Gago-Ribas, 2002 °
153
² Resulta trivial demostrar la siguiente propiedad a partir de la de…nición en (7.41) y la ecuación (7.45), Z Z f 0 (0) = f(x)± 0 (¡x) dx = ¡ f (x)± 0 (x) dx: (7.46) x
x
² Nótese de la ecuación (7.38) que la convolución de una función f(x) con la distribución ± 0 (x) da lugar al muestreo de la primera derivada de la función f(x); f (x) ¤ ± 0 (x) = f 0 (x):
7.5
(7.47)
La segunda derivada de la delta de Dirac. Consideremos el esquema mostrado en la Fig. 7.2 cuando el operador F = d2 =dx2 : En este caso, la respuesta al impulso será un nuevo objeto matemático que identi…caremos por ± 00 (x):
7.5.1
De…nición a partir de una sucesión de funciones de buen comportamiento.
Para obtener la segunda derivada de ±(x) bastará con considerar la sucesión de funciones de buen comportamiento obtenida a partir derivar nuevamente la primera derivada de la sucesión de funciones para la delta en (7.34), obteniéndose fácilmente la siguiente expresión8 , ¸ 2 2 2 x2 00 d¢ (x) = 3 p 2 2 ¡ 1 e¡x =¢ : (7.48) ¢ ¼ ¢ Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función será nula como en el caso de la primera derivada, esto es, Z 1 d00¢ (x) dx = 0: (7.49) ¡1
La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(c), Secc. 7.9. A medida que ¢ disminuye, las funciones tienden a hacerse cada vez más estrechas a la izquierda, a la derecha y en el mismo origen y, en ambos casos, de amplitud mayor, pero conservado la propiedad de que el área bajo la curva sea siempre cero. En el límite cuando ¢ ! 0 obtendremos un nuevo objeto de tipo localizador e impulsivo que ser representado, a tenor del comportamiento de la sucesión de funciones en el límite, por dos localizadas en x = 0¨ y otra delta de amplitud doble y signo negativo en x = 0: Denotaremos nuevo objeto impulsivo por ± 00 (x); ¸ ¸ x2 2 ¡x2 =¢2 p ± 00 (x) = lim d00¢ (x) = lim 2 ¡ 1 e ; ¢!0 ¢!0 ¢3 ¼ ¢2 Z 1 tal que ± 00 (x) dx = 0:
puede deltas a este
(7.50)
¡1
En el Ap. C se muestran otras posibles sucesiones de buen comportamiento igualmente válidas. 7.5.2
De…nición general.
La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 ® ± 00 : f (x) ¡! f (x); ± 00 (x) = f(x)± 00 (x) dx = f 00 (0): ¡1
(7.51)
Veremos a continuación la demostración de esta de…nición. 8 En
154
el Ap. F.3 se presenta un análisis detallado de esta función.
c Emilio Gago-Ribas, 2002 °
7.5.3
La segunda derivada de la delta de Dirac como respuesta al impulso. ² Como respuesta al impulso, ± 00 (x) identi…ca al operador segunda derivada, F ´ d2 =dx2 ; operador que es lineal e invariante. Así, 8 9 d2 ±(x) > > 00 > Z = ± (x) > < F : ±(x) ¡! D(x) = = dx2 00 =) f (x) = f(x0 )± 00 (x ¡ x0 ) dx0 ; (7.52) 2 > > 0 d f (x) x > > 00 : F : f (x) ¡! g(x) = ; = f (x) dx2 Z f 00 (0) = f (x)± 00 (¡x) dx; (7.53) x
f 00 (0) =
Z
f (x)± 00 (x) dx:
(7.54)
x
Nótese que en este caso se ha utilizado la propiedad de paridad de ± 00 (x) para deshacer la re‡exión. Esta propiedad es evidente sin más que recurrir a su representación en términos de la sucesión de funciones previamente analizada. Diremos entonces que ± 00 (x) es un funcional tal que, ± 00 : f (x) ¡! C; Z 1 ± 00 : f(x) ¡! f (x)± 00 (x) dx = f 00 (0);
(7.55)
¡1
expresión que se corresponde exactamente con (7.51). ² Su de…nición propia vendrá dada por,
® ± (x) : 1 ¡! 1; ± (x) = 00
-
00
Z
1
± 00 (x) dx = 0:
¡1
(7.56)
² La distribución delta segunda se de…ne entonces como aquella distribución que, aplicada sobre una función de buen comportamiento, nos devuelve el valor de la segunda derivada de dicha función en el origen. Nótese que, una vez más, estas de…niciones vendrían complementadas con la de…nición trivial, ± 00 (x) = 0 para todo x 6= 0;
(7.57)
asumiendo con dicha de…nición que en x = 0 la distribución no está de…nida y tiene el comportamiento indicado previamente. 7.5.4
Propiedades básicas.
Describiremos a continuación algunas propiedades importantes asociadas a la segunda derivada de la delta de Dirac. ² La distribución ± 00 (x) es real y par:
± 00 (x ¡ y) = ± 00 (y ¡ x):
(7.58)
± 00 (¡x) = ± 00 (x):
(7.59)
Un caso particular de esta propiedad resulta cuando el desplazamiento es nulo, de forma que
² Resulta trivial demostrar la siguiente propiedad en virtud de la de…nición en (7.55) junto con la propiedad de paridad, Z Z 00 00 f (0) = f(x)± (x) dx = f (x)± 00 (¡x) dx: (7.60) x
x
² Nótese de la ecuación (7.52) que la convolución de una función f(x) con la distribución ± 00 (x) da lugar al muestreo de la segunda derivada de la función f (x); f(x) ¤ ± 00 (x) = f 00 (x): c Emilio Gago-Ribas, 2002 °
(7.61)
155
7.6
La distribución de Heaviside o escalón unidad. La función de Heaviside o distribución escalón unidad se de…ne como, 9 8 < 0 si x < 0 = : ¡(x) = : 1 si x > 0 ;
(7.62)
Nótese en primer lugar que dicha función es discontinua y no está de…nida en x = 0; de forma que, por ejemplo, vista como función usual, tanto la primera derivada como las derivadas sucesivas no están de…nidas en el origen. Esto hace que esta función deba de ser analizada también como una distribución, dado su caracter localizador en el origen (salto de 0 a 1 en un ¢x ! 0): 7.6.1
De…nición a partir de una sucesión de funciones de buen comportamiento.
Para obtener la distribución de Heaviside ¡(x) bastará con considerar alguna sucesión de funciones de buen comportamiento que, en el límite, represente el comportamiento descrito en (7.62), por ejemplo, ³x´ 1 1 d¢ (x) = + tan¡1 : (7.63) 2 ¼ ¢ Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función será divergente, esto es, Z 1 d¢ (x) dx ! 1: (7.64) ¡1
La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(d), Secc. 7.9. A medida que ¢ disminuye, las funciones tienden al valor nulo para valores negativos de la variable independiente, y al valor unidad para valores positivos. En el límite cuando ¢ ! 0 obtendremos una nueva señal de tipo localizador que coincide en comportamiento con la función de Heaviside, con la excepción de que, en el origen, la sucesión de funciones tiende al valor de 1=2; 9 8 > ¸ 0 si x < 0 > = < ´ ³ 1 1 x : (7.65) ¡(x) = lim d¢ (x) = lim + tan¡1 =) ¡(x) = 1=2 si x = 0 > ¢!0 ¢!0 2 > ¼ ¢ ; : 1 si x > 0 Nótese que esta nueva de…nición no tiene mayor trascendencia desde el punto de vista algebraico dado que la de…nición de 1=2 en el origen no modi…ca en nada la métrica del espacio de señales, de…nida en términos integrales. En el Ap. C se muestran otras posibles sucesiones de buen comportamiento igualmente válidas.
7.6.2
De…nición general.
La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 R1 ¡ : f (x) ¡! hf(x); ¡(x)i = f(x)¡(x) dx = 0 f(x) dx: ¡1
(7.66)
Veremos a continuación la demostración de esta de…nición. Nótese que en este caso la de…nición particular no identi…ca ninguna propiedad de la distribución, Z 1 h1; ¡(x)i : 1 ¡! ¡(x) dx ! 1: (7.67) ¡1
7.6.3
La distribución de Heaviside como respuesta al impulso. Rx ² Como respuesta al impulso, ¡(x) identi…ca al operador integral F ´ ¡1 dy; operador que es lineal e invariante. Así, 8 9 Z x > > > > F : ±(x) ¡! D(x) = ±(y) dy = ¡(x) > > Z x Z < = ¡1 f (y) dy = f(x0 )¡(x ¡ x0 ) dx0 ; (7.68) =) Z x > > 0 ¡1 x > > > > f(y) dy ; : F : f (x) ¡! g(x) = ¡1
156
c Emilio Gago-Ribas, 2002 °
Z
0
f(y) dy =
¡1
Z
Z
f(x)¡(¡x) dx;
(7.69)
x
f (x)¡(x) dx = x
Z
1
f (x) dx:
(7.70)
0
Nótese como, en este caso, la distribución ¡(x) no es par ni impar, de forma que la re‡exión se deshace en base a la de…nición obtenida a partir de su representación en términos de la sucesión de funciones previamente analizada. Diremos entonces que ¡(x) es un funcional tal que,
¡ : f(x) ¡!
Z
¡ : f (x) ¡! C;
1
f (x)¡(x) dx =
0
Z
1
(7.71) f (x) dx;
0
expresión que se corresponde exactamente con (7.66). ² La distribución de Heaviside se de…ne entonces como aquella distribución que, aplicada sobre una función de buen comportamiento, nos devuelve el valor de la integral desde 0 a in…nito de dicha función. Nótese que, en este caso, el hecho de que la de…nición propia sea divergente no plantea ningún problema dado que en este caso, el comportamiento localizador no es impulsivo sino …nito y, por lo tanto, perfectamente de…nido entre cero y uno, a diferencia de las distribuciones ±(x); ± 0 (x) y ± 00 (x); que en todos los casos son señales impulsivas divergentes en torno al origen, en cuyo caso sí que la de…nición propia es necesaria. 7.6.4
Propiedades básicas.
Describiremos a continuación algunas propiedades importantes de la distribución de Heaviside: ² Resulta trivial comprobar la siguiente propiedad, Z Z f (x)¡(¡x) dx =
0
f(x) dx:
(7.72)
¡1
x
² Esta distribución se puede representar y expresar en términos de la distribución delta de la forma siguiente (nótese que ±(x) tampoco está de…nida en x = 0), Z x ¡(x) = ±(y) dy: (7.73) ¡1
A partir de ella se puede inferir rápidamente la siguiente propiedad importante, ±(x) =
d¡(x) : dx
(7.74)
La interpretación grá…ca de esta última relación se puede ver grá…camente comparando las Figs. 7.7(a) y 7.7(d). ² En virtud de la propiedad anterior es importante hacer notar cómo a través de la de…nición de las distribuciones es posible extender la operación derivada a todo el rango de la variable independiente para funciones sobre las que inicialmente dicha operación no estaba de…nida sobre todos sus puntos. En particular, para cualquier función que tenga una discontinuidad …nita en un cierto punto x0 ; su derivada en dicho punto será una delta sin más que escribir inicialmente dicha discontinuidad en términos de ¡(x): ² La propiedad descrita en (7.74) es claramente extensible a las sucesiones de funciones asociadas a cada una de las distribuciones; por ejemplo, si consideramos la sucesión d¢ (x) en (7.63) de…nida para obtener ¡(x); su primera derivada, d0¢ (x) deberá darnos una sucesión válida para ±(x): Así, d¢ (x) =
³x´ 1 1 ¢=¼ + tan¡1 ¡! d0¢ (x) = 2 ; 2 ¼ ¢ x + ¢2
(7.75)
obteniéndose una sucesión perfectamente válida para de…nir ±(x); Ap. C. c Emilio Gago-Ribas, 2002 °
157
² Desde el punto de vista de describir (7.74) y (7.73) en términos de los operadores asociados a cada distribución, es posible obtener la siguiente propiedad, 8 9 ¸ d > > > > > < ¡(x) ¡! F = dx ¡! ±(x) > = =) ¡(x) ¤ ± 0 (x) = ±(x); (7.76) ¸ > > d > > 0 > > ¡! ± (x) ; : ±(x) ¡! F = dx o lo que es lo mismo, en base a la propiedad (6.34), diremos que el operador derivada es el inverso del operador integral entre ¡1 y x; o viceversa, Z x d F= =) F¡1 = dy: (7.77) dx ¡1
² Nótese de la ecuación (7.68) que la convolución de una función f(x) con la distribución ¡(x) da lugar a la integral de f(x) entre ¡1 y x para todo valor de x; Z x f(x) ¤ ¡(x) = f(y) dy: (7.78) ¡1
7.7
La distribución signo. La función signo se de…ne como, sgn(x) =
8 9 < ¡1 si x < 0 = :
1 si x > 0 ;
(7.79)
:
Esta función se puede relacionar directamente con la función de Heaviside analizada previamente. Para ello, sólamente es necesario analizar el valor medio de ¡(x) que resulta ser 1=2; podremos escribir entonces, 1 ¡1 (x) = ¡(x) ¡ ; 2 directamente relacionada con la función signo, ¡1 (x) =
(7.80)
1 sgn(x): 2
(7.81)
Una vez más, la distribución sgn(x) es discontinua y no está de…nida en x = 0; de forma que analizada como función usual, tanto la primera derivada como sus derivadas sucesivas no están de…nidas en el origen. Esto hace que esta función deba de ser también analizada como una distribución, dado su caracter localizador en el origen (salto de ¡1 a 1 en un ¢x ! 0): 7.7.1
De…nición a partir de una sucesión de funciones de buen comportamiento.
Resulta evidente que la distribución de funciones de buen comportamiento para de…nir ¡1 (x) será la misma que para la distribución de Heaviside en (7.63) sin más que restarle su valor medio, y multiplicando por dos para el caso de la distribución sgn(x); ³x´ 1 ¡! [¢ ! 0] ¡! ¡1 (x); (7.82) d¢ (x) = tan¡1 ¼ ¢
³x´ 2 tan¡1 ¡! [¢ ! 0] ¡! sgn(x): (7.83) ¼ ¢ Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función será nula, esto es, Z 1 d¢ (x) dx = 0: (7.84) d¢ (x) =
¡1
La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7. Su análisis será similar al realizado para la distribución de Heaviside. 158
c Emilio Gago-Ribas, 2002 °
7.7.2
De…nición general.
La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma, Z 1 Z 1 Z 0 sgn : f(x) ¡! hf (x); sgn(x)i = f (x) sgn(x) dx = f (x) dx ¡ f (x) dx: ¡1
¡1
0
(7.85)
Veremos a continuación la demostración de esta de…nición. 7.7.3
La distribución signo como respuesta al impulso. Rx R1 ² Como respuesta al impulso, sgn(x) identi…ca al operador integral F ´ ¡1 dy ¡ x dy; operador que es lineal e invariante. Así, 8 9 Z x Z 1 > > > > F : ±(x) ¡! D(x) = ±(y) dy ¡ ±(y) dy = sgn(x) > > < = ¡1 x =) Z x Z 1 > > > > > > f (y) dy ¡ f (y) dy : F : f (x) ¡! g(x) = ; ¡1 x Z x Z 1 Z =) f (y) dy ¡ f (y) dy = f (x0 ) sgn(x ¡ x0 ) dx0 ; (7.86) ¡1
Z
0
¡1
Z
x0
x
f (y) dy ¡
Z
1
f (y) dy =
0
f (x) sgn(x) dx =
x
Z
f (x) sgn(¡x) dx;
(7.87)
x
Z
0
1
f (x) dx ¡
Z
0
f (x) dx:
(7.88)
¡1
Diremos entonces que sgn(x) es un funcional tal que,
sgn : f (x) ¡!
Z
1 0
sgn : FC ¡! C; Z 1 Z f(x) sgn(x) dx = f(x) dx ¡ 0
(7.89)
0
f(x) dx; ¡1
expresión que se corresponde exactamente con (7.85). ² Su de…nición propia vendrá dada por, sgn : 1 ¡! h1; sgn(x)i =
7.8
Z
1
sgn(x) dx = 0:
¡1
(7.90)
Propiedades importantes de las distribuciones. Describiremos a continuación algunas propiedades especialmente importantes a la hora de operar con funciones y distribuciones. La demostración de estas propiedades se puede encontrar en el Ap. D.
7.8.1
Producto por una función.
En general, el producto de una función f (x) por una distribución D(x) da lugar a una nueva distribución, T (x); T (x) = f (x)D(x):
(7.91)
La nueva distribución T (x) actua sobre cualquier función g(x) de buen comportamiento en la forma esperada, Z 1 T : f (x) ! hg(x); T (x)i = g(x) [f (x)D(x)] dx: (7.92) ¡1
La de…nición sólo tiene sentido si f (x) es de buen comportamiento. En la siguiente tabla see recogen algunos casos particulares de especial interés. c Emilio Gago-Ribas, 2002 °
159
±(x)
f(x)±(x ¡ x0 ) = f (x0 )±(x ¡ x0 ) f(x)±(x) = f (0)±(x) x±(x) = 0±(x)
± 0 (x)
f(x)± 0 (x ¡ x0 ) = ¡f 0 (x0 )±(x ¡ x0 ) f(x)± 0 (x) = ¡f 0 (0)±(x) x± 0 (x) = ¡±(x)
± 00 (x)
f(x)± 00 (x ¡ x0 ) = f 00 (x0 )±(x ¡ x0 ) f(x)± 00 (x) = f 00 (0)±(x) x2 ± 00 (x) = 2±(x)
¡(x)
f(x)¡(x ¡ x0 ) = F (x ¡ x0 )9 f(x)¡(x) = F (x) f(x)¡(¡x) = F1 (x)10
Producto de algunas distribuciones por funciones de buen comportamiento.
7.8.2
Convolución de una función y una distribución.
La convolución de una función f(x) con una distribución D(x) será una nueva función g(x); g(x) = f (x) ¤ D(x):
(7.95)
Nótese que esta propiedad de…ne directamente la salida g(x) de un sistema lineal e invariante cuya respuesta al impulso sea D(x) frente a una entrada f(x) arbitraria. En la siguiente tabla se recogen algunos casos particulares. ±(x)
f(x) ¤ ±(x ¡ x0 ) = f(x ¡ x0 ) f(x) ¤ ±(x) = f(x)
± 0 (x)
f(x) ¤ ± 0 (x ¡ x0 ) = f 0 (x ¡ x0 ) f(x) ¤ ± 0 (x) = f 0 (x)
± 00 (x)
¡(x)
f(x) ¤ ± 00 (x ¡ x0 ) = f 00 (x ¡ x0 ) f(x) ¤ ± 00 (x) = f 00 (x) R x¡x f(x) ¤ ¡(x ¡ x0 ) = ¡1 0 f(y) dy Rx f(x) ¤ ¡(x) = ¡1 f(y) dy
Convolución de algunas distribuciones con funciones de buen comportamiento. 9 La
distribución F (x ¡ x0 ) se puede describir como, F (x ¡ x0 ) =
10 La
distribución F1 (x) se puede describir como, F1 (x) =
160
8 < f (x) :
0
8 < f (x) :
0
si
x > x0
si
x < x0
si
x<0
si
x>0
(7.93)
(7.94)
c Emilio Gago-Ribas, 2002 °
Las propiedades descritas en la tabla anterior se pueden describir de la siguiente forma: ² La salida a un sistema caracterizado por el operador identidad I será la misma señal. Su representación integral vendrá expresada en términos de la respuesta al impulso ±(x); I : f (x) ! I [f (x)] = f (x) ¤ ±(x) = f (x):
(7.96)
El objeto ±(x) permite, como ya hemos mencionado anteriormente, representar una señal f (x) de buen comportamiento seleccionando cada uno de sus valores de forma continua mediante el conjunto f±(x ¡ x0 )g para todo valor de x0 :
² La salida a un sistema caracterizado por el operador primera derivada F = d=dx será la primera derivada de la señal de entrada f (x): Su representación integral vendrá expresada en términos de la respuesta al impulso ± 0 (x); F´
d : f (x) ! F [f (x)] = f(x) ¤ ± 0 (x) = f 0 (x): dx
(7.97)
El objeto ± 0 (x) permite representar la señal f 0 (x) = df (x)=dx de buen seleccionando © comportamiento ª cada uno de sus valores de forma continua mediante el conjunto ± 0 (x ¡ x0 ) para todo valor de x0 :
² La salida a un sistema caracterizado por el operador segunda derivada F = d2 =dx2 será la segunda derivada de la señal de entrada f (x): Su representación integral vendrá expresada en términos de la respuesta al impulso ± 00 (x); F´
d2 : f (x) ! F [f(x)] = f (x) ¤ ± 00 (x) = f 00 (x): dx2
(7.98)
El objeto ± 00 (x) permite, por tanto, representar la señal f 00 (x) = d2 f(x)=dx2 de buen © comportamienª to seleccionando cada uno de sus valores de forma continua mediante el conjunto ± 00 (x ¡ x0 ) para todo valor de x0 : Rx ² La salida a un sistema caracterizado por el operador integral F = ¡1 dy será justamente la integral de la señal de entrada desde ¡1 hasta x; para todo valor de x: Su representación integral vendrá expresada en términos de la respuesta al impulso ¡(x); Z x Z x F´ dy : f(x) ! F [f (x)] = f(x) ¤ ¡(x) = f (y) dy: (7.99) ¡1
Rx
¡1
El objeto ¡(x) permite así representar la señal ¡1 f (y) dy; de buen comportamiento, seleccionando cada uno de sus valores en x de forma continua mediante el conjunto f¡(x ¡ x0 )g descrito por la variable x0 : Este tipo de interpretación será de gran importancia a la hora de abordar y generalizar el problema inverso de un sistema caracterizado en su forma directa por operadores diferenciales, conformando la base de la teoría de funciones de Green tan importante en la representación y resolución de problemas físicos. 7.8.3
Convolución de dos distribuciones.
La convolución de dos distribuciones D(x) y T (x) será una nueva distribución H(x); H(x) = D(x) ¤ T (x):
(7.100)
En la siguiente tabla se recogen algunos casos particulares. ± 0 (x) ¤ ¡(x) = ±(x) ±(x) ¤ ¡(x) = ¡(x) ±(x) ¤ ± 0 (x) = ± 0 (x) Convolución de algunas distribuciones.
c Emilio Gago-Ribas, 2002 °
161
7.9
Operadores, distribuciones y sucesiones de funciones. Operador: F
Z
Def. Propia:
d2 dx2
±(x)
± 0 (x)
± 00 (x)
f (0)
¡f 0 (0)
f 00 (0)
0
0
I
Distribución: D(x) De…nición:
d dx
1
f(x)D(x) dx
¡1 Z 1
D(x) dx
1
Z
dy ¡1
¡(x) Z
1
d∆(x)
x ¡1
dy ¡
f(x) dx
1
dy
x
¡1
0
1
2,0
Z
sgn(x) Z 1 Z 0 f (x) dx ¡ f (x) dx
0
¡1
1,5
Z
x
0
δ(x)
1,5 1,0 1,0 0,5 0,5
0,0 -4
2,0
-3
-2
-1
0
1
2
3
4
0,0 -4
x
d∆(x)
1,0
-3
-2
-1
0
1
2
3
4
1
2
3
4
1
2
3
4
x
δ'(x)
1,5 1,0
0,5
0,5 0,0
0,0
-0,5 -1,0
-0,5
-1,5 -2,0 -4
6
-3
-2
-1
0
1
2
3
4
-1,0 -4
x
d∆(x)
1,0
-3
-2
-1
0
x
δ''(x)
4 2
0,5
0 -2
0,0
-4 -6
-0,5
-8 -10 -4
1,5
-3
-2
-1
0
1
2
3
4
-1,0 -4
x
d∆(x)
1,5
1,0
1,0
0,5
0,5
0,0 -10
1,5
-8
-6
-4
-2
0
2
4
6
8
10
d∆(x)
1,5
1,0
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0
-1,0
-1,5 -10
-8
-6
-4
-2
0
x
2
4
6
8
10
-2
-1
-8
-6
-4
-2
-8
0
2
4
6
8
10
2
4
6
8
10
x
sgn(x)
-1,5 -10
0
x
Γ(x)
0,0 -10
x
-3
-6
-4
-2
0
x
Figura 7.7. Ejemplos de sucesiones de funciones de buen comportamiento d¢ (x) asociadas a la de…nición de las distribuciones ±(x); ± 0 (x); ± 00 (x); ¡(x) y sgn(x):
162
c Emilio Gago-Ribas, 2002 °
8.
Desarrollos en Serie de Fourier
8.1
Introducción. Comenzaremos en este capítulo por analizar el caso más sencillo en relación con los dominios transformados. En este caso, el espacio de señales de partida será1 P~ (X0 ) El conjunto de funciones base bajo estudio serán en este caso exponenciales complejas de pulsación múltiplo de la fundamental asociada al período del espacio, » 0 = 2¼=X0 : A partir del análisis de este conjunto de funciones base veremos cómo el espacio P~ (X0 ) es de dimensión in…nita y numerable, dando lugar a una representación en términos de una combinación lineal in…nita como la descrita en (4.14). Recordaremos a continuación el álgebra (producto escalar, norma y distancia) de…nida sobre este espacio de señales (Secc. 2.6.1), dado que determinará la métrica a utilizar a lo largo de todo el capítulo:
hf0 (x); g0 (x)i =
kf0 (x)k = hf0 (x); f0 (x)i
Z
hX0 i
1=2
"Z
=
2
hX0 i
d(f0 (x); g0 (x)) = kf0 (x) ¡ g0 (x)k =
8.2
f0 (x)g0¤ (x) dx;
"Z
(8.1) #1=2
jf0 (x)j dx
(8.2)
;
#1=2
2
hX0 i
jf0 (x) ¡ g0 (x)j dx
:
(8.3)
Exponenciales imaginarias como funciones base. Seguiremos a continuación todas las consideraciones realizadas en los Caps. 2 y 4 para un caso particular de funciones base. Seguiremos así mismo la notación introducida entonces.
8.2.1
Funciones de partida.
Consideremos una señal periódica arbitraria f0 (x) 2 P~ (X0 ); un ejemplo de una señal de este espacio podría ser como la mostrada en la Fig.8.1. 1,25
f0 (x)
1,00
0,75
0,50
0,25
0,00 -1,0
-0,5
0,0
0,5
1,0
x / X0
1,5
2,0
2,5
3,0
Figura 8.1. Ejemplo de una señal periódica arbitraria perteneciente al espacio de señales P~ (X0 ): 1 Recordamos
que el nuevo espacio de señales P~ (X0 ) obtenido a partir de P (X0 ) será el espacio que contiene a las señales complejas de variable real, que son continuas y/o discontinuas en un número …nito o in…nito pero numerable de discontinuidades, tratadas éstas como distribuciones, y que son periódicas de período X0 :
163
1,5
Re{ϕ(x;m)} m=1
m=0
m=4
1,0 0,5 0,0 -0,5 -1,0 -1,5 0
x /X0
1
Im{ϕ(x;m)} 1,5
2
m=0
3
4
m=4
m=1
1,0 0,5 0,0 -0,5 -1,0 -1,5 0
x /X0
1
2
3
4
Figura 8.2. Algunos ejemplos de funciones pertenecientes al conjunto f'(x; m)g = © jm» x ª 0 e de período X0 =m, y pulsación » 0 = m2¼=X0 .
Un subconjunto de P~ (X0 ) lo constituyen las exponenciales imaginarias periódicas de período X0 =m o pulsación » 0 = m2¼=X0 analizadas a partir de las exponenciales descritas en la Secc. 5.2.2. Resulta evidente que una señal de período X0 =m; también tiene como período a X0 ; y por lo tanto, pertenece al espacio P~ (X0 ): El conjunto total de dichas señales f'(x; m)g que resulta ser in…nito y numerable, se puede describir de la forma siguiente, ¾ ½ 2¼ © ª x jm f'(x; m)g = ejm»0 x = e X0 = fcos(m» 0 x) + j sin(m» 0 x)g : (8.4)
Recordamos que para un cierto armónico m; la pulsación será m» 0 y el período mínimo de la señal será X0 =m: Así mismo, si m = 0; '(x; 0) = 1+j0; es decir, la función constante unidad2 vista como una señal periódica de período X0 : En la Fig. 8.2 se muestran algunas de estos armónicos a modo de ejemplo. Consideremos ahora una combinación lineal de dichas funciones para el caso más general de coe…cientes complejos,
= :::::::::
1 X
a(m)'(x; m) =
m=¡1 + a¡2 e¡j2»0 x
1 X
a(m)ejm»0 x =
(8.5)
m=¡1
+ a¡1 e¡j»0 x + a0 + a1 ej»0 x + a2 ej2»0 x + :::::::::
Nótese que dicha ecuación contiene un término constante a0 que aportará un nivel de continua complejo a la señal total, dos términos en §» 0 que dan como resultado una señal periódica de período X0 ; dos términos en §2» 0 que dan como resultado una señal periódica de período X0 =2; y así sucesivamente. Destacar el hecho de que las pulsaciones negativas están asociadas con el conjugado de la función, esto es, parte real cosenoidal y parte real senoidal cambiada de signo. Resulta evidente también que el resultado …nal de la suma completa será una señal arbitraria pero de pulsación » 0 o período X0 : Es decir, que la combinación lineal de las in…nitas funciones '(x; m) dará como resultado otra señal periódica f0 (x) de período X0 ; f0 (x) =
1 X
m=¡1
a(m)ejm»0 x 2 P~ (X0 ):
(8.6)
2 En general, cualquier funcion constante pertenecerá a cualquier espacio de señales arbitrarias o de señales periódicas de período arbitrario, exceptuando el caso de período nulo. Nótese que tanto la función constante unidad como la función constante nula son los elementos neutros de cualquier espacio de señales respecto al producto y a la suma, respectivamente.
164
c Emilio Gago-Ribas, 2002 °
La función f0 (x) resultante dependerá, sin duda, del valor que tomen cada uno de los coe…cientes fa(m)g de la serie. Nótese que dichos coe…cientes modi…can las señales coseno y seno del armónico m-ésimo tanto en módulo como en fase, Refa(m)'(x; m)g = ja(m)j cos(mW0 x + 'a(m) );
(8.7)
Imfa(m)'(x; m)g = ja(m)j sin(mW0 x + 'a(m) );
(8.8)
es decir, desplazando las señales sinusoidales un valor igual a, x0 =
'a(m) 'a(m) 'a(m) X0 = = X0m ; X0m = : m» 0 » 0m 2¼ m
(8.9)
Visto al revés, si una combinación lineal de exponenciales complejas periódicas es capaz de generar funciones periódicas arbitrarias, podríamos pensar en representar cualquier elemento del espacio f0 (x) 2 P~ (X0 ) como una combinación lineal de dichas exponenciales, lo que signi…caría que ese conjunto de funciones son una base del espacio vectorial de partida. Para analizar este aspecto, seguiremos el proceso general expuesto en la Secc. 4.3. 8.2.2
Ortogonalidad del conjunto de funciones.
Comprobaremos en primer lugar que el conjunto de funciones de…nido en (8.4) es un conjunto ortogonal. Para ello, no tendremos más que considerar el producto escalar de…nido sobre el espacio de funciones, (8.1), aplicado a dos funciones cualesquiera '(x; m) y '(x; n) del conjunto. Dicho producto escalar podrá desarrollarse fácilmente de la siguiente forma3 , Z Z h'(x; m); '(x; n)i = '(x; m)'¤ (x; n) dx = ej(m¡n)»0 x dx = hX0 i hX0 i 8 ³ ´ < 0 si m 6= n 1 = ej(m¡n)2¼ ¡ 1 = : (8.10) : X si m = n j(m ¡ n)» 0 0
De este resultado se deduce rápidamente que:
² El conjunto de funciones f'(x; m)g es ortogonal por ser el producto escalar nulo para cualesquiera dos funciones diferentes. ² La norma de todas las funciones es la misma e igual a p k'(x; m)k = X0 :
(8.11)
² Para trabajar con un conjunto ortonormal, deberíamos de…nir el conjunto de funciones de la siguiente forma, 1 '(x; m) = p ejm»0 x : X0
8.2.3
(8.12)
Coe…cientes del desarrollo en serie de Fourier.
El siguiente paso consistiría en comprobar si es posible escribir los coe…cientes de la combinación lineal en términos del producto escalar, esto es, en términos de las proyecciones del elemento original sobre cada uno de los elementos de la base. Asumiendo entonces que un elemento arbitrario f0 (x) del espacio se puede escribir en la forma (8.6), y multiplicando ambos miembros de la ecuación por el conjugado de un elemento arbitrario, '¤ (x; n) = e¡jn»0 x ; de la supuesta base, f0 (x)e¡jn»0 x =
1 X
a(m)ej(m¡n)»0 x :
(8.13)
m=¡1 3 La expresión que sigue se ha simpli…cado para englobar las dos situaciones que se producen. Nótese que, en realidad, cuando m = n; el resultado de la integral no está R de…nido. El valor de X0 en este caso se obtiene sin más que volver a la integral inicial e imponer m = n; de forma que hX i dx = X0 : 0
c Emilio Gago-Ribas, 2002 °
165
Integrando ambos miembros en un período (por ejemplo, el fundamental [0; X0 ]); Z
X0
f0 (x)e¡jn»0 x dx =
0
1 X
a(m)
Z
X0
ej(m¡n)»0 x dx:
(8.14)
0
m=¡1
Nótese que la integral en el término de la derecha no es más que el producto escalar de…nido sobre el espacio vectorial de funciones periódicas de período X0 ; Z
X0
f0 (x)e¡jn»0 x dx =
0
1 X
m=¡1
(8.15)
a(m) h'(x; m); '(x; n)i ;
de forma que todos los sumandos del sumatorio serán nulos exceptuando el término especí…co m = n; es decir, Z
X0
f0 (x)e¡jm»0 x dx = a(m)X0 :
(8.16)
0
Despejando a(m) de la última expresión obtendremos el valor de los coe…cientes del desarrollo en serie de Fourier de la señal f0 (x); a(m) =
1 X0
Z
X0
f0 (x)e¡jm»0 x dx =
0
1 hf0 (x); '(x; m)i ; X0
(8.17)
expresión que queda escrita de forma general en términos del producto escalar (compárese con la expresión general en 4.16). 8.2.4
De…nición del desarrollo en serie de Fourier.
Al par de ecuaciones (8.6)-(8.17) se le denomina desarrollo en serie de Fourier de la señal periódica f0 (x); f0 (x) =
1 X
2¼ ; X0
(8.18)
f0 (x)e¡jm»0 x dx:
(8.19)
a(m)'(x; m); '(x; m) = ejm»0 x y » 0 =
m=¡1
1 1 a(m) = hf0 (x); '(x; m)i = X0 X0
Z
hX0 i
La primera ecuación se suele denominar ecuación de análisis, siendo la segunda la ecuación de síntesis. Queda en cualquier caso pendiente de demostrar la validez o no de dichos desarrollos para cualquier señal del espacio, esto es, la demostración de que dicho desarrollo es la mejor aproximación posible a f0 (x) en términos de la métrica de…nida en el espacio, así como la completitud o no de la base bajo estudio. Utilizando la notación algebraica introducida en el Cap. 4, ecuaciones (4.18) y (4.19), podremos escribir, 8 DSF¡1 : D(¡1; 1) ¡! P~ (X0 ) > > > > < f0 (x) = DSF¡1 [a(m)] > > 1 P > > : DSF¡1 (¢) = (¢)'(x; m) m=¡1
9 > > > > =
8 > DSF : P~ (X0 ) ¡! D(¡1; 1) > > < y a(m) = DSF [f0 (x)] > > > > > > > : ; DSF(¢) = X10 h(¢); '(x; m)i
© ª f0 (x); f'(x; m)g = ejm»0 x 2 P~ (X0 ) y a(m) 2 D(¡1; 1):
9 > > > = > > > ;
;
(8.20)
recordando que D(¡1; 1) es le espacio de funciones complejas de variable entera de…nidas para todo valor de la variable independiente. En la Fig. 8.3 se muestra el esquema de estas transformaciones.
166
c Emilio Gago-Ribas, 2002 °
Figura 8.3. Representación en forma de sistema de las transformaciones asociadas al desarrollo en serie de Fourier.
8.2.5
Análisis del error en el desarrollo en serie de Fourier.
Como ya anticipamos en el Cap. 4, la combinación lineal de…nida en (8.18) será la mejor aproximación posible a f0 (x) siempre que los coe…cientes en (8.19) sean los adecuados para garantizar que no existe otro conjunto de valores fb(m)g que proporcionen una aproximación mejor bajo la métrica de…nida en el espacio. Desde este punto de vista, asumiremos en esta sección que los coe…cientes de la combinación lineal son desconocidos, e intentaremos medir la diferencia entre el elemento original f0 (x) y el resultado de la combinación lineal, que denominaremos4 DSF¡1 [a(m)]; 1 X
DSF¡1 [a(m)] =
a(m)'(x; m);
(8.21)
m=¡1
de forma que el desarrollo en serie de Fourier se podría escribir ahora como f0 (x) = DSF¡1 [a(m)] :
(8.22)
Nótese que estudiar la validez de esta última expresión es equivalente a identi…car el signi…cado del signo igual entre ambas funciones; dicho de otra forma, intentaremos dar un signi…cado propio a esa igualdad, que podríamos imaginar escrita como f0 (x) ¼ DSF¡1 [a(m)] : Para estudiar dicha aproximación recurriremos a la métrica propia del espacio de señales en (8.3), partiendo inicialmente de una combinación lineal …nita de 2N + 1 términos, y estudiando posteriormente el límite cuando N ! 1: Llamemos entonces DSF¡1 N [a(m)] al desarrollo en serie truncado en la forma, DSF¡1 N [a(m)] =
N X
a(m)'(x; m):
(8.23)
m=¡N
Para medir la diferencia existente entre el elemento original f0 (x) y la función DSF¡1 N [a(m)] aplicaremos el concepto de distancia de…nido en este espacio de señales, ° °2 ¡ ¢ ° = d2 f0 ; DSF¡1 = °f0 (x) ¡ DSF¡1 N [a(m)] N [a(m)] Z ¯ ¯ ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx; = (8.24) N hX0 i
obteniéndose la expresión habitual del error cuadrático medio entre ambas funciones. Nótese que la función diferencia, de…nida punto a punto y, por lo tanto, también periódica y perteneciente al espacio P~ (X0 ); se podrá denominar función de error para la serie truncada a 2N + 1 términos, e0N (x) = f0 (x) ¡ DSF¡1 N [a(m)] ;
(8.25)
de forma que la expresión del cuadrado de la distancia entre ambos elementos no es más que la energía del error, Z Z ¯ ¯ 2 ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx: E [e0N (x)] = je0N (x)j dx = (8.26) N hX0 i
hX0 i
4 Seguiremos en este caso la notación general correspondiente a una transformación T introducida en el Cap. 4 vista como un tipo particular de operador. Así, la ecuación de análisis debería leerse como DSF¡1 [a(m)] (x); esto es, una función en el dominio x:
c Emilio Gago-Ribas, 2002 °
167
Figura 8.4. Esquema de la interpretación del error asociado al desarrollo en serie de Fourier truncado de una señal periódica. La distancia entre el elemento original f0 (x) y su aproximación DSF¡1 N [a(m)] se mide en términos de la energía de la diferencia punto a punto entre las dos señales sobre un período cualquiera.
En otras palabras, la distancia o diferencia entre dos señales del espacio se realiza no punto a punto sino en términos de la energía del error. Lógicamente, la función je0N (x)j2 no es más que la potencia instantánea asociada a la función e0N (x): La interpretación de la distancia entre ambos elementos se muestra en la Fig. 8.4. Con estos conceptos en mente, diremos entonces que la mejor aproximación posible de f0 (x) a través de un desarrollo truncado DSF¡1 N [a(m)] se producirá para aquellos coe…cientes que hagan mínima la energía del error, dE [e0N (x)] 1 = 0 ¡! a(m) = hf0 (x); '(x; m)i : da(m) X0
(8.27)
La demostración de este resultado se puede encontrar en el Ap. E.7.1. Esto quiere decir que los coe…cientes a(m) obtenidos a través de la proyección de f0 (x) sobre cada elemento de la base '(x; m) nos proporcionan justamente la mejor aproximación posible a f0 (x) a través del desarrollo en serie truncado. Este primer resultado nos asegura claramente que: (i) el valor de los coe…cientes que minimizan la energía del error deberá ser el obtenido en (8.19), y (ii) el valor de dichos coe…cientes es independiente del número de términos N elegido. Así, su valor para dos valores de truncamiento N1 y N2 diferentes será el mismo para los términos comunes. Esto será extensible, lógicamente, cuando N ! 1. Además, es fácil demostrar que cuando N ! 1; es decir, considerando los in…nitos elementos de la base, la energía del error tiende a cero, esto es e0N (x) ! e0 (x)
(8.28)
lim E [e0N (x)] = E [e0 (x)] ! 0;
(8.29)
y N!1
es decir, que el desarrollo en serie de Fourier en (8.18)-(8.19) no sólo es la mejor aproximación posible a f0 (x) sino que el error tiende a cero en términos de su energía. La igualdad en (8.18) no es, por lo tanto, una igualdad punto a punto, sino una igualdad en términos de que la energía del error tiende a anularse. En otras palabras, la función original f0 (x) y su desarrollo en serie de Fourier DSF¡1 [a(m)] no tienen porqué coincidir punto a punto, pudiendo diferir incluso en un número grande de puntos aislados. Una vez más, este hecho no es más que una consecuencia de la de…nición de la métrica del espacio, de…nida en términos integrales y no punto a punto. Por ejemplo, un cambio en la de…nición de la métrica del espacio podría hacer que el desarrollo en serie de Fourier así de…nido ya no fuera la mejor aproximación posible a la función original.
168
c Emilio Gago-Ribas, 2002 °
² Algunos ejemplos. 1. En las Figs. 8.5 y 8.8 se muestran dos ejemplos en los que las señales periódicas, en este caso distribuciones, son trenes de pulsos de ancho ¢x y período X0 en la forma, 9 8 > > jx + kX0 j < ¢x=2 = < 1 ; k 2 Z: (8.30) P0;¢x (x) = > > : 0 ¢x=2 < jx + kX0 j < X0 =2 ; Los dos ejemplos mostrados se corresponden con ¢x = 0:5 y ¢x = 0:75; siendo X0 = 1 en ambos casos. El análisis de la función de error e0N (x) así como su potencia instantánea, je0N (x)j2 ; para cada una de las aproximaciones mostradas previamente en función de N se muestra en las Figs. 8.6 y 8.9. En ellas se representa también la energía E [e0N (x)] como el área bajo la curva de la potencia instantánea en un período. Nótese como, a medida que N crece, la energía del error va decreciendo. En el límite N ! 1; la energía del error será nula.
En las Figs. 8.7 y 8.10 se muestran en primer lugar, las partes real e imaginaria de los coe…cientes a(m) de los desarrollos en serie de las señales representadas. A continuación se muestra el valor que toma el desarrollo en serie de Fourier truncado a 2N + 1 términos en cada uno de los puntos de discontinuidad de la función original, esto es DSF¡1 N [a(m)] (0) = DSF¡1 [a(m)] (X ) = etc. Nótese cómo dicho valor tiende al valor medio de la discontinuidad 0 N a medida que el número de términos aumenta; en estos ejemplos, lim DSF¡1 N [a(m)] (0) = (1 + 0)=2 = 0:5;
N!1
en ambos casos. Estos valores se muestran también en las grá…cas de las Figs. 8.5 y 8.8. Finalmente se muestra la energía del error en función de N para cada uno de los ejemplos analizados. Nótese como el resultado en (8.29) se satisface en ambos casos. 2. Un análisis similar al del tren de pulsos se presenta en las Figs. 8.10, 8.11 y 8.12 para un tren de exponenciales reales en la forma, e0;¢x (x) = e¡ax=X0 ; (8.31) 0
x + kX0 < X0 ; k 2 Z; a 2 R+ :
El ejemplo mostrado se corresponde con el caso a = 1 y X0 = 1: En la Figs. 8.11 se muestran diferentes aproximaciones de las señales originales en función del número de términos N considerado en su desarrollo en serie truncado. En la Fig. 8.12 se muestran tanto el error e0N (x) como su potencia instantánea, je0N (x)j2 ; para cada una de las aproximaciones mostradas previamente en función de N: También se representa la energía del error E [e0N (x)] como el área bajo la curva de la potencia instantánea. Nótese como, una vez más, a medida que N se hace mayor, la energía del error va decreciendo. Finalmente, en la Fig. 8.13 se muestran: (a) Las partes real e imaginaria de los coe…cientes a(m) de los desarrollos en serie de las señales representadas. (b) El valor de transición en cada discontinuidad del desarrollo en serie de Fourier trucado ¡1 a 2N + 1 términos, esto es DSF¡1 N [a(m)] (0) = DSFN [a(m)] (X0 ) = etc. Dicho valor tiende al valor medio de la discontinuidad a medida que el número de términos aumenta, en este caso, ¡1 lim DSF¡1 )=2 = 0:6839: N [a(m)] (0) = (1 + e
N!1
Estos valores se muestran también en las grá…cas de la Fig. 8.11. (c) La energía del error en función de N para cada uno de los casos analizados, veri…cándose una vez más el resultado en (8.29).
c Emilio Gago-Ribas, 2002 °
169
f0 (x) = P0;¢x (x) =
8 < 1
jx + kX0 j < ¢x=2
: 0
; k2N
¢x=2 < jx + kX0 j < X0 =2
-1
-1
N=1: DSFN [a(m)](disc.)=0.5 (B)
N=0: DSFN [a(m)](disc.)=0.5 (A) 1,50
1,50
f0(x)
1,25
¢x = 0:5; X0 = 1
f0(x)
-1
DSFN [a(m)]
1,25
-1
DSFN [a(m)]
A 1,00
1,00
0,75
0,75
0,50
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
-0,50
1,50
0
x /X0 [a(m)](disc.)=0.5 (C) 1
N=3: DSFN
-1
-0,50
x /X0 N=5: DSFN [a(m)](disc.)=0.5 (D) 0
f0(x)
-1
DSFN [a(m)]
1,25
1,00
1
0,75
0,75
0,50
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
1,50
0
1
-0,50
2
x /X0 -1 N=10: DSFN [a(m)](disc.)=0.5 (E) f0(x)
1,25 1,00
1,50
D
0
f0(x)
1,25
2
-1
DSFN [a(m)]
1,00
E
0,75
0,50
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
0
1
x /X0 -1 N=50: DSFN [a(m)](disc.)=0.5 (F)
-1
DSFN [a(m)]
0,75
-0,50
-1
DSFN [a(m)]
1,00
C
-0,50
2
-1
1,50
f0(x)
1,25
2
B
1
2
x /X0
-0,50
F
0
1
2
x /X0
-1
DSF [a(m)](disc.)=0.5 Figura 8.5.
DSF¡1 N [a(m)] =
170
N P
m=¡N
a(m)ejm»0 x
a(m) = X0
sin(m¼¢x=X0 ) m¼
c Emilio Gago-Ribas, 2002 °
f0 (x) = P0;¢x (x) =
0,75
e0N (x)
8 < 1
jx + kX0 j < ¢x=2
: 0
N =0
0,75
0,50
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
-0,50
-0,50
-0,75
0,3
0
1 2
|e0N (x)|
2
E[e0N (x)] (a)
-0,75
0,3 0,2
0,1
0,1
0,75
0
1
e0N (x)
2
0,75 0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
-0,50 0
|e0N (x)|
1
2
2
E[e0N (x)] (c)
0,3
0,1
0,1
0,0
0
1
e0N (x)
2
N =10
0,75 0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
-0,50
2
x /X0
1
2
x /X0
2
x /X0
2
x /X0
E[e0N (x)] (d)
2
|e0N (x)|
0
1
e0N (x)
N =50
-0,50 0
|e0N (x)|
1 2
2
E[e0N (x)] (e)
x /X0
-0,75
0,3
0,2
0,2
0,1
0,1
0,0
x /X0
N =5
0
0,0
x /X0
0,50
0,3
2
1
e0N (x)
-0,75
0,2
-0,75
0
x /X0
0,2
0,75
1
E[e0N (x)] (b)
2
-0,50
-0,75
0,3
|e0N (x)|
0,0
0,50
N =1
0
x /X0
N =3
¢x = 0:5; X0 = 1
e0N (x)
x /X0
0,2
0,0
; k2N
¢x=2 < jx + kX0 j < X0 =2
0
1
2
0,0
x /X0
0
|e0N (x)|
1
E[e0N (x)] (f)
2
0
1
2
x /X0
Figura 8.6.
e0N (x) = f0 (x) ¡ DSF¡1 N [a(m)]
c Emilio Gago-Ribas, 2002 °
E [e0N (x)] =
Z
2
hX0 i
je0N (x)j dx
171
8 < 1
f0 (x) = P0;¢x (x) =
0,6
jx + kX0 j < ¢x=2
: 0
Re{a(m)}
0,6
0,5
0,5
0,4
0,4
0,3
0,3
0,2
0,2
0,1
0,1
0,0
0,0
-0,1
-0,1
-0,2 -20
0,6
-15
; k2N
¢x=2 < jx + kX0 j < X0 =2
-10
-5
0
5
m
10
15
20
¢x = 0:5; X0 = 1
Im{a(m)}
-0,2 -20
-15
-10
-5
0
5
10
15
20
0
5
10
15
20
m
Fase{a(m)}
|a(m) | 1,0π
0,5 0,4
0,5π
0,3
0,0π
0,2
-0,5π
0,1
-1,0π
0,0 -20
-15
-10
-5
0
5
m
10
15
20
-20
-1
1,00
DSFN [a(m)](disc.)
0,30 0,25
A
0,75
E
C
F
-15
-10
-5
m
E[e0N(x))] a
0,20 0,15
0,50
B
0,25
b
D
0,10
c d e
f
0,05 0,00
0
5
10
15
20
25
30
N
35
40
45
50
0,00
0
5
10
15
20
-1
DSF [a(m)](disc.)=0.5
25
N
30
35
40
45
50
Figura 8.7. (a) y (b) Partes real e imaginaria de los coe…cientes am del desarrollo en serie de Fourier; (c) y (d) Módulo y fase de los coe…cientes am del desarrollo en serie de Fourier; (e) y (f) Convergencia del valor del desarrollo en serie en las discontinuidades y de la energía del error en función de N:
DSF¡1 N [a(m)] =
a(m) = X0
a(m)ejm»0 x
DSF¡1 [a(m)] =
Z
hX0 i
1 P
a(m)ejm»0 x
m=¡1
m=¡N
sin(m¼¢x=X0 ) m¼
E [e0N (x)] =
172
N P
¡1 lim DSF¡1 [a(m)] (0) N [a(m)] (0) = DSF
N!1
je0N (x)j2 dx
lim E [e0N (x)] = E [e0 (x)] ! 0
N!1
c Emilio Gago-Ribas, 2002 °
f0 (x) = P0;¢x (x) =
8 < 1
jx + kX0 j < ¢x=2
: 0
N=0: DSFN [a(m)](disc.)=0.75 (A) f0(x)
A
1,50
-1
DSFN [a(m)]
1,25
1,00
0,75
0,75
0,50
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
1,50 1,25
x /X0 -1 N=3: DSFN [a(m)](disc.)=0.538 (C) 0
1
f0(x)
C
2
-0,50
1,50
-1
DSFN [a(m)]
1,00
0,75
0,75
0,50
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
0
1
-0,50
2
x /X0 N=10: DSFN [a(m)](disc.)=0.484 (E) -1
1,50
f0(x)
1,25
1,50
1,00
0,75
0,75
0,50
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
0
1
2
x /X0
-1
DSFN [a(m)]
0 1 2 x /X0 -1 N=5: DSFN [a(m)](disc.)=0.474 (D)
f0(x)
-1
DSFN [a(m)]
D
x /X0 N=50: DSFN [a(m)](disc.)=0.497 (F) 0
f0(x)
1
2
-1
-0,50
DSFN [a(m)]
F
1,25
1,00
-0,50
B
-1
-1
DSFN [a(m)]
E
f0(x)
1,25
1,00
-0,50
N=1: DSFN [a(m)](disc.)=0.432 (B)
1,25
1,00
-0,50
¢x = 0:75; X0 = 1
-1
-1
1,50
; k2N
¢x=2 < jx + kX0 j < X0 =2
0
1
2
x /X0
-1
DSF [a(m)](disc.)=0.5 Figura 8.8.
DSF¡1 N [a(m)] =
c Emilio Gago-Ribas, 2002 °
N P
m=¡N
a(m)ejm»0 x
a(m) = X0
sin(m¼¢x=X0 ) m¼
173
f0 (x) = P0;¢x (x) =
0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8
0,6
e0N (x)
8 < 1
jx + kX0 j < ¢x=2
: 0
N =0
0
1 2
|e0N (x)|
2
E[e0N (x)] (a)
x /X0
0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8
0,6
0,5
0,5
0,4
0,4
0,3
0,3
0,2
0,2
0,1
0,6
0
1
e0N (x)
2
x /X0
N =3
0
|e0N (x)|
1
2
2
x /X0
0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8
E[e0N (x)] (c) 0,6 0,5
0,4
0,4
0,3
0,3
0,2
0,2
0,1
0,1
0,0
0,6
0
1
e0N (x)
2
x /X0
N =1
0
|e0N (x)|
1
2
x /X0
2
x /X0
2
x /X0
2
x /X0
2
x /X0
E[e0N (x)] (b)
2
N =10
0
|e0N (x)|
1 2
2
E[e0N (x)] (e)
x /X0
0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8
0,6 0,5
0,4
0,4
0,3
0,3
0,2
0,2
0,1
0
1
e0N (x)
N =5
0
|e0N (x)|
0,0
0,5
0,0
e0N (x)
0,0
0,5
0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8
¢x = 0:75; X0 = 1
0,1
0,0
0,6 0,4 0,2 0,0 -0,2 -0,4 -0,6 -0,8
; k2N
¢x=2 < jx + kX0 j < X0 =2
1
E[e0N (x)] (d)
2
0
1
e0N (x)
N =50
0
|e0N (x)|
1
E[e0N (x)] (f)
2
0,1 0
1
2
x /X0
0,0
0
1
2
x /X0
Figura 8.9.
e0N (x) = f0 (x) ¡ DSF¡1 N [a(m)]
174
E [e0N (x)] =
Z
hX0 i
je0N (x)j2 dx
c Emilio Gago-Ribas, 2002 °
8 < 1
f0 (x) = P0;¢x (x) =
jx + kX0 j < ¢x=2
: 0
; k2N
¢x=2 < jx + kX0 j < X0 =2
¢x = 0:75; X0 = 1
Im{a(m)}
Re{a(m)} 0,8
0,8
0,7 0,6
0,6
0,5 0,4
0,4
0,3 0,2
0,2
0,1 0,0
0,0
-0,1 -0,2 -20
-15
-10
-5
0
m
5
10
15
20
-0,2 -20
-15
-10
-5
0
5
10
15
20
0
5
10
15
20
m
Fase{a(m)}
|a(m) | 0,8 1,0π 0,6
0,5π 0,0π
0,4
-0,5π
0,2
-1,0π 0,0 -20
-15
-10
-5
0
m
-1
1,00
5
10
15
20
DSFN [a(m)](disc.)
-20
0,5
0,75
-10
-5
m
E[e0N (x)] a
A C
-15
0,4
F 0,3
b
0,50
E
c
D
0,25
0,00
0,2
B 0
5
d
10
15 20
25 30
N
35
40 45
50
0,0
0
5
10
f
e
0,1
15
20 25
-1
DSF [a(m)](disc.)=0.5
30 35
40
45 50
N
Figura 8.10. (a) y (b) Partes real e imaginaria de los coe…cientes a(m) del desarrollo en serie de Fourier; (c) y (d) Módulo y fase de los coe…cientes a(m) del desarrollo en serie de Fourier; (e) y (f) Convergencia del valor del desarrollo en serie en las discontinuidades y de la energía del error en función de N:
DSF¡1 N [a(m)] =
a(m) = X0
N P
a(m)ejm»0 x
c Emilio Gago-Ribas, 2002 °
Z
hX0 i
1 P
a(m)ejm»0 x
m=¡1
m=¡N
sin(m¼¢x=X0 ) m¼
E [e0N (n)] =
DSF¡1 [a(m)] =
¡1 lim DSF¡1 [a(m)] (0) N [a(m)] (0) = DSF
N!1
je0N (x)j2 dx
lim E [e0N (n)] = E [eN (n)] ! 0
N!1
175
f0 (x) = e0 (x) = e¡ax=X0 ; x 2 [0; X0 )
-1
-1
1,00
N=0: DSFN [a(m)](disc.)=0.632 (A)
N=1: DSFN [a(m)](disc.)=0.663 (B)
1,00
A
B
0,75
0,75
0,50
0,50
0,25
0,25
f0(x) 0,00
1,00
f0(x)
-1
DSFN [a(m)]
0
1
2
x /X0 -1 N=3: DSFN [a(m)](disc.)=0.675 (C)
3
0,00
1,00
1
0,75
0,50
0,50
0,25
3
0,25
f0(x)
f0(x)
-1
DSFN [a(m)]
0
1
2
x /X0 N=10: DSFN [a(m)](disc.)=0.681 (E)
3
0,00
1
2
x /X0 N=50: DSFN [a(m)](disc.)=0.683 (F)
3
-1
1,00
E
F
0,75
0,75
0,50
0,50
0,25
0,25
f0(x) 0
-1
DSFN [a(m)]
0
-1
0,00
2
x /X0 -1 N=5: DSFN [a(m)](disc.)=0.678 (D)
D
0,75
1,00
-1
DSFN [a(m)]
0
C
0,00
a = 1; X0 = 1
f0(x)
-1
DSFN [a(m)] 1
2
x /X0 3
0,00
-1
DSFN [a(m)]
0
1
2
x /X0 3
-1
DSF [a(m)](disc.)=0.6839 Figura 8.11.
DSF¡1 N [a(m)] =
176
N P
m=¡N
a(m)ejm»0 x
a(m) =
1 ¡ e¡(a+j2¼m) a + j2¼m
c Emilio Gago-Ribas, 2002 °
f0 (x) = e0 (x) = e¡ax=X0 ; x 2 [0; X0 )
0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4
0,15
e0N (x)
N =0
0
1
|e0N (x)|
2
x /X0 3
E[e0N(x)] (a)
2
0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4
0,10
0,05
0,05
0,00
0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4
0,15
0
1
e0N (x)
2
x /X0
3
N =3
0
1
|e0N (x)|
2
E[e0N(x)] (c)
2
x /X0
3
0,00
0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4
0,10
0,05
0,05
0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4
0,15
0
1
e0N (x)
x /X0
3
N =10
0
1
|e0N (x)|
2
2
x /X0 3
E[e0N(x)] (e)
2
0,00
0,4 0,3 0,2 0,1 0,0 -0,1 -0,2 -0,3 -0,4
0,10
0,05
0,05
0,00
0
1
2
x /X0
3
0,00
1
|e0N (x)|
1
e0N (x)
1
2
x /X0
2
x /X0 3
E[e0N(x)] (d)
2
0
1
e0N (x)
3
2
x /X0
3
N =50
0
|e0N (x)|
x /X0 3
N =5
0
|eN (x)|
2
E[e0N(x)] (b)
2
0
0,15
0,10
N =1
0
0,15
0,10
0,00
e0N (x)
0,15
0,10
a = 1; X0 = 1
1
2
E[e0N(x)] (f)
2
0
1
2
x /X0
3
x /X0
3
Figura 8.12.
e0N (x) = f0 (x) ¡ DSF¡1 N [a(m)]
c Emilio Gago-Ribas, 2002 °
E [e0N (x)] =
Z
hX0 i
je0N (x)j2 dx
177
f0 (x) = e0 (x) = e¡ax=X0 ; x 2 [0; X0 ) Re{a(m)}
0,7
0,2
a = 1; X0 = 1
Im{a(m)}
0,2
0,6 0,5
0,1
0,1
0,0
0,0
-0,1
-0,1
0,4 0,3 0,2 0,1 0,0 -0,1 -20
-15
-10
-5
0
5
m
10
15
-0,2 -20
20
|a(m) |
0,7
-15
-10
-5
0
5
10
15
-0,2 20
0
5
10
15
20
m
Fase{a(m)} 1,0π
0,6 0,5
0,5π
0,4 0,0π 0,3 -0,5π
0,2 0,1
-1,0π
0,0 -20
-15
-10
-5
0
5
m
-1
10
15
20
DSFN [a(m)](disc.)
0,70
-20
0,035
-15
-10
-5
m
E[e0N (x)] a
F
0,030
0,65
0,025
A B
C D
E
b
0,020
0,60
c
0,015 0,010
0,55
d e
f
0,005 0,50
0
5
10
15 20 25 30
N
35
40 45 50
0,000
0
10
20
-1
DSF [a(m)]=0.6839
30
40
50
N
Figura 8.13. (a) y (b) Partes real e imaginaria de los coe…cientes a(m) del desarrollo en serie de Fourier; (c) y (d) Módulo y fase de los coe…cientes a(m) del desarrollo en serie de Fourier; (e) y (f) Convergencia del valor del desarrollo en serie en las discontinuidades y de la energía del error en función de N:
DSF¡1 N [a(m)] =
a(m) =
a(m)ejm»0 x
Z
DSF[a(m)] =
hX0 i
1 P
a(m)ejm»0 x
m=¡1
m=¡N
1 ¡ e¡(a+j2¼m) a + j2¼m
E [e0N (x)] =
178
N P
¡1 lim DSF¡1 N [a(m)](0) = DSF [a(m)](0)
N!1
je0N (x)j2 dx
lim E [e0N (x)] = E [eN (x)] ! 0
N!1
c Emilio Gago-Ribas, 2002 °
8.3
Criterios de convergencia de los coe…cientes. Los aspectos comentados © jm» x ªhasta el momento garantizan que el conjunto de funciones bajo análisis, f'(x; m)g = e 0 ; resulta ser un conjunto: (i) in…nito de funciones, lo que signi…ca que n o Dim P~ (X0 ) = 1; (ii) numerable, pudiéndose establecer una relación uno-a-uno entre cada uno de
los elementos de la base y el conjunto de los números enteros Z; (iii) ortogonal, y (iv) que, asociado al conjunto de coe…cientes fa(m)g dado por (8.19), hacen que el desarrollo en serie en (8.18) sea la mejor aproximación posible a un elemento f0 (x) 2 P~ (X0 ) bajo la métrica de…nida en el espacio por (8.3). Para asegurar que dicho conjunto es una base, faltaría por estudiar la completitud o no de ese conjunto de funciones base en el espacio P~ (X0 ); lo que es lo mismo, responder a las siguientes preguntas equivalentes: ¿todo elemento del espacio de señales considerado puede ser representado en términos de un desarrollo en serie en la forma (8.18)-(8.19)?, ó ¿existe un conjunto válido de coe…cientes en la forma descrita por (8.19) para toda f0 (x) 2 P~ (X0 )? Este problema, nada sencillo desde el punto de vista algebraico, se puede abordar de una forma intuitiva y aproximadamente válida siguiendo el siguiente proceso alternativo:
² Partiendo del espacio considerado, en este caso P~ (X0 ); consideraremos que la validez del desarrollo en serie en (8.18), esto es, su convergencia, viene directamente asociada a la existencia de los coe…cientes para cualquier señal del espacio, lo que nos lleva directamente al problema de analizar los criterios de convergencia de los coe…cientes, esto es, los criterior de convergencia de la ecuación (8.19). ² La imposición de estos criterios de convergencia determinará el considerar ciertos subespacios dentro del espacio de señales de partida en los cuales podremos asegurar que el par de ecuaciones (8.18)(8.19) resultarán ser válidas para todo elemento de dicho subespacio, lo que equivale a asegurar la convergencia del desarrollo en serie para todo elemento de ese subespacio de señales. Este hecho estará íntimamente ligado con el concepto de completitud de un espacio, en concreto los espacios de Hilbert en el caso de espacios con un producto escalar válido de…nido que son completos, descrito en el Ap. A. Antes de exponer los dos criterios de convergencia más habituales en la práctica, cabe destacar que: ² El hecho de asegurar la existencia del desarrollo en serie para todos los elementos de los nuevos subespacios originados a partir de los criterios de convergencia, no signi…ca que elementos fuera de dichos subespacio no puedan tener también una representación en términos del par de ecuaciones (8.18)-(8.19), aunque esta no pueda asegurarse a priori, y deba de analizarse de alguna forma alternativa. ² La convergencia de los coe…cientes, esto es, de (8.19), no garantiza la convergencia del desarrollo en serie en (8.18); el hecho de considerar que la existencia de coe…cientes garantiza la existencia del desarrollo en serie es una aproximación válida para la mayor parte de señales en la práctica. El análisis de los criterios de convergencia pasa por considerar dos casos particularmente importantes contenidos en nuestro espacio de señales P~ (X0 ) : ² Convergencia en el caso de señales continuas: En el caso de considerar elementos f0 (x) 2 P~ (X0 ) que sean continuos para todo valor de x; es posible probar de forma sencilla que la convergencia de los coe…cientes está siempre asegurada, y por lo tanto, la existencia de su desarrollo en serie. Partiendo de (8.19), resulta evidente que la función subintegral g0 (x) = f0 (x)'¤ (x; m) 2 P~ (X0 ):
(8.32)
A la vista del comportamiento de cualquier función '¤ (x; m) analizado en la Secc. 8.2, resulta evidente que si f0 (x) es continua, también lo será g0 (x); como se muestra en el ejemplo de la Fig. 8.14. De esta forma, integrando sobre un período arbitrario hX0 i, el valor de los coe…cientes, dado por Z 1 a(m) = g0 (x) dx; (8.33) X0 hX0 i interpretado como el área bajo la curva en ese intervalo, Fig. 8.14, resulta ser …nito, y por lo tanto, la integral será convergente, asegurando la existencia de los coe…cientes para toda f0 (x) que sea continua. c Emilio Gago-Ribas, 2002 °
179
0,6
f0(x)
0,3
0,0 -0,3
-0,6 -1
Re{ϕ*(x;m)}
0
x /X0
1
1
1
0
0
-1
-1
-1 0,6
0
Re{g0(x)}
1
x /X0
2
f0(x)
-1 0,6
0,3
0,3
0,0
0,0
-0,3
-0,3
-0,6 -1
0
x /X0
1
2
Re{a(m)}/X0
2
Im{ϕ*(x;m)}
0
x /X0
0
x /X0
Im{g0(x)}
-0,6 -1
1
f0(x)
1
2
2
Im{a(m)}/X0
Figura 8.14. Ejemplo grá…co del análisis de la función subintegral g0 (x) = f0 (x)'¤ (x; m) cuando f0 (x) es continua para todo x: Se muestra el caso con una función f0 (x) real de período X0 = 1 para el armónico m = 3: Se ha destacado sombreada el área bajo la curva correspondiente a un intervalo hX0 i arbitrario.
² Convergencia en el caso de funciones discontinuas: En el caso en que las funciones f0 (x) 2 P~ (X0 ) consideradas sean discontinuas, podrá ocurrir que el valor de la integral en (8.18) que permite obtener el valor de los coe…cientes no sea convergente. Es en este caso cuando se estudian y aplican los criterios de convergencia que describiremos a continuación. 8.3.1
Señales de energía …nita.
El primer criterio de convergencia hace referencia a la norma de las señales del espacio P~ (X0 ): Consideremos para ello una cierta señal f0 (x) 2 P~ (X0 ) que sea discontinua, con un número …nito o in…nito pero numerable de discontinuidades por período. Como ya analizamos en la Secc. 8.2.5, la métrica de…nida sobre el espacio determina que la distancia o diferencia entre dos señales venga dada en términos de la energía de su diferencia punto a punto, esto es, la energía de la función error de…nida como e0 (x) = f0 (x) ¡ g0 (x): Si la segunda señal es el desarrollo en serie de Fourier, DSF¡1 [a(m)] ; de la primera, hemos visto cómo los coe…cientes dados por (8.18) y no otros, hacen que la energía del error se anule, Z Z ¯ ¯ 2 ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx ! 0: E [e0 (x)] = je0 (x)j dx = (8.34) hX0 i
hX0 i
El hecho de que esta condición se satisfaga exige que la norma (tamaño en términos de la métrica del espacio) de la función f0 (x) sea …nita, lo que equivale a decir que la señal f0 (x) ha de ser de energía …nita, Z 2 E [f0 (x)] = jf0 (x)j dx < 1: (8.35) hX0 i
La demostración de esta conclusión se puede encontrar en el Ap. E.7.2. Si esto ocurre, estaremos asegurando la existencia de los coe…cientes a(m) del desarrollo en serie, y por lo tanto, la existencia de 180
c Emilio Gago-Ribas, 2002 °
éste último en términos de que la energía del error se minimiza. Esto quiere decir, como ya hemos visto, que la función original f0 (x) y su desarrollo en serie, DSF¡1 [a(m)] ; podrían diferir en un buen número de puntos, pero satisfaciendo siempre la condición (8.34). Al subespacio de funciones f0 (x) 2 P~ (X0 ) que son de energía …nita (o cuadrado integrables) le denominaremos a lo largo del presente texto como P~ 2 (X0 ); asumiendo entonces el esquema representado en la Fig. 8.15(a). 8.3.2
Condiciones de Dirichlet.
Un segundo criterio, habitualmente más restrictivo que el anterior, son las condiciones de Dirichlet que enumeraremos y describiremos sólamente. Consideremos una vez más una señal f0 (x) 2 P~ (X0 ) que sea discontinua, con un número …nito o in…nito pero numerable de discontinuidades por período. Diremos que f0 (x) satisface las condiciones de Dirichlet si: 1. La señal f0 (x) es absolutamente integrable en cualquier período, esto es, Z jf0 (x)j dx < 1:
(8.36)
hX0 i
Nótese que esta condición no es exactamente la misma que E [f0 (x)] < 1: Se deja como ejercicio para el lector el establecer similitudes y diferencias de ambas condiciones para diferentes señales. 2. El número de máximos y de mínimos en cualquier intervalor de longitud hX0 i ha de ser …nito.
3. El número de discontinuidades en cualquier intervalor de longitud hX0 i ha de ser …nito, y además, dichas discontinuidades han de ser de valor …nito. En este caso, se puede a…rmar que la señal original f0 (x) y su desarrollo en serie DSF¡1 [a(m)] coinciden punto a punto, excepto en las discontinuidades, donde la función DSF¡1 [a(m)] toma el valor medio de la discontinuidad. En este caso, la igualdad en (8.18) es punto a punto exceptuando las discontinuidades de la señal. Al subespacio de funciones f0 (x) 2 P~ (X0 ) que satisfacen las condiciones de Dirichlet le denominaremos a lo largo del presente texto como P~ D (X0 ); asumiendo entonces el esquema representado en la Fig. 8.15(b).
Figura 8.15. Representación genérica de los subespacios de dimensión in…nita P~ 2 (X0 ) y P~ D (X0 ) de…nidos como los subespacios de P~ (X0 ) = P (X0 ) + P(X0 ) que contienen a todas las señales cuadrado integrables o de energía …nita en el primer caso, y que satisfacen las condiciones de Dirichlet en el segundo.
Un ejemplo típico de señal que satisface las condiciones de Dirichlet es el tren de pulsos de…nido en (8.30). Los análisis mostrados en las Figs. 8.5 y 8.8 muestran el desarrollo de Fourier truncado a N términos. Nótese cómo el desarrollo en serie (N ! 1): (i) en las discontinuidades toma el valor medio de la misma. Las Figs. 8.7(e) y 8.10(e) muestran la convergencia de ese valor hacia el valor medio a medida que N crece; y (ii) el desarrollo en serie, fuera de las discontinuidades, coincide con el tren de pulsos punto a punto. El ejemplo del tren de exponenciales reales de…nido en (8.31) y analizado en la Fig. 8.11, satisface también las condiciones de Dirichlet y, por lo tanto, el análisis de su desarrollo en serie es totalmente similar; véase, por ejemplo, la convergencia del valor que toma el desarrollo en serie
c Emilio Gago-Ribas, 2002 °
181
en las discontinuidades, Fig. 8.13(e), en función de N: Veamos otros ejemplos que ilustren los criterios de convergencia (las siguientes de…niciones han de considerarse sobre un período): ² En la Fig. 8.16(a) se muestra un ejemplo de la señal periódica, µ ¶ 2¼X0 f0 (x) = sin : x
(8.37)
Nótese cómo esta función no satisface las condiciones de Dirichlet dado que en el entorno por la derecha de xk = kX0 ; k 2 N; presenta un número in…nito de máximos y mínimos al no estar de…nido su valor en dichos puntos y presentar in…nitas oscilaciones cuando x ! x+ k:
² En la Fig. 8.16(b) se muestran un ejemplo de la señal periódica, f0 (x) = X0
1 : x
(8.38)
Esta distribución periódica es de gran interés desde el punto de vista práctico. Como puede apreciarse, presenta una discontinuidad en xk = kX0 ; pero la discontinuidad es in…nita, de forma que no satisface la tercera condición de Dirichlet. Por otro lado, la señal tampoco es absolutamente integrable en un período, X0
Z
X0
0
1 dx = X0 ln X0 ¡ X0 ln 0 ! 1: x
(8.39)
Ademas, esta señal no sería tampoco cuadrado integrable, es decir, no es una señal de energía …nita, E [f0 (x)] =
X02
Z
X0 0
X02 1 dx = ¡X + ! 1: 0 x2 0
(8.40)
Podemos entonces concluir que la señal periódica de…nida a partir de la función inversa, no es un elemento ni de P~ 2 (X0 ); ni de P~ D (X0 ): ² Otra señal de importancia práctica es la mostrada en la Fig. 8.16(c) de…nida como, f0 (x) =
p 1 X0 p : x
(8.41)
Esta nueva distribución periódica presenta discontinuidades en xk = kX0 ; igual que la anterior, y estas discontinuidades no son …nitas, de forma que tampoco satisface la tercera condición de Dirichlet. Además, esta señal tampoco es cuadrado integrable, es decir, Z X0 1 E [f0 (x)] = X0 dx = X0 ln X0 ¡ X0 ln 0 ! 1: (8.42) x 0 p Podemos entonces concluir que la señal periódica de…nida a partir de la función inversa de x, no es un elemento ni de P~ 2 (X0 ); ni de P~ D (X0 ): Nótese que, en este caso, la señal sí sería absolutamente integrable, lo que puede resultar importante en diferentes consideraciones prácticas, p Z X0
X0 0
p 1 p dx = 2 X0 < 1: x
(8.43)
² Finalmente, en la Fig 8.16(d) se muestra una distribución periódica de…nida sobre un período en la forma, ¸ X0 X0 1 f0 (x) = m ; x 2 m (¡X0 ); m+1 ; m 2 N y m = 0: (8.44) 2 2 2 El término entre paréntesis (¡X0 ) se aplica sólamente cuando m = 0: Se puede apreciar claramente como esta señal no satisface la tercera condición de Dirichlet dado que sobre un período cualquiera, presenta in…nitas discontinuidades. Esta señal, por lo tanto, no pertenece a P~ D (X0 ): Se deja como ejercicio para el lector el comprobar si esta señal pertenece o no a P~ 2 (X0 ):
182
c Emilio Gago-Ribas, 2002 °
5
1,5 1,0
4
0,5 3 0,0 2 -0,5 1
-1,0 -1,5 -1,0
-0,5
0,0
x /X0
0,5
1,0
1,5
(a)
2,0
5
0 -1,0
-0,5
0,0
-0,5
0,0
x /X0
0,5
1,0
1,5
0,5
1,0
1,5
(b)
2,0
1,50 1,25
4
1,00 3 0,75 2 0,50 1
0 -1,0
0,25
-0,5
0,0
x /X0
0,5
1,0
1,5
(c)
2,0
0,00 -1,0
x /X0
(d)
2,0
Figura 8.16. Algunos ejemplos de señales que no satisfacen alguno o ninguno de los criterios de convergencia deplos coe…cientes del desarrollo £en serie: (a) sin (2¼X0 =x)¤ ; p (b) X0 ¢ 1=x; (c) X0 ¢ 1= x; y (d) f0 (x) = 1=2m ; x 2 X0 =2m (¡X0 ); X0 =2m+1 ; m 2 N +:
8.4
Propiedades del desarrollo en serie de Fourier. Las siguientes propiedades se basan todas ellas en considerar una o dos señales arbitrarias f0 (x) y g0 (x) tales que sus desarrollos en serie de Fourier vengan caracterizados por los conjuntos de coe…cientes fa(m)g y fb(m)g : Las demostraciones de estas propiedades pueden encontrarse en el Ap. E.7.3, recomendándose al lector que las aborde por sí mismo con el objeto de adquirir práctica con ellas. 1. Linealidad. ®f0 (x) + ¯g0 (x) $ ®a(m) + ¯b(m):
(8.45)
f0 (x ¡ x0 ) $ a(m)e¡jm»0 x0
(8.46)
2. Desplazamientos en x:
3. Producto por el armónico M -ésimo. f0 (x)ejM»0 x
$ a(m ¡ M )
(8.47)
4. Conjugado de la función. f0¤ (x) $ a¤ (¡m)
(8.48)
f0 (¡x) $ a(¡m)
(8.49)
5. Re‡exión sobre el eje vertical.
6. Escalado de la variable independiente. f0 (ax); a > 0 y X00 =
X0 a
$ a(m)
(8.50)
7. Convolución periódica. f0 (x) ¤ g0 (x) $ X0 a(m)b(m) c Emilio Gago-Ribas, 2002 °
(8.51) 183
8. Producto. 1 X
f0 (x)g0 (x) $
k=¡1
a(k)b(m ¡ k)
(8.52)
Como se ha de…nido en la Secc. 3.7.3, la expresión en el dominio transformado m no es más que la convolución discreta de las secuencias a(m) y b(m): Así, la propiedad conmutativa de la convolución será de aplicación, de forma que la propiedad asociada al producto se puede reescribir en las siguientes formas, todas ellas equivalentes, f0 (x)g0 (x) $
1 X
k=¡1
a(k)b(m ¡ k) =
1 X
k=¡1
a(m ¡ k)b(k) = a(m) ¤ b(m):
(8.53)
Podemos concluir entonces que un producto de señales periódicas continuas es equivalente, en el dominio espectral, a una convolución de señales discretas. Este resultado nos hace intuir que la convolución de dos señales discretas cualesquiera5 tendrá, en un cierto dominio transformado de variable continua, un equivalente en términos de productos de señales periódicas continuas de…nidas sobre dicho dominio. En el Vol. ST-II se analizará justamente este caso a la hora de abordar la transformada de Fourier de señales discretas. 9. Primera derivada. df0 (x) dx
(8.54)
$ jm» 0 a(m)
10. Derivada n-ésima. dn f0 (x) dxn
$ (jm» 0 )n a(m)
(8.55)
11. Integración. Se puede comprobar fácilmente que esta propiedad es consistente sólamente si la componente continua del desarrollo en serie de la señal integrada es nula, es decir, si a0 = 0: En estos casos, Z x 1 a(m) f0 (x0 ) dx0 $ (8.56) jm» 0 ¡1 12. Relación de Parseval.
Z
2
hX0 i
jf0 (x)j dx = X0
1 P
m=¡1
2
ja(m)j ;
(8.57)
E [f0 (x)] = X0 E [a(m)] : Nótese cómo, con esta propiedad, estamos obteniendo una relación entre la energía de una señal continua periódica y la energía de una señal discreta, (2.90), en este caso, la secuencia a(m) que describe los coe…cientes del desarrollo en serie de Fourier. 13. Funciones pares. f0 (x) = f0 (¡x) $ a(m) = a(¡m)
(8.58)
f0 (x) = ¡f0 (¡x) $ a(m) = ¡a(¡m)
(8.59)
f0 (x) = f0¤ (x) $ a(m) = a¤ (¡m)
(8.60)
14. Funciones impares.
15. Funciones reales.
5 Nótese que los coe…cientes del desarrollo en serie de una señal periódica cualquiera son elementos del espacio de señales de variable discreta D(¡1; 1):
184
c Emilio Gago-Ribas, 2002 °
8.5
Desarrollo en serie de algunas señales continuas. Expondremos a continuación los desarrollos en serie de algunas señales continuas de especial interés. Nótese que todas ellas son señales de energía …nita y, por lo tanto, pertenecientes al espacio P~ 2 (X0 ); lo que asegura la existencia de su desarrollo en serie. En la Fig. 8.17 se muestra la representación de estas señales junto con los coe…cientes de su desarrollo en serie.
8.5.1
Armónico de pulsación » 0 . f0 (x) = ej»0 x :
(8.61)
En este caso, la obtención de los coe…cientes a(m) es inmediata sin más que identi…car la función con el primer término (armónico fundamental) del desarrollo en serie, ej»0 x =
1 X
m=¡1
a(m)ejm»0 x ¡!
a(1) = 1
(8.62)
a(m) = 0 8m 6= 1
Es importante hacer notar que la identi…cación está justi…cada por la independencia lineal de las funciones de la base. 8.5.2
Armónico de pulsación k» 0 . f0 (x) = ejk»0 x :
(8.63)
La obtención de los coe…cientes a(m) es también inmediata sin más que identi…car la función con el término k-ésimo del desarrollo en serie, ejk»0 x =
1 X
m=¡1
8.5.3
a(m)ejm»0 x ¡!
a(k) = 1
(8.64)
a(m) = 0 8m 6= k
Función coseno. © ª f0 (x) = cos(» 0 x) = Re ej»0 x :
(8.65)
La obtención de los coe…cientes en este caso también es inmediata sin más que desarrollar el coseno en funciones exponenciales e identi…car posteriormente el resultado obtenido con la expresión del desarrollo en serie, a(1) = 1=2 1 X ej»0 x + e¡j»0 x cos(» 0 x) = = a(m)ejm»0 x ¡! 2 m=¡1
8.5.4
(8.66)
a(¡1) = 1=2 a(m) = 0
8m 6= §1
Función seno. © ª f0 (x) = sin(» 0 x) = Im ej»0 x :
(8.67)
El desarrollo de la función en este caso es totalmente similar al de la función cosenoidal, 1 X ej»0 x ¡ e¡j»0 x sin(» 0 x) = = a(m)ejm»0 x ¡! 2j m=¡1
c Emilio Gago-Ribas, 2002 °
a(1) = ¡j=2 (8.68)
a(¡1) = j=2 a(m) = 0
8m 6= §1 185
1
Re{exp(jξ0x)}
1
Im{exp(jξ0x)}
1,0
Re{a(m)}
0,5 0
0
0,0 -0,5
-1 -1 1
0
Re{exp(jkξ0x)}
x /X0
1
2
-1 -1 1
0
Im{exp(jkξ0x)}
x /X0
1
-1,0 -6
2
1,0
-5
-4
-3
-2
-1
-3
-2
-1
-3
-2
-1
-2
-1
Re{a(m)}
0
1
2
3
4
5
6
0
1
2
3
4
5
6
0
1
2
3
4
5
6
0
1
2
3
4
5
6
m
0,5 0
0
0,0 -0,5
-1 -1 1
Re{cosξ0x}
0
x /X0
1
2
-1 -1 1
Im{cosξ0x}
0
x /X0
1
-1,0 -6
2
1,0
-5
-4
Re{a(m)}
m
0,5 0
0
0,0 -0,5
-1 -1 1
Re{sinξ0x}
0
x /X0
1
2
-1 -1 1
Im{sinξ0x}
0
x /X0
1
-1,0 -6
2
1,0
-5
-4
Re{a(m)}
m
0,5 0
0
0,0 -0,5
-1 -1 1
0
Re{K}=0.5
x /X0
1
2
-1 -1 1
0
0
Im{K}=-0.5
x /X0
1
0
-1 -1
0
x /X0
1
2
-1 -1
0
x /X0
1
-1,0 -6
2
2
-5
-4
-3
m
Re{a(m)} 1,0
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
Im{a(m)}
-1,0 -1,0 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6
m
m
Figura 8.17. Algunas señales continuas importantes del espacio de señales P~ 2 (X0 ) junto con los coe…cientes de su desarrollo en serie de Fourier: (a) f0 (x) = ej»0 x ; (b) f0 (x) = ejk»0 x ; (c) f0 (x) = cos(» 0 x); (d) f0 (x) = sin(»0 x); y (e) f0 (x) = K 2 C:
8.5.5
Función constante. f0 (x) = K 2 C:
(8.69)
La función constante, interpretada como una señal periódica de período X0 6= 0 tiene un desarrollo en serie trivial obtenido también a partir de identi…car el término constante del desarrollo en serie, K=
1 X
m=¡1
8.6
a(m)ejm»0 x ¡!
a(0) = K a(m) = 0
(8.70)
8m 6= 0
Desarrollo en serie de distribuciones de energía in…nita. Expondremos a continuación los desarrollos en serie de algunas distribuciones importantes cuya particularidad es que son señales de energía in…nita y por lo tanto, no son elementos pertenecientes a P~ 2 (X0 ): Sirvan así como ejemplos de señales que, a pesar de no satisfacer los criterios de convergencia, posee desarrollo en serie de Fourier. Las consideraciones más rigurosas relativas a la energía de estas señales, de…nida sobre un período, están íntimamente relacionadas con las realizadas para las distribuciones …nitas que sirven como base para la de…nición de las distribuciones periódicas. Su desarrollo ha de pasar previamente por estudiar el concepto de transformada de Fourier, pudiéndose encontrar su análisis en la Secc. 9.6. Además, todas las distribuciones analizadas son reales de forma que la propiedad (8.60) se satisface en todos los casos. En la Fig. 8.18 se muestra la representación de estas señales junto con los primeros coe…cientes de su desarrollo en serie.
186
c Emilio Gago-Ribas, 2002 °
8.6.1
Tren de deltas. ± 0 (x) =
1 X
(8.71)
±(x ¡ nX0 ):
n=¡1
Esta expresión representa una distribución de período X0 en el espacio P~ (X0 ), correspondiente a un tren de deltas localizado en cada valor de nX0 : Aplicando la expresión de los coe…cientes en términos del producto escalar, 1 X0
a(m) =
Z
± 0 (x)e¡jm»0 x dx =
hX0 i
1 X0
Z
X0 =2
±(x)e¡jm»0 x dx;
¡X0 =2
1 ; 8m; X0
a(m) =
(8.72)
expresión en la que se ha utilizado la de…nición de la distribución delta (7.18). 8.6.2
Tren de primeras derivadas de la delta. ± 00 (x) =
1 X
n=¡1
± 0 (x ¡ nX0 ):
(8.73)
En este caso, la señal a representar será una distribución de período X0 en el espacio P~ (X0 ), correspondiente a un tren de derivadas de la distribución delta localizadas en cada valor de X0 : Aplicando la expresión de los coe…cientes en términos del producto escalar, a(m) =
Z
1 X0
hX0 i
Z
1 X0
T ± 00 (x)e¡jm»0 x dx =
a(m) = j
X0 =2
± 0 (x)e¡jm»0 x dx =
¡X0 =2
jm» 0 ; X0
2¼ m: X02
(8.74)
En esta expresión se ha utilizado la de…nición de la distribución primera derivada de la delta (7.41). 8.6.3
Tren de segundas derivadas de la delta. ± 000 (x) =
1 X
n=¡1
± 00 (x ¡ nX0 ):
(8.75)
En este caso, la señal a representar será una distribución de período X0 en el espacio P~ (X0 ), correspondiente a un tren de segundas derivadas de la distribución delta localizadas en cada valor de X0 : Aplicando la expresión de los coe…cientes en términos del producto escalar, a(m) =
1 X0
Z
hX0 i
± 000 (x)e¡jm»0 x dx =
1 X0
a(m) = ¡
Z
X0 =2
¡X0 =2
4¼ 2 2 m : X03
± 00 (x)e¡jm»0 x dx = ¡
m2 » 20 ; X0
(8.76)
En esta expresión se ha utilizado la de…nición de la distribución segunda derivada de la delta (7.55).
c Emilio Gago-Ribas, 2002 °
187
1,5
δ0(x)
1,5
Re{a(m)}
1,5
1,0
1,0
1,0
0,5
0,5
0,5
0,0
0,0
0,0
-0,5
-0,5
-0,5
-1,0
-1,0
-1,0
-1,5 -4 1,5
-3
-2
-1
δ0'(x)
0
x /X0
1
2
3
0,5 0,0 -0,5 -1,0
1,5
-3
-1,5 -6 40
1,0
-1,5 -4
4
-2
-1
δ0''(x)
0
x /X0
1
2
3
0,5
-2
Re{a(m)}
0
m
2
4
6
-1,5 -6 40
30
30
20
20
10
10
0
0
-10
-10
-20
-20
-30
-30
-40 4 -6 250
1,0
-4
-4
-2
Re{a(m)}
0
m
2
4
6
Im{a(m)}
-40 -6 250
0
0
-250
-250
-500
-500
-4
-2
Im{a(m)}
-4
-2
Im{a(m)}
0
2
4
6
m
0
2
4
6
0
2
4
6
m
0,0 -0,5 -1,0 -1,5 -4
-3
-2
-1
0
x /X0
1
2
3
-750
-750
-1000
-1000
-1250
-1250
-1500 4 -6
-4
-2
0
m
2
4
-1500 6 -6
-4
-2
m
Figura 8.18. Algunas distribuciones periódicas de energía in…nita del espacio de señales P~ (X0 ) junto con los coe…cientes de su desarrollo en serie de Fourier: (a) ± 0 (x); (b) ±00 (x); y (c) ± 000 (x):
8.7
Desarrollo en serie de distribuciones de energía …nita. Expondremos a continuación los desarrollos en serie de algunas distribuciones importantes de energía in…nita y, por lo tanto, elementos pertenecientes a P~ 2 (X0 ): Nótese como el carácter impulsivo de estas distribuciones está asociado, bien a discontinuidades de valor …nito, bien a puntos donde las funciones son continuas pero no derivables; en el caso de la distribución delta y sus derivadas, el carácter impulsivo es de tipo in…nito, y por lo tanto, singular. Como todas las señales analizadas son reales, ha de satisfacerse la propiedad (8.60) en todos los casos. En la Fig. 8.19 se muestra la representación de estas señales junto con los coe…cientes de su desarrollo en serie.
8.7.1
Tren de pulsos de amplitud unidad y anchura ¢x.
Esta señal se obtiene por la repetición de pulsos de ancho ¢x; Fig. 8.19(a),
P0;¢x (x) =
8 < 1
: 0
si
jxj <
si
¢x 2
¢x 2
< jxj
X0 2
(8.77)
:
Aplicando la expresión de los coe…cientes en términos del producto escalar, Z Z X0 =2 Z ¢x=2 1 1 1 ¡jm»0 x ¡jm»0 x P0;¢x (x)e dx = e dx = e¡jm»0 x dx = X0 hX0 i X0 ¡X0 =2 X0 ¡¢x=2 ³ ´ ³ ´ 1 1 = e¡jm»0 ¢x=2 ¡ ejm»0 ¢x=2 = sin m¼ ¢x X0 ; ¡jmX0 » 0 ¼m ³ ´ ¢x a(m) = sinc m¼ ¢x : X 0 X0 188
(8.78)
c Emilio Gago-Ribas, 2002 °
1,5
∆x
P0,∆x(x)
1,00
a(m) (a1)
0,75
1,0
0,50 0,5 0,25 0,0
0,00
-0,5 -2
-0,25 2 -10
-1
0
1
x
(a)
1,00
-8
-6
-4
X0a(ξ=mξ0)/∆x
-2
0
m
2
4
6
8
10
(a2)
0,75 0,50 0,25 0,00
1,5
-0,25 -10 ξ0
∆x
T0,∆x(x)
1,00
-8 ξ0
a(m)
-6 ξ0
-4 ξ0
-2 ξ0
0 ξ0
ξ
2 ξ0
4 ξ0
6 ξ0
8 ξ0
(b1)
0,75
1,0
10 ξ0
0,50 0,5 0,25 0,0
0,00
-0,5 -2
-0,25 2 -10
-1
0
1
x
(b)
1,00
-8
-6
-4
2X0a(ξ=mξ0)/∆x
-2
0
m
2
4
6
8
10
(b2)
0,75 0,50 0,25 0,00 -0,25 -10 ξ0
-8 ξ0
-6 ξ0
-4 ξ0
-2 ξ0
0 ξ0
ξ
2 ξ0
4 ξ0
6 ξ0
8 ξ0
10 ξ0
Figura 8.19. Algunas distribuciones periódicas de energía …nita del espacio de señales P~ 2 (X0 ) con X0 = 1; junto con los coe…cientes de su desarrollo en serie de Fourier. También se muestra la representación de los coe…cientes obtenidos a partir de la función continua a(») particularizada en » = m» 0 :
En este desarrollo se han tenido en cuenta los siguientes puntos: (i) el valor de la pulsación en función del período, » 0 = 2¼=X0 ; (ii) el desarrollo de una exponencial compleja en términos de su parte real cosenoidal y su parte imaginaria senoidal y, (iii) el escalado por ¢x=X0 para poder escribir la expresión …nal en términos de la función sinc :6 Nótese cómo los coe…cientes son siempre reales, dado que la función sinc es real. Identi…cando la variable discreta m» 0 con una variable continua »; es fácil escribir dicha expresión en la forma a(m) = a(» = m» 0 ) =
¡ ¢ ¢x sinc ¢x 2 » »=m»0 ; X0
(8.79)
es decir, que el valor de los coe…cientes se podría representar por las muestras de una función sinc continua en la variable » particularizada en los valores » m = m2¼=X0 ; Fig. 8.19(a2). 8.7.2
Tren de triángulos de amplitud unidad y anchura ¢x:
En este caso, la señal se obtiene como repetición de señales triangulares de anchura ¢x; Fig. 8.19(b),
T0;¢x (x) =
8 < ¡ 2 jxj + 1 ¢x :
0
si
jxj <
si
¢x 2
¢x 2
< jxj
X0 2
:
(8.80)
6 A lo largo del presente texto de…niremos la función sinc como sin(x)=x: En el Ap. F.4 se puede encontrar un análisis detallado de esta función.
c Emilio Gago-Ribas, 2002 °
189
Aplicando una vez más la expresión de los coe…cientes en términos del producto escalar, Z Z ¢x=2 ¡ ¡2 ¢ 1 2 ¡jm» 0 x a(m) = T0;¢x (x)e dx = jxj + 1 cos(m» 0 x) dx = ¢x X0 hX0 i X0 0 Z ¢x=2 Z ¢x=2 ¡4 2 = x cos(m» 0 x) dx + cos(m» 0 x) dx = X0 ¢x 0 X0 0 £ ¡ ¡ ¢¤ ¢ 4 8 1 ¡ cos ¢x = = sin2 ¢x 2 2 2 m» 0 4 m» 0 = 2 2 X0 m » 0 ¢x X0 m » 0 ¢x ¢ ¡ 2 ¢x ¡ ¢ ¢x ¢x sin 4 m» 0 = m» 0 ; sinc2 ¢x ¢2 = ¡ ¢x 4 2X0 2X0 m» 4
a(m) =
0
¢x 2X0
³ ´ ¢x sinc2 m¼ 2X : 0
(8.81)
En este desarrollo se han utilizado los siguientes resultados y propiedades: (i) la señal triangular es par; 1 (ii) el desarrollo de la primera integral mediante integración por partes con u = x y v = m» sin(m» 0 x); 0 2 (iii) el desarrollo del seno del ángulo mitad, 2 sin (a=2) = 1 ¡ cos a; y (iv) la expresión de la función sinc. Nótese que, en este caso, todos los coe…cientes son reales y positivos, dado que la función sinc cuadrado es siempre positiva. Identi…cando la variable discreta m» 0 con una variable continua »; es fácil identi…car la expresión de los coe…cientes con, a(m) = a(» = m» 0 ) =
¡ ¢ ¢x sinc ¢x » »=m» ; 4 0 2X0
(8.82)
es decir, que el valor de los coe…cientes se podría representar por las muestras de una función sinc2 continua en la variable » particularizada en los valores » m = m2¼=X0 ; Fig. 8.19(b2).
8.8
Desarrollo en serie de señales reales. Un caso especialmente importante en la práctica es cuando las señales son reales. En virtud de esta propiedad, descrita en (8.60), existen un buen número de nuevas propiedades derivadas de ella de especial importancia en el análisis de problemas físicos reales. Analizaremos a continuación algunas de ellas.
8.8.1
Propiedades para señales reales.
Sea f0 (x) una señal real, esto es, f0 (x) = f0¤ (x); de período X0 : ² La señal discreta a(m) 2 D(¡1; 1); espectro de f0 (x); satisface que: (i) su parte real es par, y (ii) su parte imaginaria es impar, 8 < Re fa(m)g = Re fa(¡m)g f0 (x) real ¡! (8.83) : Im fa(m)g = ¡ Im fa(¡m)g Esta propiedad es una consecuencia directa del resultado en (8.60).
² La señal discreta a(m) 2 D(¡1; 1); espectro de f0 (x); satisface que: (i) su módulo es par, y (ii) su fase es impar, 8 < ja(m)j = ja(¡m)j f0 (x) real ¡! (8.84) : ' (m) = ¡' (¡m) a a Esta propiedad es también una consecuencia directa del resultado en (8.60).
² Las partes real e imaginaria de la señal discreta a(m) se pueden escribir en la forma, Z 1 Re fa(m)g = f0 (x) cos(m» 0 x) dx; X0 hX0 i 190
(8.85)
c Emilio Gago-Ribas, 2002 °
Im fa(m)g = ¡
1 X0
Z
hX0 i
f0 (x) sin(m» 0 x) dx:
(8.86)
Ambas expresiones son claramente par e impar en la variable m; respectivamente. ² La expresión de f0 (x); equivalente a su desarrollo en serie de Fourier, podrá escribirse entonces de la siguiente forma, # " X X jm» 0 x = [Refa(m)g cos(m» 0 x) ¡ Imfa(m)g sin(m» 0 x)] : (8.87) f0 (x) = Re a(m)e m
m
Nótese que por ser f0 (x) real, la parte imaginaria de su desarrollo en serie ha de anularse, # " X X X jm»0 x = Refa(m)g sin(m» 0 x) + Imfa(m)g cos(m» 0 x) = 0; Im a(m)e m
m
(8.88)
m
hecho que resulta evidente dado que tanto Refa(m)g sin(m» 0 x) como Imfa(m)g cos(m» 0 x) resultan ser funciones impares7 en m y, por lo tanto, su suma será siempre nula. ² Relación entre el espectro para valores positivos y el espectro total. Es habitual en la práctica trabajar sólamente con la parte positiva del espectro de una señal, esto es, [a(m)]m¸0 : Denominemos a dicho espectro como a1 (m); 8 < a(m) m¸0 a1 (m) = (8.89) : 0 m<0 Resulta evidente que si f0 (x) es real, su espectro satisface la propiedad (8.83), de forma que podremos expresar el conjunto de coe…cientes a(m) en función de a1 (m) como, a(m) = a1 (m) + a¤1 (m); m 6= 0;
(8.90)
siendo a(0) = a1 (0) el valor en el origen; esta propiedad, considerando m 6= 0; se puede leer también cómo, Re fa(m)g = Re fa1 (m)g + Re fa1 (¡m)g ;
(8.91)
Im fa(m)g = Im fa1 (m)g ¡ Im fa1 (¡m)g : A partir de estas sencillas consideraciones, podremos recuperar la señal original f0 (x) en términos de a1 (m) sin más que analizar el desarrollo en serie de dicha expresión; así, f0 (x) = f01 (x) + f02 (x);
(8.92)
siendo f01 (x) = DSF¡1 [a1 (m)] y f02 (x) = DSF¡1 [a¤1 (¡m)] ; ambas funciones complejas. En ¤ virtud de la propiedad general en (8.48), resulta evidente que f02 (x) = f01 (x); de forma que la última expresión se reduce a, © ª ¤ f0 (x) = f01 (x) + f01 (x) = 2 Re ff01 (x)g = 2 Re DSF¡1 [a1 (m)] : (8.93)
Esto quiere decir que, conocido el espectro de f0 (x) para valores de m positivos, es posible recuperar f0 (x) a partir de dicho espectro sin más que calcular su desarrollo en serie en términos del conjunto fa1 (m)g y tomar el doble de la parte real de la señal obtenida. 8.8.2
Propiedades para señales reales y pares.
Sea f0 (x) una señal real y par, esto es, f0 (x) = f0¤ (x) = f0 (¡x) : ² Su espectro discreto a(m) es también real y par, y coincide con el doble del desarrollo en serie de Fourier en coseno de f0 (x); f0 (x) = f0 (¡x) real ¡! a(m) = a(¡m) = 2ac (m) real. 7 Téngase
(8.94)
en mente que para que una señal discreta x(m) sea impar, su valor en el origen ha de ser nulo, x(0) = 0:
c Emilio Gago-Ribas, 2002 °
191
La demostración de esta propiedad es trivial sin más que considerar conjuntamente la propiedad (8.83) junto con la propiedad general para señales pares en (8.58). Así, si f0 (x) es real, Re fa(m)g es par y Im fa(m)g es impar; si f0 (x) es también par, a(m) ha de ser par; ambas propiedades conjuntamente hacen que 8 < a(m) = Re fa(m)g real y par; (8.95) : Im fa(m)g = 0:
La segunda a…rmación es trivial sin más que imponer la condición de paridad sobre f0 (x) en (8.86); así, el producto f0 (x) sin(m» 0 x) será impar y su integral en x nula. Por otro lado, el producto f0 (x) cos(m» 0 x) en (8.85) es una función par, de forma que la integral a cualquier período se reduce al doble de su valor en un intervalo de longitud la mitad del período original. Teniendo en cuenta la expresión del desarrollo en serie de Fourier en coseno, DSC [f0 (x)] = ac (m) (referirse a la Secc. ??) podremos escribir, Z 1 a(m) = 2ac (m); ac (m) = f0 (x) cos(m» 0 x) dx: (8.96) X0 h X20 i ² El desarrollo en serie de f0 (x) se puede escribir en términos del desarrollo en serie de Fourier en coseno sin más que aplicar los resultados anteriores a la ecuación (8.87), así, f0 (x) = DSF¡1 [a(m)] =
1 X
a(m) cos(m» 0 x) = 2
m=¡1
= ac (0) + 2
1 X
1 X
ac (m) cos(m» 0 x) =
m=¡1
ac (m) cos(m» 0 x) = DSC¡1 [ac (m)] :
(8.97)
m=1
Nótese que en la cuarta igualdad hemos tenido en cuenta el hecho de que el producto ac (m) cos(m» 0 x) es una nueva función par en la variable m: 8.8.3
Propiedades para señales reales e impares.
Sea f0 (x) una señal real e impar, esto es, f0 (x) = f0¤ (x) = ¡f0 (¡x) : ² Su espectro discreto a(m) es también real e impar, y coincide con el doble del desarrollo de Fourier en seno de f (x) cambiado de signo, f0 (x) = ¡f0 (¡x) real ¡! a(m) = ¡a(¡m) = ¡2as (m) real.
(8.98)
La demostración de esta propiedad es trivial sin más que considerar conjuntamente la propiedad (8.83) junto con la propiedad general para señales pares en (8.59). Así, si f0 (x) es real, Re fa(m)g es par y Im fa(m)g es impar; si f0 (x) es también impar, a(m) ha de ser impar; ambas propiedades conjuntamente hacen que 8 < Re fa(m)g = 0 (8.99) : a(m) = Im fa(m)g real e impar.
La primera a…rmación es trivial sin más que imponer la condición de imparidad sobre f0 (x) en (8.85); así, el producto f0 (x) cos(m» 0 x) será impar y su integral en cualquier periódo de longitud X0 nula. Por otro lado, el producto f0 (x) sin(m» 0 x) en (8.86) es una función par, de forma que la integral a cualquier intervalo de longitud X0 se reduce al doble de su valor en un intervalo de longitud X0 =2: Teniendo en cuenta la expresión del desarrollo en serie de Fourier en Seno, TS [f0 (x)] = as (m) (referirse a la Secc. ??) podremos escribir, Z 1 f0 (x) sin(m» 0 x) dx: (8.100) a(m) = ¡2as (m); as (m) = X0 hX0 =2i
192
c Emilio Gago-Ribas, 2002 °
Figura 8.20. Esquema de un SLI caracterizado por F o su respuesta al impulso h(x) frente a una señal de entrada periódica, y su desarrollo en serie de Fourier.
² El desarrollo en serie de f0 (x) se puede escribir en términos del desarrollo en serie de Fourier en seno sin más que aplicar los resultados anteriores a la ecuación (8.87), así, f0 (x) = DSF¡1 [a(m)] = ¡ = 2
1 X
1 X
m=¡1
a(m) sin(m» 0 x) = ¡2
1 X
as (m) sin(m» 0 x) =
m=¡1
as (m) sin(m» 0 x) = DSS¡1 [as (m)] :
(8.101)
m=1
Nótese que en la cuarta igualdad hemos tenido en cuenta el hecho de que el producto as (m) sin(m» 0 x) de dos funciones impares es una nueva función par. Por otro lado, el término en m = 0 es nulo, bien por la función seno, bien porque as (0) = 0 dado que es una señal discreta impar.
8.9
El desarrollo en serie de Fourier y los sistemas lineales e invariantes.
8.9.1
Funciones propias del sistema.
Como ya se adelantó en el Cap. 4, no sólo será conveniente estudiar bases f'(x; m)g dentro de un espacio de señales especí…co sino que, además, esas bases deberían ser adecuadas desde el punto de vista del operador o sistema que va a operar sobre el espacio de señales. Analizaremos a continuación el concepto anterior de adecuación respecto al operador, en el caso de que éste sea lineal. Así, la adecuación del conjunto de funciones elegido como base será válido para todo el conjunto LI(P~ 2 (X0 )) ó LI(P~ D (X0 )) de operadores lineales e invariantes. Consideremos una señal arbitraria f0 (x) como señal de entrada a un sistema descrito por el operador F; o bien por su respuesta al impulso h(x) asumiendo que el sistema es lineal e invariante. Si la señal f0 (x) posée desarrollo en serie de Fourier8 en términos del conjunto de funciones f'(x; m)g, parece imprescindible analizar cuál sería la salida del sistema para dicho desarrollo en serie y, por lo tanto, para cada una de las funciones como veremos posteriormente, Fig. 8.20. Es posible entonces escribir las siguientes relaciones, F : f0 (x) ¡! g0 (x) = f0 (x) ¤ h(x); 1 £ ¤ P F : DSF¡1 [a(m)] ¡! F DSF¡1 [b(m)] = a(m)F['(x; m)]:
(8.102)
m=¡1
Nótese que en esta última relación se ha utilizado directamente el concepto de sistema lineal liso, es decir, que la combinación in…nita de señales a la entrada da lugar a la misma combinación lineal in…nita de señales a la salida. De esta forma, bastará con analizar el término F['(x; m)]; lo que sería equivalente a estudiar cuál sería la respuesta del sistema al conjunto de funciones base bajo estudio, en este caso, exponenciales complejas de pulsación m» 0 ; teniendo en cuenta la respuesta al impulso del sistema por ser invariante, podremos escribir Z Z 0 0 F['(x; m)] = '(x; m) ¤ h(x) = ejm»0 (x¡x ) h(x0 ) dx0 = ejm»0 x h(x0 )e¡jm»0 x dx0 : (8.103) x0
x0
Esta última ecuación se podría reescribir de la siguiente forma,
F : '(x; m) ¡! F['(x; m)] = H(m» 0 )'(x; m);
donde
H(m» 0 ) ´ H(m) = 8 De
Z
x
h(x)'¤ (x; m) dx = hh(x); '(x; m)i :
(8.104)
(8.105)
forma más rigurosa, si f0 (x) 2 P~ 2 (X0 ); o bien f0 (x) 2 P~ D (X0 ):
c Emilio Gago-Ribas, 2002 °
193
0,7
|a(m)|
Fase{a(m)}
0,6
1,0π
0,5
0,5π
0,4
0,0π
0,3
-0,5π
0,2 0,1
-1,0π
0,0 -10 2,5
-8
-6
-4
-2
|H(m)|
0
m
2
4
6
8
10
-10
-8
-6
-4
-2
m
0
2
4
6
8
10
-4
-2
m
0
2
4
6
8
10
-4
-2
m
0
2
4
6
8
10
Fase{H(m)} 1,0π
2,0 0,5π 1,5 0,0π 1,0 -0,5π 0,5 -1,0π 0,0 -10 1,5
-8
-6
-4
-2
|b(m)|
0
m
2
4
6
8
10
-10
-8
-6
Fase{b(m)} 1,0π
1,0
0,5π
0,5
-0,5π
0,0π
-1,0π 0,0 -10
-8
-6
-4
-2
0
m
2
4
6
8
10
-10
-8
-6
Figura 8.21. Ejemplo del módulo y de la fase de los coe…cientes a(m); b(m) y H(m) para una señal de entrada periódica f0 (x) = e¡x en x 2 (0; 1) de período X0 = 1: La respuesta al impulso del sistema es tal que jH(m)j = 2e¡0:05jmj»0 y 'H (m) = tan¡1 f0:1m» 0 g:
Estas dos ecuaciones …nales merecen los siguientes comentarios: ² De (8.104) se deduce que las funciones base '(x; m) no son más que funciones propias del sistema; esto quiere decir que un armónico cualquiera se transforma en sí mismo modi…cado en amplitud y fase por el valor de su coe…ciente correspondiente H(m): De hecho, los valores espectrales H(m) no son más que lo autovalores o valores propios asociados a dichas funciones respecto del operador F. ² Sustituyendo (8.104) en (8.102) es posible expresar la señal de salida en términos de su desarrollo en serie de Fourier; los correspondientes coe…cientes b(m) vendrían dados entonces por, a(m) ¡! b(m) = H(m)a(m):
(8.106)
Esta sencilla transformación de coe…cientes describirá el análisis del sistema en el dominio espectral (variable discreta m, o bien m» 0 referida a la pulsación fundamental). Nótese que tanto para la señal de entrada como para la de salida, volver al dominio real implica simplemente multiplicar cada coe…ciente por el armónico al que está asociado, realizando …nalmente la suma de todos los armónicos. Dado que las funciones base son funciones propias, será posible operar directamente con los coe…cientes del desarrollo en serie de las señales involucradas. ² Desde el punto de vista del análisis del sistema, podremos concluir que su comportamiento se puede describir a través de la modi…cación que produce sobre cada uno de los armónico que componen la señal de entrada f0 (x) en módulo y fase en función del valor de los coe…cientes H(m); esto es, jb(m)j = ja(m)j jH(m)j y 'b(m) = 'a(m) + 'H(m) ; este último signi…cará, para cada uno de ' X0 los armónicos, un desplazamiento a derecha o izquierda de valor 'H(m) ¡! H(m) 2¼ m respecto al 'a(m) X0 desplazamiento 'a(m) ¡! 2¼ m que posea originalmente cada armónico de entrada. En la Fig. 8.21 se muestra un ejemplo de este análisis para un operador cuya respuesta al impulso viniese descrita por unos valores de jH(m)j y 'H(m) como los mostrados. En las Figs. 8.22 y 8.23 se muestra cómo algunos armónicos de la señal de entrada se ven modi…cados a la salida del sistema en función de los valores de H(m) para dichos armónicos. ² Nótese …nalmente como el valor de cada uno de los coe…cientes H(m) está relacionado con el operador F a través de su respuesta al impulso h(x); señal que, a priori, no tiene porqué ser periódica. Esto 194
c Emilio Gago-Ribas, 2002 °
quiere decir que el sistema podrá estar descrito en principio por señales arbitrarias pertenecientes al ~ espacio S(¡1; 1)9 de forma que el producto escalar en (8.105) será el de…nido sobre dicho espacio de funciones. De esta forma, podremos reescribir el valor de los coe…cientes en la forma general descrta por (8.105) o, lo que es lo mismo, Z 1 H(m) = h(x)e¡jm»0 x dx: (8.107) ¡1
Las posibles interpretaciones de estos coe…cientes se verán a continuación. Una de ellas proveerá de forma natural las bases para de…nir la transformada de Fourier de señales aperiódicas que analizaremos en el Cap. 9. 8.9.2
Análisis de los coe…cientes H(m): ² Los coe…cientes H(m) descritos en (8.107) pueden ser analizados grá…camente a través del estudio de la función subintegral ª ª © © (8.108) h(x)e¡jm»0 x = Re h(x)e¡jm»0 x + j Im h(x)e¡jm»0 x : ~ Asumiendo que h(x) 2 S(¡1; 1); el área bajo la curva de dicha función nos dará la información de las partes real e imaginaria de H(m); esto es, Z 1 Z 1 ª ª © © Re fH(m)g = Re h(x)e¡jm»0 x dx; Im fH(m)g = Im h(x)e¡jm»0 x dx: (8.109) ¡1
¡1
En las Figs. 8.24 y 8.25 se muestran dos ejemplos, el primero de ellos para una función h(x) real, y el segundo para una función h(x) compleja. Nótese como escribiendo h(x) en módulo y fase, es posible reescribir las anteriores expresiones en la forma, Z 1 Z 1 jh(x)j sin [m» 0 x + 'h (x)] dx; jh(x)j cos [m» 0 x + 'h (x)] dx; Im fH(m)g = ¡ Re fH(m)g = ¡1
¡1
(8.110)
es decir, la parte real será una función coseno modulada en amplitud por jh(x)j y con un cierto desfase 'h (x) dependiente de x; mientras que la parte imaginaria será una función senoidal con la misma modulación de amplitud y fase con x. El área bajo estas curvas nos dará el valor correspondiente del coe…ciente m-ésimo. ² Otra forma de visualizar dichos coe…cientes será mediante su representación compleja, esto es, representando sus partes real e imaginaria sobre el plano complejo H(m); previa eliminación del parámetro m: Ejemplos de este tipo de representación se muestran en la Fig. 8.26. En la primera se representa el caso de los valores de H(m) relativos a la función h(x) de la Fig. 8.24. En la segunda, se representa el caso con h(x) = P¢x (x); con ¢x = 1; esto es, la distribución pulso unidad de…nida en (¡1=2; 1=2): ² Finalmente, resulta muy importante destacar que es posible interpretar los valores en (8.107) sin más que de…nir una nueva variable continua »; tal que Z 1 H(») = h(x)e¡j»x dx ! H(m) = H(» = m» 0 ): (8.111) ¡1
Con esta representación, el valor de los coe…cientes vendría dado por las muestras de una función de…nida sobre la nueva variable » particularizada en los valores » = m» 0 = m2¼=X0 : Asumiendo ~ una vez más que h(x) 2 S(¡1; 1); nótese como, de forma natural, aparece el concepto de dominio transformado y de transformada de una función, en este caso la transformada de la respuesta al © ª impulso de un sistema respecto del conjunto continuo de funciones ej»x :
Como se analizará © ª en el capítulo siguiente, cuando las funciones base de ese espacio sean las exponenciales ej»x ; hablaremos de la Transformada de Fourier de una señal arbitraria perteneciente a ~ S(¡1; 1): En este caso particular, los valores H(m) no serán más que muestras especí…cas de la transformada de Fourier de la respuesta al impulso de un sistema en » = m» 0 : 9 Parece razonable asumir que la respuesta h(x) a una distribución del tipo ±(x) sea una nueva distribución. Nótese cómo en el Cap. 7, las distribuciones básicas descritas están todas ellas asociadas a la transformación de la distribución inicial ±(x) por un determinado operador; por ejemplo, ± 0 (x) = d±(x)=dx; siendo F ´ d=dx:
c Emilio Gago-Ribas, 2002 °
195
1,5
m=0
Re{a(m)ϕ(x;m)}
1,0
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0
-1,0
-1,5 -1 0,15
m=1
1,5
0
Re{a(m)ϕ(x;m)}
x
1
2
0,10
0,10
0,05
0,05
0,00
0,00
-0,05
-0,05
0,15
Re{a(m)ϕ(x;m)}
x
1
2
-0,15 -1
x
1
2
0,10 0,05
0,00
0,00
-0,05
-0,05
-0,10
-0,10 0
Re{a(m)ϕ(x;m)}
x
1
2
-0,15 -1 0,15
0,10
0,10
0,05
0,05
0,00
0,00
-0,05
-0,05
-0,10
0
x
1
2
0
x
1
2
0
x
1
2
Re{b(m)ϕ(x;m)} 0,15
0,05
-0,15 -1
m=3
0
0,10
0,15
0
Re{b(m)ϕ(x;m)}
-0,10
-0,15 -1
m=-1
-1,5 -1 0,15
-0,10
Re{b(m)ϕ(x;m)}
Re{b(m)ϕ(x;m)}
-0,10
-0,15 -1
0
x
1
2
-0,15 -1
Figura 8.22. Parte real de algunos armónicos de las señales de entrada y de salida del sistema de…nidos en la Fig. 8.21.
1,5
m=0
Im{a(m)ϕ(x;m)}
1,5
1,0
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0
-1,0
-1,5 -1
0
Im{a(m)ϕ(x;m)} 0,15 m=1
x
1
2
0,15 0,10
0,05
0,05
0,00
0,00
-0,05
-0,05
-0,10 0
Im{a(m)ϕ(x;m)}
x
1
2
0,15 0,10
0,05
0,05
0,00
0,00
-0,05
-0,05
-0,10
x
1
2
0
x
1
2
0
x
1
2
0
x
1
2
Im{b(m)ϕ(x;m)}
-0,10
-0,15 -1
m=3
-0,15 -1
0,10
0,15
0
Im{b(m)ϕ(x;m)}
-0,10
-0,15 -1
m=-1
-1,5 -1
0,10
0,15
Im{b(m)ϕ(x;m)}
0
Im{a(m)ϕ(x;m)}
x
1
2
-0,15 -1 0,15
0,10
0,10
0,05
0,05
0,00
0,00
-0,05
-0,05
-0,10 -0,15 -1
Im{b(m)ϕ(x;m)}
-0,10 0
x
1
2
-0,15 -1
Figura 8.23. Parte imaginaria de algunos armónicos de las señales de entrada y de salida del sistema de…nidos en la Fig. 8.21.
196
c Emilio Gago-Ribas, 2002 °
1,2
Re{h(x)}
1,2
1,0
1,0
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
0,0
1,2
-4
-2
|h(x)|
0
2
x
4
0,0π
0,4
-0,5π
0,2
-1,0π -4
-2 *
Re{h(x)ϕ (x;m)}
4
Re{H(0)}
-4 1,2
0,4 0,0
-0,4
-0,4
-0,8
-0,8 -4
-2
Re{h(x)ϕ (x;m)}
0
x |h(x)|
2
4
Re{H(1)}
-1,2
1,2 0,8
0,4
0,4
0,0
0,0
-0,4
-0,4
-0,8
-0,8 -2 *
1,2
Re{h(x)ϕ (x,m)}
0
x
|h(x)|
2
4
Re{H(2)}
-1,2
1,2 0,8
0,4
0,4
0,0
0,0
-0,4
-0,4
-0,8
-0,8 -4
-2 *
1,2
Re{h(x)ϕ (x,m)}
0
x
|h(x)|
2
4
Re{H(4)}
-1,2
1,2 0,8
0,4
0,4
0,0
0,0
-0,4
-0,4
-0,8
-0,8 -4
-2
0
x
2
4
-2
Im{h(x)ϕ (x;m)}
-4
-2
Im{h(x)ϕ (x,m)}
-4
-2 *
0,8
-1,2
-4
*
0,8
-1,2
Im{h(x)ϕ (x;m)}
*
0,8
-4
-2 *
0,0
-1,2
m=4
2
0,8
1,2
m=2
|h(x)|
0,4
*
m=1
0
x
0,8
-1,2
0
2
0
2
x
4
0,5π
0,6
1,2
-2
Fase{h(x)}
0,8
0,0
-4
1,0π
1,0
m=0
0,0
Im{h(x)}
-1,2
Im{h(x)ϕ (x,m)}
-4
-2
x
0
x |h(x)|
0
x |h(x)|
0
2
0
4
Im{H(1)}
2
4
Im{H(2)}
2
x |h(x)|
x
4
Im{H(0)}
4
Im{H(4)}
2
4
Figura 8.24. Análisis de la integral asociada a los coe…cientes H(m) ´ H(m» 0 ) 2 para el caso h(x) = e¡0:05x y período X0 = 2:
c Emilio Gago-Ribas, 2002 °
197
1,6
Re{h(x)}
1,6
1,2
1,2
0,8 0,4
0,8 0,4
0,0 -0,4
0,0 -0,4
-0,8
-0,8
-1,2
-1,2
-1,6
1,6
-4
-2
|h(x)|
0
2
x
4
1,4
1,0π
1,2
0,5π
0,8
0,0π
0,6 0,4
-0,5π
0,2 0,0
-4
-2
Re{h(x)ϕ (x;m)}
1,6 1,2
-1,2 -1,6
-4
-2
Re{h(x)ϕ (x;m)}
0
x |h(x)|
2
4
Re{H(1)}
1,6 1,2 0,8
0,4
0,4
0,0
0,0
-0,4 -0,8
-0,4 -0,8
-1,2 -1,6
-1,2 -1,6
-2
Re{h(x)ϕ (x;m)}
0
x
|h(x)|
2
4
Re{H(2)}
1,6 1,2 0,8 0,4
0,0 -0,4 -0,8
0,0 -0,4 -0,8
-1,2 -1,6
-1,2 -1,6
-2
0
Re{h(x)ϕ (x;m)}
x
*
|h(x)|
2
4
Re{H(4)}
1,6 1,2 0,8 0,4
0,0 -0,4
0,0 -0,4
-0,8
-0,8
-1,6
-2
Im{h(x)ϕ (x;m)}
-4
-2
Im{h(x)ϕ (x;m)}
-4
-2 *
0,8 0,4
-1,2
-4
*
0,8 0,4
-4
Im{h(x)ϕ (x;m)}
*
0,8
-4
-2 *
-1,2 -1,6
1,6 1,2
0
2
4
x
*
-4
0,0 -0,4 -0,8
1,6 1,2
m=4
4
Re{H(0)}
0,0 -0,4 -0,8
*
m=2
2
0,8 0,4
*
m=1
0
x |h(x)|
0,8 0,4
1,6 1,2
-2
-1,0π
*
1,6 1,2
-4
Fase{h(x)}
1,0
m=0
-1,6
Im{h(x)}
Im{h(x)ϕ (x;m)}
0
x
|h(x)|
0
0
0
4
Im{H(0)}
x |h(x)|
x
2
|h(x)|
x |h(x)|
2
4
Im{H(1)}
2
4
Im{H(2)}
2
4
Im{H(4)}
-1,2 -4
-2
0
x
2
4
-1,6
-4
-2
0
2
4
x
Figura 8.25. Análisis de la integral asociada a los coe…cientes H(m) ´ H(m» 0 ) 2 2 para el caso h(x) = e¡0:05x + je¡0:1x y período X0 = 2:
198
c Emilio Gago-Ribas, 2002 °
0
Fase{H(m)}
|H(m)| 9
0
1,0π 0,5π
6
0,0π 3
-0,5π -1,0π
0 -10
-8
-6
-4
-2
0
2
m
4
6
8
10
-10
-8
-6
-4
-2
0
2
m
8
4
6
8
10
6
8
10
Im{H(m)}
6 4 2 0
Re{H(m)}
0
m
-2 -4 -6 -8 -8
-6
-4
-2
0
|H(m)| 1,0
0
2
180
4
6
-2
1
-1 0,8
-5
90
-4
0,6
-5 -4
0,2
-8
-6
-4
-3
1 4
-2
0
m
2
3
-1 0
0
2
-2
0,4
0,0 -10
8
Fase{H(m)} -3
4
5 6
4
-90
2 -180 10 -10
8
-8
-6
-4
-2
0
5 2
m
3
4
1,00
-4
0,75
Im{H(m)}
0,50 0,25
-1 -2
0,00 -0,25 -0,50
0
Re{H(m)}
2 1
...,-9,-6,-3,3,6,9,...
-0,75 -1,00 -1,00 -0,75 -0,50 -0,25 0,00 0,25 0,50 0,75 1,00
4
Figura 8.26. Representación compleja de los coe…cientes H(m) para los casos: ¡0:05x2 2 (a) h(x) = ³ e 2 2 ´ y X0 = 2: Nótese que si h(x) = exp(¡ax ); H(m» 0 ) = p m »0 ¼=a exp ¡ 4a :; (b) h(x) = 1; x 2 (0; 1); y X0 = 3: Si h(x) = 1; x 2 (0; a); H(m» 0 ) = (1 ¡ e¡jam»0 )=jm» 0 :
c Emilio Gago-Ribas, 2002 °
199
200
c Emilio Gago-Ribas, 2002 °
9.
La Transformada de Fourier
9.1
Introducción. En el presente capítulo describiremos la transformada de Fourier, analizando cómo ésta surge a partir del concepto del desarrollo en serie de Fourier estudiado en el capítulo anterior sin más que realizar una continuación de la variable discreta m» 0 a una variable continua ». Nótese cómo esta continuación de una variable discreta a una variable continua ya apareció de forma natural en dos ocasiones. La primera al analizar los coe…cientes a(m) del desarrollo en serie de Fourier de una señal periódica, Secc. 8.2.3, vistos como ciertos valores especí…cos de una función a(») en la forma, Z 1 f0 (x)e¡j»x dx ¡! a(m) ´ a(» = m» 0 ): (9.1) a(») = X0 hX0 i En este caso, la integral se corresponde con el producto escalar de…nido en el espacio de funciones P~ (X0 ); aunque la extensión a la variable continua » hace referencia a funciones fuera de dicho espacio, esto es, '(x; ») = ej»x : De esta forma, podremos expresar la función f0 (x) original en términos de la combinación lineal descrita por (8.18). La segunda ocasión, y más directamente relacionada con el concepto de transformada, surgió al realizar el análisis en el dominio espectral de un sistema frente a una señal periódica, Secc. 8.9. En ese caso vimos cómo los coe…cientes a(m) de la señal de entrada se ven modi…cados por un factor complejo H(m) que podría verse también a través de la de…nición de una función de variable continua muestreada adecuadamente, Z H(») = h(x)e¡j»x dx ¡! H(m) = H(» = m» 0 ): (9.2) x
En este caso, la respuesta al impulso h(x) del sistema ya no tiene porqué ser una señal periódica, y por lo tanto: (i) la expresión obtenida hace referencia al producto escalar en el espacio de funciones arbitrarias ~ S(¡1; 1); y (ii) por similitud al caso de señales periódicas, podríamos pensar en la existencia de una relación similar a (8.6) que nos permitiera expresar h(x) en términos de los coe…cientes H(») y, por lo tanto, de las funciones '(x; ») = ej»x : Este concepto, extendido a cualquier señal f (x) arbitraria ~ ~ b) dará lugar a la transformada de Fourier en términos de exponenciales del espacio S(¡1; 1) o S(a; imaginarias, en la forma, f (x) = T['(x; »)] = ej»x :
(9.3)
En el presente capítulo analizaremos la forma del operador transformada T referido en la anterior ecuación. Recordaremos a continuación el álgebra (producto escalar, norma y distancia) de…nida en el espacio de ~ señales S(¡1; 1) dado que será el que determinará la métrica a utilizar a lo largo del presente capítulo: Z hf (x); g(x)i = f(x)g ¤ (x)dx; (9.4) x
kf(x)k = hf(x); f (x)i1=2 =
d(f(x); g(x)) = kf (x) ¡ g(x)k =
Z
x
Z
x
¸1=2 jf(x)j2 dx ;
¸1=2 jf(x) ¡ g(x)j2 dx :
(9.5)
(9.6)
201
9.2
La transformada de Fourier a partir del desarrollo en serie. La forma habitual de obtener la expresión de una transformación en términos de unas funciones base a partir del desarrollo en serie de Fourier se podría resumir en los siguientes pasos que analizaremos a continuación. Es importante hacer notar que este proceso no es riguroso en términos algebraicos pero sí es su…cientemente intuitivo para entender el concepto de continuación de una variable numerable m» 0 a una variable continua »: En la Secc. 9.11 se expondrán algunos comentarios algebraicos de interés. ~ 1. Representación de una señal aperiódica f (x) del espacio S(¡1; 1) de duración limitada como una señal periódica f0 (x): 2. Representación de f0 (x) a través de su desarrollo en serie de Fourier. 3. Análisis de f0 (x) y de su desarrollo en serie cuando X0 ! 1; es decir, tomando el período de la señal como un parámetro, y analizando su comportamiento cuando dicho período es su…cientemente grande. 4. La representación obtenida mediante este esquema será válida también para un buen número de señales de duración in…nita, esto es, que se extiendan entre ¡1 e 1: Estos pasos nos llevarán a la de…nición del operador T en términos de un conjunto in…nito y continuo (no numerable) de funciones sobre la variable »: Consideremos como punto de partida una señal aperiódica f (x) cualquiera que toma valores diferentes ~ de cero en el intervalo (a; b) …nito, y perteneciente al espacio de señales S(¡1; 1); Fig. 9.1(a). A partir de ella, podríamos de…nir una función periódica f0 (x) sin más que considerar un valor del período adecuado, Fig. 9.1(b).
Figura 9.1. De…nición de una señal periódica de período X0 para la de…nición de la transformada de Fourier cuando X0 ! 1:
De…nida la señal periódica y asumiendo que existe su desarrollo en serie de Fourier podremos escribir, f0 (x) =
1 X
a(m)ejm»0 x ; » 0 =
m=¡1
2¼ ; X0
(9.7)
f0 (x)e¡jm»0 x dx:
(9.8)
siendo los coe…cientes a(m) los valores dados por 1 a(m) = X0
Z
hX0 i
¡jm»0 x
f0 (x)e
1 dx = X0
Z
X0 0
Nótese que, una vez restringido el intervalo de integración a un período (i.e., entre 0 y X0 ), dentro de dicho intervalo la función f0 (x) coincide con f(x) salvo en las discontinuidades, lo que no afecta a la integral, de forma que podremos reescribir los coe…cientes en la forma, Z X0 1 a(m) = f (x)e¡jm»0 x dx: (9.9) X0 0 202
c Emilio Gago-Ribas, 2002 °
1,2
|F(ξ)|
Fase{F(ξ)} (rad) 0,5π
1,0 0,8
0,3π
0,6
0,0π
0,4
-0,2π
0,2
-0,5π
0,0 -6,0π
x = 0.25
1,0
-4,0π
Re{exp(jξx)}
-2,0π
0,0π
ξ
2,0π
4,0π
6,0π
-6,0π 1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0 -6,0π 1,00
-4,0π
-2,0π
Re{F(ξ)exp(jξx)}
0,0π
ξ
2,0π
4,0π
6,0π
-1,0 -6,0π 1,00
0,75
0,75
0,50
0,50
0,25
0,25
0,00
0,0π
ξ
2,0π
4,0π
6,0π
-4,0π
-2,0π
0,0π
ξ
2,0π
4,0π
6,0π
ξ
2,0π
4,0π
6,0π
Im{F(ξ)exp(jξx)}
ξ0
-0,25
-0,50
-0,50
-0,75 -1,00 -6,0π
-2,0π
0,00
ξ0
-0,25
-4,0π
Im{exp(jξx)}
-0,75 -4,0π
-2,0π
0,0π
ξ
2,0π
4,0π
6,0π
-1,00 -6,0π
-4,0π
-2,0π
0,0π
Figura 9.2. Ejemplo de análisis de los términos ej»x = cos x» + j sin x» y F (»)ej»x para un valor de x = 0:25; y para una función compleja F (») como la mostrada en la parte superior en módulo y fase. Las áreas en negrita representan el valor de la suma en (9.13) para m = 0; 1; 2; y 3:
Como la función f (x) vale cero fuera del intervalo (a; b); será nula también fuera del intervalo (0; X0 ); de forma que el intervalo de integración se puede extender a todo el rango de la variable independiente, Z 1 1 f(x)e¡jm»0 x dx: (9.10) a(m) = X0 ¡1 Nótese una vez más cómo esta integral podría expresarse en términos de una función de variable continua » en la forma, Z 1 F (») = f(x)e¡j»x dx: (9.11) ¡1
Así, el valor de los coe…cientes a(m) podría identi…carse con ciertos valores de la función F (») justamente en » = m» 0 ; a(m) =
1 F (» = m» 0 ): X0
(9.12)
Sustituyendo el valor de los coe…cientes en la expresión del desarrollo en serie en (9.7), es posible reescribir dicha ecuación en la forma, f0 (x) =
1 £ ¤ 1 X » 0 F (»)ej»x »=m» ; 0 2¼ m=¡1
(9.13)
donde hemos considerado las funciones continuas F (») y ej»x particularizadas en » = m» 0 : A su vez, hemos sustituído el valor del período X0 en términos de la pulsación » 0 correspondiente. Analicemos a continuación el signi…cado de dicho sumatorio. c Emilio Gago-Ribas, 2002 °
203
En la Fig. 9.2 se muestra un posible ejemplo de cuál sería la representación de las partes real e imaginaria de la función F (»)ej»x para un caso genérico con F (») compleja. Nótese en primer lugar que el análisis en función de » conlleva considerar exponenciales imaginarias donde la variable x juega ahora el papel de pulsación, de forma que las funciones de » ej»x = cos »x + j sin »x
(9.14)
serán periódicas de período 2¼=x: £Por otro lado, cada uno de los términos del sumatorio no es más que ¤ el área de un rectángulo de altura F (»)ej»x »=m» y de ancho » 0 ; tal y como se representa en a Fig. 9.2 0 para los valores de m = 0; 1; 2 y 3: El sumatorio extendido a todos los valores de m sería el área total de todos los rectángulos de ancho m» 0 : El análisis pasará entonces por estudiar el comportamiento de (9.13) cuando X0 ! 1: Cuando esto ocurre, el valor de la pulsación » 0 ! 0; de forma que la suma se convierte en una integral extendida a todo el rango de valores de la variable continua »: Al mismo tiempo, la función f0 (x) ! f(x) cuando el período es su…cientemente grande. Con estas dos consideraciones en mente, es posible reescribir (9.13) de la siguiente forma, Z 1 1 f (x) = F (»)ej»x d»; (9.15) 2¼ »=¡1 ecuación que claramente se corresponde con la expresión general escrita previamente en (9.3). Nótese cómo el operador buscado se convierte, como cabía esperar, en un operador integral, dando lugar a una combinación lineal continua del conjunto continuo de funciones © ª f'(x; »)g = ej»x ; (9.16)
siendo F (») el conjunto de coe…cientes asociados a dicha combinación lineal. 9.2.1
De…nición de la transformada de Fourier.
Recuperando la expresión de F (») escrita en (9.11), e identi…cando estas transformaciones con su carácter de operador descrito en el Cap. 4, podremos escribir el par de transformadas de Fourier de la siguiente forma, Z 1 ¡1 f (x) = TF [F (»)] = F (»)ej»x d»; (9.17) 2¼ » F (») = TF [f(x)] =
Z
f (x)e¡j»x dx; x
(9.18)
siendo la primera la denominada transformada inversa de Fourier, y la segunda, la transformada directa de Fourier o transformada de Fourier simplemente. Las integrales en » y en x indican, como siempre, que el rango de integración será entre ¡1 y +1 en el caso más general, o en el intervalo donde las funciones subintegrales no sean nulas, en el caso de señales F (») o f(x) de duración …nita en sus respectivas variables. Aunque el punto de partida para f(x) era una señal de duración …nita de…nida en el intervalo (a; b), los criterios de convergencia analizados en la Secc. 9.3 determinarán que el par de transformadas de Fourier es válido también para un buen número de señales de duración in…nita. También se analizará en la Secc. 9.6 la existencia y de…nición de transformadas de Fourier de señales de duración in…nita que no cumplen los criterios de convergencia analizados en la Secc. 9.3. Utilizando la notación algebraica introducida en el Cap. 4, ecuaciones (4.20) y (4.21), podremos escribir, 8 9 8 9 ~ ~ TF¡1 : S(¡1; 1) ¡! S(¡1; 1) > > ~ ~ > > > TF : S(¡1; 1) ¡! S(¡1; 1) > > > > > > > > > < = < = f(x) = TF¡1 [F (»)] y ; (9.19) F (») = TF [f (x)] Z > > > > > > > > > > > > ¡1 > 1 > : ; : ; TF (¢) = 2¼ (¢)'(x; ») d» TF(¢) = h(¢); '(x; »)i »
© ª ~ f (x); f'(x; »)g = ej»x y F (») 2 S(¡1; 1):
En la Fig. 9.3 se muestra el esquema de estas transformaciones. 204
c Emilio Gago-Ribas, 2002 °
Figura 9.3. Representación en forma de sistema de las transformaciones asociadas a la transformada de Fourier.
9.2.2
Notaciones habituales. 1. En el dominio temporal, la variable real será t;©siendo ª ! la variable espectral; el conjunto de funciones base se representa entonces por f'(t; !)g = ej!t y el par de transformadas vendrá dado por Z 1 Z 1 1 j!t f(t) = F (!)e d! $ F (!) = f (t)e¡j!t dt: (9.20) 2¼ !=¡1 t=¡1 2. En el dominio espacial, la variable real será, por ejemplo, z; espectrales; © siendo ª ¯ o k las variables © ª el conjunto de funciones base se denotará por f'(z; ¯)g = e¡j¯z ó f'(z; k)g = e¡jkz ; y el par de transformadas vendrá dado por Z 1 Z 1 1 f (z) = F (¯)e¡j¯z d¯ $ F (¯) = f (z)ej¯z dz; (9.21) 2¼ ¯=¡1 z¡1 f (z) =
1 2¼
Z
1
k=¡1
F (k)e¡jkz dk $ F (k) =
Z
1
f (z)ejkz dz:
(9.22)
z¡1
La justi…cación del cambio de signo para este caso está asociada a los conceptos descritos en la Secc. 5.4 relativos a la representación de señales sinusoidales en el tiempo y en el espacio que representes fenómenos propagativos para valores de z crecientes. 9.2.3
Coe…cientes de la combinación lineal.
Nótese que los coe…cientes F (») en (9.18) correspondientes a la combinación lineal continua en (9.17) satisfacen una vez más las propiedades descritas en el Cap. 4, es decir, los coe…cientes se pueden escribir como el producto escalar del elemento f (x) original por el continuo de elementos de la base en (9.16) y, por lo tanto, como la proyección de f(x) sobre cada uno de los elementos de la base. Matemáticamente, Z F (») = TF [f (x)] = f (x)e¡j»x dx = hf(x); '(x; »)i: (9.23) x
Desde el punto de vista algebraico esto sugiere que el operador transformada inversa TF¡1 [F (»)] en (9.17) descrito en términos de los coe…cientes en (9.18) ha de constituir la mejor aproximación posible a f (x) en términos de la base f'(x; »)g en (9.16). El sentido de esta aproximación se traducirá una vez más en los criterior de convergencia que pasamos a analizar en la siguiente sección.
9.3
Criterios de convergencia de la transformada de Fourier. El análisis de los criterios de convergencia de la transformada inversa de Fourier en (9.17) pasa por las mismas consideraciones que los realizados acerca del desarrollo en serie de Fourier en (8.18), esto es, el estudio de la convergencia de los coe…cientes, en aquel caso los a(m) y en este caso los valores de F (») de…nidos en (9.18). Igual que el caso del desarrollo en serie, aunque la convergencia de F (») no asegura la convergencia de la transformada inversa en (9.17), el criterio es válido para la mayor parte de las señales que aparecen en la práctica. Dichos criterios de convergencia son los mismos que en el caso de las señales periódicas. c Emilio Gago-Ribas, 2002 °
205
9.3.1
Señales de energía …nita.
El primer criterio de convergencia de F (») está directamente relacionado con el análisis de la ’mejor aproximación posible’ en términos de la distancia entre el elemento f(x) original y su representación como una combinación lineal continua, TF¡1 [F (»)] : Esto nos lleva a la conclusión de que la función f (x) ha de ser cuadrado integrable, esto es, Z jf (x)j2 dx < 1: (9.24) x
En términos físicos este criterio equivale a decir que la señal f (x) es de energía …nita, a partir de la ~ de…nición habitual de la energía de una señal en S(¡1; 1): Esta propiedad puede enunciarse de la siguiente forma: de…niendo la función de error como, e(x) = f(x) ¡ TF¡1 [F (»)] ;
(9.25)
y estudiando la norma de dicha función, Z Z ¯ ¯2 je(x)j2 dx = ¯f (x) ¡ TF¡1 [F (»)]¯ dx; x
(9.26)
x
es posible demostrar que la energía de e(x) tiende a cero,
(9.27)
E [e(x)] ! 0; es decir, la distancia d(f (x); TF¡1 [F (»)]) =
¸1=2 Z ¯ ¯ ¯f (x) ¡ TF¡1 [F (»)]¯2 dx !0
(9.28)
x
justamente cuando TF¡1 viene dada por (9.17) y F (») = TF [f(x)] por (9.18). Dicha demostración se puede encontrar detallada en el Ap. E.95. Con este criterio, las funciones f(x) y su transformada inversa de Fourier podrán diferir en un buen número de puntos, pero serán iguales desde el punto de vista de la métrica del espacio. ~ Imponiendo la condición (9.24) sobre el espacio S(¡1; 1); obtendremos el espacio denominado habitualmente L2 (¡1; 1); esto es, el espacio de funciones complejas de variable real, continuas y discontinuas1 , que son cuadrado integrables2 , tal y como se muestra en la Fig. 9.4(a). 9.3.2
Condiciones de Dirichlet.
Las condiciones de Dirichlet para el caso de la transformada de Fourier son equivalentes a las vistas ya en el caso del desarrollo en serie de Fourier: 1. Que f (x) sea absolutamente integrable, Z
x
jf (x)j dx < 1:
(9.29)
2. El número de máximos y de mínimos de f(x) ha de ser …nito para cualquier intervalo de la señal considerado. 3. El número de discontinuidades de f(x) ha de ser …nito para cualquier intervalo de la señal considerado, y además, todas las discontinuidades han de ser …nitas. Con estos criterios, obtendremos que la señal original f (x) y su transformada inversa de Fourier, TF¡1 [F (»)] ; conicidirán punto a punto excepto en las discontinuidades, donde la transformada inversa tomará el valor medio de dicha discontinuidad. Imponiendo estas restricciones sobre el espacio ~ S(¡1; 1); obtendremos un nuevo espacio que denominaremos LD (¡1; 1); esto es, el espacio de funciones complejas de variable real, continuas y discontinuas, que satisfacen las condiciones de Dirichlet, tal y como se muestra en la Fig. 9.4(b). 1 Como
ya es habitual, las funciones discontinuas las trataremos siempre como distribuciones. un punto de vista algebraico, el espacio L2 (¡1; 1) es el resultado de considerar, además, que las funciones son cuadrado integrables en el sentido de Lebesgue, [22] y Ap. A.5. Este re…namiento algebraico es posible obviarlo para la mayor parte de funciones útiles en la práctica. 2 Desde
206
c Emilio Gago-Ribas, 2002 °
Figura 9.4. Representación genérica de los subespacios de dimensión in…ni~ ta L2 (¡1; 1) y LD (¡1; 1) de…nidos como los subespacios de S(¡1; 1) = S(¡1; 1) + S(¡1; 1) que contienen a todas las señales de energía …nita en el primer caso, y que satisfacen las condiciones de Dirichlet en el segundo.
9.4
Propiedades de la transformada de Fourier. Las siguientes propiedades se basan todas en considerar una o dos señales arbitrarias f (x) y g(x) cuyas transformadas de Fourier se representan por F (») y G(»): La demostración de estas propiedades se puede encontrar en el Ap. E.8.3, recomendándose al lector que aborde su resolución con el …n de adquirir práctica y manejo con ellas. En este sentido, cabe mencionar que, desde el punto de vista de realizar cálculos concretos, será conveniente utilizar estas propiedades siempre que sea posible, dado su carácter general. 1. Linealidad. ®f(x) + ¯g(x) $ ®F (») + ¯G(»):
(9.30)
f(x ¡ x0 ) $ F (»)e¡j»x0
(9.31)
2. Desplazamientos en x:
3. Producto por una exponencial imaginaria de pulsación » 0 : f (x)ej»0 x
$ F (» ¡ » 0 )
(9.32)
4. Conjugado de la función. f ¤ (x) $ F ¤ (¡»)
(9.33)
f (¡x) $ F (¡»)
(9.34)
5. Re‡exión sobre el eje vertical.
6. Escalado de la variable independiente. f (ax) $
1 F jaj
µ ¶ » a
(9.35)
7. Convolución. f (x) ¤ g(x) $ F (») G(»)
(9.36)
8. Producto. f (x)g(x) $ c Emilio Gago-Ribas, 2002 °
1 F (») ¤ G(») 2¼
(9.37)
207
9. Primera derivada. df (x) dx
(9.38)
$ j»F (»)
10. Derivada n-ésima. dn f (x) dxn
$ (j»)n F (»)
(9.39)
11. Integración. La demostración de esta propiedad requiere previamente de la transformada de Fourier de la distribución ¡(x), demostración que se puede encontrar en la Secc. 9.6.5. Z x 1 f (x¶) dx0 $ F (») + ¼F (0)±(») (9.40) j» ¡1 12. Producto por xn ; n > 0: xn f(x) $ (¡j)¡n
dn F (») d» n
(9.41)
13. Dualidad. (9.42)
F (x) $ 2¼f(¡»)
14. Relación de Parseval. Esta propiedad es de suma importancia desde un punto de vista físico dado que relaciona la energía de la señal f (x) con la energía de su representación espectral F (»): Z Z 1 jF (»)j2 d» jf(x)j2 dx = 2¼ » x 1 E [f (x)] = E [F (»)] (9.43) 2¼ 15. Funciones pares. f (x) = f(¡x) $ F (») = F (¡»)
(9.44)
f(x) = ¡f(¡x) $ F (») = ¡F (¡»)
(9.45)
f (x) = f ¤ (x) $ F ¤ (¡») = F (»)
(9.46)
16. Funciones impares.
17. Funciones reales.
9.5
Transformadas de Fourier de algunas señales continuas. Se presentan a continuación algunos ejemplos de señales continuas de buen comportamiento pertenecientes a L2 (¡1; 1) y su transformada de Fourier, así como algunos análisis importantes asociados.
9.5.1
Gaussiana. ¡ax2
f(x) = e
$ F (») =
r
¼ ¡»2 =4a e : a
(9.47)
² Demostración. La demostración de esta transformada es muy simple de obtener sin más que hacer b = j» y c = 0 en la siguiente integral estandar, r Z 1 ¼ (b2 ¡4ac)=4a ¡(ax2 +bx+c) e dx = e : (9.48) a ¡1 208
c Emilio Gago-Ribas, 2002 °
² Análisis de la energía. Calculando la energía de las señales f(x) y F (») es posible comprobar fácilmente la relación de Parseval en (9.43). r Z 1 Z 1 Z 1 ¼ 2 ¡2ax2 ¡2ax2 E [f(x)] = jf (x)j dx = e dx = 2 e dx = : (9.49) 2a ¡1 ¡1 0 E [F (»)] =
Z
1
¡1
2
jF (»)j d» =
Z
1 ¡1
¼ ¡»2 =2a ¼ e d» = 2 a a
1 1 =) E [f (x)] = E [F (»)] = ¼ 2¼ 2¼
Z
r
1
¡»2 =2a
e
d» = ¼
0
2¼ = a
r
r
2¼ : a
¼ : 2a
(9.50)
(9.51)
² Análisis del ancho de la señal. A la vista de la representación de las funciones f (x) y F (») se puede comprobar fácilmente como cuanto más estrecha es la señal en x; másp ancha es la señal en »; y viceversa. Así, el valor f (x) = maxff (x)g=e p se produce en x = §1= a; mientras que el valor F (») = max fF (»)g =e se produce en » = §2 a: Esta propiedad relativa a la relación de anchuras de las señales en ambos dominios será trasladable a otras muchas señales, como se verá a continuación y en secciones posteriores. ² Otras propiedades. Nótese como, por ser f(x) real, se cumple la propiedad en (9.46), esto es, F ¤ (¡») = F (»): En este caso, F (») también es real, de forma que la propiedad se reduce a que la función espectral sea par. También es importante destacar que la función F (») 2 L2 (¡1; 1); esto es, una señal compleja de variable real, »; continua y de energía …nita. ² En la Fig. 9.5 se muestra una análisis grá…co de esta transformación. 9.5.2
Pseudo-Gaussiana. f (x) =
1 ¼ $ F (») = e¡bj»j : 2 +b b
x2
(9.52)
² Demostración. La demostración de esta propiedad pasa por descomponer la integral entre (¡1; 0) y entre (0; 1), hacer el cambio de x por ¡x en la primera integral, agrupar en una sola integral entre (0; 1) el resultado …nal y hacer …nalmente ¯ = » en la integral Z 1 ¼ cos ¯x dx = e¡bj¯j ; (9.53) 2 2 x +b 2b 0 esto es, Z
1
¡1
1 e¡j»x dx = x2 + b2
Z
0
¡1 0
1 e¡j»x dx + x2 + b2
Z
0
1
1 e¡j»x dx = x2 + b2
Z 1 1 1 j»x = e (¡dx) + e¡j»x dx = 2 2 2 x + b2 0 1 x +b Z 1 ¡ j»x ¢ 1 = e + e¡j»x dx = 2 2 x +b 0 Z 1 cos »x ¼ = 2 dx = e¡bj»j : 2 + b2 x b 0 Z
(9.54)
² Análisis de la energía. Calculando la energía de las señales f(x) y F (») es posible comprobar fácilmente la relación de Parseval en (9.43).también en este caso, Z 1 Z 1 Z 1 1 1 2 E [f (x)] = jf (x)j dx = dx = 2 dx = 2 2 2 2 (x + b2 )2 ¡1 ¡1 (x + b ) 0 ³ ´¸1 x 1 ¼ ¡1 x = 2 + tan = 3: (9.55) 2b2 (x2 + b2 ) 2b3 b 0 2b c Emilio Gago-Ribas, 2002 °
209
E [F (»)] = =
Z
1
2
jF (»)j d» =
¡1 2 £
Z
1 ¡1
¼2 ¡2bj»j ¼2 e d» = 2 b2 b2
¤ ¼2 ¼ ¡2b» 1 = e : 0 ¡b3 b3 =) E [f (x)] =
Z
1
e¡2b» d» =
0
(9.56)
1 1 ¼2 ¼ E [F (»)] = = 3: 2¼ 2¼ b3 2b
(9.57)
² Análisis del ancho de la señal. A la vista de la representación de las funciones f(x) y F (») se puede comprobar también cómo cuanto más estrecha es la señal en x; más ancha es la señal en »; y viceversa. ² Otras propiedades. Nótese como, por ser f (x) real, se cumple también la propiedad en (9.46), esto es, F ¤ (¡») = F (»): En este caso, igual que en la función Gaussiana, F (») también es real, de forma que la propiedad se reduce una vez más a que la función espectral sea par. En este caso, también F (») 2 L2 (¡1; 1); esto es, una señal compleja de variable real, »; continua y de energía …nita. Nótese que en este caso, la función no es derivable en » = 0. ² En la Fig. 9.6 se muestra una análisis grá…co de esta transformación. 9.5.3
Pseudo-Gaussiana multiplicada por x. f (x) =
x $ F (») = ¡j¼ sgnf»ge¡bj»j : x2 + b2
(9.58)
² Demostración directa. La demostración de esta propiedad pasa por descomponer la integral entre (¡1; 0) y entre (0; 1), hacer el cambio de x por ¡x en la primera integral, agrupar en una sola integral entre (0; 1) el resultado …nal y hacer …nalmente ¯ = » en la integral Z 1 ¼ x sin ¯x dx = sgnf¯ge¡bj¯j ; (9.59) x2 + b2 2 0 esto es,
Z
1 ¡1
x e¡j»x dx = x2 + b2
Z
0
¡1 0
Z
x e¡j»x dx + x2 + b2
Z
0
1
x e¡j»x dx = x2 + b2
Z 1 ¡x j»x 1 = e (¡dx) + e¡j»x dx = 2 2 2 x + b2 1 x +b 0 Z 1 ¡ j»x ¢ x = ¡e + e¡j»x dx = 2 2 x +b 0 Z 1 x sin »x = ¡2j dx = ¡j¼ sgnf»ge¡bj»j : x2 + b2 0
(9.60)
² Demostración usando propiedades. También es posible obtener la misma expresión anterior sin más que aplicar la propiedad de multiplicación por x en (9.41) a la función 1=(x2 + b2 ); de forma que ³¼ ´ e¡bj»j d b = ¡j¼ sgnf»ge¡bj»j : (9.61) F (») = j d» ² Análisis del ancho de la señal. A la vista de la representación de las funciones f (x) y F (») una vez más se puede comprobar cómo cuanto más estrecha es la señal en x; más ancha es la señal en »; y viceversa. ² Otras propiedades. Nótese como, por ser f (x) real, se cumple también la propiedad en (9.46), esto es, F ¤ (¡») = F (»); lo que es lo mismo, jF (»)j es par y 'F (») es impar. En este caso, también es posible verlo a traves de la imparidad de ImfF (»)g que coincide en este caso con F (»): Igual que en el caso anterior, F (») 2 L2 (¡1; 1); esto es, una señal compleja de variable real, »; continua y de energía …nita. Nótese que la función tampoco es derivable en » = 0. ² En la Fig. 9.7 se muestra una análisis grá…co de esta transformación. 210
c Emilio Gago-Ribas, 2002 °
1,25
|f (x)|
Re{f (x)}
1,25
a=1
1,00 0,75
0,75
a=2
0,50
0,50
0,25
0,25
0,00
0,00
-0,25 -6
1,0
-4
-2
0
x
2
4
6
Im{f (x)}
1,0π
0,5π
0,0
0,0π
-0,5
-0,5π
2,0
-4
-2
0
Re{F(ξ)}
x
2
4
6
a=2
-0,25 -6
0,5
-1,0 -6
a=1
1,00
-4
0
x
2
4
6
-2
0
x
2
4
6
Fase{f (x)}
-1,0π -6
2,0
-2
-4
|F(ξ)|
a=1 1,5
a=1 1,5
a=2
1,0
1,0
0,5
0,5
0,0
0,0
-6
1,0
-4
-2
0
Im{F(ξ)}
ξ
2
4
6
-6
1,0π
0,5
0,5π
0,0
0,0π
-0,5
-0,5π
-1,0 -6
-4
-2
0
ξ
2
4
6
a=2
-2
0
ξ
2
4
6
-2
0
ξ
2
4
6
Fase{F(ξ)}
-1,0π -6
Figura 9.5. f (x) = exp(¡ax2 ) Ã! F (») =
c Emilio Gago-Ribas, 2002 °
-4
-4
r
¼ exp(¡» 2 =4a): a
211
|f(x)|
Re{f (x)} 4
b=0.5
3
4
b=1
2
2
1
1
0
0
-6
1,0
-4
-2
0
2
x
4
6
Im{f (x)}
1,0π
0,5π
0,0
0,0π
-0,5
-0,5π
-3
0
3
x
6
-2
0
2
x
4
-3
0
3
x
|F(ξ)|
b=0.5
6
b=0.5
5
4
4
b=1
3
b=1
3
2
2
1
1
0
6
Fase{f (x)}
6
5
0
-6
-4
-2
0
Im{F(ξ)}
2
ξ
4
6
-6
1,0π
0,5
0,5π
0,0
0,0π
-0,5
-0,5π
-1,0 -6
-3
0
ξ
3
Figura 9.6. f (x) =
212
-4
-1,0π -6
Re{F(ξ)} 6
1,0
b=1
-6
0,5
-1,0 -6
b=0.5
3
6
-4
-2
0
Fase{F(ξ)}
-1,0π -6
-3
0
2
ξ
ξ
4
3
6
6
1 ¼ Ã! F (») = exp(¡b j»j): x2 + b2 b
c Emilio Gago-Ribas, 2002 °
0,75
Re{f (x)}
0,75
|f (x)|
0,50 0,50 0,25 0,00
0,25
-0,25 0,00 -0,50 -0,75 -10
1,0
-8
-6
-4
-2
0
x
2
4
6
8
10
Im{f (x)}
-0,25 -10
1,0π
0,5
0,5π
0,0
0,0π
-0,5
-0,5π
-1,0 -10
1,0
-8
-6
-4
-2
0
Re{F(ξ)}
x
2
4
6
8
10
-8
-6
-4
-2
0
-4
-2
0
x
2
4
6
8
10
4
6
8
10
Fase{f (x)}
-1,0π -10
-8
-6
2
x
|F(ξ)| 3
0,5 2 0,0 1 -0,5 0 -1,0 -8
4
-6
-4
-2
0
Im{F(ξ)}
ξ
2
4
6
8
-8
-6
-4
-2
0
ξ
2
4
6
8
-2
0
ξ
2
4
6
8
Fase{F(ξ)} 1,0π
3 2
0,5π
1 0,0π
0 -1
-0,5π
-2 -3 -4 -8
-1,0π -6
-4
-2
0
ξ
2
Figura 9.7. f (x) =
c Emilio Gago-Ribas, 2002 °
4
6
8
-8
-6
-4
x Ã! F (») = ¡j¼ sgnf»g exp(¡b j»j); b = 1: x2 + b2
213
9.6
Transformadas de Fourier de distribuciones y señales de energía in…nita. En la siguiente sección abordaremos el importante problema de la transformada de Fourier de las distribuciones, funciones generalizadas o funciones localizadoras y de su no menos importante dual, la transformada de Fourier de señales que no son cuadrado integrables, es decir, cuya energía no está acotada. Este caso es especialmente importante dado que, a priori, para cualquier señal que no fuese de energía …nita (el criterio de convergencia más relajado de los dos citados en la Secc. 9.3) no podríamos asegurar que tiene transformada de Fourier. Veremos cómo el concepto de la transformada de Fourier se puede extender a señales de energía in…nita justamente por disponer de la teoría de distribuciones, dicho de otra forma, por haber de…nido estos nuevos objetos matemáticos. Este será también el caso de la transformada de Fourier de señales periódicas analizado en la Secc. 9.8. Como veremos, el papel que juega el orden de variación3 de una función o de su energía, así como su valor medio, estará íntimamente ligado con el hecho de haber introducido funciones impulsivas o distribuciones; en otro caso, no sería posible de…nir a priori la transformada de Fourier de este tipo de señales. De hecho, esta es otra de las razones que justi…caron en su día la necesidad de generar una serie de objetos matemáticos impulsivos conocidos posteriormente como distribuciones o funciones generalizadas. En la tabla de la Secc. 9.6.7 se recogen los aspectos más importantes que analizaremos a continuación, así como su relación con las distribuciones. Para de…nir o estudiar la transformada de Fourier de una distribuión D(x) genérica es conveniente recordar su de…nición como funcional operando sobre una función de buen comportamiento f(x); Z 1 D(x) : f (x) ¡! f(x)D(x) dx 2 C: (9.62) ¡1
Nótese que esta de…nición es directamente aplicable a la expresión de la transformada de Fourier cuando las funciones de buen comportamiento sobre las que aplicamos la distribución son las funciones de la base conjugadas, '¤ (x; ») = e¡j»x ; Z 1 D(x) : e¡j»x ¡! e¡j»x D(x) dx = TF fD(x)g : (9.63) ¡1
Este concepto será aplicable a distribuciones de tipo netamente impulsivo, como ±(x); ± 0 (x), ± 00 (x) y ±(x ¡ x0 ): En otros casos, recurriremos al uso de las propiedades de la transformada de Fourier, así como a ciertas propiedades que veremos a continuación. 9.6.1
Distribución delta.
La de…nición de ±(x) como distribución venía dada por, Z ±(x) : f(x) ¡! f(x)±(x) dx = f(0):
(9.64)
x
En base a (9.63) cuando D(x) = ±(x); el valor de e¡j»x en el origen será la unidad, de forma que el par transformado de ±(x) vendrá dado por ±(x) $ 1 8»;
(9.65)
La representación de estas funciones se muestra en la Fig. 9.8. Algunos comentarios importantes: 1. Por ser ±(x) real, su transformada de Fourier F (») ha de satisfacer F ¤ (¡») = F (»): Dado que F (») = 1; esto es evidente, por ser una función real y par en »: 2. La función F (») = 1 es una señal de energía in…nita; usando la relación de Parseval en (9.43) podemos inferir4 rápidamente que la energía de la distribución ±(x) es también in…nita, E [±(x)] =
1 E [F (»)] ! 1; 2¼
(9.66)
y por lo tanto, no es una distribución cuadrado integrable. 3 De…niremos el orden de variación como la forma de variación de una señal cuando x ! §1: Habitualmente se obtendrá a través del comportamiento de la aproximación polinómica deRgrado n de f (x): 4 Nótese que la energía de ±(x) vendría dada por E [±(x)] = 1 ± 2 (x) dx; integral que no es posible calcular dado que ¡1 no hemos de…nido el producto de dos distribuciones y, por lo tanto, ±2 (x) no ha sido de…nido.
214
c Emilio Gago-Ribas, 2002 °
3. Nótese también que el orden de variación de F (») en el in…nito es cero (función constante unidad), y por lo tanto, el orden de variación de la energía es la unidad, Z E [F (»)] = 1 d» / » ! O (E [F (»)]) = »: (9.67) »
Esto quiere decir que el objeto ±(x) es una señal cuya energía crece linealmente con una variación de orden 1: ² Dualidad.
A partir del resultado en (9.65) y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, ±(x) Ã! 1
1; 8»
Ã! 2¼±(¡») = 2¼±(»)
(9.68)
En la última relación se ha utilizado la propiedad de paridad de la distribución delta. La representación de estas funciones se muestra en la Fig. 9.8. Algunos comentarios importantes en relación con este resultado: 1. La función f(x) = 1 de energía in…nita, posee transformada de Fourier expresada en términos de ±(»): Esta transformada no sería posible en caso de no haber de…nido el objeto impulsivo delta de Dirac. 2. La función constante unidad permite expresar cualquier función constante K 2 C en términos de ella. Su transformada de Fourier será entonces 2¼K±(x): A su vez, la componente continua de cualquier señal será una constante de forma que cualquier señal que posea una componente continua no nula, tendrá una transformada de Fourier en la que aparecerá un término ±(») debido a dicha componente continua, esto es, 8 9 8 9 < f (x) = hf(x)i + f1 (x) = < F (») = 2¼ hf (x)i ±(») + F1 (») = Ã! (9.69) : ; : ; con hf1 (x)i = 0 F1 (») = TF ff1 (x)g
3. Nótese que otra conclusión importante es que una señal cuyo orden de variación en el in…nito sea 0, tendrá una energía cuyo orden de variación será la unidad, Z E [f(x)] = 1 dx / x ! O (E [f (x)]) = x: (9.70) x
Así, su espectro contendría necesariamente a ±(»): 4. Resulta muy importante destacar también el papel que ±(») juega, una vez más, como objeto capaz de seleccionar un valor de un continuo de valores. Aplicando la transformada inversa a la función unidad, Z 1 1= F (»)ej»x d»; (9.71) 2¼ » resulta evidente que el único objeto matemático capaz de devolver la función unidad a través de la integral espectal resulta ser justamente la distribución delta pesada adecuadamente, esto es, F (») = 2¼±(»): De esta forma, el valor de la integral se obtendrá sin £ ¤ más que aplicar la de…nición de la distribución delta sobre la función ej»x ; esto es 2¼ ej»x »=0 = 2¼: Nótese que este desarrollo matemático trivial lleva impícito el concepto de selección de un valor de un continuo de valores; en este caso, ©el conjunto continuo viene dado por el espacio in…nito y ª continuo de funciones f'(x; »)g = ej»x descrito por el parámetro »: El objeto ±(») lo único que hace es seleccionar la función constante de dicho conjunto, función que ocurre justamente cuando » = 0:
c Emilio Gago-Ribas, 2002 °
215
9.6.2
Distribución delta desplazada.
La de…nición de ±(x ¡ x0 ) como distribución viene dada por, Z ±(x ¡ x0 ) : f (x) ¡! f (x)±(x ¡ x0 ) dx = f (x0 );
(9.72)
x
esto es, ±(x¡x0 ) nos devuelve el valor de la función f(x0 ) sobre la que se aplica. En base a (9.63) cuando D(x) = ±(x ¡ x0 ); el valor de e¡j»x en x0 será e¡j»x0 ; de forma que el par transformado de ±(x ¡ x0 ) vendrá dado por ±(x ¡ x0 ) $ e¡j»x0 :
(9.73)
La representación de estas funciones se muestra en la Fig. 9.9. Algunos comentarios importantes: 1. El par transformado en (9.73) se puede obtener a partir del par transformado en (9.65) y la propiedad de desplazamiento en (9.31), Ã!
±(x)
1
±(x ¡ x0 ) Ã! 1 ¢ e¡j»x0 = e¡j»x0
(9.74)
2. El objeto ±(x ¡ x0 ) es real, de forma que © su transformada de Fourier ©F (») haªde satisfacer F ¤ (¡») = ª ¡j»x0 F (»); esto resulta evidente dado que Re e es par en », y Im e¡j»x0 es impar en »:
3. La función F (») = e¡j»x0 es una señal de período 2¼=x0 y por lo tanto de energía in…nita como una señal en (¡1; 1): A través de la relación de Parseval en (9.43) podemos inferir5 que la energía de la distribución ±(x ¡ x0 ) es también in…nita, E [±(x ¡ x0 )] =
1 E [F (»)] ! 1; 2¼
(9.75)
y por lo tanto, no es una distribución cuadrado integrable. 4. El orden de variación de F (») en el in…nito es cero (función cosenoidal y senoidal en sus partes real e imaginarias, y por lo tanto acotadas entre ¡1 y 1), y por lo tanto, el orden de variación de la energía es la unidad6 , Z E [F (»)] = 1 d» / » ! O (E [F (»)]) = »: (9.76) »
Esto quiere decir que el objeto ±(x¡x0 ) es una señal cuya energía crece linealmente con una variación de orden 1; como cabía esperar a tenor del resultado para la delta localizada en el origen. ² Dualidad.
A partir del resultado en (9.73) y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, ±(x ¡ x0 ) Ã! e¡j»0 x ej»0 x
e¡j»x0
Ã! 2¼±(¡» ¡ » 0 ) = 2¼±(» + » 0 ) Ã!
(9.77)
2¼±(» ¡ » 0 )
En la última relación se ha utilizado la propiedad de paridad de la distribución delta. La representación de estas funciones se muestra en la Fig. 9.9. Algunos comentarios importantes en relación con este resultado: 1. La función f (x) = ej»0 x ; de período 2¼=» 0 y por lo tanto de energía in…nita, posee transformada de Fourier expresada en términos de ±(» ¡ » 0 ): Esta transformada no sería posible una vez más si no se hubiera de…nido el objeto impulsivo delta de Dirac. R1 2 que la energía de ±(x ¡ x0 ) vendría dada por E [±(x ¡ x0 )] = ¡1 ± (x ¡ x0 ) dx; integral que no es posible calcular una vez¯ más dado que no hemos de…nido el producto de dos distribuciones. ¯ 6 Nótese que ¯ e¡j»x0 ¯ = 1: 5 Nótese
216
c Emilio Gago-Ribas, 2002 °
2. El valor medio de f(x) = ej»0 x es nulo (valores medios del coseno y del seno nulos). Así, la función delta que aparece en el dominio espectral no es debida a su componente continua, sino al orden de variación de la señal, y por lo tanto, de su energía, 9 9 8 8 = < < f (x) = hf(x)i + f1 (x) = F (») = F1 (») (9.78) Ã! : F (») = 2¼±(» ¡ » ) ; : hf (x)i = 0 y f (x) = f (x) ; 1 1 0
3. Como conclusión importante, citar que una señal periódica cuyo orden de variación en el in…nito sea 0, tendrá una energía cuyo orden de variación será la unidad, Z 1 E [f (x)] = 1 dx / x ! O (E [f(x)]) = x; (9.79) ¡1
y por lo tanto su espectro vendrá entonces descrito necesariamente en términos de ±(» ¡ » 0 ); lo que es lo mismo, en términos de deltas con un desplazamiento espectral proporcionla al período de la señal. Esta conclusión determinará y justi…cará la posibilidad de de…nir transformadas de Fourier de señales periódicas, como se verá en la Secc. 9.8. 4. Resulta muy importante destacar el papel que el objeto ±(» ¡ » 0 ) juega una vez más como objeto capaz de seleccionar un valor de un continuo de valores. Aplicando la transformada inversa a la función ej»0 x , Z 1 j»0 x e = F (»)ej»x d»; (9.80) 2¼ » el único objeto matemático capaz de devolver dicha función a través de la integral espectal resulta ser justamente la distribución delta pesada y desplazada adecuadamente, esto es, F (») = 2¼±(» ¡ » 0 ): De esta forma, el valor de la integral se obtendrá sin más que la de…nición £ aplicar ¤ de la distribución delta desplazada sobre la función ej»x ; esto es 2¼ ej»x »=» = 2¼ej»0 x : 0 Nótese que este desarrollo matemático lleva impícito el concepto de selección de un valor de un continuo de valores; en este caso, continuo viene dado por el espacio in…nito y © el conjunto ª continuo de funciones f'(x; »)g = ej»x descrito por el parámetro »: El objeto ±(» ¡ » 0 ) lo que consigue es seleccionar la función adecuada, función que ocurre justamente cuando » = » 0 : 9.6.3
Distribución primera derivada de la delta.
La de…nición de ± 0 (x) como distribución viene dada por, Z 0 ± (x) : f (x) ¡! f (x)± 0 (x) dx = ¡f 0 (0);
(9.81)
x
esto es, ± 0 (x) nos devuelve el valor en el origen de la primera derivada de la función f(x) cambiada de signo. En base a (9.63) cuando D(x) = ±(x); el valor de la primera derivada de e¡j»x en el origen y cambiada de signo será igual a j», de forma que el par transformado de ± 0 (x) vendrá dado por ± 0 (x) $ j»;
(9.82)
es decir, una función imaginaria y lineal con »: La representación de estas funciones se muestra en la Fig. 9.10. Algunos comentarios importantes: 1. El par transformado en (9.82) se puede obtener a partir del par transformado en (9.65) y la propiedad asociada a la derivación en (9.38), ±(x)
Ã!
1
± 0 (x) Ã! j» ¢ 1 = j»
(9.83)
2. Por ser ± 0 (x) real, su transformada de Fourier F (») ha de satisfacer F ¤ (¡») = F (»): Dado que F (») = j»; esto es evidente, por ser una función imaginaria e impar en »:
c Emilio Gago-Ribas, 2002 °
217
3. La función F (») = j» es una señal de energía in…nita, de forma que a través de la relación de Parseval en (9.43) podemos inferir que la energía de la distribución ± 0 (x) es también in…nita, £ ¤ 1 E ± 0 (x) = E [F (»)] ! 1; 2¼
(9.84)
y por lo tanto, no es una distribución cuadrado integrable7 .
4. Nótese también que el orden de variación de F (») en el in…nito es la unidad (función lineal), y por lo tanto, el orden de variación de la energía es de 3; Z E [F (»)] = » 2 d» / » 3 ! O (E [F (»)]) = » 3 : (9.85) »
Esto quiere decir que ± 0 (x) es una señal cuya energía crece con una variación de tercer orden. ² Dualidad.
A partir del resultado en (9.82) y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, ± 0 (x) Ã! jx x
j»
Ã! 2¼± 0 (¡») = ¡2¼± 0 (») Ã!
(9.86)
0
2¼j± (»)
En la última relación se ha utilizado la propiedad de imparidad de la distribución primera derivada de la delta. La representación de estas funciones se muestra en la Fig. 9.10. Algunos comentarios importantes en relación con este resultado: 1. La función f(x) = x de energía in…nita, posee transformada de Fourier expresada en términos de ± 0 (»): Esta transformada no sería posible en caso de no haber de…nido el objeto impulsivo primera derivada de la delta de Dirac. 2. El valor medio de f (x) = x es nulo8 . Así, la distribución delta prima que aparece en el dominio espectral no es debida a su componente continua, sino al orden de variación de la señal, y por lo tanto, de su energía, 8 9 8 9 < f (x) = hf(x)i + f1 (x) = < F (») = F1 (») = Ã! (9.87) : hf (x)i = 0 y f (x) = f (x) ; : F (») = 2¼j± 0 (») ; 1 1
3. Nótese que otra conclusión importante es que una señal cuyo orden de variación en el in…nito sea 1, tendrá una energía cuyo orden de variación será 3; Z E [f (x)] = x2 dx / x3 ! O (E [f(x)]) = x3 : (9.88) x
Su espectro contendría necesariamente al objeto ± 0 (»): 4. Resulta muy importante destacar también el papel que juega ± 0 (») como aquel objeto matemático capaz de seleccionar un valor de un continuo de valores. Aplicando la transformada inversa a la función unidad, Z 1 x= F (»)ej»x d»; (9.89) 2¼ » resulta evidente que el único objeto matemático capaz de devolver la función lineal x a través de la integral espectal (combinación lineal continua) resulta ser justamente la primera derivada de R1 2 energía de F (») = j» viene dada por E [F (»)] = ¡1 » d» ! 1: Nótese que la energía de ± 0 (x) vendría dada por R 1 2 0 0 E [± (x)] = ¡1 [± (x)] dx; integral que, una vez más, no es posible calcular dado que no hemos de…nido el producto de dos distribuciones, en este caso ± 0 (x)±0 (x): Rb 1 0 8 El valor medio de f (x) = x se podrá calcular como hxi = lim b!1 2b ¡b xdx = limb!1 2b = 0: 7 La
218
c Emilio Gago-Ribas, 2002 °
la distribución delta pesada adecuadamente, esto es, F (») = 2¼j± 0 (»): De esta forma, el valor de j»x la integral se ¤ sin más que aplicar la de…nición de la distribución sobre la función e ; £ obtendrá j»x = 2¼x: Nótese que este desarrollo matemático trivial lleva impícito el esto es 2¼j ¡jxe »=0 concepto de selección de un valor de un continuo de valores; en este caso,© el conjunto continuo ª viene dado por el espacio in…nito y continuo de funciones f'(x; »)g = ej»x descrito por el parámetro »: El objeto ± 0 (») lo único que hace es seleccionar, a través de la primera derivada, la función que daría lugar a una variación lineal. 9.6.4
Distribución segunda derivada de la delta.
La de…nición de ± 00 (x) como distribución viene dada por, Z 00 ± (x) : f(x) ¡! f (x)± 00 (x) dx = f 00 (0);
(9.90)
x
esto es, ± 00 (x) devuelve el valor en el origen de la segunda derivada de la función f (x): En base a (9.63) cuando D(x) = ±(x); el valor de la segunda derivada de e¡j»x en el origen es igual a ¡» 2 ; de forma que el par transformado de ± 00 (x) vendrá dado por ± 00 (x) $ ¡» 2 ;
(9.91)
es decir, una función real y cuadrática con »: La representación de estas funciones se muestra en la Fig. 9.11. Algunos comentarios importantes: 1. El par transformado en (9.91) se puede obtener a partir del par transformado en (9.82) y la propiedad asociada a la derivación en (9.38), ± 0 (x)
Ã!
j»
± 00 (x) Ã! j» ¢ j» = ¡» 2
(9.92)
2. Por ser ± 00 (x) real, su transformada de Fourier F (») ha de satisfacer F ¤ (¡») = F (»): Dado que F (») = ¡» 2 ; esto es evidente, por ser una función real y par en »: Esto hace que el módulo de F (») sea par, y su fase impar. 3. La función F (») = ¡» 2 es una señal de energía in…nita, de forma que a través de la relación de Parseval en (9.43) podemos inferir que la energía de la distribución ± 00 (x) es también in…nita, £ ¤ 1 E ± 00 (x) = E [F (»)] ! 1; 2¼
(9.93)
y por lo tanto, no es una distribución cuadrado integrable9 .
4. Nótese también que el orden de variación de F (») en el in…nito es 2 (función cuadrática), y por lo tanto, el orden de variación de la energía es de 5; Z E [F (»)] = » 4 d» / » 5 ! O (E [F (»)]) = » 5 : (9.94) »
00
Esto quiere decir que el objeto ± (x) es una señal cuya energía crece con una variación de quinto orden. ² Dualidad.
A partir del resultado en (9.91) y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, ± 00 (x) Ã! ¡x2 x2
¡» 2
Ã! 2¼± 00 (¡») = 2¼± 00 (») Ã!
(9.95)
00
¡2¼± (»)
R energía de F (») = ¡» 2 viene dada por E [F (»)] = » »4 d» ! 1: Nótese que la energía de ±00 (x) vendría dada por R 1 2 E [± 00 (x)] = ¡1 [±00 (x)] dx; integral que, una vez más, no es posible calcular dado que no hemos de…nido el producto de dos distribuciones, en este caso ± 00 (x)± 00 (x): 9 La
c Emilio Gago-Ribas, 2002 °
219
En la última relación se ha utilizado la propiedad de paridad de la distribución segunda derivada de la delta. La representación de estas funciones se muestra en la Fig. 9.11. Algunos comentarios importantes en relación con este resultado: 1. La función f (x) = x2 de energía in…nita, posee transformada de Fourier expresada en términos de ± 00 (»): Esta transformada no sería posible en caso de no haber de…nido el objeto impulsivo segunda derivada de la delta de Dirac. 2. El valor medio de f(x) = x2 es divergente10 . Así, la distribución delta segunda que aparece en el dominio espectral no es debida a su componente continua, sino al orden de variación de la señal, y por lo tanto, de su energía. 3. Nótese que otra conclusión importante es que una señal cuyo orden de variación en el in…nito sea 2, tendrá una energía cuyo orden de variación será 5; Z E [f (x)] = x4 dx / x5 ! O (E [f(x)]) = x5 : (9.96) x
Su espectro estará entonces necesariamente relacionado con el objeto ± 00 (»):
4. Resulta muy importante destacar una vez más el papel que juega ± 00 (») como aquel objeto matemático capaz de seleccionar un valor de un continuo de valores. Aplicando la transformada inversa a la función unidad, Z 1 x2 = F (»)ej»x d»; (9.97) 2¼ » resulta evidente que el único objeto matemático capaz de devolver la función cuadrática en x a través de la integral espectal (combinación lineal continua) resulta ser justamente la segunda derivada de la distribución delta pesada adecuadamente, esto es, F (») = ¡2¼± 00 (»): De esta forma, el valor de la integral£se obtendrá ¤ sin más que aplicar la de…nición de la distribución sobre la función ej»x ; esto es ¡2¼ ¡x2 ej»x »=0 = 2¼x2 : Nótese que este desarrollo matemático trivial lleva impícito el concepto de selección de un valor de un continuo de valores; en este caso, el © ª conjunto continuo viene dado por el espacio in…nito y continuo de funciones f'(x; »)g = ej»x descrito por el parámetro »: El objeto ± 00 (») lo que hace es seleccionar, a través de la segunda derivada, la función que daría lugar a una variación cuadrática. 9.6.5
Distribución de Heaviside o salto unidad.
La de…nición de ¡(x) como distribución viene dada por, Z Z ¡(x) : f(x) ¡! f (x)¡(x) dx = x
1
f(x0 ) dx0 ;
(9.98)
0
esto es, ¡(x) devuelve el valor en el origen de la integral función f(x) desde ¡1 hasta el origen. En base a (9.63) cuando D(x) = ¡(x); resulta evidente que el valor de dicha integral cuando la función es e¡j»x no está de…nida en ¡1: En este caso, el par transformado de ¡(x) habrá que buscarlo de otra forma11 . En base a los resultados vistos previamente, podríamos analizar el comportamiento de la distribución de Heaviside en términos de su orden de variación, así como del orden de variación de su energía. Resulta evidente que ¡(x ! 1) = 1; de forma que el orden de variación de la función es cero (función constante), y el orden de variación de su energía es la unidad, Z Z 1 E [¡(x)] = 1 dx = dx / x: (9.99) x
0
En base a los resultados obtenidos para la distribución delta y su dual, la función constante, parece evidente que la transformada de Fourier de ¡(x) : (i) estará relacionada con ±(»); y (ii) dicha distribución describirá una cierta componente continua. Nótese que ¡(x) es una distribución de valor medio no nulo, Z Z 1 b 1 b b h¡(x)i = lim ¡(x) dx = lim dx = lim = 0:5: (9.100) b!1 2b ¡b b!1 2b 0 b!1 2b - ® Rb 2 1 b3 valor medio de f (x) = x2 se podrá calcular como: x2 = limb!1 2b ¡b x dx = limb!1 3b ! 1: que la distribución gamma es de tipo impulsivo de salto …nito, esto es, entre cero y uno, a diferencia de las distribuciones relacionadas con ±(x): 10 El
11 Nótese
220
c Emilio Gago-Ribas, 2002 °
Con estas consideraciones en mente, ya podemos expresar ¡(x) en la siguiente forma, ¡(x) =
1 + ¡1 (x); 2
siendo ¡1 (x) una distribución de valor medio nulo igual a, 8 < ¡1=2 si x < 0 ¡1 (x) = : 1=2 si x > 0
(9.101)
(9.102)
La transformada de Fourier de ¡(x) en (9.101) vendrá dada entonces por, ¡(») = ¼±(») + ¡1 (»);
(9.103)
donde el término ±(») aparece asociado a la componente continua de la señal como cabía esperar. Faltará por identi…car sólamente el término ¡1 (»). Este paso es evidente si recurrimos a la relación existente entre las distribuciones de Heaviside y delta y traducimos ésta en términos de sus transformadas, ±(x) =
d¡1 (x) d¡(x) = Ã! 1 = j»¡1 (»); dx dx ¡1 (x) $
1 : j»
(9.104)
(9.105)
El par transformado …nal vendrá dado entonces por, ¡(x) $ ¼±(») +
1 j = ¼±(») ¡ ; j» »
(9.106)
es decir, una función compleja cuya parte real ciene dada en términos de ±(»), y cuya parte imaginaria tiene una variación inversamente proporcional a »; y por lo tanto, un comportamiento singular en el origen » = 0: La representación de estas funciones se muestra en la Fig. 9.12. Algunos comentarios importantes: 1. Por ser ¡(x) real, su transformada de Fourier F (») ha de satisfacer F ¤ (¡») = F (»): En base a (9.106), resulta evidente que se cumple dado que su parte real es par y su parte imaginaria impar. De igual forma, el módulo de F (») será par, y su fase impar. 2. La función F (») en (9.106) presenta un comportamiento especialmente destacable, como ya se ha citado previamente. En primer lugar, el término 1=j» presenta una singularidad de tipo in…nito en el origen, y por lo tanto no está de…nida en » = 0; dicha singularidad queda cubierta por el término ¼±(») debido a la componente continua de la señal ¡(x): Además, es una señal de energía in…nita, como queda re‡ejado a través de la relación de Parseval en (9.43), Z 1 1 E [¡(x)] = dx = E [F (»)] ! 1: (9.107) 2¼ 0 3. Nótese también que la relación de Parseval nos permite escribir la siguiente igualdad, ¯Z ¯2 Z 1 1 ¯¯ 1 1 ¯¯ dx = ¼±(») + d»: 2¼ ¯ ¡1 j» ¯ 0
(9.108)
Esto quiere decir que el objeto ¼±(») + 1=j» es una señal cuya energía tiene un orden de variación similar a la de ¡(x); esto es, Z 1 E [¡(x)] = dx / x ! O (E [¡(x)]) = x: (9.109) 0
c Emilio Gago-Ribas, 2002 °
221
² Dualidad.
A partir del resultado en (9.106), y aplicando la propiedad de dualidad en (9.42), resulta evidente obtener la siguiente relación, Ã!
¡(x) 1 ¼±(x) + jx 1 x
¼±(») +
1 j»
2¼¡(¡») = ¼ + TF
Ã!
½
1 jx
¾
(9.110)
Ã! j [2¼¡(¡») ¡ ¼] = j2¼¡1 (¡»):
En la última relación se ha tenido en cuenta que ¡(¡») = 1=2+¡1 (¡»); siendo ¡1 (¡») la distribución de…nida en (9.102) respecto de la variable »; y re‡ejada respecto al eje vertical. La representación de estas funciones se muestra en la Fig. 9.12. Algunos comentarios importantes en relación con este resultado: 1. La función f (x) = 1=x tiene una energía in…nita, y posee transformada de Fourier expresada en términos de la distribución ¡(») ó ¡1 (»): 2. El valor medio de f (x) = 1=x es cero12 , lo que hace que no aparezca ningún término proporcional a ±(») en su desarrollo espectral. 3. Nótese cómo una señal con una singularidad simple cuyo orden de variación sea la unidad tendrá una energía proporcional a 1=x; Z 1 Z 1 1 1 1 1 E [f (x)] = (9.111) dx = 2 dx / ! O (E [f(x)]) = : 2 2 x x x x ¡1 0 Su espectro estará entonces relacionado con el objeto ¡(»): 4. Desde el punto de vista de la transformada inversa, Z 1 1 = F (»)ej»x d»; x 2¼ »
(9.112)
resulta evidente que el único objeto matemático capaz de devolver la función inversa de x a través de la integral espectral (combinación lineal continua) resulta ser justamente la transformada de…nida en (9.110) en términos de la distribución de Heaviside. 9.6.6
Otras distribuciones.
De forma similar a como se han analizado las distribuciones ±(x); ± 0 (x); ± 00 (x) y ¡(x); se podrían estudiar otras distribuciones importantes, por ejemplo: 1. La distribución sgn(x) de…nida como, sgn(x) =
8 < 1
x>0
: ¡1
(9.113)
x<0
2. Las distribuciones sinusoidales a derechas, de…nidas como, s+ (x) = sin(» 0 x)¡(x);
(9.114)
c+ (x) = cos(» 0 x)¡(x):
(9.115)
Se deja como ejercicio para el lector el análisis de las transformadas de estas distribuciones, rellenando adecuadamente la tabla que sigue. 12 El
valor medio de f (x) = 1=x se podrá calcular como: h R i R 1 limb!1 2b ¡ 0b dx + 0b dx = 0: x x
222
-1® x
= limb!1
1 2b
Rb
dx ¡b x
= limb!1
1 2b
hR
0 dx ¡b x
+
Rb 0
dx x
i
=
c Emilio Gago-Ribas, 2002 °
9.6.7
Tabla resumen para señales de energía in…nita y distribuciones. f (x) = hf(x)i + f1 (x) $ F (») = 2¼ hf (x)i ±(») + F1 (»);
(9.116)
F (») = hF (»)i + F1 (») $ f(x) = hF (»)i ±(x) + f1 (x):
(9.117)
±(x)
$
1
O (F (»)) = 0
O (E [F (»)]) = 1
1
$
2¼±(»)
O(f (x)) = 0
O(E [f (x)]) = 1
± 0 (x)
$
j»
O (F (»)) = 1
O (E [F (»)]) = 3
x
$
2¼j± 0 (»)
O(f (x)) = 1
O(E [f (x)]) = 3
± 00 (x)
$
¡» 2
O (F (»)) = 2
O (E [F (»)]) = 5
x2
$
¡2¼± 00 (»)
O(f (x)) = 2
O(E [f (x)]) = 5
±(x ¡ x0 )
$
e¡j»x0
O (F (»)) = 0
O (E [F (»)]) = 1
ej»0 x
$
2¼±(» ¡ » 0 )
O(f (x)) = 0
O(E [f (x)]) = 1
¡(x)
$
¼±(») +
1 j»
O (f (x)) = 0
O (E [f (x)]) = 1
1 x
$
j2¼¡1 (¡»)
O(f (x)) = ¡1
O(E [f (x)]) = ¡1
sgn(x)
$ $
sin(» 0 x)¡(x)
$ $
cos(» 0 x)¡(x)
$ $
c Emilio Gago-Ribas, 2002 °
223
1,5
2
Re{F(ξ)}
1,5
1,0
1,0
0,5
0,5
|F(ξ)|
δ(x)
0,0 -10
1
1,0
-5
0
ξ
5
0,0 -10
10
Im{F(ξ)}
-5
0
ξ
5
10
-5
0
ξ
5
10
-5
0
ξ
5
10
0
ξ
5
10
Fase{F(ξ)} 1,0π
0 -10
0,5 -5
0
x
5
0,5π
10
0,0π
0,0
-0,5π -0,5 -1,0π -1,0 -10
4,0π
O(E[f(x)]) =1
1,5
-5
0
ξ
5
10
-10
Re{F(ξ)}
4,0π
3,0π
3,0π
2,0π
2,0π
1,0π
1,0π
|F(ξ)|
f(x) =1
1,0
0,0π -10
1,0
0,5
0,0 -10
-5
0
5
-5
0
ξ
5
0,0π -10
10
Im{F(ξ)}
1,0π
0,5
0,5π
0,0
0,0π
-0,5
-0,5π
Fase{F(ξ)}
10
-1,0 -10
-5
0
ξ
5
10
-1,0π -10
-5
Figura 9.8. ±(x) Ã! 1 y 1 Ã! 2¼±(»)
224
c Emilio Gago-Ribas, 2002 °
2
2
δ(x-x0)
Re{F(ξ)}
1
1,5
0
1,0
-1
0,5
-2 -10
1
2,0
2
-5
0
ξ
5
10
|F(ξ)|
0,0 -10
Im{F(ξ)}
-5
0
ξ
5
10
0
ξ
5
10
5
10
Fase{F(ξ)} 1,0π
0 -10
1 -5
0
5
0,5π
10
x 0,0π
0
x0 =2
-0,5π -1 -1,0π -2 -10
2
Re{f(x)}
2,0
-5
0
ξ
5
10
-10
O(E[f(x)]) =1
|f(x)|
4,0π
1
1,5
3,0π
0
1,0
2,0π
-1
0,5
1,0π
-2 -10
2
-5
0
x
5
10
0,0 -10
Im{f(x)}
-5
0
x
5
10
Fase{f(x)}
Re{F(ξ)}
0,0π -10
1,0
-5
-5
ξ
0
ξ0 =π/2
Im{F(ξ)}
1,0π 1
0,5
0,5π 0,0π
0
0,0
-0,5π -1
-0,5 -1,0π
-2 -10
-5
0
x
5
10
-10
-5
0
x
5
10
-1,0 -10
-5
0
ξ
5
10
Figura 9.9. ±(x ¡ x0 ) $ e¡j»x0 ; x0 = 2 y ej»0 x $ 2¼±(» ¡ » 0 ); » 0 = ¼=2:
c Emilio Gago-Ribas, 2002 °
225
1,0
Re{F(ξ)}
15
|F(ξ)|
0,5 10
2
δ'(x)
0,0 5 -0,5
1 -1,0 -10
0
10
-1
-5
0
ξ
5
0 -10
10
Im{F(ξ)}
-5
0
ξ
5
10
0
ξ
5
10
0
ξ
5
10
0
ξ
5
10
Fase{F(ξ)} 1,0π
-2 -10
5 -5
0
x
5
0,5π
10
0,0π
0
-0,5π -5 -1,0π -10 -10
10
Re{f(x)}
15
-5
0
ξ
5
10
-10
O(E[f(x)]) =3
|f(x)|
1,0
5
-5
Re{F(ξ)}
0,5 10
0
0,0 5
-5
-0,5
-10 -10
1,0
-5
0
x
5
10
0 -10
Im{f(x)}
-5
0
x
5
Fase{f(x)}
3,0π
1,0π 0,5
0,0π -1,0π
-0,5π
-2,0π
-1,0π -1,0 -10
-5
0
x
5
10
-10
Im{F(ξ)}
1,0π
0,0π
-0,5
-5
2,0π
0,5π
0,0
-1,0 -10
10
-5
0
x
5
10
-3,0π -10
-5
Figura 9.10. ± 0 (x) $ j» y x $ 2¼j±0 (»):
226
c Emilio Gago-Ribas, 2002 °
40
δ''(x)
Re{F(ξ)}
140
20
120
0
100
-20
80
-40
60
1,5
-60
40
1,0
-80
20
2,0
0,5
-100 -10
0,0 -0,5
1,0
-1,0
-5
0
ξ
5
10
|F(ξ)|
0 -10
Im{F(ξ)}
-5
0
ξ
5
10
0
ξ
5
10
0
ξ
5
10
0
ξ
5
10
Fase{F(ξ)} 1,0π
-1,5 -2,0 -10
0,5 -5
0
x
5
0,5π
10
0,0π
0,0
-0,5π
-0,5
-1,0π -1,0 -10
140
Re{f(x)}
140
120
120
100
100
80
80
60
60
40
40
20
20
-5
0
ξ
5
10
-10
O(E[f(x)]) =5
|f(x)|
3,0π
-5
Re{F(ξ)}
2,0π 1,0π 0,0π
0 -10
1,0
-5
0
x
5
10
-1,0π -2,0π
0 -10
Im{f(x)}
-5
0
x
5
10
Fase{f(x)}
-3,0π -10
1,0
-5
Im{F(ξ)}
1,0π 0,5
0,5
0,5π 0,0π
0,0
0,0
-0,5π -0,5
-0,5 -1,0π
-1,0 -10
-5
0
x
5
10
-10
-5
0
x
5
10
-1,0 -10
-5
Figura 9.11. ± 00 (x) $ ¡» 2 y x2 $ ¡2¼±00 (»):
c Emilio Gago-Ribas, 2002 °
227
2,0
Γ(x)
2,0π
Re{F(ξ)}
4,0π
|F(ξ)|
1,5 1,0
1,0π
3,0π
0,0π
2,0π
-1,0π
1,0π
0,5 0,0 -0,5 -1,0 -1,5 -2,0 -10
2,0
-5
0
x
5
10
Γ1(x)
-2,0π -10
10
-5
0
ξ
5
10
0,0π -10
Im{F(ξ)}
-5
0
ξ
5
10
0
ξ
5
10
0
ξ
5
10
0
ξ
5
10
Fase{F(ξ)} 1,0π
1,5 1,0
5
0,5π
0,5 0,0
0,0π
0
-0,5 -0,5π
-1,0
-5
-1,5
-1,0π
-2,0 -10
20
-5
0
x
5
10
Re{f(x)}
-10 -10
20
-5
0
ξ
5
10
|f(x)|
-10
1,0
10
15
0,5
0
10
0,0
-10
5
-0,5
-20 -1,0
1,0
-0,5
0,0
x
0,5
1,0
0 -1,0
Im{f(x)}
-0,5
0,0
x
0,5
1,0
Fase{f(x)}
Re{F(ξ)}
-1,0 -10
2,0π
-5
-5
Im{F(ξ)}
1,0π 0,5
1,0π
0,5π 0,0π
0,0
0,0π
-0,5π
-1,0π
-0,5 -1,0π -1,0 -10
-5
0
x
5
10
-1,0
-0,5
0,0
Figura 9.12. ¡(x) $ ¼±(») +
228
x
0,5
1,0
-2,0π -10
-5
1 1 y $ 2¼j¡1 (¡»): j» x
c Emilio Gago-Ribas, 2002 °
9.7
Transformadas de Fourier de distribuciones y señales de energía …nita. Consideremos a continuación algunos casos de distribuciones de energía …nita, así como de las señales correspondientes obtenidas a partir de la propiedad de dualidad. Básicamente, las distribuciones de energía …nita más importantes serán señales discontinuas con un número …nito de discontinuidades. El caso más importantes es el pulso unidad de ancho ¢x ó ¢» dependiendo del dominio de de…nición. Esta distribución será especialmente importante en la práctica para modelar señales pulsadas, ventaneados en la variable real, o ventaneados en la variable espectral como se verá en los ejemplos del Cap. 10.
9.7.1
Pulso unidad de ancho ¢x:
Consideremos la función pulso de…nida habitualmente en el dominio real de la siguiente forma, 8 < 1 si jxj < ¢x 2 P¢x (x) = (9.118) : 0 si jxj > ¢x 2 Esta señal es, en realidad, una función discotinua en ¡¢x=2 y ¢x=2; de forma que, por ejemplo, su derivada no estaría de…nida en dichos puntos. Es por ello que, en realidad, deberíamos de considerarla como una distribución que puede ser fácilmente expresada en términos de la distribución ¡(x) en la forma, P¢x (x) = ¡(x + ¢x=2) ¡ ¡(x ¡ ¢x=2):
(9.119)
² Parámetros característicos. 1. Señal real, de forma que su espectro ha de satisfacer F (») = F ¤ (¡»): 2. Su valor medio será, hP¢x (x)i =
1 ¢x
Z
¢x=2
dx = 1:
(9.120)
¡¢x=2
2 3. La potencia instantánea coincide con la misma señal, P [P¢x (x)] = P¢x (x) = P¢x (x):
4. Es de energía …nita (base por altura del rectángulo formado por la señal), E [P¢x (x)] =
Z
¢x=2
dx = ¢x:
(9.121)
¡¢x=2
5. La potencia media coincide con el valor medio, dado que P [P¢x (x)] = P¢x (x): ² Criterios de convergencia. En virtud de los criterios descritos en la Secc. 9.3: 1. Dado que la señal es de energía …nita, signi…ca que es cuadrado integrable, y por lo tanto sería un elemento válido del espacio L2 (¡1; 1):
2. Respecto a las condiciones de Dirichlet, resulta evidente que: (i) el número de máximo y de mínimos es …nito; (ii) el número de discontinuidades es …nito, y éstas son …nitas, y (iii) resulta evidente demostrar que es absolutamente integrable. Esto signi…ca que satisface también las condiciones de Dirichlet, y por lo tanto, la transformada inversa de Fourier de esta señal representará a la señal original en todos los puntos excepto en las discontinuidades, donde tomará el valor medio de la discontinuidad, esto es, 1=2: Esto signi…ca que su transformada de Fourier se podrá analizar usando la expresión original en (9.18) dado que su convergencia está asegurada, o bien usando el desarrollo en términos de ¡(x) en (9.119).
c Emilio Gago-Ribas, 2002 °
229
² Cálculo de la transformada. 1. Usando la expresión original en (9.18): TF [P¢x (x)] =
Z
1
P¢x (x)e¡j»x dx =
¡1
=
Z
¢x=2
e¡j»x dx =
¡¢x=2
i 1 h j»¢x=2 e ¡ e¡j»¢x=2 = j»
¡ ¢ ¡ ¢ ¡ ¢ 2 sin » ¢x sin » ¢x 2 2 = ¢x sinc ¢x = ¢x 2 » : ¢x » » 2
(9.122)
Nótese que en la penúltima relación se ha procedido a multiplicar y dividir por ¢x para escribir el resultado …nal en términos de la función sinc (en el Ap. F.4 se puede encontrar un análisis detallado de esta función). 2. Usando el desarrollo en (9.119): TF [P¢x (x)] = = = = =
¸ ¸ 1 j»¢x=2 1 ¡j»¢x=2 e ¡ ¼±(») + e = j» j» 1 1 ¼±(»)ej»¢x=2 + ej»¢x=2 ¡ ¼±(»)e¡j»¢x=2 ¡ e¡j»¢x=2 = j» j» 1 j»¢x=2 1 ¡j»¢x=2 ¼±(») + e ¡ ¼±(») ¡ e = j» j» ej»¢x=2 ¡ e¡j»¢x=2 = j» ¡ ¢x ¢ (9.123) ¢x sinc 2 » : ¼±(») +
La última igualdad resulta evidente a la vista del desarrollo anterior. En este desarrollo se han utilizado también los siguientes resultados previos: (i) la transformada de Fourier de ¡(x) obtenida en (9.106); (ii) la propiedad de desplazamiento en (9.31), y (iii) el producto dela distribución delta por una función, en este caso ¼±(»)e§j»¢x=2 = ¼±(»): El par transformado vendrá dado entonces por P¢x (x) Ã! ¢x sinc
¡ ¢x ¢ 2 » :
(9.124)
² Análisis de la transformada. 1. La transformada de Fourier TF [P¢x (x)] en (9.124) es una función real y par. 2. En virtud de la relación de Parseval en (9.43), la energía de TF [P¢x (x)] será, (9.125)
E [TF [P¢x (x)]] = 2¼E [P¢x (x)] = 2¼¢x:
Nótese que este resultado nos provee de la siguiente propiedad matemática para la función sinc, Z 1 sinc2 (») d» = ¼: (9.126) ¡1
3. Los ceros de (9.124) vendrán dados por los ceros de la fución sinc; Ap. F.4, esto es, para ¢x 2 » = m¼; m 6= 0; » 0m = m
2¼ : ¢x
(9.127)
Cuando m = 0; » 00 = 0; y la función sinc alcanza su máximo de valor unidad, de forma que TF [P¢x (x)] (0) = ¢x: 4. La mayor parte de la energía de la función sinc, y por lo tanto, de TF [P¢x (x)] ; se concentra en el lóbulo principal, esto es, entre el primer cero negativo (m = ¡1) y el primer cero positivo (m = 1): 5. En base a este sencillo análisis es posible resaltar los siguientes hechos: 230
c Emilio Gago-Ribas, 2002 °
(a) Si el pulso se hace muy ancho (¢x grande), la función sinc se hace más estrecha (por 2¼ ejemplo, los primeros ceros en § ¢x tomarán valores muy pequeños).
(b) Al revés, si el pulso es muy estrecho (¢x pequeño), el ancho de la sinc será muy grande 2¼ tomarán valores muy grandes). (por ejemplo, los primeros ceros en § ¢x
(c) Si ¢x ! 1; el pulso tenderá a ser la función constante unidad, P¢x (x) ! 1; de forma que la función sinc tenderá a la transformada de Fourier de dicha función, esto es, TF [P¢x (x)] ! 2¼±(»): Este resultado sugiere que una sucesión de funciones sinc de parámetro ¢x ! 1 podrá ser usada como una sucesión válida para de…nir la distribución delta, Ap. C.
(d) Finalmente, si ¢x ! 0; el pulso tenderá a una función constante de valor unidad de…nida en torno al origen. En este caso, los primeros ceros de la sinc tenderán a in…nito, de forma que la sinc tiende a la constante unidad; el espectro TF [P¢x (x)] ; escalado por ¢x; tenderá justamente a un espectro nulo. Un caso particular de éste sería el caso de considerar pulsos de altura 1=¢x en lugar de la unidad. En este caso, el espectro sería la función sinc sin escalar por ¢x; de forma que en el límite cuando ¢x ! 0; P¢x (x) ! ±(x) y, por lo tanto, el espectro en términos de la función sinc tendería a la constante unidad, TF [P¢x (x)] ! 1: Este resultado sugiere que la distribución delta se podría obtener también como el límite de una sucesión de distribuciones pulso13 de ancho ¢x y de alto 1=¢x; Ap. C. 6. Estas consideraciones serán fundamentales a la hora de realizar operaciones importantes en la práctica como son el ventaneado en el dominio real de una función, esto es, el recorte ideal de una señal entre dos valores especí…cos de x, Cap. 10. 7. En la Fig. 9.13 se muestran dos ejemplos de esta transformación para diferentes anchos de P¢x (x): ² Pulso desplazado.
En base a la expresión de un pulso de ancho ¢x centrado, podremos analizar fácilmente la transformada de un pulso desplazado en x una cierta cantidad x0 sin más que considerar la propiedad de desplazamiento en (9.31); así, ¢ ¡ P¢x (x) Ã! ¢xsinc ¢x 2 » ; (9.128) ¡ ¢ ¡j»x 0 P¢x (x ¡ x0 ) Ã! ¢xsinc ¢x : 2 » e Esto quiere decir que la señal sinc real pasará ahora a ser compleja; la amplitud (módulo) del espectro se conserva, mientras que la fase se ve modi…cada por el factor lineal ¡»x0 : Esto provoca que las partes reales e imaginarias no sólo cambién su per…l, sino también la posición de los ceros, ¡ ¢ ¡j»x0 ¡ ¢ ¡j»x0 = ¢xsinc ¢x [cos »x0 ¡ j sin »x0 ] : (9.129) ¢xsinc ¢x 2 » e 2 » e Nótese que el papel del desplazamiento x0 sobre la variable » es el de una pulsación espectral, de forma que el factor e¡j»x0 tendría un período espectral en función del desplazamiento igual a 2¼=x0 : En la Fig. 9.14 se muestran dos ejemplos del efecto asociado a dos desplazamientos diferentes tomando como referencia el pulso mostrado en la Fig. 9.13 con ¢x = 2:
9.7.2
Pulso unidad de ancho ¢»:
Consideremos ahora la función pulso de…nida en el dominio espectral de la siguiente forma, 8 < 1 si j»j < ¢» 2 P¢» (») = : 0 si j»j > ¢» 2
(9.130)
Esta señal sería una distribución de…nida sobre la nueva variable » de similares características al P¢x (x); pudiéndose expresar en términos de la distribución ¡(») en la forma, P¢» (») = ¡(» + ¢»=2) ¡ ¡(» ¡ ¢»=2):
(9.131)
1 3 Nótese que ésta es la forma habitual usada en los textos para de…nir la distribución delta, cuando en realidad, esto equivaldría a obtener una distribución en términos de otras distribuciones.
c Emilio Gago-Ribas, 2002 °
231
Los parámetros característicos de esta señal serían similares a los de…nidos en la sección anterior, ahora sobre la variable espectral. En virtud de que su energía es …nita, será una señal que provendrá a su vez de una señal en el dominio real de energía …nita. Esto signi…ca que su transformada inversa de Fourier se podrá analizar usando la expresión original en (9.17) dado que su convergencia está asegurada, o bien calculando la transformada inversa a partir del desarrollo en términos de ¡(») en (9.131). Una tercera forma, a la vista del par transformado en (9.124), sería aplica la propiedad de dualidad sobre dicha expresión, lo que nos llevaría al siguiente desarrollo sencillo, P¢x (x) ³ ´ ¢»sinc ¢» x 2
Ã!
¢xsinc
¡ ¢x ¢ 2 » ;
Ã! 2¼P¢» (¡») = 2¼P¢» (»); ´ ¢» TF¡1 [P¢» (»)] = ¢» Ã! P¢» (»); 2¼ sinc 2 x ³
(9.132)
relación que nos da el par transformado de una función sinc en el dominio real y su representación de un pulso unidad en el dominio espectral. Nótese que en este desarrollo se ha usado la propiedad de paridad de la señal P¢» (»): ² Análisis de la transformada. 1. A través de las expresiones de la transformada directa e inversa podemos obtener dos relaciones matemáticas de interés para la función sinc: Z ´ ³ ¢» 1 P¢» (») = x e¡j»x dx; (9.133) sinc ¢» 2 2¼ ¡1 sinc
³
´
¢» 2 x
1 = ¢»
Z
1
P¢» (»)ej»x d»:
(9.134)
¡1
Nótese que la segunda ecuación nos provée de un signi…cado para la distribución pulso (en este caso de…nida en el dominio espectral) como aquella © ªdistribución que describe los coe…cientes de cada una de las funciones base f'(x; »)g = ej»x ; necesarios para representar la función sinc en términos de dicha base.
2. El análisis anterior determina que la función sinc en el dominio real es una señal de duración in…nita ©en ese ª dominio y, por lo tanto, de ancho de banda limitado, esto es, sólamente las funciones ej»x cuyas pulsaciones estén comprendidas entre ¡¢»=2 y ¢»=2 intervienen en la representación de la señal a través de la combinación lineal continua expresada por la transformada inversa. 3. Los ceros de la función sinc en (9.132) vendrán dados por x0n = n
2¼ : ¢»
¢» 2 x
= n¼; n 6= 0; (9.135)
Cuando n = 0; x00 = 0; la función sinc alcanza su máximo en el origen de valor unidad, y la función TF¡1 [P¢» (»)] su máximo de valor ¢»=2¼: 4. En base a este sencillo análisis es posible resaltar los siguientes hechos (duales de los descritos para el pulso en x): (a) Si el pulso se hace muy ancho (¢» grande), la función sinc se hace más estrecha (por 2¼ ejemplo, los primeros ceros en § ¢» tomarán valores muy pequeños). (b) Si el pulso es muy estrecho (¢» pequeño), el ancho de la sinc será muy grande (por ejemplo, 2¼ los primeros ceros en § ¢» tomarán valores muy grandes). (c) Si ¢» ! 1; el pulso tenderá a ser la función constante unidad, P¢» (») ! 1; de forma que la función sinc tenderá a la transformada de Fourier inversa de dicha función, esto es, TF¡1 [P¢» (»)] ! ±(x): Este resultado sugiere una vez más que una sucesión de funciones sinc de parámetro ¢» podrá ser usada como una sucesión válida para de…nir la distribución delta, Ap. C. 232
c Emilio Gago-Ribas, 2002 °
(d) Finalmente, si ¢» ! 0; el pulso tenderá a una función constante de valor unidad de…nida en torno al origen espectral. En este caso, los primeros ceros de la sinc en x tenderán a in…nito, de forma que la función TF¡1 [P¢» (»)] tiende a cero. 5. Nótese cómo estas consideraciones serán fundamentales a la hora de realizar operaciones tan habituales e importantes en la práctica como son el ventaneado espectral de una función, esto es, el recorte ideal del espectro de una señal entre dos pulsaciones o frecuencias dadas. 6. En la Fig. 9.15 se muestran varios ejemplos de esta transformación para diferentes anchos espectrales de P¢» (»): ² Pulso desplazado.
En base a la expresión de un pulso de ancho ¢» centrado, (9.130), podremos analizar fácilmente la transformada de un pulso desplazado en » una cierta cantidad » 0 sin más que considerar la propiedad de desplazamiento en el dominio espectral asociada a (9.32); así, ³ ´ ¢» ¢» Ã! P¢» (»); 2¼ sinc 2 x ³ ´ (9.136) ¢» ¢» j»0 x Ã! P¢» (» ¡ » 0 ): 2¼ sinc 2 x e La señal que antes era real en x pasa ahora a ser compleja manteniendo su módulo y variando su fase según el factor lineal » 0 x: Esto provoca que las partes real e imaginaria de la función en el dominio real cambie su per…l, y por lo tanto sus propiedades, por ejemplo la posición de los ceros, ³ ´ ³ ´ ¢» ¢» ¢» j»0 x j»0 x = ¢» [cos » 0 x + j sin » 0 x] : (9.137) 2¼ sinc 2 x e 2¼ sinc 2 x e
En este caso, el desplazamiento espectral » 0 sobre la variable x es el de una pulsación, de forma que el factor ej»0 x tendrá un período en función del desplazamiento espectral igual a 2¼=» 0 : En la Fig. 9.16 se muestran varios ejemplos del efecto asociado a diferentes desplazamientos espectrales de un pulso unidad de ancho ¢»: 9.7.3
Triángulo unidad de ancho ¢x:
Consideremos la función triángulo de altura unidad y ancho ¢x de…nida por, 8 ¡2 < ¢x jxj + 1 si jxj < ¢x 2 T¢x (x) = : ¢x 0 si jxj ¸ 2
(9.138)
Como se puede apreciar, esta señal es continua en todo el intervalo (¡1; 1) pero su derivada no está de…nida en los puntos x = ¡¢x=2; 0; y ¢x=2: Una vez más, deberíamos considerar a esta señal como una distribución si quisiéramos de…nir, por ejemplo, su derivada para todo valor de x: ² Parámetros característicos. 1. Señal real y par. Su espectro ha de satisfacer F (») = F ¤ (¡»): R ¢x=2 ¡ ¡2 ¢ 2 1 2. Su valor medio será hT¢x (x)i = ¢x ¢x x + 1 dx = 2 : 0 2 3. La potencia instantánea P [T¢x (x)] = T¢x (x): R ¢x=2 2 4. Es de energía …nita E [T¢x (x)] = ¡¢x=2 T¢x (x) dx < 1:
2 5. La potencia media será el valor medio de P [T¢x (x)] = T¢x (x):
² Criterios de convergencia. En virtud de los criterios de convergencia descritos en la Secc. 9.3: 1. Es cuadrado integrable dado que su energía es …nita, y por lo tanto sería un elemento válido del espacio L2 (¡1; 1):
2. Respecto a las condiciones de Dirichlet, resulta evidente que: (i) el número de máximo y de mínimos es …nito; (ii) el número de discontinuidades es nulo y, (iii) es absolutamente integrable. Esto signi…ca que satisface también las condiciones de Dirichlet, y por lo tanto, la transformada c Emilio Gago-Ribas, 2002 °
233
inversa de Fourier de esta señal representará a la señal original en todos los puntos. La señal triángulo será entonces un elemento válido de LD (¡1; 1):
Esto signi…ca que su transformada de Fourier se podrá analizar usando la expresión original en (9.18) dado que su convergencia está asegurada. ² Cálculo de la transformada. Z 1 TF [T¢x (x)] = T¢x (x)e¡j»x dx = ¡1 ¢x=2
=
Z
¡¢x=2
= =
Z
¡ ¡2
¢ ¡j»x dx = 2 ¢x jxj + 1 e
¢x=2
Z
¢x=2
Z
0
¢x=2 ¡
¡2 ¢x
¢ jxj + 1 cos»x dx =
¡ ¢¤ 4 £ 1 ¡ cos ¢x cos»x dx = 2 = 2 » » ¢x 0 0 ¡ ¢ ¡ ¡ ¢ ¢x sin2 ¢x ¢ 8 ¢x 2 ¢x 4 » sin » = sinc2 ¢x » : (9.139) ¡ ¢x ¢2 = 2 4 4 2 2 » ¢x » ¡4 ¢x
xcos»x dx + 2
4
En este desarrollo se han utilizado los siguientes resultados y propiedades: (i) la señal triangular es par; (ii) el desarrollo de la primera integral mediante integración por partes con u = x y v = 1» sin »x; (iii) el desarrollo del seno del ángulo mitad, 2 sin2 (a=2) = 1 ¡ cos a; y (iv) la expresión de la función sinc(x) = sin(x)=x: El par transformado vendrá dado entonces por T¢x (x) Ã!
¢ ¡ ¢x » : sinc2 ¢x 4 2
(9.140)
² Análisis de la transformada. 1. La transformada de Fourier en (9.140) es una función real, par y siempre positiva. 2. En virtud de la relación de Parseval en (9.43), la energía de TF [T¢x (x)] será, (9.141)
E [TF [T¢x (x)]] = 2¼E [T¢x (x)] = 2¼¢x:
Nótese que este resultado nos provee de la siguiente propiedad matemática para la función sinc, Z 1 sinc4 (») d» = 2¼: (9.142) ¡1
3. Los ceros de (9.140) vendrán dados por los ceros de la fución sinc, esto es, para m 6= 0; » 0m = m
4¼ : ¢x
¢x 4 »
= m¼; (9.143)
Cuando m = 0; » 00 = 0; la función sinc cuadrado alcanza su máximo de valor unidad, y TF [T¢x (x)]»=0 = ¢x=2: 4. La mayor parte de la energía de la función sinc cuadrado, y por lo tanto, de TF [T¢x (x)] ; se concentra en el lóbulo principal, esto es, entre el primer cero negativo (m = ¡1) y el primer cero positivo (m = 1): 5. En base a este sencillo análisis es posible resaltar los siguientes hechos: (a) Si la señal triangular se hace muy ancha (¢x grande), la función sinc cuadrado se hace 2¼ más estrecha (por ejemplo, los primeros ceros en § ¢x tomarán valores muy pequeños).
(b) Si la señal triangular es muy estrecha (¢x pequeño), el ancho de la sinc cuadrado será 2¼ muy grande (por ejemplo, los primeros ceros en § ¢x tomarán valores muy grandes).
(c) Si ¢x ! 1; la señal triangular tenderá a ser la función constante unidad, T¢x (x) ! 1; de forma que la función sinc cuadrado tenderá a la transformada de Fourier de dicha función, esto es, TF [T¢x (x)] ! 2¼±(»): Este resultado sugiere que una sucesión de funciones sinc cuadrado de parámetro ¢x podrá ser usada como otra sucesión válida para de…nir la distribución delta, Ap. C.
234
c Emilio Gago-Ribas, 2002 °
(d) Finalmente, si ¢x ! 0; la función triangular tenderá a una función constante de valor unidad de…nida en torno al origen. En este caso, los primeros ceros de la sinc cuadrado tenderán a in…nito, de forma que la sinc cuadrado tiende a la constante unidad. El espectro TF [T¢x (x)] ; escalado por ¢x; tenderá justamente a un espectro nulo. Un caso particular de éste sería el caso de considerar señales triangulares de altura 1=¢x en lugar de la unidad. En este caso, el espectro sería la función sinc cuadrado de amplitud unidad, de forma que en el límite cuando ¢x ! 0; T¢x (x) ! ±(x) y, por lo tanto, el espectro en términos de la función sinc cuadrado tenderá a la constante unidad, TF [T¢x (x)] ! 1: Este resultado sugiere que la distribución delta se podría obtener también como el límite de una sucesión de distribuciones triangulares de ancho ¢x y de valor máximo 1=¢x; Ap. C. 6. Igual que en el caso del pulso unidad de ancho ¢x; estas consideraciones serán muy importantes a la hora de considerar operaciones de ventaneado mediante señales triangulares en el dominio real, Cap. 10. 7. En la Fig. 9.17 se muestran varios ejemplos de esta transformación para diferentes anchos de T¢x (x): 9.7.4
Función exponencial a derechas (distribución exponencial). ² Consideremos la función exponencial de…nida a la derecha del origen de…nida por, 8 < e¡®x si x > 0 ; ® 2 C; y Ref®g > 0: e+ (x) = : 0 si x < 0
(9.144)
Esta señal es continua en todo el intervalo (¡1; 1) exceptuando en el origen (x = 0) donde la función presenta una discontinuidad …nita de valor unidad. Esta señal será por tanto una distribución expresable en términos de ¡(x) en la forma, e+ (x) = e¡®x ¡(x); Ref®g > 0:
(9.145)
² Parámetros característicos. 1. Señal real. Su espectro ha de satisfacer F (») = F ¤ (¡»): 2. Su valor medio es nulo, - + ® 1 e (x) = lim b!1 2b
Z
b 0
1 ¡ e¡®b = 0: b!1 2b®
e¡®x dx = lim
(9.146)
3. La potencia instantánea será una nueva exponencial a derechas de exponente 2®, P [e+ (x)] = e¡2®x ¡(x): 4. Es de energía …nita, £ ¤ E e+ (x) =
Z
1 0
e¡2 Ref®gx dx =
1 < 1: 2 Re f®g
(9.147)
5. La potencia media será el valor medio de P [e+ (x)] = e¡2®x ¡(x); y por lo tanto nula igual que en el caso de la señal original. ² Criterios de convergencia. 1. Es cuadrado integrable dado que su energía es …nita, y por lo tanto sería un elemento válido del espacio L2 (¡1; 1):
2. Respecto a las condiciones de Dirichlet, resulta evidente que: (i) el número de máximo y de mínimos es …nito; (ii) el número de discontinuidades es …nito (una discontinuidad) y de valor …nito (salto entre 0 y 1), y (iii) es absolutamente integrable, Z 1 1 < 1: (9.148) e¡ Ref®gx dx = Re f®g 0 c Emilio Gago-Ribas, 2002 °
235
Esto signi…ca que satisface también las condiciones de Dirichlet, y por lo tanto, la transformada inversa de Fourier de esta señal representará a la señal original en todos los puntos excepto en la discontinuidad en el origen, donde tomará el valor medio de la discontinuidad, esto es, 1=2: La señal será entonces un elemento válido de LD (¡1; 1):
Su transformada de Fourier se podrá analizar entonces usando la expresión original en (9.18) dado que su convergencia está asegurada. ² Cálculo de la transformada.
£ ¤ TF e+ (x) = =
Z
1
¡1 1
Z
Z
e+ (x)e¡j»x dx =
1
e¡®x e¡j»x dx =
0
¡(®+j»)x
e
0
1 dx = : ® + j»
(9.149)
En este desarrollo se ha utilizado el hecho de que la exponencial e¡ Ref®gx ej[Imf®g+»] tiende a cero cuando x ! 1 dado que Re f®g > 0: El par transformado vendrá dado entonces por, e+ (x) Ã!
1 : ® + j»
(9.150)
² Análisis de la transformada. 1. La transformada de Fourier en (9.150) es una función compleja sin singularidades, dado que el valor de » para el cuál se anula el denominador es » = j®; y por lo tanto un valor complejo, siendo » 2 R.
2. En virtud de la relación de Parseval en (9.43), la energía de TF [e+ (x)] será, £ £ ¤¤ £ ¤ E TF e+ (x) = 2¼E e+ (x) =
¼ ; Re f®g > 0: Re f®g
Nótese que este resultado nos provee de la siguiente propiedad matemática14 , Z 1 Z 1 1 ¼ 1 d» = : 2 d» = 2 + (b + »)2 a a ¡1 ¡1 j® + j»j
(9.151)
(9.152)
3. En el caso en que ® 2 R; la exponencial será también real y decreciente en virtud de la condición Re f®g = ® > 0: En la Fig. 9.18 se muestran dos ejemplos de esta transformación para diferentes valores del exponente ® 2 R: Nótese una vez más cómo a medida que ® aumenta, la exponencial decrece más rápidamente, esto es, su variación en x es más rápida, lo que supone un ancho de su representación©espectral mayor, y por lo tanto, un mayor número de armónicos ª del conjunto de funciones base ej»x contribuye a la representación de la señal original. Nótese cómo en este caso, el máximo de jTF [e+ (x)]j ocurre en » = 0:
4. En el caso en que ® = ®0 + j®00 2 C; la exponencial se podrá expresar en la forma, 0
e¡®x ¡(x) = e¡® x [cos ®00 x ¡ j sin ®00 x] ¡(x);
(9.153)
lo que representa una señal cosenoidal y otra senoidal cuyo período sería X0 = 2¼=®00 ; pero 0 decreciendo en amplitud según el factor e¡® x . Nótese cómo la parte imaginaria de ® controla el que sería el período de dichas señales sinusoidales. Desde el punto de vista espectral, la función TF [e+ (x)] se podría escribir de la siguiente forma, £ ¤ TF e+ (x) =
1 ; ®0 + j(®00 + »)
(9.154)
lo que supone un desplazamiento en » de valor ®00 ; por ejemplo, el máximo de jTF [e+ (x)]j ocurrirá ahora en » max = ¡®00 : En las Figs. 9.19 y 9.20 se muestran dos ejemplos de esta transformación para diferentes valores del exponente ® 2 C: 14 Basta
236
para ello con identi…car Re f®g = a y Im f®g = b:
c Emilio Gago-Ribas, 2002 °
2
2
P∆x(x)
Re{F(ξ)}
2,0
1
1,5
0
1,0
-1
0,5
|F(ξ)|
1 -2 -20
0 2
-10
0
ξ
10
20
0,0 -20
Im{F(ξ)}
-10
0
ξ
10
20
-10
0
ξ
10
20
-10
0
ξ
10
20
0
ξ
10
20
Fase{F(ξ)} 1,0π
-1 -4
1 -2
0
x
2
0,5π
4
0,0π
0
-0,5π -1 -1,0π -2 -20
2
2
P∆x(x)
1
0
ξ
10
20
Re{F(ξ)}
-20
2,0
1
1,5
0
1,0
-1
0,5
-2 -20
2
0
-10
-10
0
ξ
10
20
|F(ξ)|
0,0 -20
Fase{F(ξ)}
Im{F(ξ)} 1,0π
1 -1 -4
-2
0
x
2
0,5π
4 0,0π
0
-0,5π -1 -1,0π -2 -20
-10
0
Figura 9.13. P¢x (x) $ ¢x sinc
c Emilio Gago-Ribas, 2002 °
ξ
10
20
-20
-10
¡ ¢x ¢ 2 » ; ¢x = 1 y ¢x = 2:
237
2
2
P∆x(x)
Re{F(ξ)}
2,0
1
1,5
0
1,0
-1
0,5
|F(ξ)|
1 -2 -20
0 2
-10
0
ξ
10
20
0,0 -20
-10
0
ξ
10
20
-10
0
ξ
10
20
-10
0
ξ
10
20
10
20
Fase{F(ξ)}
Im{F(ξ)} 1,0π
-1 -4
1 -2
0
x
2
0,5π
4
0,0π
0
-0,5π -1 -1,0π -2 -20
2
2
P∆x(x)
1
0
ξ
10
20
Re{F(ξ)}
-20
2,0
1
1,5
0
1,0
-1
0,5
-2 -20
2
0
-10
-10
0
ξ
10
20
|F(ξ)|
0,0 -20
Fase{F(ξ)}
Im{F(ξ)} 1,0π
1 -1 -4
-2
0
x
2
0,5π
4 0,0π
0
-0,5π -1 -1,0π -2 -20
-10
Figura 9.14. P¢x (x ¡ x0 ) $ ¢x sinc
238
0
ξ
10
20
-20
-10
0
ξ
¡ ¢x ¢ ¡j»x 0 ; ¢x = 2; x0 = 1 y x0 = 2: 2 » e
c Emilio Gago-Ribas, 2002 °
-1
1,5
TF [P∆ξ(ξ)]
2,0
P∆ξ(ξ)
1,5
1,0
1,0 0,5 0,5 0,0
0,0
-0,5 -10,0
-7,5
-5,0
-2,5
0,0
-1
1,5
TF [P∆ξ(ξ)]
x
2,5
5,0
7,5
10,0
-0,5 -5
2,0
-4
-3
-2
-1
0
ξ
1
2
3
4
5
-3
-2
-1
0
ξ
1
2
3
4
5
-3
-2
-1
0
ξ
1
2
3
4
5
-3
-2
-1
0
ξ
1
2
3
4
5
P∆ξ(ξ)
1,5
1,0
1,0 0,5 0,5 0,0
0,0
-0,5 -10,0
-7,5
-5,0
-2,5
0,0
-1
1,5
TF [P∆ξ(ξ)]
x
2,5
5,0
7,5
10,0
-0,5 -5
2,0
-4
P∆ξ(ξ)
1,5
1,0
1,0 0,5 0,5 0,0
0,0
-0,5 -10,0
-7,5
-5,0
-2,5
0,0
-1
1,5
TF [P∆ξ(ξ)]
x
2,5
5,0
7,5
10,0
-0,5 -5
2,0
-4
P∆ξ(ξ)
1,5
1,0
1,0 0,5 0,5 0,0
-0,5 -10,0
0,0
-7,5
-5,0
-2,5
0,0
x
2,5
Figura 9.15.
c Emilio Gago-Ribas, 2002 °
5,0
7,5
10,0
-0,5 -5
-4
¡ ¢ ¢» sinc ¢» 2 x $ P¢» (»); ¢» = 2; 4; 6 y 8: 2¼
239
Re{f(x)}
2
ξ0
P∆ξ(ξ)
0,4
0,4
0,2
0,3
0,0
0,2
-0,2
0,1
|f(x)|
1 -0,4 -10 -8
0 0,4
-6
-4
-2
0
x
2
4
6
8
10
0,0 -10 -8
-6
-4
-2
0
x
2
4
6
8
10
2
4
6
8
10
2
4
6
8
10
2
4
6
8
10
Fase{f(x)}
Im{f(x)} 1,0π
-1 -5
0,2 -4
-3
-2
-1
0
1
ξ
2
3
4
0,5π
5
0,0π
0,0
-0,5π -0,2 -1,0π -0,4 -10 -8
-6
-4
-2
0
x
2
4
6
8
10
-10 -8
Re{f(x)}
2
ξ0
P∆ξ(ξ)
1
0,4
0,4
0,2
0,3
0,0
0,2
-0,2
0,1
-0,4 -10 -8
0,4
0
-6
-4
-2
0
x
2
4
6
8
10
-6
-4
-2
0
-6
-4
-2
0
-2
0
x
|f(x)|
0,0 -10 -8
x
Fase{f(x)}
Im{f(x)} 1,0π
0,2 -1 -5
-4
-3
-2
-1
0
ξ
1
2
3
4
0,5π
5 0,0π
0,0
-0,5π -0,2 -1,0π -0,4 -10 -8
Figura 9.16.
240
-6
-4
-2
0
x
2
4
6
8
10
-10 -8
-6
-4
x
¡ ¢ ¢» sinc ¢» x ej»0 x $ P¢» (» ¡ »0 ); ¢» = 2; » 0 = 1 y 2: 2 2¼
c Emilio Gago-Ribas, 2002 °
2,0
F(ξ)
T∆x(x)
3
1,5 2 1,0 1 0,5
0,0 -5
2,0
-4
-3
-2
-1
0
T∆x(x)
x
1
2
3
4
5
0 -20
3
-15
-10
-5
0
5
10
15
20
-10
-5
0
ξ
5
10
15
20
-10
-5
0
ξ
5
10
15
20
-10
-5
0
ξ
5
10
15
20
F(ξ)
ξ
1,5 2 1,0 1 0,5
0,0 -5
2,0
-4
-3
-2
-1
0
T∆x(x)
x
1
2
3
4
5
0 -20
3
-15
F(ξ)
1,5 2 1,0 1 0,5
0,0 -5
2,0
-4
-3
-2
-1
0
T∆x(x)
x
1
2
3
4
5
0 -20
-15
F(ξ) 3
1,5 2 1,0 1 0,5
0,0 -5
-4
-3
-2
-1
0
x
1
2
3
Figura 9.17. T¢x (x) Ã!
c Emilio Gago-Ribas, 2002 °
4
5
0 -20
-15
¡ ¢ ¢x sinc2 ¢x 4 » ; ¢x = 1; 2; 4 y 6: 2
241
Re{F(ξ)}
+
2
e (x)
1,0
1,00
0,5
0,75
0,0
0,50
-0,5
0,25
|F(ξ)|
1 -1,0 -15
0 1,0
-10
-5
0
ξ
5
10
15
0,00 -15
Im{F(ξ)}
-10
-5
0
ξ
5
10
15
-5
0
ξ
5
10
15
-5
0
ξ
5
10
15
5
10
15
Fase{F(ξ)} 1,0π
0,5
-1 -4
-2
0
x
2
0,5π
4
0,0π
0,0
-0,5π
-0,5
-1,0π -1,0 -15
1,0
-10
-5
0
ξ
5
10
15
Re{F(ξ)}
-15
1,00
0,5
0,75
0,0
0,50
-0,5
0,25
-10
|F(ξ)|
+
2,0
e (x)
1,5 1,0
-1,0 -15
-10
-5
0
0,5 1,0
0,0
ξ
5
10
15
0,00 -15
-10
Fase{F(ξ)}
Im{F(ξ)} 1,0π
-0,5 0,5 -1,0 -4
-2
0
x
2
0,5π
4 0,0π
0,0
-0,5π -0,5 -1,0π -1,0 -15
-10
-5
0
Figura 9.18. e¡®x ¡(x) $
242
ξ
5
10
15
-15
-10
-5
0
ξ
1 ; ® = 1 y 2: ® + j»
c Emilio Gago-Ribas, 2002 °
X0
+
Re{e (x)} 1,0
1,00
0,5
0,75
0,0
0,50
-0,5
0,25
-1,0 -3
-2
-1
0
x
1
3
4
5
0,00 -20
X0
+
1,0
2
Im{e (x)}
0,50
0,5
0,25
0,0
0,00
-0,5
-0,25
-1,0 -3
-2
-1
0
x
1
2
3
4
5
|e (x)|
1,00
-15
-10
-5
0
ξ
5
10
15
20
-10
-5
0
ξ
5
10
15
20
-5
0
ξ
5
10
15
20
-5
0
ξ
5
10
15
20
Im{F(ξ)}
-0,50 -20
+
1,0
Re{F(ξ)}
-15
ξmax
|F(ξ)|
0,75 0,5 0,50 0,0 0,25
-0,5 -3
-2
-1
0
x
1
2
3
4
5
0,00 -20
+
1,0 π
1,0 π
0,5 π
0,5 π
0,0 π
0,0 π
-0,5 π
-0,5 π
-1,0 π
-1,0 π -2
-1
0
x
1
2
Figura 9.19. e¡®x ¡(x) $
c Emilio Gago-Ribas, 2002 °
-10
Fase{F(ξ)}
Fase{e (x)}
-3
-15
3
4
5
-20
-15
-10
1 ; ® = 1 + j2¼ 2 C; X0 = 1 y »max = ¡2¼: ® + j»
243
X0
+
Re{e (x)} 1,0
1,00
0,5
0,75
0,0
0,50
-0,5
0,25
-1,0 -3
-2
-1
0
x
1
3
4
5
0,00 -20
X0
+
1,0
2
Im{e (x)}
0,50
0,5
0,25
0,0
0,00
-0,5
-0,25
-1,0 -3
-2
-1
0
x
1
2
3
4
5
1,0
1,00
-15
-10
-5
0
ξ
5
10
15
20
-10
-5
0
ξ
5
10
15
20
-5
0
ξ
5
10
15
20
-5
0
ξ
5
10
15
20
Im{F(ξ)}
-0,50 -20
+
|e (x)|
Re{F(ξ)}
-15
ξmax
|F(ξ)|
0,75 0,5 0,50 0,0 0,25
-0,5 -3
-2
-1
0
x
1
2
3
4
5
0,00 -20
+
1,0 π
1,0 π
0,5 π
0,5 π
0,0 π
0,0 π
-0,5 π
-0,5 π
-1,0 π
-1,0 π -2
-1
0
x
1
2
Figura 9.20. e¡®x ¡(x) $
244
-10
Fase{F(ξ)}
Fase{e (x)}
-3
-15
3
4
5
-20
-15
-10
1 ; ® = 2 + j3¼ 2 C; X0 = 2=3 y »max = ¡3¼: ® + j»
c Emilio Gago-Ribas, 2002 °
9.8
Transformada de Fourier de señales periódicas. Cualquier señal periódica continua o discontinua (con un número …nito de discontinuidades por período) de período arbitrario X0 puede ser considerada como un elemento del espacio vectorial de señales ~ S(¡1; 1) de…nido en los capìtulos precedentes con las siguientes salvedades: 1. El producto escalar, la norma y la métrica de…nidas sobre dicho espacio no son en general válidas para este tipo de señales, dado que son divergentes al considerar todo el rango de la variable independiente entre ¡1 e 1: Es por esto que dichas de…niciones se restringen habitualmente a un período tal y como se analizó en la Secc. 2.6.1. 2. En particular, la norma de este tipo de señales, vista como el cuadrado de la energía de la señal, será divergente y, por lo tanto, serán un caso particular de señales de energía in…nita. Esto hace que un elemento f0 (x) de período X0 no sea un elemento válido del espacio L2 (¡1; 1); lo que equivale a decir que, en principio, no existe su transformada de Fourier, o más concretamente, no es posible obtener de estas señales como combinaciones lineales continuas de la base ª © representaciones f'(x; »)g ´ ej»x ; esto es, la transformada inversa de Fourier. ª © La posibilidad de representar señales periódicas f0 (x) en términos de ej»x será posible una vez más por el hecho de haber introducido las distribuciones en la teoría de análisis funcional. Como hemos visto en la Secc. 9.6, las distribuciones de tipo impulsivo delta de Dirac, su primera derivada, etc. son distribuciones de energía in…nita que permiten representar el espectro de funciones de energía in…nita según el orden de variación de éstas, por ejemplo, la función constante, la función lineal, etc. Un caso particular analizado allí fue el de la distribución delta de Dirac desplazada, ej»0 x Ã! 2¼±(» ¡ » 0 );
(9.155)
como un caso particular de señal periódica de período X0 = 2¼=» 0 cuyo espectro era representado en términos de una delta localizada en la pulsación » 0 : Resulta evidente que este resultado se podrá trasladar fácilmente: (i) a funciones armónicas en la© forma ªejm»0 x ; siendo m el m-ésimo armónico de período X0 =m; (ii) a todo el conjunto de armónicos ejm»0 x ; y (iii) a cualquier combinación lineal de estos armónicos, y por lo tanto, al desarrollo en serie de Fourier de señales periódicas analizado en el Cap. 8. Analizaremos estos pasos a continuación. 9.8.1
Expresión de la transformada. ² Transformada de un armónico. Considerémos el m-ésimo armónico '(x; m) = ejm»0 x de período X0 = 2¼=» 0 : En virtud del resultado obtenido en (9.77) resulta evidente su generalización a cualquier armónico m obteniéndose, ejm»0 x Ã! 2¼±(» ¡ m» 0 );
(9.156)
esto es, una delta de Dirac localizada espectralmente a la pulsación m» 0 del armónico y de peso 2¼: El análisis de este resultado es totalmente similar al realizado para (9.77); el objeto ±(» ¡ m» 0 ) es justamente aquel objeto necesario para seleccionar © ª el armónico m-ésimo de pulsación m» 0 del conjunto in…nito y continuo de funciones base ej»x ; ¯ © j»x ª e ! ±(» ¡ m» 0 ) ! ej»x ¯ = ejm»0 x : (9.157) »=m»0
La representación matemática rigurosa de este proceso viene dada, como ya es sabido, por el operador transformada inversa de Fourier, incluyendo el factor de escala adecuado para la delta, Z 1 ejm»0 x = 2¼±(» ¡ m» 0 )ej»x d»; (9.158) 2¼ » expresión fácilmente analizable sin más que recurrir a la de…nición de la delta de Dirac. Esta interpretación queda re‡ejada de forma esquemática en la Fig. 9.21. ² Transformada de combinaciones lineales de armónicos. Una combinación lineal de armónicos de período X0 en la forma ejm»0 x será de la forma, X a(m)ejm»0 x ; (9.159) m
c Emilio Gago-Ribas, 2002 °
245
Re{exp(-jξx)} ξ=0.3 ξ=2
1,5
ξ=0
1,0
ξ=10
1,5
0,5 0,0
δ(ξ - mξ0)
-0,5 -1,0
ξ=mξ0
1,0
-1,5 0 0,5
2
4
2
4
Im{exp(-jξx)} ξ=2 ξ=0.3
1,5
6
x
8
10
12
6
x
8
10
12
1,0 0,0 -10
-5
0
ξ
5
10
mξ0
0,5 0,0 -0,5
ξ=0
-1,0
ξ=mξ0
ξ=10
-1,5 0
Figura © j»x ª 9.21. Representación de algunas funciones del conjunto de funciones base e con » = 0; 0:3; 2; y 10. El objeto ±(» ¡ m» 0 ) permite seleccionar un elemento concreto de un continuo de valores, en este caso, un armónico de pulsación » = m» 0 del conjunto continuo de funciones base.
donde el recorrido de valores de m podrá ser, en principio, cualquiera. Así, las propiedades de linealidad del operador transformada de Fourier permitirán obtener fácilmente el par transformado correspondiente a dicha combinación lineal, X X X £ ¤ a(m)ejm»0 x Ã! a(m)TF ejm»0 x = 2¼ a(m)±(» ¡ m» 0 ): (9.160) m
m
m
² Transformada de un desarrollo en serie de Fourier. El resultado anterior nos permite escribir rápidamente el par transformado asociado a un desarrollo en serie de Fourier de una señal periódica sin más que extender el sumatorio entre ¡1 e 1; y considerar que a(m) son los coe…cientes del desarrollo en serie de la señal f0 (x); así, f0 (x) =
1 P
m=¡1
a(m)'(x; m) Ã! F0 (») = 2¼
1 P
m=¡1
a(m)±(» ¡ m» 0 ):
(9.161)
El valor de los coe…cientes a(m) ha sido expresado en términos del producto escalar de…nido en el espacio de señales periódicas de período X0 ; tal y como se obtuvo en (8.17). La interpretación de esta transformada resulta evidente: P 1. Desde el punto de vista de las distribuciones, el papel que© juega ª m ±(» ¡ m» 0 ) es el de seleccionar un© conjunto numerable de funciones ejm»0 x de un conjunto continuo ª © in…nito ª pero © j»x ª j»x jm»0 x de funciones e ; e ½ e :
2. Desde el punto de vista de la transformada, el resultado …nal es un tren de deltas no periódico en general, dado que cada una de las deltas tiene de peso 2¼a(m); lógicamente, el valor del conjunto de coe…cientes fa(m)g dependerá de la señal original f0 (x) representada por su desarrollo en serie.
3. El proceso …nal de obtención de la transformada se podría resumir de la siguiente forma: (a) Dada una señal periódica f0 (x) de período X0 ; obtendremos los coe…cientes de su desarrollo en serie a través de la expresión, a(m) =
246
1 hf0 (x); '(x; m)i : X0
(9.162)
c Emilio Gago-Ribas, 2002 °
Re{a(m)} 4
4
3
3
2
2
1
1
0
0
-1
-1
-2
-2
-3
-3
-4 -10
-8
-6
-4
-2
Im{a(m)}
0
m
2
4
6
8
10
-4 -10
4
4
3
3
2
2
1
1
0
0
-1
-1
-2
-2
-3
-3
-4 -10
-8
-6
-4
-2
0
m
2
4
6
8
10
Re{F0(ξ)}/2π
-8
-6
-4
-2
-8
-6
-4
-2
Im{F0(ξ)}/2π
-4 -10
0
2
4
6
8
10
0
2
4
6
8
10
ξ /ξ0
ξ /ξ0
Figura 9.22. Ejemplo de la transformada de Fourier de una señal de período 2¼=» 0 con un desarrollo en serie cuyos coe…cientes a(m) fuesen los mostrados.
(b) Conocidos estos coe…cientes, y escalados todos ellos por el factor 2¼; la transformada será un tren de deltas, cada una con un peso igual a 2¼a(m); y localizadas en múltiplos de la pulsación fundamental, esto es, en m» 0 = m2¼=X0 : (c) En la Fig. 9.22 se muestra un ejemplo para un conjunto concreto de coe…cientes fa(m)g de valores complejos arbitrarios. 9.8.2
Análisis espectral de los coe…cientes del desarrollo en serie.
Los coe…cientes del desarrollo en serie de Fourier de una señal periódica f0 (x) vienen dados en función del producto escalar de…nido en el espacio de señales periódicas al que pertenecen, Z 1 1 hf0 (x); '(x; m)i = f0 (x)'¤ (x; m) dx = a(m) = X0 X0 hX0 i Z 1 = f0 (x)e¡jm»0 x dx: (9.163) X0 hX0 i En la Secc. 9.2 vimos como la expresión de la transformada de Fourier la obteníamos a partir del análisis de señales periódicas haciendo que X0 ! 1 en última instancia. A la vista de la expresión de los coe…cientes del desarrollo en serie, podremos pensar en seguir un proceso inverso al utilizado allí, estudiando la relación existente entre los coe…cientes a(m) del desarrollo de una señal f0 (x) y el espectro F (») de una señal …nita f (x) obtenida como réplica de la señal f0 (x) de…nida únicamente en un período. Este proceso nos permitirá obtener en la práctica el valor de los coe…cientes del desarrollo en serie de una cierta señal periódica (y por lo tanto in…nita) a partir de la transformada de una señal de longitud …nita. Partiremos para ello de una señal periódica f0 (x) 2 P~ 2 (X0 ) de período X0 como la mostrada en la Fig. 9.23(a). ² Primer caso: hX0 i = [0; X0 ): En este caso, los coe…cientes del desarrollo en serie de f0 (x) se podrían escribir como, Z X0 1 f0 (x)e¡jm»0 x dx: (9.164) a(m) = X0 0 c Emilio Gago-Ribas, 2002 °
247
1,00
f0(x)
0,75
(a)
0,50 0,25 0,00 -1,0 1,00
f1(x)
-0,5
0,0
x / X0
0,5
1,0
1,5
2,0
0,75
(b)
0,50 0,25 0,00 -1,0 1,00
f2(x)
-0,5
0,0
x / X0
0,5
1,0
1,5
2,0
0,75
(c)
0,50 0,25 0,00 -1,0
-0,5
0,0
x / X0
0,5
1,0
1,5
2,0
Figura 9.23. Señal periódica de período X0 ; y dos señales f1 (x) y f2 (x) de longitud …nita obtenidas a partir de ella, la primera de…nida en el intervalo fundamental [0; X0 ); y la segunda de…nida en un intervalo arbitrario [xi ; xi +X0 ): En este ejemplo, xi = 0:25:
Por otro lado, la señal …nita a considerar sería como la mostrada en la Fig. 9.23(b), 8 < f0 (x) x 2 [0; X0 ) f1 (x) = : 0 x2 = [0; X0 )
(9.165)
Resulta trivial escribir la transformada de Fourier de f1 (x) en términos de f0 (x) en la siguiente forma, F1 (») = =
Z
1
¡1 Z X0
¡j»x
f1 (x)e
dx =
Z
X0
f1 (x)e¡j»x dx =
0
f0 (x)e¡j»x dx;
(9.166)
0
expresión que claramente coincide con la expresión de los a(m) en el caso en que » = m» 0 : En la segunda igualdad se ha tenido en cuenta el hecho de que f1 (x) es nula fuera del intervalo [0; X0 ): Podremos entonces escribir la siguiente relación, a(m) =
1 F1 (» = m» 0 ): X0
(9.167)
Es decir, los coe…cientes del desarrollo en serie de una señal f0 (x) podrán calcularse como muestras del espectro de la señal f0 (x) recortada en el intervalo [0; X0 ); incluyendo el factor de escala 1=X0 : Dichas muestras estarán justamente de…nidas a las pulsaciones correspondientes de los armónicos del desarrollo en serie. ² Segundo caso: hX0 i 6= [0; X0 ): Consideremos ahora un intervalo arbitrario de longitud X0 ; por ejemplo, [xi ; xi + X0 ): Los coe…cientes del desarrollo en serie de f0 (x) se escribirán entonces como, a(m) =
248
1 X0
Z
xi +X0
f0 (x)e¡jm»0 x dx:
(9.168)
xi
c Emilio Gago-Ribas, 2002 °
En este caso, la señal …nita a considerar sería como la mostrada en la Fig. 9.23(c), 8 < f0 (x) x 2 [xi ; xi + X0 ) f2 (x) = : 0 x2 = [xi ; xi + X0 )
(9.169)
La transformada de Fourier de f2 (x) en términos de f0 (x) se podrá obtener de la siguiente forma, F2 (») = =
Z
1
¡j»x
f2 (x)e
¡1 Z xi +X0
dx =
Z
xi +X0
f2 (x)e¡j»x dx =
xi
f0 (x)e¡j»x dx;
(9.170)
xi
expresión que claramente coincide una vez más con la de los coe…cientes a(m) en el caso en que » = m» 0 : En la segunda igualdad se ha tenido en cuenta el hecho de que f2 (x) es nula fuera del intervalo [xi ; xi + X0 ): Podremos entonces escribir la siguiente relación, a(m) =
1 F2 (» = m» 0 ): X0
(9.171)
Es decir, los coe…cientes del desarrollo en serie de una señal f0 (x) podrán calcularse como muestras del espectro de una señal f0 (x) recortada en cualquier intervalo de longitud hX0 i :
² Análisis de los coe…cientes. A tenor de los descrito anteriormente, resulta evidente que:
1. Los coe…cientes del desarrollo en serie de una señal periódica se pueden calcular a partir del espectro de cualquier señal …nita obtenida a partir de la periódica sin más que considerar las muestras de dicho espectro a las pulsaciones de los armónicos del desarrollo en serie función del período X0 de la señal. 2. Las señales obtenidas a partir de f0 (x) serán diferentes en función del intervalo considerado, véanse los ejemplos mostrados en la Fig. 9.24. Esto signi…ca que los espectros de ambas señales serán también diferentes, esto es, F1 (») 6= F2 (»):
3. Dado que los coe…cientes del desarrollo de una señal f0 (x) dada son únicos, el valor de los espectros de cualquier señal obtenida a partir de f0 (x) ha de coincidir justamente en las pulsaciones » = m» 0 : En forma general, podremos escribir, 8 9 < fi (x) = f0 (x) en [xi ; xi + X0 ) = f0 (x) ! ; (9.172) : f (x) = f (x) en [x ; x + X ) ; j 0 j j 0 Fi (») 6= Fj (»)
8 <
Fi (») 6= Fj (»)
9 =
: F (m» ) = F (m» ) = X a(m) ; i j 0 0 0
:
(9.173)
De esta forma, para el cálculo de los a(m) podremos considerar siempre el intervalo de recorte de la señal que más nos interese, en función del comportamiento y propiedades de la señal periódica original. 4. En la Fig. 9.24 se muestra un ejemplo detallado de este análisis para un tren de pulsos centrado y de período unidad. Nótese cómo las señales f1 (x) y f2 (x) obtenidas a partir del tren de pulsos tienen dos espectros F1 (») y F2 (») totalmente diferentes, pero las muestras en » = m» 0 de dichos espectros coinciden y son iguales al valor de los coe…cientes a(m) del desarrollo en serie del tren de pulsos.
c Emilio Gago-Ribas, 2002 °
249
2,0
f2(x)
f1(x)
f0(x)
1,5 1,0 0,5 0,0 -0,5 -1,0 -2,0
2,0
-1,5
-1,0
-0,5
0,0
x / X0
f1(x)
2,0
1,5
1,5
1,0
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0 -2,0
0,6
-1,5
-1,0
-0,5
0,0
0,5
1,0
1,5
2,0
0,6
0,4
0,4
0,2
0,2
0,0
0,0
-0,2
-0,2
-0,4 -10
-8
-6
-4
-2
0
2
4
6
8
10
1,0
1,5
2,0
f2(x)
-1,0 -2,0
x / X0
X0Re{am}
0,5
-1,5
-1,0
-0,5
X0Im{am}
-0,4 -10
-8
-6
-4
-2
Re{F1(ξ)}
0,6
0,4
0,4
0,2
0,2
0,0
0,0
-0,2
-0,2
-0,4 -20π
0,6
-16π
-12π
-8π
-4π
0π
4π
8π
12π
16π
20 π
0,6 0,4
0,2
0,2
0,0
0,0
-0,2
-0,2 -16π
-12π
-8π
-4π
0π
ξ, mξ0
1,5
2,0
0
2
4
6
8
10
-16π
-12π
-8π
-4π
0π
4π
8π
12π
16 π
20π
4π
8π
12π
16 π
20π
ξ, mξ0
0,4
-0,4 -20π
1,0
Im{F1(ξ)}
-0,4 -20π
ξ, mξ0
Re{F2(ξ)}
0,5
m
m 0,6
0,0
x / X0
4π
8π
12π
16π
20 π
Im{F2(ξ)}
-0,4 -20π
-16π
-12π
-8π
-4π
0π
ξ, mξ0
Figura 9.24. Análisis de los coe…cientes del desarrollo en serie de Fourier de un tren de pulsos centrado de período X0 = 1 obtenidos a partir de los espectros F1 (») y F2 (») en » = m» 0 correspondientes a las señales …nitas f1 (x) y f2 (x) obtenidas a partir de f0 (x); la primera de…nida en x 2 (¡X0 =2; X0 =2); y la segunda de…nida en x 2 (X0 =8; 9X0 =8):
250
c Emilio Gago-Ribas, 2002 °
9.8.3
Otra expresión de la transformada.
Hemos visto en la sección anterior como dada una señal f0 (x) de periódo X0 ; es posible calcular los coe…cientes de su desarrollo en serie de Fourier a partir de la transformada de Fourier F (») de una señal …nita f (x) obtenida recortando la señal periódica original en un intervalo cualquiera de longitud el período, a(m) =
1 2¼ F (m» 0 ); » 0 = : X0 X0
(9.174)
Sustituyendo este valor en la transformada de Fourer de f0 (x) obtenida en (9.161), F0 (») =
2¼ X0
1 P
m=¡1
F (m» 0 )±(» ¡ m» 0 );
(9.175)
expresión válida para la transformada de Fourier de una señal periódica. La interpretación de esta expresión alternativa se muestra en el ejemplo de la Fig. 9.25; la transformada de Fourier se puede ver como un tren de deltas equiespaciado cada m» 0 modulado en amplitud por la señal continua F (»): 0,6
F0(ξ) F1(ξ)
0,4
0,2
0,0
-0,2 -20π
-16π
-12π
-8 π
-4 π
0π
4π
ξ, mξ0
8π
12 π
16 π
20 π
Figura 9.25. Transformada de Fourier del tren de pulsos mostrado en la Fig. 9.24 en función del espectro de la señal f1 (x) mostrado en la misma …gura.
9.8.4
Transformada de señales periódicas importantes. ² Función constante. El análisis de la transformada de la función constante, como un elemento de un espacio de señales periódicas de período X0 ; se realizó ya en la Secc. 9.6. Recordamos aquí su expresión y su relación con los coe…cientes de su desarrollo en serie. En la Fig. 9.8 se muestra un ejemplo de esta transformada, a(0) = K
=)
K Ã! 2¼±(»)
(9.176)
² Exponencial imaginaria. Su análisis se realizó ya en la Secc. 9.6. Recordamos aquí su expresión y su relación con los coe…cientes del desarrollo en serie. En la Fig. 9.9 se muestra un ejemplo de esta transformada, a(1) = 1
c Emilio Gago-Ribas, 2002 °
=)
ej»0 x Ã! 2¼±(» ¡ » 0 )
(9.177)
251
² Coseno. Recordando su desarrollo en serie y particularizando la expresión (9.161), a(1) = 1=2; a(¡1) = 1=2; (9.178)
cos(» 0 x) Ã! ¼±(» ¡ » 0 ) + ¼±(» + » 0 ) En la Fig 9.26(a) se muestra un ejemplo de esta transformación. ² Seno. Recordando su desarrollo en serie y particularizando la expresión (9.161), a(1) = 1=2j; a(¡1) = ¡1=2j; sin(» 0 x) Ã!
¼ ¼ ±(» ¡ » 0 ) ¡ ±(» + » 0 ): j j
(9.179)
En la Fig 9.26(b) se muestra un ejemplo de esta transformación. 9.8.5
Transformada de distribuciones periódicas importantes. ² Tren de deltas. Consideremos un tren de deltas de período X0 : A partir de su desarrollo en serie de Fourier, resulta evidente que su transformada será otro tren de deltas en la forma, a(m) =
± 0 (x) =
1 X
k=¡1
±(x ¡ kX0 ) Ã!
1 ; 8m; X0 1 2¼ X 2¼ ±(» ¡ m» 0 ); » 0 = X0 m=¡1 X0
(9.180)
En la Fig 9.26(c) se muestra un ejemplo de esta transformación. ² Tren de pulsos de ancho ¢x: En base a los coe…cientes de su desarrollo en serie, podremos identi…car la transformada de la señal de…nida en (8.77) de forma inmediata en la forma, µ ¶ ¢x ¢x a(m) = sinc m¼ ; X0 X0 P0;¢x (x) Ã!
µ ¶ 1 2¼¢x X ¢x 2¼ sinc m¼ ±(» ¡ m» 0 ); » 0 = X0 m=¡1 X0 X0
(9.181)
En la Fig 9.26(d) se muestra un ejemplo de esta transformación. ² Tren de triángulos de ancho ¢x: En base a los coe…cientes de su desarrollo en serie, podremos identi…car la transformada de la señal de…nida en (8.80) de forma inmediata en la forma, µ ¶ ¢x ¢x 2 a(m) = sinc m¼ ; 2X0 2X0 T0;¢x (x) Ã!
µ ¶ 1 ¼¢x X ¢x 2¼ sinc2 m¼ ±(» ¡ m» 0 ); » 0 = X0 m=¡1 2X0 X0
(9.182)
En la Fig 9.26(e) se muestra un ejemplo de esta transformación.
252
c Emilio Gago-Ribas, 2002 °
2
cosξ0x
2π
1
1π
0
0π
-1
-1π
-2 -1
2
0
1
2
x
sinξ0x
3
-2π -4π
2π
1
1π
0
0π
-1
-1π
-2 -1
2,0
0
1
2
x
δ0(x)
3
2,0π 1,5π
1,0
1,0π
0,5
0,5π
0,0
0,0π
2,0
-6
-4
-2
P0,∆x(x)
0
x
2
4
6
8
1,5
1,5π
1,0
1,0π
0,5
0,5π
0,0
0,0π
-0,5 -4
2,0
-3
-2
-1
T0,∆x(x)
0
x
1
2
3
4
-1π
0π
1π
2π
3π
4π
-3π
-2π
-1π
0π
1π
2π
3π
4π
1π
2π
3π
4π
-3π
-8π
ξ
ξ
-2π
-1π
0π
ξ
F0(ξ)
-0,5π -10π
1,0π
-2π
F0(ξ)
-0,5π -4π
2,0π
-3π
F0(ξ)
-2π -4π
1,5
-0,5 -8
F0(ξ)
-6π
-4π
-2π
0π
2π
4π
6π
8π
10π
ξ
F0(ξ)
1,5 1,0 0,5π 0,5 0,0 -0,5 -4
-2
0
x
2
4
0,0π -2π
-2π
-1π
-0π
0π
1π
1π
2π
2π
ξ
Figura 9.26. Transformadas de Fourier de funciones y distribuciones periódicas importantes: (a) f0 (x) = cos » 0 x; X0 = 1; (b) f0 (x) = sin » 0 x; X0 = 1; (c) Tren de deltas de período X0 = 2; (d) Tren de pulsos de período X0 = 2 y ancho ¢x = 1; y (e) Tren de triángulos de período X0 = 2 y ancho ¢x = 1:
c Emilio Gago-Ribas, 2002 °
253
9.9
Transformada de Fourier de señales reales. Un caso especialmente importante en la práctica es cuando las señales son reales. En virtud de la propiedad descrita en (9.46), existen un buen número de nuevas propiedades derivadas de ella de especial importancia en el análisis de problemas físicos reales. Analizaremos a continuación algunas de ellas.
9.9.1
Propiedades para señales reales.
Sea f (x) una señal real, esto es, f (x) = f ¤ (x) : ² La parte real de su espectro es par y la parte imaginaria impar, 8 < Re fF (»)g = Re fF (¡»)g f (x) real ¡! : Im fF (»)g = ¡ Im fF (¡»)g
(9.183)
² El módulo de su espectro es par y su fase impar, 8 < jF (»)j = jF (¡»)j f(x) real ¡! : ' (») = ¡' (¡») F F
(9.184)
Esta propiedad es una consecuencia directa del resultado en (9.46).
Esta propiedad es también una consecuencia directa del resultado en (9.46).
² Las partes real e imaginaria de F (») se pueden escribir en la forma, Z 1 Re fF (»)g = f (x) cos(»x) dx;
(9.185)
¡1
Im fF (»)g = ¡
Z
1
(9.186)
f (x) sin(»x) dx:
¡1
Ambas expresiones son claramente par e impar en la variable »; respectivamente. ² La expresión de f (x); equivalente a la transformada inversa de Fourier, podrá escribirse entonces de la siguiente forma, ¸ Z Z 1 1 1 j»x f(x) = Re F (»)e dx = [RefF (»)g cos(»x) ¡ ImfF (»)g sin(»x)] dx: (9.187) 2¼ 2¼ ¡1 » Nótese que por ser f(x) real, la parte imaginaria de la transfromada inversa ha de anularse, ¸ Z 1 Z Z 1 j»x Im F (»)e dx = RefF (»)g sin(»x) dx + ImfF (»)g cos(»x) dx = 0; (9.188) »
¡1
¡1
hecho que resulta evidente dado que tanto RefF (»)g sin(»x) como ImfF (»)g cos(»x) resultan ser funciones impares en » y, por lo tanto, su integral será siempre nula. ² Relación entre el espectro para valores positivos y el espectro total. Es habitual en la práctica trabajar sólamente con la parte positiva del espectro de una señal, esto es, [F (»)]»¸0 : Denominemos a dicho espectro como F1 (»); 8 < F (») »¸0 F1 (») = (9.189) : 0 »<0 Resulta evidente que si f (x) es real, su espectro satisface la propiedad (9.183), de forma que podremos expresar F (») en función de F1 (») como, F (») = F1 (») + F1¤ (»);
254
(9.190)
c Emilio Gago-Ribas, 2002 °
propiedad que se puede leer también cómo, Re fF (»)g = Re fF1 (»)g + Re fF1 (¡»)g ;
(9.191)
Im fF (»)g = Im fF1 (»)g ¡ Im fF1 (¡»)g : A partir de estas sencillas consideraciones, podremos recuperar la señal original f(x) en términos de F1 (») sin más que analizar la transformada inversa de dicha expresión; así, f (x) = f1 (x) + f2 (x);
(9.192)
siendo f1 (x) = TF¡1 [F1 (»)] y f2 (x) = TF¡1 [F1¤ (¡»)] ; ambas funciones en principio complejas. En virtud de la propiedad general en (9.33), resulta evidente que f2 (x) = f1¤ (x); de forma que la última expresión se reduce a, © ª f (x) = f1 (x) + f1¤ (x) = 2 Re ff1 (x)g = 2 Re TF¡1 [F1 (»)] : (9.193)
Esto quiere decir que, conocido el espectro de f (x) para valores de » positivos, es posible recuperar f (x) a partir de dicho espectro sin más que calcular su transformada inversa y tomar el doble de la parte real de la señal obtenida. 9.9.2
Propiedades para señales reales y pares.
Sea f(x) una señal real y par, esto es, f(x) = f ¤ (x) = f (¡x) : ² Su espectro F (») es también real y par, y coincide con el doble de la transformada de Fourier en coseno de f (x); f (x) = f(¡x) real ¡! F (») = F (¡») = 2Fc (») real.
(9.194)
La demostración de esta propiedad es trivial sin más que considerar conjuntamente la propiedad (9.183) junto con la propiedad general para señales pares en (9.44). Así, si f(x) es real, Re fF (»)g es par y Im fF (»)g es impar; si f(x) es también par, F (») ha de ser par; ambas propiedades conjuntamente hacen que 8 < F (») = Re fF (»)g real y par; (9.195) : Im fF (»)g = 0:
La segunda a…rmación es trivial sin más que imponer la condición de paridad sobre f (x) en (9.186); así, el producto f (x) sin(»x) será impar y su integral en x nula. Por otro lado, el producto f(x) cos(»x) en (9.185) es una función par, de forma que la integral a todo el intervalo se reduce al doble de su valor entre cero e in…nito. Teniendo en cuenta la expresión de la transformada de Fourier en Coseno, TC [f (x)] = Fc (») podremos escribir, Z 1 F (») = 2Fc (»); con Fc (») = f(x) cos(»x) dx: (9.196) 0
² La transformada inversa de f(x) se puede escribir en términos de la transformada inversa de Fourier en coseno sin más que aplicar los resultados anteriores a la ecuación (9.187), así, Z 1 Z 1 1 1 f (x) = TF¡1 [F (»)] = F (») cos(»x) d» = Fc (») cos(»x) d» = 2¼ ¡1 ¼ ¡1 Z 2 1 = Fc (») cos(»x) d» = TC¡1 [Fc (»)] : (9.197) ¼ 0 Nótese que en la cuarta igualdad hemos tenido en cuenta el hecho de que el producto Fc (») cos(»x) es una nueva función par.
c Emilio Gago-Ribas, 2002 °
255
9.9.3
Propiedades para señales reales e impares.
Sea f (x) una señal real e impar, esto es, f(x) = f ¤ (x) = ¡f(¡x) : ² Su espectro F (») es también real e impar, y coincide con el doble de la transformada de Fourier en seno de f(x) cambiada de signo, f (x) = ¡f (¡x) real ¡! F (») = ¡F (¡») = ¡2Fs (») real.
(9.198)
La demostración de esta propiedad es trivial sin más que considerar conjuntamente la propiedad (9.183) junto con la propiedad general para señales pares en (9.45). Así, si f (x) es real, Re fF (»)g es par y Im fF (»)g es impar; si f(x) es también impar, F (») ha de ser impar; ambas propiedades conjuntamente hacen que 8 < Re fF (»)g = 0 (9.199) : F (») = Im fF (»)g real e impar.
La primera a…rmación es trivial sin más que imponer la condición de imparidad sobre f (x) en (9.185); así, el producto f (x) cos(»x) será impar y su integral en x nula. Por otro lado, el producto f (x) sin(»x) en (9.186) es una función par, de forma que la integral a todo el intervalo se reduce al doble de su valor entre cero e in…nito. Teniendo en cuenta la expresión de la transformada de Fourier en Seno, TS [f (x)] = Fs (») podremos escribir, Z 1 F (») = ¡2Fs (»); con Fs (») = f (x) sin(»x) dx: (9.200) 0
² La transformada inversa de f (x) se puede escribir en términos de la transformada inversa de Fourier en seno sin más que aplicar los resultados anteriores a la ecuación (9.187), así, Z Z ¡1 1 1 1 ¡1 f (x) = TF [F (»)] = F (») sin(»x) d» = Fs (») sin(»x) d» = 2¼ ¡1 ¼ ¡1 Z 1 2 = Fs (») sin(»x) d» = TS¡1 [Fs (»)] : (9.201) ¼ 0 Nótese que en la cuarta igualdad hemos tenido en cuenta el hecho de que el producto Fs (») sin(»x) de dos funciones impares es una nueva función par. 9.9.4
Tabla de señales reales importantes.
En la siguiente tabla enumeraremos aquellas señales (funciones y distribuciones) analizadas hasta el momento que por ser reales, reales y pares o reales e impares, satisfacen todas las propiedades descritas previamente. Se deja como ejercicio al lector la comprobación de dichas propiedades. Reales
Reales y pares
±(x ¡ x0 )
Fig. 9.9
¡(x)
Fig. 9.12 2
256
¡®x
e
Fig. 9.14
¡(x); ® 2 R
00
+
Fig. 9.18
e¡ax
Fig. 9.5
± (x)
Fig. 9.11
1 x2 +b2 x x2 +b2
Fig. 9.6
P¢x (x)
Fig. 9.13
Fig. 9.7
T¢x (x)
Fig. 9.17
1
Fig. 9.8
cos(» 0 x)
Fig. 9.26
x
Fig. 9.11
± 0 (x)
Fig. 9.26
b sinc(ax)
Fig. 9.15
P0;¢x (x)
Fig. 9.26
±(x)
Fig. 9.8
T0;¢x (x)
Fig. 9.26
2
Reales e impares
P¢x (x ¡ x0 )
0
x
Fig. 9.10
± (x)
Fig. 9.10
1=x
Fig. 9.12
¡1 (x)
Fig. 9.12
sin(» 0 x)
Fig. 9.26
c Emilio Gago-Ribas, 2002 °
9.10
La transformada de Fourier y los sistemas lineales e invariantes.
Como ya se estudió en el Cap. 4, seleccionar una base dentro de un espacio de funciones no sólo está relacionado con el espacio de señales en cuestión, sino también por las características de los operadores que se vayan a aplicar sobre dicho espacio. Este hecho está ligado al concepto de adecuación del conjunto de funciones base respecto a los operadores. En el caso en que los sistemas estén descritos por operadores lineales e invariantes, LI(F); esto se traducirá en que el conjunto de funciones base sean funciones propias o autofunciones respecto©a dichos ª sistemas. Veremos que éste es el caso del conjunto in…nito y continuo de funciones f'(x; »g = ej»x analizado en este capítulo.
9.10.1
Transformación del conjunto de funciones base por un sistema lineal e invariante.
Consideremos un sistema como el mostrado en la Fig. 9.27 operando sobre un espacio de funciones en el que la transformada inversa de Fourier existe, y por lo tanto, la transformada directa es convergente. En virtud de los conceptos expuestos en el Cap. 6, la respuesta a cualquier señal de entrada f (x) vendría dada por la integral de convolución, Z F : f (x) ! g(x) = f(x¶)h(x ¡ x¶) dx0 = f (x) ¤ h(x); (9.202) x0
siendo h(x) la respuesta al impulso del sistema. Asumiendo que la transformada de Fourier está de…nida, podremos desarrollar f (x) en términos del conjunto de funciones base a través de la combinación lineal continua dada por la transformada inversa, de forma que podremos escribir, ¸ Z Z £ ¤ 1 1 j»x g(x) = F [f (x)] = F F (»)e d» = F (»)F ej»x d»: (9.203) 2¼ » 2¼ »
Nótese que esta expresión se ha obtenido recurriendo a la linealidad del operador transformada inversa. Por lo tanto, la salida del sistema g(x) se podrá analizar conociendo £ ¤ cómo el sistema descrito por F transforma cualquier elemento del conjunto de funciones base, F ej»x = F ['(x; »)] ; Fig. 9.27.
~ Figura 9.27. Sistema lineal en invariante identi…cado por el operador F 2 LI(S) frente a: (a) la distribución delta de Dirac; (b) una señal arbitraria f (x); y (c) una función base cualquiera (valor arbitrario del parámetro © ª») del conjunto continuo e in…nito de funciones base ej»x :
£ ¤ F ej»x =
Z
x0
'(x ¡ x0 ; »)h(x0 ) dx0 =
Z
0
ej»(x¡x ) h(x0 ) dx0 :
(9.204)
x0
Nótese que en esta expresión se ha utilizado la propiedad conmutativa de la convolución. El desarrollo de la última expresión es evidente sin más que sacar fuera de la integral el término exponencial que no depende de x0 ; Z £ j»x ¤ 0 j»x F e =e e¡j»x h(x0 ) dx0 ; (9.205) x0
expresión que se reduce al producto de la función base considerada multiplicada por un factor integral que no es más que la transformada de Fourier H(») de la respuesta al impulso h(x); £ ¤ F ej»x = ej»x H(») ´ F ['(x; »)] = '(x; »)H(»); (9.206) H(») =
Z
h(x)e¡j»x dx:
(9.207)
x
Basados en este resultado, resulta importante hacer notar las siguientes consideraciones: c Emilio Gago-Ribas, 2002 °
257
ª © ² Como esperábamos, el conjunto de funciones base f'(x; »g = ej»x son funciones propias o auto~ funciones respecto a cualquier operador L que sea lineal e invariante, esto es, F 2 LI(S):
² Este resultado presupone también la existencia de transformada de Fourier H(») de la respuesta al impulso h(x): Por otro lado, h(x) = F [±(x)] ; es decir, una transformación de la distribución impulsiva ±(x). Esto quiere decir que h(x) será con toda probabilidad una nueva distribución, de forma que los aspectos analizados en las Seccs. 9.6 y 9.7 serán fundamentales a la hora de realizar el análisis espectral de cualquier sistema lineal e invariante. ² La señal de salida g(x) vendrá entonces dada por, g(x) = F [f (x)] =
1 2¼
Z
F (»)H(»)ej»x d»;
(9.208)
»
es decir, en la forma de una nueva combinación lineal continua en términos del conjunto de funciones base, esto es, la transformada inversa de g(x): El espectro G(») de g(x) vendrá evidentemente dado por el conjunto continuo de coe…cientes, (9.209)
G(») = F (»)H(»):
Nótese que, en esencia, esta expresión no representa más que la transformación del conjunto in…nito y continuo de coe…cientes (descritos por la variable ») asociados a la transformada inversa de la señal de entrada, a través del sistema. En otras palabras, asumiendo que la variable » juega el papel de un parámetro que enumera © ª de forma continua cada uno de los elementos del conjunto de funciones base f'(x; »)g = ej»x ; siendo F (») el conjunto continuo de coe…cientes asociado a una señal arbotraria f(x); el sistema lo que hace es modi…car en amplitud y fase cada uno de los elementos '(x; ») de forma que la señal de salida quede descrita por dichos elementos pesados por el conjunto de coe…cientes adecuado descrito por G(»): 1 f(x) = 2¼
Z
F (»)'(x; ») d»
!F!
»
# F (»)'(x; »)
1 g(x) = 2¼
! 3 G(») = F (»)H(») 5 4 para todo » 2
Z
G(»)'(x; ») d» »
" G(»)'(x; »)
(9.210) ² Este esquema nos llevará directamente al concepto de representación espectral de un sistema u operador transformado que se analizará a continuación. 9.10.2
Operadores transformados. Representación espectral de un sistema.
Asumiendo como punto de partida un sistema lineal e invariante como el esquematizado en la Fig. 9.27 y recordando el concepto de que la respuesta al impulso puede verse como la función núcleo de un ~ podremos entonces escribir operador integral que caracteriza a cualquier operador arbitrario F 2 LI(S); la siguiente equivalencia, Z Z F´ h(x ¡ x0 ) dx0 = ¤ h(x) ! F [f(x)] = f (x0 )h(x ¡ x0 ) dx0 = f (x) ¤ h(x): (9.211) x0
x0
Ambas expresiones modelan el comportamiento de un sistema en el dominio real (variable x); la primera directamente a través del operador F; y la segunda a través de su versión integral. Resulta evidente que dicho operador podrá tener una versión en el dominio espectral sin más que aplicar la transformada de Fourier a su versión integral. En base a la propiedad (9.36), la transformada de Fourier de una convolución se convertirá en un producto; así, F» ´ ¢ H(») ! F» [F (»)] = F (»)H(»); 258
(9.212) c Emilio Gago-Ribas, 2002 °
es decir, que la versión espectral de un operador no es más que el producto de la transformada de Fourier de la respuesta al impulso que caracteriza a dicho operador. La función H(») suele denominarse como función de transferencia del sistema. Veamos algunos comentarios importantes: ² En base al análisis anterior, es importante destacar cómo la función de transferencia del sistema proporciona la información necesaria acerca de cómo el sistema modi…ca cada uno de los elementos del conjunto de funciones base que componen una señal arbitraria, F (»)ej»x
!
F
!
F (»)H(»)ej»x
#
(9.213)
" !
F (»)
H(»)
!
F (»)H(»)
² La importancia de la representación espectral de un sistema u operador viene determinada, además de por el signi…cado que adquiere, previamente comentado, por la sencillez que pasan a tener las ecuaciones que modelan el sistema. Nótese cómo un operador complicado como es el operador integral de convolución en (9.211), se convierte ahora en un producto de funciones en (9.212). Veamos a continuación algunos ejemplos. 1. Ejemplo 1. Consideremos el problema eléctrico de una inductancia L sometida a una diferencia de potencial v(t) y recorrida por una corriente i(t) como el descrito en el ejemplo 2 de la Secc. 1.2. La descripción del sistema en el dominio real vendría dada por el operador diferencia ~ F = L d=dt 2 LI(S), v(t) = L
di(t) ; dt
(9.214)
o bien por su versión integral en términos de su respuesta al impulso, Z Z d±(t) 0 0 0 0 = L± (t) ! F ´ L ± (t ¡ t ) dt ! v(t) = i(t0 )± 0 (t ¡ t0 ) dt0 : h(t) = L dt t0 t0
(9.215)
Aplicando la transformada de Fourier a la ecuación (9.214), (9.216)
V (!) = j!L I(!);
donde se ha utilizado la propiedad (9.38) asociada a la deriva de una función. Nótese como, justamente, la versión espectral del operador no es más que la transformada de Fourier de la respuesta al impulso del sistema, h(t) = L± 0 (t) Ã! H(!) = j!L;
(9.217)
F! ´ ¢ j!L ! V (!) = j!L I(!):
(9.218)
En la siguiente tabla queda recogido el proceso completo para este ejemplo.
v(t) = L l
di(t) dt 0
h(t) = L± (t) F´L
c Emilio Gago-Ribas, 2002 °
Z
Ã! Ã!
l
t0
± 0 (t ¡ t0 ) dt0
V (!) = j!L I(!) l
H(!) = j!L l
Ã!
F! ´ ¢j!L
259
2. Ejemplo 2. Consideremos un problema en el espacio descrito por la ecuación, d2 f(z) + k02 f(z) = g(z); (9.219) dz 2 siendo f (z) y g(z) dos funciones arbitrarias que representan alguna magnitud arbitraria variando en un espacio unidimensional. En la siguiente tabla se recoge, de forma esquemática, la representación espectral del operador.
g(z) =
d2 f (z) + k02 f (z) dz 2 l 00
h(z) = ± (z) F´
Z
z0
+ k02 ±(z)
l £ 00 ¤ ± (z ¡ z 0 ) + k02 ±(z ¡ z 0 ) dz 0
Ã!
¤ £ G(k) = k02 ¡ k2 F (k) l
Ã!
H(k) = k02 ¡ k2
Ã!
l ¤ £ 2 Fk ´ ¢ k0 ¡ k2
² Otra razón práctica de importancia asociada a la representación espectral de operadores es el cálculo de la transformada de Fourier de funciones complicadas en las que la integral en (9.18) no es sencilla de calcular, R o no tiene una expresión analítica conocida. Consideremos una función u(x) tal que U (») = x u(x)e¡j»x dx no es conocida o sencilla de calcular. Suponiendo que dicha función u(x) fuese la respuesta al impulso de un operador F lineal e invariante conocido, podríamos identi…car fácilmente las siguientes relaciones, 9 8 > > Ã! F» = ¢ U (») = < F ´ ¤ u(x) ; (9.220) l l > > ; : u(x) = F [±(x)] Ã! U(») = TF [u(x)] es decir, obtenida la representación espectral F» del operador F conocido, ésta nos proveería directamente de la función espectral U(») buscada. Este proceso resulta de gran importancia a la hora de obtener transformadas de Fourier de funciones que vienen de…nidas a partir de ecuaciones conocidas, y por lo tanto, de operadores conocidos; véase por ejemplo el caso de las transformadas de Fourier de las funciones de Bessel, de la función de Hankel, etc. todas ellas asociadas a operadores diferenciales concretos cuya versión espectral es trivial obtener.
² En el Cap. 10 se mostrarán algunos ejemplos de análisis espectral de sistemas sencillos de especial interés en la práctica, así como su interpretación, análisis y relación con el dominio real.
9.11
Algunas consideraciones algebraicas.
Resulta interesante comentar algunas propiedades o características de la transformada de Fourier desde el punto de vista algebraico. Nótese que su expresión se obtuvo de una forma sencilla a partir del desarrollo en serie de una señal periódica cuando el período se hacía su…cientemente grande, Secc. 9.2. Veamos qué signi…cado tiene esto desde un punto de vista algebraico. Seguiremos para ello un esquema similar al presentado para el desarrollo en serie en el Cap. 8, esto es: ² Propiedades del conjunto de funciones base. ² Ortogonalidad de las funciones de la base.
² Expresión de los coe…cientes en términos del producto escalar.
² Análisis de la energía del error:
1. Análisis de la mejor aproximación posible (energía de la función de error mínima). 2. Criterios de convergencia (energía de la función de error nula y señales de energía …nita). Estos aspectos nos acabarán dando una idea muy importante de las diferencias existentes entre las representaciones en términos de conjuntos base de dimensión in…nita discretos y continuos, de especial importancia a la hora de analizar y entender otros tipos de transformaciones. 260
c Emilio Gago-Ribas, 2002 °
9.11.1
Propiedades del conjunto de funciones base.
A modo de resumen, esquematizar las siguientes propiedades asociadas al conjunto de funciones ª © podemos base f'(x; »)g = ej»x : ² El conjunto de funciones viene descrito de forma continua por la variable » considerando a ésta como el parámetro que identi…ca o enumera a cada una de las funciones del conjunto.
² Son funciones complejas, continuas en x y de…nidas para todo el rango de la variable independiente, esto es, su dominio de de…nición es in…nito. Así, podremos decir que f'(x; »)g 2 S(¡1; 1); y por ~ lo tanto, f'(x; »)g 2 S(¡1; 1):
² Son funciones de energía in…nita de forma que f'(x; »)g 2 = L2 (¡1; 1); es decir, no son cuadrado integrables. Esto quiere decir que, a priori, su transformada de Fourier no estaría de…nida, lo que signi…ca que una cierta función '(x; » 0 ) 2 f'(x; »)g no podría representarse como una combinación lineal continua de f'(x; »)g ; hecho de especial relevancia en el caso de la transformada de Fourier.
² Conviene entonces recordar que la representación de una función '(x; » 0 ) en términos de f'(x; »)g es posible una vez que hemos de…nido un objeto matemático capaz de seleccionar un elemento de un continuo de elementos, esto es, la delta de Dirac. Así, mantendremos en mente la siguiente representación, Z 1 '(x; » 0 ) = 2¼±(» ¡ » 0 )'(x; ») d» = TF¡1 [2¼±(» ¡ » 0 )] : (9.221) 2¼ » 9.11.2
Ortogonalidad de las funciones base.
© ª Consideremos dos funciones cualesquiera del conjunto f'(x; »)g = ej»x identi…cadas por » y » 0 : Su producto escalar vendrá dado por Z Z 0 0 0 ¤ h'(x; » ); '(x; »)i = '(x; » )' (x; ») dx = ej(» ¡»)x dx: (9.222) x
x
Distinguiremos los siguientes casos: ² » 0 ¡ » 6= 0 : en este caso, la integral de la exponencial a lo largo de toda la variable x será nula, Z 1 0 ej(» ¡»)x dx = 0; (9.223) ¡1
de forma que el conjunto de funciones resulta ser ortogonal cualesquiera que sean los valores de » 0 y »: ² » 0 ¡ » = 0 : en este caso estaremos obteniendo la norma de las funciones, que no es más que la raiz cuadrada de la energía, de forma que su valor tiende a in…nito, Z 1 dx ! 1: (9.224) ¡1
Nótese entonces cómo el producto escalar de dos funciones de la base debería poder expresarse en términos de una señal que fuese nula cuando las funciones son diferentes, y que tienda a in…nito, cuando las funciones coinciden; esta señal será claramente la delta de Dirac, pudiéndose expresar el producto escalar en la siguiente forma, Z £ ¤ 0 h'(x; » ); '(x; »)i = '(x; » 0 )e¡j»x dx = TF '(x; » 0 ) = 2¼±(» ¡ » 0 ); (9.225) x
expresión que identi…ca el comportamiento descrito previamente cuando » 6= » 0 y » = » 0 :
c Emilio Gago-Ribas, 2002 °
261
9.11.3
Expresión de los coe…cientes en términos del producto escalar.
Para btener la expresión de los coe…cientes fF (»)g partiremos de la expresión de© unaªfunción f (x) 2 L2 (¡1; 1) en términos de la combinación lineal de los elementos de f'(x; »)g = ej»x ; Z 1 ¡1 f(x) = TF [F (»)] = F (»)'(x; ») d»: (9.226) 2¼ » Siguiendo un proceso similar al utilizado en el desarrollo en serie de Fourier, multiplicaremos ambos miembros de la igualdad por el conjugado de una cierta función de la base '(x; » 0 ) e integraremos a lo largo de toda la variable x; así, ¸ Z Z Z 1 f (x)'¤ (x; » 0 ) dx = F (»)'(x; ») d» '¤ (x; » 0 ) dx = x x 2¼ » ¸ Z Z 1 0 ¤ = F (») '(x; »)' (x; » ) dx d» = 2¼ » x Z 1 = F (»)h'(x; »); '(x; » 0 )i d»: (9.227) 2¼ » Escribiendo el producto escalar en función de la distribución delta en (9.225) y aplicando la de…nición de la delta, podemos escribir la siguiente igualdad, Z Z 1 f (x)'¤ (x; » 0 ) dx = 2¼F (»)±(» 0 ¡ ») d» = F (» 0 ); (9.228) 2¼ x » expresión que claramente nos proporciona el valor del coe…ciente F (» 0 ); es decir, el coe…ciente asociado al armónico '(x; » 0 ) en la combinación lineal continua en (9.226). Generalizando este resultado para cualquier armónico15 , Z F (») = f (x)'¤ (x; ») dx = hf(x); '(x; »)i = TF [f (x)] ; (9.229) x
expresión que no es más que la transformada de Fourier asociada a la combinación lineal continua en ~ (9.226) expresada en términos del producto escalar de…nido en el espacio S(¡1; 1): En otras palabras, la transformación en (9.226) será la inversa de la transformación en (9.229), o viceversa. Queda claro, por tanto, que para una combinación lineal continua como la escrita en (9.226), el valor del conjunto continuo de coe…cientes fF (»)g vendrá dado por (9.229). Deberemos de demostrar a continuación que el conjunto de coe…cientes en (9.229) nos proporcionan la mejor aproximación posible a f(x) en la forma de (9.226). 9.11.4
Análisis de la mejor aproximación posible.
De…namos a continuación la función de error e(x) en la forma, e(x) = f(x) ¡ TF¡1 [F (»)] ;
(9.230)
lo que equivale a examinar la diferencia punto a punto entre la función original f (x) y su expresión en términos de la combinación lineal continua en (9.226). Igual que el desarrollo en serie, la métrica de…nida en el espacio impone la forma de medir diferencias entre dos señales cualesquiera, de forma que, Z d2 (f (x); TF¡1 [F (»)]) = E [e(x)] = je(x)j2 dx: (9.231) x
Deberemos por tanto comprobar si la métrica o energía de la función error se hace mínima para los coe…cientes en (9.229). El proceso seguido en este desarrollo es equivalente al expuesto para el desarrollo en serie de Fourier, Ap. E.7.1, pero teniendo en cuenta ahora que el conjunto de coe…cientes no es contable sino que es un conjunto continuo. La demostración completa se puede encontrar en el Ap. E.8.1. La conclusión …nal del desarrollo allí expuesto es que la energía de la función error y, por lo 15 Conviene destacar que la variable º se ha utilizado como un parámetro que indica la función '(x; º) considerada del conjunto completo f'(x; »)g : Así, cualquier armónico del conjunto volveremos a describirlo en términos del parámetro » original.
262
c Emilio Gago-Ribas, 2002 °
tanto, la distancia entre f (x) y TF¡1 [F (»)] es mínima y tiende a cero justamente cuando el valor de los coe…cientes es el dado por la transformada de Fourier en (9.229) y no en otro caso, F (») = TF [f(x)] = hf (x); '(x; »)i =)
dE [e(x)] = 0 y E [e(x)] es mínima, dF (»)
(9.232)
lo que signi…ca que dicho conjunto de coe…cientes aseguran la mejor aproximación posible a f(x) usando la combinación lineal dada por la TF¡1 : 9.11.5
Señales de energía …nita.
En base al análisis realizado en la sección anterior, es posible demostrar que los coe…cientes obtenidos mediante la expresión de la transformada de Fourier no sólo provéen de la mejor aproximación posible, sino que la energía del error tiende a cero, de forma que la transformada inversa aproxima a la señal f (x) original en el sentido de que la energía del error es nula,
F (») = hf(x); '(x; »)i =) E [e(x)] ! 0;
(9.233)
Esta propiedad lleva asociado el requisito de que la señal f (x) sea de energía …nita o cuadrado integrable. La demostración de este punto puede encontrarse en el Ap. E.95.
c Emilio Gago-Ribas, 2002 °
263
264
c Emilio Gago-Ribas, 2002 °
10.
Análisis de Algunos Sistemas Básicos
En el presente capítulo nos centraremos en el análisis de algunas transformaciones de especial importancia en la práctica habitual para cualquier tipo de sistema físico real. Expondremos para ello la teoría básica asociada a cada transformación tanto en los dominioes real como espectral, poniéndo un énfasis especial en la interpretación y relación de los resultados obtenidos en ambos dominio.
10.1
Producto de señales en el dominio real. ² Dominio real.
La operación básica del producto de dos señales en el dominio real se podría ver como un sistema en la forma esquematizada en la Fig. 10.1. Consideraremos en este problema que la señal p(x) es una señal …ja y de buen comportamiento, siendo f(x) la señal de entrada al sistema. Así, F ´ ¢ p(x) : f(x) ! g(x) = f(x) p(x) :
(10.1)
Analicemos a continuación las propiedades básicas de linealidad e invarianza:
Figura 10.1. Esquema de un sistema que multiplica una cierta señal de entrada arbitraria f (x) por una segunda señal g(x): Consideraremos que esta segunda señal viene …jada por el sistema concreto.
1. Linealidad: resulta trivial demostrar que un sistema como el de…nido, con p(x) …ja, es lineal, f1 (x)
!
g1 (x) = f1 (x)p(x);
f2 (x)
!
g2 (x) = f2 (x)p(x);
(10.2)
®f1 (x) + ¯f2 (x) ! g(x) = [®f1 (x) + ¯f2 (x)] p(x) = ®g1 (x) + ¯g2 (x): 2. Invarianza: también resulta sencillo ver cómo este sistema así de…nido no es invariante, f (x)
!
g(x) = f(x)p(x);
f (x ¡ x0 ) ! g(x) = f (x ¡ x0 )p(x) 6= g(x ¡ x0 ):
(10.3)
Se recomienda al lector que analice este resultado de forma grá…ca. ~ pero F ´ ¢ p(x) 2 ~ de forma que el sistema Esto signi…ca que el operador F ´ ¢ p(x) 2 L(S); = LI(S); se puede caracterizar por un operador integral cuya función núcleo es un conjunto in…nito y continuo de respuestas al impulso (Secc. 6.1.6), Z F´ h(x; x0 ) dx0 ; (10.4) x0
265
2
Re{h(x;x')}
Re{p(x)}
1
x'
0
-1
-2 -4 2
-3
-2
-1
Im{p(x)}
0
x
1
2
3
4
3
4
Im{h(x;x')}
1
x'
0
-1
-2 -4
-3
-2
-1
0
x
1
2
Figura 10.2. Dada una señal arbitraria g(x); se muestran algunos ejemplos del conjunto continuo de funciones respuesta al impulso fh(x; x0 )g = fg(x0 )±(x ¡ x0 )g para los valores x0 = ¡2:5; ¡0:5; 0; 1 y 2:5: El conjunto completo vendría descrito para todo valor de x0 2 R:
siendo fh(x; x0 )g el conjunto continuo de respuestas al impulso localizadas para todo valor de x0 ; esto es, F : ±(x ¡ x0 ) ! h(x; x0 ) = ±(x ¡ x0 ) p(x) = p(x0 ) ±(x ¡ x0 ):
(10.5)
En la última igualdad se ha utilizado la propiedad del producto de la distribución delta por una función de buen comportamiento, Secc. 7.8.1. Como era de esperar, el conjunto de respuestas al impulso es un conjunto de nuevas distribuciones, en este caso, deltas localizadas en x = x0 de peso el valor de la función p(x) en dicho punto. En la Fig. 10.2 se muestra un ejemplo del conjunto continuo1 fh(x; x0 )g = fp(x0 ) ±(x ¡ x0 )g :Resulta trivial demostrar cómo el operador descrito en forma integral por (10.4) para el conjunto de respuestas al impulso descrito en (10.5) describe al operador producto en (10.1), Z F [f(x)] = f (x0 )p(x0 )±(x ¡ x0 ) dx0 = f (x) p(x); (10.6) x0
sin más que aplicar la de…nición de la distribución delta sobre la función f (x) p(x): ² Dominio espectral.
En virtud de la propiedad (9.37) asociada al producto de dos funciones, el análisis espectral del sistema vendrá dado por, Z 1 1 F (») ¤ P (») = F (» 0 )P (» ¡ » 0 ) d» 0 ; (10.7) G(») = 2¼ 2¼ »0 esto es, la integral de convolución de los espectros de ambas señales. El resultado de dicha convolución dependerá, lógicamente, de las funciones espectrales asociadas a cada una de las señales. Para realizar un análisis particula de esta expresión, deberemos considerar alguna función p(x) concreta, así como su espectro P (»): En las Seccs. 10.2 y 10.3 se presentan algunos ejemplos muy habituales en la práctica.
1 Recuérdese
266
que el continuo de funciones viene descrito por la variable x0 considerada como un parámetro.
c Emilio Gago-Ribas, 2002 °
10.2
Modulación en amplitud.
Consideremos el sistema mostrado en la Fig. 10.1 cuando la señal p(x) es una señal periódica sinusoidal, por ejemplo, la función coseno a una cierta pulsación de trabajo » 0 ; (10.8)
p0 (x) = cos (» 0 x + '0 ) :
En este caso, el sistema lineal no invariante representará un modulador de amplitud donde la señal p0 (x); denominada habitualmente como portadora, de amplitud unidad, es modulada en amplitud por la señal f (x); denominada habitualmente como señal moduladora, a la entrada del sistema, Fig. 10.3.
Figura 10.3. Esquema general de un sistema modulador en amplitud.
² Dominio real.
El análisis en el dominio real realizado en la Secc. 10.1 quedará particularizado ahora de la siguiente forma, (10.9)
F : f (x) ! g(x) = f (x) p0 (x) = f (x) cos (» 0 x + '0 ) :
Escrito en la forma de un operador integral como en (10.4), el conjunto de funciones respuesta al impulso, funciones núcleo del operador integral, vendrían dadas por, h(x; x0 ) = cos (» 0 x0 + '0 ) ±(x ¡ x0 );
(10.10)
es decir, cada delta viene pesada por el valor que tome la función coseno en cada punto x0 donde se sitúe la señal impulsiva. En este caso, las funciones del conjunto fh(x; x0 )g son todas ellas reales. En la Fig. 10.4 se muestran ejemplos de estas funciones. 1,5
p0(x) ϕ0/ξ0
h(x;x')
X0
1,0
0,5
0,0
x'
-0,5
-1,0
-1,5 -1,0
-0,5
0,0
0,5
1,0
x
1,5
2,0
2,5
3,0
Figura 10.4. Algunos ejemplos del conjunto continuo de funciones respuesta al impulso fh(x; x0 )g = fcos(»0 x0 + '0 )±(x ¡ x0 )g para algunos valores arbitrarios de x0 : En este ejemplo, X0 = 1 y '0 = ¡¼=4 rad.
En las Figs. 10.5, 10.6 y 10.7 se muestran varios ejemplos del proceso de modulación para una señal moduladora del tipo distribución exponencial real. c Emilio Gago-Ribas, 2002 °
267
² Dominio espectral.
El análisis espectral del sistema vendrá dado a partir de (10.7) por, G(») =
1 F (») ¤ P0 (»); 2¼
(10.11)
donde P0 (») será el espectro de la señal portadora p0 (x) obtenido a partir del resultado en (9.178) para el coseno de fase nula, y la propiedad de desplazamiento2 en (9.31), esto es, P0 (») = [¼±(» ¡ » 0 ) + ¼±(» + » 0 )] ej»x0 ; x0 =
'0 : »0
(10.12)
El resultado de la convolución3 será, por tanto, G(») = =
1 1 F (») ¤ ±(» ¡ » 0 ) ej»x0 + F (») ¤ ±(» + » 0 ) ej»x0 = 2 2 1 j'0 1 e F (» ¡ » 0 ) + e¡j'0 F (» + » 0 ): 2 2
(10.13)
Este resultado nos muestra un efecto de especial importancia y, por demás, habitual en la práctica denominado aliasing o solapamiento de señales, en este caso, solapamiento espectral. Nótese que el espectro de la señal de salida del sistema es función del espectro de la señal de entrada F (») corregido por los valores complejos e§j'0 =2 y, lo que es más importante, desplazado a §» 0 : El espectro total es la suma de ambas señales, de forma que existirá un solapamiento de los espectros F (» ¨ » 0 ): Este efecto es fácilmente representable desde el punto de vista matemático descomponiendo G(») en sus partes real e imaginaria4 : 1. Si '0 = 0 : Re fG(»)g =
1 0 1 F (» ¡ » 0 ) + F 0 (» + » 0 ); 2 2
1 1 Im fG(»)g = F 00 (» ¡ » 0 ) + F 00 (» + » 0 ): 2 2
(10.14)
(10.15)
2. Si '0 6= 0 : Re fG(»)g = = Im fG(»)g = =
(10.16) 1 1 cos '0 [F 0 (» ¡ » 0 ) + F 0 (» + » 0 )] ¡ sin '0 [F 00 (» ¡ » 0 ) ¡ F 00 (» + » 0 )] ; 2 2 (10.17) 1 1 00 00 0 0 cos '0 [F (» ¡ » 0 ) + F (» + » 0 )] + sin '0 [F (» ¡ » 0 ) ¡ F (» + » 0 )] : 2 2
Nótese cómo, en el caso con '0 6= 0; el concepto de solapamiento espectral se mantiene, siendo su descripción matemática relativamente más complicada que en el caso con '0 = 0: En los ejemplos de las Figs. 10.5, 10.6 y 10.7 se pueden ver las consecuencias del solapamiento espectral analizadas tanto en parte real e imaginaria, como en módulo y fase. Un análisis más general del solapamiento espectral de señales se realizará en la Secc. 10.6. El caso analizado en esta sección resulta ser un caso particular del desarrollo realizado en aquella. 2 Nótese
que el desplazamiento x0 del coseno será igual a '0 =»0 sin más que reescribir cos(» 0 x + '0 ) = cos » 0 (x + '0 =» 0 ): que la convolución de una señal de buen comportamiento, en este caso, F (»); por una distribución, en este caso ±(» ¨ » 0 ); es una nueva función de buen comportamiento, en este caso, la funcion original desplazada a la posición donde se encuentras localizadas las deltas, F (») ¤ ±(» ¨ »0 ) = F (» ¨ »0 ): Nótese también que el producto ±(» ¨ » 0 )ej»x0 = e§j»0 x0 ±(» ¨ »0 ) = e§j'0 ±(» ¨ »0 ); dado que x0 = '0 =» 0 : 4 Denotaremos por F 0 y F 00 a las partes real e imaginaria de F (») por simplicidad en la notación. Nótese que la suma que da lugar al solapamiento de espectros no puede ser interpretada, en general, en la forma módulo-fase, dado que: (i) el módulo de una suma no es la suma de los módulos, y (ii) la fase de una suma no es la suma de las fases. 3 Recordamos
268
c Emilio Gago-Ribas, 2002 °
9 8 < f(x) = e+ (x) = e¡ax ¡(x); a 2 R+ = :
8 > > <
;
g(x) = e¡ax ¡(x) cos (» 0 x + '0 )
1 F (») = a + j» > > : G(») = 1 ej'0 F (» ¡ » 0 ) + 1 e¡j'0 F (» + » 0 ) 2 2 1,0
f(x)
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0 -0,50
0,4
-0,25
Re{F(ξ)}
0,00
0,25
0,50
0,75
1,00
0,2
0,3
0,1
0,2
0,0
0,1
-0,1
0,0 -50
0,4
0,3
-40
-30
-20
-10
0
10
20
30
40
50
Re{G(ξ)} - ξ0
0,2
ξ0
0,0
0,1
-0,1
0,4
-40
-30
-20
-10
0
10
20
30
40
50
|F(ξ)|
1,0π 0,5π
0,2
0,0π
0,1
-0,5π
0,4
-40
-30
-20
-10
|G(ξ)|
0,3
0
ξ
10
20
30
40
0,00
-40
-30
0,25
x
-20
-10
50
-40
-30
-20
-10
10
0,75
20
30
-ξ0
1,00
40
50
ξ0
0
10
20
30
40
0
10
20
30
40
50
Fase{F(ξ)}
-1,0π -50
-40
-30
-20
-10
Fase{G(ξ)}
- ξ0
0
0,50
ξ
Im{G(ξ)}
-0,2 -50
0,3
0,0 -50
-0,25
0,1
0,2
0,0 -50
2π/ξ0
Im{F(ξ)}
-0,2 -50
ξ
> > ;
g(x)
-1,0 -0,50
x
9 > > =
ξ
50
ξ0
- ξ0
1,0π
ξ0
0,5π 0,0π
0,2
-0,5π
0,1
-1,0π 0,0 -50
-40
-30
-20
-10
0
ξ
10
20
30
40
50
-50
-40
-30
-20
-10
0
10
20
30
40
50
ξ
Figura 10.5. Ejemplo de modulación en amplitud de una distribución exponencial con a = 3 y » 0 = 20: El período de la portadora X0 = 2¼=20 ¼ 0:3142; y su fase '0 = 0. Se puede apreciar el efecto del solapamiento espectral analizado en partes real e imaginaria, y en módulo y fase.
c Emilio Gago-Ribas, 2002 °
269
9 8 < f (x) = e+ (x) = e¡ax ¡(x); a 2 R+ = :
8 > > <
;
g(x) = e¡ax ¡(x) cos (» 0 x + '0 )
1 F (») = a + j» > > : G(») = 1 ej'0 F (» ¡ » 0 ) + 1 e¡j'0 F (» + » 0 ) 2 2 1,0
f(x)
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0 -0,50
0,4
-0,25
0,00
Re{F(ξ)}
0,25
0,50
0,75
1,00
0,2
0,3
0,1
0,2
0,0
0,1
-0,1
0,0 -120 -100 -80
-60
0,4
Re{G(ξ)}
0,3
-ξ0
-40
-20
0
20
40
60
80
100 120
0,2
ξ0
0,1
0,2
0,0
0,1
-0,1
0,0 -120 -100 -80
0,4
-60
-40
-20
0
20
40
60
80
100 120
-0,25
0,00
Im{F(ξ)}
-60
0,25
-60
0,50
0,75
1,00
x
-40
-20
-40
0
20
40
60
80
100 120
ξ
Im{G(ξ)} -ξ0
-0,2 -120 -100 -80
ξ
|F(ξ)|
2π/ξ0
-0,2 -120 -100 -80
ξ
> > ;
g(x)
-1,0 -0,50
x
9 > > =
ξ0
-20
0
20
40
60
80
100 120
20
40
60
80
100 120
ξ
Fase{F(ξ)} 1,0π
0,3
0,5π 0,0π
0,2
-0,5π
0,1
-1,0π 0,0 -120 -100 -80
0,4
0,3
-60
-40
-20
0
20
40
60
80
100 120
-120 -100 -80
ξ
|G(ξ)| -ξ0
-60
-40
-20
Fase{G(ξ)} ξ0
1,0π 0,5π
0
ξ
-ξ0
ξ0
0,0π
0,2
-0,5π
0,1
-1,0π 0,0 -120 -100 -80
-60
-40
-20
0
ξ
20
40
60
80
100 120
-120 -100 -80
-60
-40
-20
0
20
40
60
80
100 120
ξ
Figura 10.6. Ejemplo de modulación en amplitud de una distribución exponencial con a = 3 y » 0 = 80: El período de la portadora X0 = 2¼=80 ¼ 0:0785; y su fase '0 = 0. Se puede apreciar el efecto del solapamiento espectral analizado en partes real e imaginaria, y en módulo y fase.
270
c Emilio Gago-Ribas, 2002 °
9 8 < f(x) = e+ (x) = e¡ax ¡(x); a 2 R+ = :
8 > > <
g(x) = e¡ax ¡(x) cos (» 0 x + '0 )
;
1 F (») = a + j» > > : G(») = 1 ej'0 F (» ¡ » 0 ) + 1 e¡j'0 F (» + » 0 ) 2 2 1,0
f(x)
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0 -0,5
0,4
0,0
0,5
1,0
Re{F(ξ)}
0,3
0,1
0,2
0,0
0,1
-0,1
0,0 -50
0,4
0,3
-40
-30
-20
-10
0
10
20
30
40
50
Re{G(ξ)} -ξ0
0,2
ξ0
0,0
0,1
-0,1
-40
-30
-20
-10
0
10
20
30
40
50
-40
-30
-20
-10
1,0
0
10
20
30
40
50
ξ
Im{G(ξ)}
ξ0
-0,2 -50
ξ
|F(ξ)| 0,4
0,5
0,1
0,2
0,0 -50
0,0
Im{F(ξ)}
-0,2 -50
ξ
> > ; 2π/ξ0
g(x)
-1,0 -0,5
0,2
9 > > =
-ξ0 -40
-30
-20
-10
0
10
20
30
40
50
10
20
30
40
50
40
50
ξ
Fase{F(ξ)} 1,0π
0,3
0,5π 0,0π
0,2
-0,5π
0,1
-1,0π 0,0 -50
0,4
0,3
-40
-30
-20
-10
0
10
20
30
40
50
-50
ξ
|G(ξ)| -ξ0
-30
-20
-10
0
ξ
Fase{G(ξ)} ξ0
1,0π
ξ0
0,5π 0,0π
0,2
-0,5π
0,1
-1,0π 0,0 -50
-40
-40
-30
-20
-10
0
ξ
10
20
30
40
50
-50
- ξ0 -40
-30
-20
-10
0
10
20
30
ξ
Figura 10.7. Ejemplo de modulación en amplitud de una distribución exponencial con a = 3 y » 0 = 20: El período de la portadora X0 = 2¼=20 ¼ 0:3142; y su fase '0 = ¡¼=8; lo que supone un desplazamiento del coseno a la derecha de valor x0 = X0 =16:. Se puede apreciar el efecto del solapamiento espectral analizado en partes real e imaginaria, y en módulo y fase.
c Emilio Gago-Ribas, 2002 °
271
10.3
Ventaneado ideal en el dominio real.
Otro ejemplo de sistema básico de gran importancia es el ventaneado de señales en el dominio real. Nótese que, desde el punto de vista práctico, es imposible trabajar con señales de longitud in…nita, por mucho que, matemáticamente, puedan estar así de…nidas. Por ejemplo, si la variable x representase el tiempo, habitualmente una señal estará de…nida entre dos instantes de tiempo dados, por muy separados que estén el uno del otro. Esto hace que muchas señales se estudien a partir de señales analíticas de duración in…nita pero recortadas entre dos valores arbitrarios x1 y x2 : Veremos en esta sección algunos ejemplos de gran interés práctico. Consideremos el sistema mostrado en la Fig. 10.8 a partir del sistema en la Fig. 10.1 cuando la señal p(x) es una distribución pulso unidad de ancho ¢x centrada en el origen de coordenadas como la de…nida en (9.118), 8 < 1 si jxj < ¢x 2 P¢x (x) = (10.18) : 0 si jxj > ¢x 2
En este caso, el sistema lineal no invariante representará un …ltrado en el dominio real (ventaneado en x) de la señal de entrada f (x):
Figura 10.8. Esquema de un sistema de ventaneado ideal de señales en el dominio real.
² Dominio real.
El análisis en el dominio real realizado en la Secc. 10.1 quedará particularizado ahora de la siguiente forma, 8 ¢x > < f (x) si jxj < 2 (10.19) g(x) = F [f (x)] = f(x) P¢x (x) = > si jxj > ¢x : 0 2
Escrito en la forma de un operador integral como en (10.4), las funciones respuesta al impulso, funciones núcleo del operador integral, vendrían dadas en este caso por, h(x; x0 ) = P¢x (x0 ) ±(x ¡ x0 );
(10.20)
es decir, cada delta viene pesada por el valor que tome la señal pulso en cada punto x0 donde se sitúe la señal impulsiva. Nótese que, desde un punto de vista riguroso, el análisis de esta operación no ha sido de…nido dado que se trata del producto de dos distribuciones. Su análisis puede sin embargo realizarse de una forma intuitiva sin más que dase cuenta que todas las deltas situadas en valores de x0 2 = (¡¢x=2; ¢x=2) tendrán un peso nulo. El conjunto continuo de funciones fh(x; x0 )g podrá describirse, por ejempo, de la siguiente forma, 8 > si jx0 j < ¢x < ±(x ¡ x0 ) 2 0 fh(x; x )g = (10.21) ¢x 0 0 > : 0 ±(x ¡ x ) si jx j > 2 Con el objeto 0 ±(x ¡ x0 ) haremos referencia a la distribución delta de peso cero5 . En la Fig. 10.9 se muestran algunos ejemplos de estas funciones.
5 De esta forma intentaremos mantener en mente el hecho de ser una distribución de peso nulo, diferente de la función nula de buen comportamiento, elemento neutro de la suma del espacio vectorial de señales.
272
c Emilio Gago-Ribas, 2002 °
P∆x(x)
2,0
1,5
∆x
δ(x - x')
1,0
0δ(x - x')
0,5
0,0
x'
-0,5 -3
-2
-1
h(x;x')
0
x
1
2
3
Figura 10.9. Algunos ejemplos del conjunto continuo de funciones respuesta al impulso fh(x; x0 )g = fP¢x (x0 ) ±(x ¡ x0 )g para algunos valores arbitrarios de x0 : En este ejemplo, ¢x = 2.
² Dominio espectral.
El análisis espectral del sistema vendrá dado en este caso por, G(») =
1 F (») ¤ P¢x (»); 2¼
(10.22)
donde TF [P¢x (x)] será el espectro de la señal pulso unidad obtenido a partir del resultado en (9.124), esto es, ¡ ¢ TF [P¢x (x)] = ¢x sinc ¢x (10.23) 2 » : El resultado de la convolución6 será, por tanto, G(») = =
¢ ¢x ¢ ¡ ¡ 1 » = » = F (») ¤ ¢x sinc ¢x F (») ¤ sinc ¢x 2 2 2¼ Z 2¼ ¤ £ ¢x ¢x 0 0 F (» ) sinc 2 (» ¡ » ) d» 0 : 2¼ »0
(10.24)
Esta expresión será especialmente sencilla de analizar en el caso en que F (») sea una distribución. Veremos su comportamiento en los ejemplos que pasamos a describir. ² Ventaneado de una señal cosenoidal.
Supongamos que f(x) ´ f0 (x) = cos » 0 x; esto es, una función coseno de período X0 = 2¼=» 0 : El espectro de la señal F0 (») vendrá dado por (9.178), (10.25)
F0 (») = ¼±(» ¡ » 0 ) + ¼±(» + » 0 );
de forma que el resultado en (10.24) se podrá desarrollar de la siguiente forma, Z £ ¤ 0 ¢x 0 G(») = F0 (» 0 ) sinc ¢x 2 (» ¡ » ) d» = 2¼ »0 Z Z £ ¢x ¤ 0 ¢x £ ¤ 0 ¢x 0 0 0 = ±(» ¡ » 0 ) sinc 2 (» ¡ » ) d» + ±(» 0 + » 0 ) sinc ¢x 2 (» ¡ » ) d» = 2 »0 2 »0 £ ¤ ¢x £ ¤ ¢x = sinc ¢x sinc ¢x (10.26) 2 (» ¡ » 0 ) + 2 2 (» + » 0 ) : 2 En la última igualdad, se ha utilizado la de…nición de la distribución delta centrada en §» 0 aplicada a una función de buen comportamiento. Nótese cómo, una vez más, aparece el efecto de aliasing o
6 En
este caso, la convoulción será entre la función F (») y la función de buen comportamiento ¢x sinc
³
¢x » 2
´
: Tanto si
F (») es una función de buen comportamiento como si es una distribución, el resultado de la convolución será otra función de buen comportamiento.
c Emilio Gago-Ribas, 2002 °
273
solapamiento espectral, aplicado en este caso a las funciones sinc desplazadas a §» 0 : El espectro total será£la suma de¤ambas señales, de forma que existirá un solapamiento de las funciones espectrales sinc ¢x 2 (» ¨ » 0 ) : Nótese que, por ser la función sinc real, el espectro resultante será también real. En la Fig. 10.10 se analiza el proceso de ventaneado de una función coseno en función del número de períodos considerados en el ventaneado; el análisis espectral correspondiente se muestra en las Figs. 10.11, 10.12 y 10.13 donde se pueden apreciar las consecuencias del solapamiento espectral descritas previamente analizadas tanto en parte real e imaginaria como en módulo y fase. En estos casos, los espectros son reales, de forma que en el primer análisis sólamente se muestra el comportamiento de las partes reales de las funciones espectrales. A la vista de los resultados, se pueden realizar una serie de comentarios y consideraciones importantes: 1. Véase cómo al crecer el ancho del pulso, más estrecho es su espectro (más estrecha es la función sinc) igual que ocurría en la Secc. 9.7.1. Esto in‡uirá en el solapamiento, dado que al trasladar los espectros a las pulsaciones §» 0 ; cuanto más estrechos sean estos, menos será la in‡uencia del solapamiento espectral, como puede apreciarse al comparar los resultados mostrados en las Figs. 10.11, 10.12 y 10.13, respectivamente. Este aspecto será de gran importancia a la hora, por ejemplo, de tratar de recuperar la señal f0 (x) a partir de g(x) mediante un …ltrado espectral, como se verá en la Secc. 10.6. 2. Un aspecto importante asociado al solapamiento de los espectros es el desplazamiento y cambio de valor de los máximos de la función sinc. Así, los máximos, de valor ¢x=2; de los dos términos de la función sinc desplazada en (10.26) se produce en §» 0 : La suma de ambos términos, esto es, los máximos de S(»); ya no se producen en §» 0 ; y su valor no es igual a ¢x=2: El análisis matemático de este hecho se deja como ejercicio de cálculo al lector7 . 3. Nótese también cómo cuando ¢x ! 1; la función g(x) tenderá a f0 (x); y por lo tanto, el comportamiento del espectro G(») tenderá al de F0 (»); esto es, la funciones sinc tenderán a dos deltas de peso ¼ localizadas en §» 0 :
4. Algunos estudios complementarios que se dejan al lector son:
(a) Análisis del proceso variando: (i) el ancho de la ventana y, (ii) el período del coseno. (b) Análisis del proceso considerando un pulso unidad no centrado, esto es, P¢x (x ¡ x0 ): (c) Análisis para: (i) la señal senoidal y, (ii) exponencial compleja.
(d) Análisis para una señal f(x) de ancho de banda limitado, esto es, con una función espectral F (») nula fuera de un cierto intervalor en »; por ejemplo, f(x) tal que F (») = 0 para todo » tal que j»j > » m : ² Ventaneado de una distribución exponencial real.
Supongamos ahora que f (x) = e¡ax ¡(x); a 2 R+ ; esto es, una exponencial de…nida para todo x > 0: El espectro de la señal F (») vendrá dado por (9.150) considerando que a es real y positiva, F (») =
1 ; a + j»
(10.27)
de forma que el resultado en (10.24) se podrá desarrollar de la siguiente forma, Z Z £ ¤ 0 ¢x £ ¢x ¤ 0 ¢x 1 0 0 G(») = F (» 0 ) sinc ¢x (» ¡ » ) d» = 0 sinc 2 (» ¡ » ) d» : 2 2¼ »0 2 »0 a + j»
(10.28)
Resulta evidente que esta integral no es, en absoluto, sencilla de analizar. Sin embargo, resultará fácil saber su valor si tenemos en cuenta que el efecto producido por el ventaneado no es más que el de considerar la parte de señal dentro del intervalo (¡¢x=2; ¢x=2), en este caso, 8 < e¡ax si x 2 (0; ¢x=2) g(x) = e¡ax ¡(x) P¢x (x) = (10.29) : 0 si x 2 = (0; ¢x=2)
7 La
h resolución i de la posición de los máximos de G(») así como su valor, pasa por la resolución de la ecuación tan ¢x (» ¡ » ) = ¢x (»¡» 0 ); lo que reescrito en una forma simpli…cada se puede ver como tan ® = ®; con ® = ¢x (»¡» 0 ): 0 2 2 2 En el Ap. F.4.1 se puede encontrar un análisis detallado de dicha ecuación.
274
c Emilio Gago-Ribas, 2002 °
Dado que g(x) es una señal de energía …nita, existirá su transformada de Fourier calculada a partir de su expresión original en (9.18), G(») =
Z
s(x)e¡j»x dx =
x
=
e¡(a+j»)x ¡(a + j»)
Z
¸x=¢x=2
¢x=2
e¡ax e¡j»x dx =
0
=
x=0
1 ¡ e¡(a+j»)¢x=2 : a + j»
(10.30)
Nótese que, siendo la señal f (x) real, el espectro resultante es complejo. Además, este resultado nos permite conocer una nueva propiedad asociada a la función sinc, como es el valor de la integral en (10.28), así como una nueva integral de la función sinc considerando la propiedad conmutativa de la convolución, 9 8 Z 1 £ ¢x ¤ 0 > 1 > 0 ¢x > > > 0 sinc 2 (» ¡ » ) d» > = 1 ¡ e¡(a+j»)¢x=2 < 2 ¡1 a + j» = : (10.31) Z 1 > ¡ ¢x 0 ¢ 0 > a + j» 1 > > > > ¢x sinc d» » ; : 0 2 2 ¡1 a + j(» ¡ » )
En las Figs. 10.14, 10.15 y 10.16 se analiza el proceso de ventaneado de una distribución exponencial real en función del ancho del ventaneado. En este caso no aparece solapamiento espectral sino una modi…cación del espectro en virtud de las diferencias entre la señal original y la recortada. A medida que el ancho de la ventana es mayor, g(x) tiende a f(x) y, por lo tanto, G(») tiende a F (»); Fig. 10.16. 2
f0(x), P∆x(x)
2
s(x)
∆x 1
1
0
0
-1
-1
-2 -10π
-8π
-6π
f (x), P∆x(x)
-4π
-2π
2 0
0π
2π
x
4π
6π
8π
10π
-2 -10π 2
-8π
-6π
-4π
-2π
0π
-8π
-6π
-4π
-2π
0π
-8π
-6π
-4π
-2π
0π
s(x)
x
2π
4π
6π
8π
10π
∆x 1
1
0
0
-1
-1
-2 -10π 2
-8π
-6π
f0(x), P∆x(x)
-4π
-2π
0π
x
2π
4π
6π
8π
10π
-2 -10π 2
s(x)
x
2π
4π
6π
8π
∆x 1
1
0
0
-1
-1
-2 -10π
-8π
-6π
-4π
-2π
0π
x
2π
4π
6π
8π
10π
-2 -10π
x
2π
4π
6π
8π
10π
Figura 10.10. Ejemplo de ventaneado de una señal cosenoidal. Análisis del proceso de ventaneado en el dominio real para una señal coseno de pulsación »0 = 1; con ¢x = X0 ; ¢x = 3X0 y ¢x = 5X0 :
c Emilio Gago-Ribas, 2002 °
275
8 <
9 =
f0 (x) = cos » 0 x
: F (») = ¼±(» ¡ » ) + ¼±(» + » ) ; 0 0 0
8 <
9 = g(x) = cos » 0 x; x 2 (¢x=2; ¡¢x=2) : G(») = ¢x sinc £ ¢x (» ¡ » )¤ + ¢x sinc £ ¢x (» + » )¤ ; 0 0 2 2 2 2 1,0
F0(ξ)/π
-ξ0
ξ0
1,0
0,5
0,5
0,0
0,0
-0,5 -3 4
-2
G(ξ)
-1
0
1
ξ
-ξ0
2
3
-0,5 -3 4
ξ0
3
ξ0
-ξ0
-2
-1
0
1
2
3
1
2
3
0
1
2
3
0
1
2
3
ξ
G(ξ) -ξ0
3
2
ξ0
2
1
=1
0
0
-1 -3 2
P∆x(ξ)/∆x
-2
|F0(ξ)|/π
-1
0
1
-ξ0
ξ
ξ0
2
3
ξ
-1 -3
-2
-1
Fase{F0(ξ)}
0
ξ
1,0π 0,5π 0,0π
1
-0,5π -1,0π 0 -3 1,00
-2
-1
|P∆x(ξ)|/∆x
0
ξ
1
2
3
-3
-2
-1
Fase{P∆x(ξ)}
ξ
1,0π 0,75
0,5π 0,0π
0,50
-0,5π
0,25
-1,0π 0,00 -3 4
-2
-1
0
1
2
3
-3
ξ
|G(ξ)|
-2
-1
Fase{G(ξ)}
-ξ0 ξ0
1,0π
3
0,5π
ξ
-ξ0
0,0π
2
-0,5π
1
ξ0
-1,0π 0 -3
-2
-1
0
ξ
1
2
3
-3
-2
-1
0
1
2
3
ξ
Figura 10.11. Ventaneado de una señal cosenoidal. Análisis espectral para el caso con » 0 = 1 y ¢x = X0 = 2¼=»0 = 2¼:
276
c Emilio Gago-Ribas, 2002 °
8 <
9 =
f0 (x) = cos » 0 x
: F (») = ¼±(» ¡ » ) + ¼±(» + » ) ; 0 0 0
8 <
9 = g(x) = cos » 0 x; x 2 (¢x=2; ¡¢x=2) : G(») = ¢x sinc £ ¢x (» ¡ » )¤ + ¢x sinc £ ¢x (» + » )¤ ; 0 0 2 2 2 2 1,0
F0(ξ)/π
ξ0
-ξ0
1,0
0,5
0,5
0,0
0,0
-0,5 -3 10
-2
-1
G(ξ)
0
ξ
1
2
3
-0,5 -3 10
8
8
6
6
4
=2
-ξ0
-2
-1
G(ξ)
ξ0
0
1
0
1
2
3
0
1
2
3
0
1
2
3
ξ
2
3
4
2 0
0
-2
-2
-4 -3
-2
|F0(ξ)|/π
2
P∆x(ξ)/∆x
-ξ0
-1
-ξ0
0
ξ
1
ξ0
ξ0
2
3
-4 -3
-ξ0 -2
ξ0 -1
Fase{F0(ξ)}
ξ
1,0π 0,5π 0,0π
1
-0,5π -1,0π 0
-3
1,00
-2
-1
|P∆x(ξ)|/∆x
0
ξ
1
2
3
-3 4
0,75
2
0,50
0
0,25
-2
0,00 -3 10
-2
-1
|G(ξ)|
0
ξ
1
2
3
8 6 4
-1
-2
-1
ξ
ξ
Fase{G(ξ)} -ξ0
2
ξ0
-ξ0
0
-2
2 0 -3
-4 -3 4
-2
Fase{P∆x(ξ)}
ξ0 -2
-1
0
ξ
1
2
3
-4 -3
-2
-1
0
1
2
3
ξ
Figura 10.12. Ventaneado de una señal cosenoidal. Análisis espectral para el caso con » 0 = 1 y ¢x = 3X0 = 6¼=» 0 = 6¼:
c Emilio Gago-Ribas, 2002 °
277
8 <
9 =
f0 (x) = cos » 0 x
: F (») = ¼±(» ¡ » ) + ¼±(» + » ) ; 0 0 0
8 <
9 = g(x) = cos » 0 x; x 2 (¢x=2; ¡¢x=2) : G(») = ¢x sinc £ ¢x (» ¡ » )¤ + ¢x sinc £ ¢x (» + » )¤ ; 0 0 2 2 2 2 1,0
F0(ξ)/π
ξ0
-ξ0
1,0
0,5
0,5
0,0
0,0
-0,5 -3 16
-2
-1
0
1
2
3
ξ
G(ξ)
-0,5 -3 16
12
-2
ξ0
-ξ 0
-1
0
1
2
3
1
ξ0 2
3
1
2
3
1
2
3
ξ
G(ξ)
12
8
8
4
=4
0
0
-4 -3 2
P∆x(ξ)/∆x
-2
|F0(ξ)|/π
-ξ0
-1
0
1
-ξ0
ξ
ξ0
ξ0 2
3
-4 -3
-2 -ξ 0 Fase{F0(ξ)}
-1
0
ξ
1,0π 0,5π 0,0π
1
-0,5π -1,0π 0 -3 1,00
-2
-1
|P∆x(ξ)|/∆x
0
ξ
1
2
3
-3
-2
-1
0
ξ
Fase{P∆x(ξ)} 1,0π
0,75
0,5π 0,0π
0,50
-0,5π
0,25
-1,0π 0,00 -3 10
-2
-1
0
1
2
3
-3
ξ
|G(ξ)|
1,0π 8 6
-2
-1
-ξ0
ξ0
0,5π
0
ξ
Fase{G(ξ)} -ξ0
0,0π 4 -0,5π
ξ0
2 -1,0π 0 -3
-2
-1
0
ξ
1
2
3
-3
-2
-1
0
1
2
3
ξ
Figura 10.13. Ventaneado de una señal cosenoidal. Análisis espectral para el caso con » 0 = 1 y ¢x = 5X0 = 10¼=» 0 = 10¼:
278
c Emilio Gago-Ribas, 2002 °
8 ¡ax > ¡(x); a 2 R+ < f (x) = e 1 > : F (») = a + j»
9 > = > ;
8 9 ¡ax P¢x=2 (x ¡ ¢x=4); a 2 R+ = > > < g(x) = e > : 1,5
G(») =
1 ¡ e¡(a+j»)¢x=2 a + j»
f(x)
1,5
1,0
1,0
0,5
0,5
0,0
0,0
-0,5 -1
1,0
0
1
2
x
Re{F(ξ)}
3
∆x/2
g(x)
-0,5 -1
1,00
> ;
0
1
2
3
x
Re{G(ξ)}
0,75 0,50
0,5
0,25 0,0
0,00
-20
0,50
-15
-10
-5
Im{F(ξ)}
0
ξ
5
10
15
-0,25 20 -20
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
-0,50 -20
1,00
-15
-10
-5
|F(ξ)|
0
ξ
5
10
15
20
0,75
0,75
0,50
0,50
0,25
0,25
0,00 -20
-15
-10
-5
0
5
10
15
20
Fase{F(ξ)}
-15
-10
-15
1,0π
0,5π
0,5π
0,0π
0,0π
-0,5π
-0,5π
-1,0π
0
5
10
15
20
5
10
15
20
5
10
15
20
5
10
15
20
ξ
-5
0
ξ
-10
-5
0
ξ
Fase{G(ξ)}
1,0π
-20
-5
|G(ξ)|
0,00 -20
ξ
-10
Im{G(ξ)}
-0,50 -20
1,00
-15
-1,0π -15
-10
-5
0
ξ
5
10
15
20
-20
-15
-10
-5
0
ξ
Figura 10.14. Ejemplo de ventaneado de una distribución exponencial real. Análisis espectral en partes real e imaginaria y en módulo y fase para el caso con a = 1 y ¢x=2 = 1:
c Emilio Gago-Ribas, 2002 °
279
8 ¡ax > ¡(x); a 2 R+ < f(x) = e 1 > : F (») = a + j»
9 > = > ;
8 9 ¡ax P¢x=2 (x ¡ ¢x=4); a 2 R+ = > > < g(x) = e > : 1,5
G(») =
1 ¡ e¡(a+j»)¢x=2 a + j»
f(x)
1,5
1,0
1,0
0,5
0,5
0,0
0,0
-0,5 -1
1,0
0
1
2
x
Re{F(ξ)}
3
∆x/2
g(x)
-0,5 -1
1,00
> ;
0
1
2
3
x
Re{G(ξ)}
0,75 0,5
0,50 0,25
0,0
0,00
-20
0,50
-15
-10
-5
Im{F(ξ)}
0
ξ
5
10
15
-0,25 20 -20
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
-0,50 -20
1,00
-15
-10
-5
|F(ξ)|
0
ξ
5
10
15
20
0,75
0,75
0,50
0,50
0,25
0,25
0,00 -20
-15
-10
-5
0
5
10
15
20
Fase{F(ξ)}
-15
-10
-15
1,0π
0,5π
0,5π
0,0π
0,0π
-0,5π
-0,5π
-1,0π
0
5
10
15
20
5
10
15
20
5
10
15
20
5
10
15
20
ξ
-5
0
ξ
-10
-5
0
ξ
Fase{G(ξ)}
1,0π
-20
-5
|G(ξ)|
0,00 -20
ξ
-10
Im{G(ξ)}
-0,50 -20
1,00
-15
-1,0π -15
-10
-5
0
ξ
5
10
15
20
-20
-15
-10
-5
0
ξ
Figura 10.15. Ejemplo de ventaneado de una distribución exponencial real. Análisis espectral en partes real e imaginaria y en módulo y fase para el caso con a = 1 y ¢x=2 = 2:
280
c Emilio Gago-Ribas, 2002 °
8 ¡ax > ¡(x); a 2 R+ < f (x) = e 1 > : F (») = a + j»
9 > = > ;
8 9 ¡ax P¢x=2 (x ¡ ¢x=4); a 2 R+ > > < g(x) = e = > : 1,5
G(») =
1 ¡ e¡(a+j»)¢x=2 a + j»
f(x)
1,5
1,0
1,0
0,5
0,5
0,0
0,0
-0,5 -1
1,0
0
1
2
x
Re{F(ξ)}
3
∆x/2
g(x)
-0,5 -1
1,00
> ;
0
1
2
3
x
Re{G(ξ)}
0,75 0,5
0,50 0,25
0,0
0,00
-20
0,50
-15
-10
-5
Im{F(ξ)}
0
ξ
5
10
15
-0,25 20 -20
0,50
0,25
0,25
0,00
0,00
-0,25
-0,25
-0,50 -20
-15
-10
-5
|F(ξ)| 1,00
0
ξ
5
10
15
20
0,75
0,75
0,50
0,50
0,25
0,25
0,00 -20
-15
-10
-5
0
5
10
15
20
Fase{F(ξ)}
-15
-10
-15
1,0π
0,5π
0,5π
0,0π
0,0π
-0,5π
-0,5π
-1,0π
0
5
10
15
20
5
10
15
20
5
10
15
20
5
10
15
20
ξ
-5
0
ξ
-10
-5
0
ξ
Fase{G(ξ)}
1,0π
-20
-5
|G(ξ)|
0,00 -20
ξ
-10
Im{G(ξ)}
-0,50 -20
1,00
-15
-1,0π -15
-10
-5
0
ξ
5
10
15
20
-20
-15
-10
-5
0
ξ
Figura 10.16. Ejemplo de ventaneado de una distribución exponencial real. Análisis espectral en partes real e imaginaria y en módulo y fase para el caso con a = 1 y ¢x=2 = 3:
c Emilio Gago-Ribas, 2002 °
281
10.4
Producto de funciones en el dominio espectral. ² Dominio espectral.
La operación básica del producto de dos señales en el dominio espectral, dual del producto en el dominio real, se puede ver como un sistema en la forma esquematizada en la Fig. 10.17. Consideraremos en este problema que la señal P (») es una señal conocida, siendo f(x) la señal de entrada al sistema cuyo espectro es F (»). Así, (10.32)
G(») = F (») P (») ! F» ´ ¢ P (») ;
siendo F» la versión espectral del operador F que describe a dicho sistema en el dominio real.
Figura 10.17. Representación de un sistema que realiza el producto espectral de una función por otra …jada por el sistema. El sistema es lineal e invariante, y su representación habitual será la presentada en último lugar.
En base a los conceptos expuestos en la Secc. 9.10.2, resulta evidente identi…car, H(») ´ P (»);
(10.33)
lo que equivale a decir que, sea cual sea la función P (»); ésta se corresponderá con la función de transferencia que presente el sistema. Fijar, por tanto, P (») es …jar la función H(») que presentará el sistema. A partir de estos conceptos, resulta trivial conocer cuál es la caracterización del sistema en el dominio real. ² Dominio real.
Usando la propiedad de convolución en (9.36), la transformada inversa de (10.32) vendrá descrita por, g(x) = f (x) ¤ p(x) = f(x) ¤ h(x);
(10.34)
esto es, la convolución de la señal de entrada con la transformada inversa de la función de transferencia, p(x) = TF¡1 fP (»)g = TF¡1 fH(»)g : En este caso, las propiedades de linealidad e invarianza son ambas evidentes dado que esta descripción se corresponde, justamente, con la realizada para un sistema lineal e invariante en la Secc. 6.1.7. De esta forma, siempre que hablemos de un producto en el dominio espectral, estaremos hablando de un sistema en el dominio real que es lineal e invariante, de respuesta al impulso la transformada inversa de la función P (»): El lector puede comprobar a modo de ejercicio el cumplimiento de ambas propiedades sin más que aplicar la expresión de la convolución así como sus propiedades. ~ lo Esto signi…ca que el sistema caracterizado por el operador F ´ ¤p(x) = TF¡1 fF» g 2 LI(S); que permite que el sistema se pueda caracterizar por un operador integral cuya función nucleo viene descrita por una única función respuesta al impulso h(x) en la forma, Z F´ h(x ¡ x0 ) dx0 : (10.35) x0
F : ±(x) ! h(x) = ±(x) ¤ p(x) = p(x): 282
(10.36) c Emilio Gago-Ribas, 2002 °
En la última igualdad se ha utilizado la propiedad de la convolución de la distribución delta con una función de buen comportamiento, Secc. 7.8.2. Así, una vez especi…cada P (»); la respuesta al impulso h(x) = TF¡1 [P (»)] : La operación del producto en el dominio espectral se repite de forma habitual en la práctica. Un caso particular de ella es justamente el ventaneado en el dominio espectral que analizaremos a continuación.
10.5
Ventaneado ideal en el dominio espectral.
El ventaneado de espectros de funciones es una operación básica habitual en la práctica destinada a recortar y/o eliminar partes de un determinado espectro F (»): En la práctica, esta operación suele denominarse como …ltrado de señales y vendrá identi…cada por una cierta función de ventaneado W (»). Así, la función W (»); en el caso ideal, vendrá identi…cada por un pulso de ancho ¢» centrado a una determinada pulsación. En el caso de un pulso centrado en » = 0, hablaremos de …ltros paso bajo, mientras que el caso de un pulso centrado en » 0 6= 0 hablaremos de …ltros paso banda. Partiremos de análisis de caso centrado para analizar posteriormente el caso no centrado. ² Filtro paso bajo.
Consideremos en primer lugar un …ltro caracterizado por, 8 < 1 si W (») ´ H(») = P¢» (») = : 0 si
j»j <
¢» 2
j»j >
¢» 2
(10.37)
La representación habitual de este sistema será como la mostrada en la Fig. 10.18.Resulta evidente
Figura 10.18. Representación general de un …ltro paso bajo ideal de ancho ¢»:
que este sistema lo que hace es recortar el espectro F (») de una señal entre las pulsaciones ¡¢»=2 y ¢»=2: Matemáticamente, 8 < F (») si j»j < ¢» 2 (10.38) G(») = F (») H(») = : 0 si j»j > ¢» 2
De esta forma, su análisis en el dominio real se obtendrá fácilmente sin más que obtener la transformada inversa de (10.37), esto es, h(x); y calcular su convolución con la señal de entrada f(x): La primera viene dada por (9.132), de forma que podremos escribir, ³ ´ ¢» g(x) = f (x) ¤ h(x) = f(x) ¤ TF¡1 fP¢» (»)g = ¢» f (x) ¤ sinc x = 2¼ 2 (10.39) h i h i R R ¢» ¢» ¢» 0 0 0 0 0 0 = ¢» f (x ) sinc (x ¡ x ) dx = f(x ¡ x ) sinc x dx ; 2¼ x0 2 2¼ x0 2 es decir, la misma operación que en (10.24) ahora en el dominio real. Dependiendo de quién sea la función f (x); el resultado de dicha convolución será diferentes. Veremos posteriormente algunos ejemplos.
² Filtro paso banda.
Consideremos ahora el caso de un …ltro caracterizado por un pulso unidad centrado en » 0 = 6 0; 8 < 1 si j» ¡ » 0 j < ¢» 2 W (») ´ H(») = P¢» (» ¡ » 0 ) = (10.40) : 0 si j» ¡ » j > ¢» 0 2
c Emilio Gago-Ribas, 2002 °
283
Figura 10.19. Representación general de un …ltro paso banda de ancho ¢» y centrado en » 0 :
La representación habitual de este sistema será como la mostrada en la Fig. 10.19.El espectro de la señal de salida se podrá identi…car con, 8 < F (») si j» ¡ » 0 j < ¢» 2 G(») = F (») H(») = (10.41) ¢» : 0 si j» ¡ » 0 j > 2
esto es, el espectro de la señal de entrada entre los valores » 0 ¡ ¢»=2 y » 0 + ¢»=2: Su análisis en el dominio real se obtendrá fácilmente sin más que obtener la transformada inversa de P¢» (» ¡ » 0 ); y calcular su convolución con la señal de entrada f (x): La primera vendrá dada por (9.132) junto con la propiedad de desplazamiento espectral (9.32), resultando g(x) = f (x) ¤ h(x) = f(x) ¤ TF¡1 fP¢» (» ¡ » 0 )g = µ ¶ ¢» ¢» = f (x) ¤ sinc x ej»0 x = 2¼ 2 Z h i 0 ¢» j»0 x 0 e f (x0 ) sinc ¢» (x ¡ x ) e¡j»0 x dx0 = = 2 2¼ x0 Z h i 0 ¢» 0 = x f (x ¡ x0 ) sinc ¢» ej»0 x dx0 : 2 2¼ x0
(10.42)
Una vez más, el análisis de esta integral dependerá de la función f (x) a la entrada del sistema. Veremos a continuación algunos ejemplos especí…cos. ² Filtrado de una señal cosenoidal.
Consideremos que la señal de entrada al sistema f(x) = f0 (x) = cos » 0 x de período X0 = 2¼=» 0 : El …ltrado en el dominio espectral es evidente sin más que cosiderar el espectro de f0 (x); F0 (») = ¼±(» ¡ » 0 ) + ¼±(» + » 0 ):
(10.43)
Consideremos en este caso un …ltro paso banda de amplitud 1=¼; centrado en » 0 ; y con un cierto ancho ¢» en torno a » 0 : La señal …ltrada tendrá un espectro G(») igual a, 8 9 > < 1 F0 (») si j» ¡ » 0 j < ¢» > = 2 ¼ G(») = F0 (») P¢» (» ¡ » 0 ) = = ±(» ¡ » 0 ); (10.44) > > : ; 0 si j» ¡ » 0 j > ¢» 2
esto es, estamos seleccionando el espectro superior del coseno, es decir, el armónico de pulsación » 0 ; resultado evidente sin más que calcular la transformada inversa de G(»); g(x) = TF¡1 [±(» ¡ » 0 )] = ej»0 x :
(10.45)
En este caso, resulta sencillo identi…car la expresión (10.42) particularizada para f0 (x) con (10.45), h i R 0 ¢» j»0 x 0 0 g(x) = f (x) ¤ h(x) = ¢» e f (x ) sinc (x ¡ x ) e¡j»0 x dx0 = 0 2¼ 2 x0 (10.46) h i R ¢» j»0 x ¢» 0 0 ¡j»0 x0 0 j»0 x = 2¼ e dx = e : 2 (x ¡ x ) e x0 cos » 0 x sinc Nótese como, una vez más, una expresión complicada en términos de la función sinc puede ser calculada a partir de las propiedades de la transformada de Fourier de un sistema sencillo. Resulta
284
c Emilio Gago-Ribas, 2002 °
evidente que del resultado anterior podremos extraer la siguientes propiedades matemáticas, Z h i 0 2¼ 0 cos » 0 x0 sinc ¢» ; (10.47) (x ¡ x ) e¡j»0 x dx0 = 2 ¢» x0
o bien, desarrollando las partes real e imaginaria de dichas expresiones, Z h i 2¼ 0 0 cos2 » 0 x0 sinc ¢» 2 (x ¡ x ) dx = ¢» ; 0 x Z h i 0 sin » 0 x0 cos » 0 x0 sinc ¢» (x ¡ x ) dx0 = 0: 2
(10.48)
x0
Similares relaciones se pueden encontrar para las expresiones obtenidas a partir de la propiedad conmutativa de la convolución. En la Fig. 10.20 se muestran un ejemplo del análisis del …ltrado de la función coseno en el dominio espectral, y su correspondiente interpretación en el dominio real.
2
F0(ξ)/π
-ξ0
ξ0
2
ξ0
πH(ξ)
2
1
1
1
0
0
0
-1 -3
-2
-1
0
ξ
1
2
-1 -3
3
-2
-1
0
ξ
1
2
-1 -3
3
2
ξ0
G(ξ)
-2
-1
Re{g(x)}
0
1
2
3
0X0
1X0
2X0
3X0
0X0
1X0
2X0
3X0
ξ
1
2
f0(x)
1,0
0
2πh(x)/∆ξ
-1
1 0,5
=
*
0
-2 -3X0
-2X0
-1X0
Im{g(x)} 2
x
0,0
-1 1 -2 -3X0
-2X0
-1X0
0X0
x
1X0
2X0
3X0
-0,5 -12X0 -9X0 -6X0 -3X0 0X0
x
3X0
6X0
9X0 12X0
0 -1 -2 -3X0
-2X0
-1X0
x
Figura 10.20. Ejemplo de ventaneado espectral ideal de una función coseno de pulsación » 0 = 1: El …ltro es de ancho ¢» = 0:5; de amplitud ¼; y localizado en » 0 : Se muestra la interpretación de dicho …ltro en el dominio real, esto es, la convolución de la señal de entrada con h(x) = TF¡1 [¼P¢» (» ¡ »0 )] :
c Emilio Gago-Ribas, 2002 °
285
10.6
Problema de recuperación de una señal.
Un problema muy habitual en la práctica será el de intentar recuperar una cierta señal inicial que previamente ha sido transformada por un cierto sistema. Veremos que este problema se podrá analizar con cierta facilidad basándonos en el ventaneado espectral de una señal cuando el espectro G(») de la señal g(x) es una combinación lineal basada en el espectro F (») de la señal de entrada f(x); algo que suele aparecer de forma habitual como proceso intermedio en muchos problemas prácticos, X G(») = a(m)F (» ¡ m» 0 ); (10.49) m
con la suma en m arbitraria, dependiendo del problema analizado. El esquema del problema queda recogido en la Fig. 10.21.
Figura 10.21. Representación genérica de un problema de recuperación de señal en el que el espectro G(») es proporcional al espectro F (»); por ejemplo, cuando el operador F produce un desplazamiento del espectro de la señal de entrada.
A la vista del problema, resulta evidente que recuperar la señal original f (x) a la salida de la combinación en serie de ambos sistemas es lo mismo que obtener el operador F¡1 ; inverso del operador F; que describe la transformación inicial de la señal para un sistema arbitrario pero que mantenga de alguna manera en su salida, las propiedades del espectro de la señal de entrada. Matemáticamente, F : f(x) ! g(x) = F [f(x)] ! F¡1 [g(x)] = r(x) = f(x);
(10.50)
denominando por r(x) a la señal recuperada a la salida del segundo sistema. Ya se ha comentado que la obtención de un operador inverso no tiene porqué ser taréa sencilla, en particular si el operador F ~ representa un sistema arbitrario cualquiera. Si el sistema inicial es lineal e invariante, es decir, F 2LI(S); la taréa se puede ver facilitada a través de la representación espectral del operador. Recordemos este proceso del Cap. 6 para ver si es aplicable al caso que nos ocupa. En primer lugar, recordaremos las propiedades asociadas al operador inverso de uno dado en función de la respuesta al impulso y la función de transferencia del operador directo, h(x) ¤ G(x) = ±(x) $ H(») G(») = 1 ;
(10.51)
siendo G(x) y G(») la respuesta al impulso y la función de transferencia del operador inverso, respectivamente, asumiendo que éste sea también lineal e invariante. Veamos en qué medida esto es aplicable o no a éste caso. Asumiendo inicialmente que el primer sistema posée una función de transferencia H(») tal que G(») satisface la ecuación (10.49), es decir, que el espectro de la señal de salida es una combinación lineal del espectro de la señal de entrada, resulta evidente que la señal de entrada se podría recuperar a la salida del segundo sistema mediante el …ltrado de alguna de las componentes espectrales de la combinación lineal, 2 3 G(») = ::::: + a2 F (» + 2» 0 ) + a1 F (» + » 0 ) + a0 F (») + a1 F (» ¡ » 0 ) + a2 F (» ¡ 2» 0 ) + ::::: 6 7 # 6 7 6 7 1 6 7 R1 (») = G(») P¢» (» ¡ k» 0 ) = F (» ¡ k» 0 ) 6 7 (10.52) 6 7 ak 6 7 # 4 5 R(») = R1 (» + k» 0 ) = F (»)
En este esquema hemos asumido que el …ltrado se realiza para la componente k-ésima de la combinación lineal. De esta forma, podremos identi…car claramente que el sistema inverso de F constará de:
286
c Emilio Gago-Ribas, 2002 °
1. Un primer sistema lineal e invariante cuya función de transferencia vendrá dada por, G1 (») =
1 P¢» (» ¡ k» 0 ); ak
(10.53)
esto es, un …ltro paso banda como el representado en la Fig. 10.19 centrado en k» 0 : Esto quiere decir que la respuesta al impulso de dicho sistema será proporcional a una función sinc en x así como a un factor exponencial debido al desplazamiento k» 0 ; ´ ³ ¢» G1 (x) = x ejk»0 x : (10.54) sinc ¢» 2 2¼ak 2. Un segundo sistema que produzca un desplazamiento de valor ¡k» 0 sobre el espectro de la señal de salida del anterior, lo que equivale a multiplicar en el dominio real por una señal exponencial imaginaria en la forma e¡jk»0 x : Como vimos en la Secc. 10.1, este sistema será lineal y no invariante. 3. Esto quiere decir que la función de transferencia G(») no se podrá escribir como el producto de G1 (») por la función de transferencia del segundo, dado que éste tendrá una familia de in…nitas respuestas al impulso. 4. La caracterización total del sistema F¡1 en el dominio real vendrá dada entonces por, r1 (x) = g(x) ¤ G1 (x) ! r(x) = [g(x) ¤ G1 (x)] e¡jk»0 x ; espresión que podrá desarrollarse en las dos versiones siguientes, Z 0 0 r(x) = e¡jk»0 x g(x0 )h¡1 1 (x ¡ x ) dx = 0 x Z i h 0 ¢» ¡jk»0 x 0 = (x ¡ x ) ejk»0 (x¡x ) dx0 = e g(x0 ) sinc ¢» 2 2¼ak x0 Z i h 0 ¢» = (x ¡ x0 ) e¡jk»0 x dx0 ; g(x0 ) sinc ¢» 2 2¼ak x0 r(x) = e
(10.56)
Z
0 0 g(x ¡ x0 )h¡1 1 (x ) dx = Z ³ ´ 0 ¢» ¡jk»0 x x0 ejk»0 x dx0 : e g(x ¡ x0 ) sinc ¢» 2 2¼ak 0 x ¡jk»0 x
(10.55)
x0
=
(10.57)
En la Fig. 10.22 se muestra el esquema completo de recuperación ideal de la señal. Resulta evidente que este proceso sólo será válido para las siguientes condiciones: (a) Si f (x) es de ancho de banda limitado, es decir, si F (») 6= 0 para todo » tal que j»j < » m ; denotando por » m la pulsación máxima positiva para la cual la función espectral es no nula. (b) Si, además, la relación entre el ancho de banda 2» m y el valor » 0 es tal que la combinación lineal no produce solapamiento espectral, esto es, » 0 ¸ 2» m : De esta forma, asumiendo que se cumplen las condiciones de recuperación ideal, podríamos asegurar que la función f(x); al pasar por un sistema F tal que transforma la señal original en g(x) cuyo espectro G(») satisface la ecuación (10.49), se podría expresar en las dos formas dadas por las ecuaciones (10.56) y (10.57). ² Análisis del proceso de …ltrado y recuperación espectrales en partes real e imaginaria.
Asumiendo un espectro F (») y un conjunto de coe…cientes fa(m)g conocidos, resulta evidente que el espectro de salida del primer sistema, representado en sus partes real e imaginaria, vendrá dado por, X X G0 (») = Re fa(m)F (» ¡ m» 0 )g = a0 (m)F 0 (» ¡ m» 0 ) ¡ a00 (m)F 00 (» ¡ m» 0 ); (10.58) m
G00 (») =
X m
m
Im fa(m)F (» ¡ m» 0 )g =
c Emilio Gago-Ribas, 2002 °
X m
a0 (m)F 00 (» ¡ m» 0 ) + a00 (m)F 0 (» ¡ m» 0 ):
(10.59)
287
Figura 10.22. Recuperación de una señal f (x) mediante un …ltro espectral ideal cuando el espectro G(») de la señal de salida de un cierto sistema caracterizado por F toma la forma descrita por (10.49).
En las Figs 10.25 y 10.27 se muestra un ejemplo de este resultado para una determinada función F (»): En el primer caso, se muestra un ejemplo sin solapamiento espectral; en el segundo, el mismo caso pero con solapamiento espectral debido a que no se satisface la condición » 0 ¸ 2» m : Nótese cómo la representación conjunta de cada uno de los términos a(m)F (» ¡ m» 0 ) del sumatorio en partes real e imaginaria, y la suma total G(»), coindicen en ambos casos, en virtud de la propiedad de que las partes real e imaginaria de una suma son iguales a las partes real e imaginaria de cada uno de los sumandos. Por otro lado, el …ltro indicado en (10.53) podrá descomponerse en sus partes real e imaginaria en la forma Re fG1 (»)g = Re f1=a(k)g P¢» (» ¡ k» 0 );
(10.60)
Im fG1 (»)g = Im f1=a(k)g P¢» (» ¡ k» 0 ):
(10.61)
En las Figs. 10.25 y 10.27 se muestran ejemplos de estas expresiones suponiendo que el término …ltrado es k = 1: El resultado …nal del …ltrado en (10.52) vendrá dado por, R10 (») = G0 (») Re fG1 (»)g ¡ G00 (») Im fG1 (»)g ;
(10.62)
R100 (») = G0 (») Im fG1 (»)g + G00 (») Re fG1 (»)g :
(10.63)
En el caso en que no exista solapamiento espectral, las partes real e imaginaria de R1 (») coincidirán con las partes real e imaginaria del espectro F (» ¡ k» 0 ); de forma que el espectro F (»); y por lo tanto, la señal f(x); se recuperará tras realizar el desplazamiento adecuado. Estos resultados pueden visualizarse en el ejemplo de la Fig. 10.25. En el caso en que exista solapamiento espectral, el proceso de …ltrado no recuperará exactamente el espectro F (») inicial, sino sólamente la parte en la que no exista solapamiento. La señal recuperada R1 (») 6= F (» ¡ k» 0 ); de forma que, tras el desplazamiento espectral a pulsación nula, la señal recuperada r(x) será diferente de f (x): Estos resultados pueden visualizarse en el ejemplo de la Fig. 10.27. ² Análisis del proceso de …ltrado y recuperación espectrales en módulo y fase.
Resulta interesante visualizar los efectos del solapamiento analizados en módulo y fase. En primer lugar, el espectro de salida del primer sistema vendrá dado por, ¯ ¯ ( ) ¯X ¯ X ¯ ¯ a(m)F (» ¡ m» 0 )¯ ; 'G(») = Fase a(m)F (» ¡ m» 0 ) : (10.64) jG(»)j = ¯ ¯m ¯ m
En general, es sabido que tanto el módulo como la fase de una suma no es igual a la suma de los módulos y la fases, respectivamente. Sin embargo,en el caso descrito, dado que los espectros F (» ¡ m» 0 ) estan limitados al rango de valores (m» 0 + » m ; m» 0 ¡ » m ) la amplitud y fase de la suma total coincidirá con la suma de las amplitudes y fases de cada sumando siempre que no exista solapamiento espectral. En caso de que exista solapamiento, esta propiedad seguirá siendo cierta en aquellos valores de » donde no se solapen los espectros, y no será cierta en aquellos valores de » donde se produzca solapamiento. En las Figs 10.26 y 10.28 se muestra un ejemplo de estos resultado para la misma función F (») de las Figs 10.25 y 10.27, analizadas ahora en módulo y fase. Podremos entonces escribir en general: 288
c Emilio Gago-Ribas, 2002 °
1. Para valores de » en rangos de valores sin solapamiento espectral, X X jG(»)j = ja(m)j jF (» ¡ m» 0 )j ; 'G(») = Fase fa(m)F (» ¡ m» 0 )g : m
(10.65)
m
2. Para valores de » en rangos de valores con solapamiento espectral, ¯ ¯ ( ) ¯X ¯ X ¯ ¯ jG(»)j = ¯ a(m)F (» ¡ m» 0 )¯ ; 'G(») = Fase a(m)F (» ¡ m» 0 ) : ¯m ¯ m
(10.66)
El …ltro indicado en (10.53) podrá describirse ahora de la siguiente forma, jG1 (»)j =
1 P¢» (» ¡ k» 0 ); ja(k)j
Fase fG1 (»)g = ¡'a(k) P¢» (» ¡ k» 0 ):
(10.67)
En las Figs. 10.26 y 10.28 se muestran ejemplos de estas expresiones suponiendo que el término …ltrado es k = 1: El resultado …nal del …ltrado en (10.52) vendrá dado ahora por, ¯ ¯ jR1 (»)j = jG(»)j ¯H1¡1 (»)¯ ; (10.68) ³ ´ 'R1 (») = 'G(») ¡ 'a(k) P¢» (» ¡ k» 0 ):
(10.69)
En el caso en que no exista solapamiento espectral, tanto la amplitud como la fase de R1 (») coincidirán con la amplitud y fase del espectro F (» ¡ k» 0 ); de forma que la señal f (x); se recuperará tras realizar el desplazamiento espectral adecuado. Estos resultados pueden visualizarse en el ejemplo de la Fig. 10.26. En el caso en que exista solapamiento espectral, el proceso de …ltrado no recuperará exactamente el espectro F (») en amplitud y fase, sino sólamente la parte en la que no exista solapamiento. Una vez más, la señal recuperada R1 (») 6= F (» ¡ k» 0 ); de forma que, tras el desplazamiento espectral a pulsación nula, la señal recuperada r(x) será diferente de f(x): Estos resultados pueden visualizarse en el ejemplo de la Fig. 10.28. 10.6.1
Ejemplos de recuperación ideal de señales.
Nótese en primer lugar cómo el caso de modulación en amplitud analizado en la Secc. 10.2, así como el caso de ventaneado de una señal cosenoidal en el dominio real analizado en la Secc. 10.3, son dos casos particulares de aliasing espectral donde el espectro de la señal de salida se puede expresar en la forma dada por (10.49). ² Modulación en amplitud.
El sistema completo de modulación en amplitud de una señal y su posterior recuperación se puede representar en la forma mostrada en la Fig. 10.23.El espectro G(») viene dado por (10.13),
Figura 10.23. Modulación en amplitud de una señal y su posterior recuperación mediante un …ltro espectral ideal.
1 1 G(») = ej'0 F (» ¡ » 0 ) + e¡j'0 F (» + » 0 ); 2 2 c Emilio Gago-Ribas, 2002 °
(10.70) 289
expresión que constituye un caso particular de (10.49) cuando m = 1 y ¡1: En este caso, los coe…cientes a(m) son reales y de valor 1=2; de forma que la función de transferencia G1 (») vendría dada por, (10.71)
G1 (») = 2P¢» (» ¡ » 0 ); en caso de seleccionar el armónico de pulsación positiva.
Asumiendo que F (») es de ancho de banda limitado en (¡» m ; » m ); y que se satisface la condición » 0 ¸ 2» m ; la señal recuperada será la función moduladora f(x): Nótese cómo en los ejemplos mostrados en la Secc. 10.2 para una señal exponencial, estos criterios no se cumplen dado que no es una señal de ancho de banda limitado, como puede deducirse de las representaciones en las Figs. 10.5, 10.6, y 10.7, de forma que: (i) aún sin solapamiento, el …ltrado espectral recortará el espectro original de la señal por ser éste in…nito, y (ii) el solapamiento hará que, en el rango de valores del …ltrado espectral, R(» ¡» 0 ) 6= F (» ¡ » 0 ): En la Secc. 10.7 se analizará el problema de aproximar una señal de ancho de banda in…nito por una señal de ancho de banda limitado, así como el problema de aliasing en este caso. ² Ventaneado de una señal cosenoidal en el dominio real.
El sistema completo de ventaneado de una señal cosenoidal y su posterior recuperación se puede representar en la forma mostrada en la Fig. 10.24.El espectro G(») viene dado ahora por (10.26),
Figura 10.24. Ventaneado real de una señal cosenoidal de período X0 = 2¼=» 0 y su posterior recuperación mediante un …ltro espectral ideal.
G(») =
¤ ¢x ¤ £ £ ¢x (» ¡ » 0 ) + (» + » 0 ) ; sinc ¢x sinc ¢x 2 2 2 2
(10.72)
expresión que constituye también un caso particular de (10.49) cuando m = 1 y ¡1: En este caso, los coe…cientes a(m) son reales y de valor ¢x=2; de forma que la función de transferencia G1 (») vendría dada por, G1 (») =
2 P¢» (» ¡ » 0 ); ¢x
(10.73)
en caso de seleccionar el armónico de pulsación positiva. En este caso, F0 (») tampoco es de ancho de banda limitado (la función sinc se extiende a todo el rango de la variable »; de forma que siempre existirá solapamiento espectral, como se puede apreciar en los ejemplos de las Figs. 10.11, 10.12 y la 10.13. Una vez más, incluso si no existiera el solapamiento espectral, el …ltrado en » de la función sinc daría lugar a una función sinc recortada, cuya transformada inversa no sería la señal original. Por lo tanto, en este caso, la señal recuperada nunca será la función cosenoidal de entrada, R1 (») 6= F0 (» ¡ » 0 ) ¡! R(») 6= F0 (») ¡! r(x) 6= cos » 0 (x);
(10.74)
pudiendo aproximarse más o menos a ésta en función de que el solapamiento y recorte de espectros sea mayor o menor. Como ya se ha citado previamente, en la Secc. 10.7 se analizará el problema de aproximar una señal de ancho de banda in…nito por una señal de ancho de banda limitado.
290
c Emilio Gago-Ribas, 2002 °
F (»); » m = 4 !
: ImfF (»)g = ¡0:1e¡0:1»2 ;
a(¡2) = ¡j
1,50
9 =
8 < RefF (»)g = e¡0;5j»j a(¡1) = ¡2 ¡ j
; H ¡1 (») =
a(0) = 3 + 2j
Re{F(ξ)}
1,50
0,75
-ξm -20
-10
0
Re{a(m)F(ξ-mξ0)} m=0
m=-2
ξ m=1
10
20
-1,50
6
m=2
m=-1
2
1
0
0
-2
-20
-10
0
10
20
-4
ξ
Re{G(ξ)}
6
3
4
2
2
1
0
0
-2
-1
1,0
-20
-10
Re{G 1(ξ)}
0
10
ξ
20
-4
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0
1,50
-20
-10
0
10
20
-1,0
ξ
Re{R1(ξ)}
1,50
0,75
-ξm
ξm
-20
-10
0
Im{a(m)F(ξ-mξ0)} m=-2
ξ
10
m=1
m=0
20
m=2
m=-1
-20
-10
Im{G(ξ)}
-20
-10
Im{G 1(ξ)}
-20
0
10
20
10
20
10
20
ξ
-10
Im{R1(ξ)}
0
ξ
0
ξ
0,75
0,00
ξ0-ξm
0,00
ξ0+ξm
-0,75
-1,50
Im{F(ξ)}
4
2
4
a(2) = 1 ¡ 3j
a(1) = 1 + j
-0,75
3
-1
9 =
1 P¢» (» ¡ » 0 ); : ¢» = 2» = 8 ; a1 m
0,00
ξm
-0,75
4
» 0 = 10
0,75
0,00
-1,50
8 <
ξ0-ξm
ξ0+ξm
-0,75
-20
-10
0
ξ
10
20
-1,50
-20
-10
0
10
20
ξ
Figura 10.25. Ejemplo de …ltrado en » 0 de una señal cuyo espectro G(») es una combinación lineal del espectro de la señal de entrada F (») limitado en banda en la forma descrita por (10.49): Se muestra el análisis del proceso sin aliasing espectral en sus partes real e imaginaria.
c Emilio Gago-Ribas, 2002 °
291
F (»); » m = 4 !
: ImfF (»)g = ¡0:1e¡0:1»2 ;
a(¡2) = ¡j
2,0
9 =
8 < RefF (»)g = e¡0;5j»j a(¡1) = ¡2 ¡ j
; H ¡1 (») =
a(0) = 3 + 2j
|F(ξ)|
8 <
» 0 = 10
9 =
1 P¢» (» ¡ » 0 ); : ¢» = 2» = 8 ; a1 m a(2) = 1 ¡ 3j
a(1) = 1 + j
Fase{F(ξ)} 1,0π
1,5
-ξm
1,0
0,5π
ξm
0,0π
-ξm
-0,5π
0,5
ξm
-1,0π 0,0
6 5
-20
-10
|a(m)F(ξ-mξ0)|
0
10
ξ
m=0 m=-2 m=-1
20
-20
0,5π 0,0π
2
-0,5π
1 -10
0
10
20
-20
ξ
|G(ξ)|
20
m=2
-10
Fase{G(ξ)}
0
10
20
10
20
10
20
ξ
1,0π 0,5π
4 3
0,0π
2
-0,5π
1
1,00
10
-1,0π -20
5
0
ξ
m=1
m=-2 m=0 m=-1
1,0π
3
6
0
Fase{a(m)F(ξ-mξ0)} m=2
m=1
4
0
-10
-1,0π -20
-10
|G1(ξ)|
0
10
ξ
20
-20
1,0π
0,75
-10
Fase{G 1(ξ)}
0
ξ
0,5π 0,0π
0,50
-0,5π
0,25
-1,0π 0,00
2,0
-20
-10
0
10
20
-20
ξ
|R1(ξ)|
-10
Fase{R1(ξ)}
0
ξ
1,0π 1,5
0,5π 0,0π
1,0
ξ0-ξm
-0,5π
0,5
ξ0+ξm
-1,0π 0,0
-20
-10
0
ξ
ξ0-ξm
10
ξ0+ξm
20
-20
-10
0
10
20
ξ
Figura 10.26. Ejemplo de …ltrado en » 0 de una señal cuyo espectro G(») es una combinación lineal del espectro de la señal de entrada F (») limitado en banda en la forma descrita por (10.49): Se muestra el análisis del proceso sin aliasing espectral en módulo y fase.
292
c Emilio Gago-Ribas, 2002 °
F (»); » m = 8 !
: ImfF (»)g = ¡0:1e¡0:1»2 ;
a(¡2) = ¡j
1,50
9 =
8 < RefF (»)g = e¡0;5j»j a(¡1) = ¡2 ¡ j
; H ¡1 (») =
a(0) = 3 + 2j
Re{F(ξ)}
1,50
0,75
-20
-10
0
10
20
Re{a(m)F(ξ-mξ0)}ξ m=-2
m=-1
m=0
m=1
-1,50
6
m=2
4
2
2
1
0
0
-2
4
-20
-10
0
10
20
-4
ξ
Re{G(ξ)}
6
3
4
2
2
1
0
0
-2
-1
1,0
-20
-10
Re{G 1(ξ)}
0
ξ
10
20
-4
1,0
0,5
0,5
0,0
0,0
-0,5
-0,5
-1,0
1,50
-20
-10
0
10
20
-1,0
ξ
Re{R1(ξ)}
1,50
0,75
Im{F(ξ)}
-ξ m
ξm
-20
-10
0
10
ξ
Im{a(m)F(ξ-mξ0)} m=-2 m=-1
-20
-10
-10
Im{G 1(ξ)}
-20
m=1
0
m=2
10
20
10
20
10
20
ξ
Im{G(ξ)}
-20
m=0
20
-10
Im{R1(ξ)}
0
ξ
0
ξ
0,75
0,00
ξ0-ξm
ξ0+ξm
-0,75
-1,50
a(2) = 1 ¡ 3j
a(1) = 1 + j
-0,75
3
-1
9 =
1 P¢» (» ¡ » 0 ); : ¢» = 2» = 16 ; a1 m
0,00
ξm
-ξm
-0,75
4
» 0 = 10
0,75
0,00
-1,50
8 <
0,00
ξ0+ξm
ξ0-ξm
-0,75
-20
-10
0
ξ
10
20
-1,50
-20
-10
0
10
20
ξ
Figura 10.27. Ejemplo de …ltrado en » 0 de una señal cuyo espectro G(») es una combinación lineal del espectro de la señal de entrada F (») limitado en banda en la forma descrita por (10.49): Se muestra el análisis del proceso con aliasing espectral en sus partes real e imaginaria.
c Emilio Gago-Ribas, 2002 °
293
F (»); » m = 8 !
: ImfF (»)g = ¡0:1e¡0:1»2 ;
a(¡2) = ¡j
2,0
9 =
8 < RefF (»)g = e¡0;5j»j a(¡1) = ¡2 ¡ j
; H ¡1 (») =
a(0) = 3 + 2j
|F(ξ)|
8 <
» 0 = 10
9 =
1 P¢» (» ¡ » 0 ); : ¢» = 2» = 16 ; a1 m a(2) = 1 ¡ 3j
a(1) = 1 + j
Fase{F(ξ)} 1,0π
1,5
-ξm
0,5π
ξm
1,0
0,0π
-ξm
-0,5π
0,5
ξm
-1,0π 0,0
6 5
-20
-10
|a(m)F(ξ-mξ0)|
0
10
20
-20
ξ
m=0 m=-2 m=-1
0,5π 0,0π
2
-0,5π
1 -10
0
10
20
-20
ξ
|G(ξ)|
m=2
-10
Fase{G(ξ)}
0
10
20
10
20
10
20
ξ
1,0π 0,5π
4 3
0,0π
2
-0,5π
1
1,00
m=1
20
-1,0π -20
5
0
10
m=-2 m=0 m=-1
1,0π
3
6
0
ξ
Fase{a(m)F(ξ-mξ0)} m=2
m=1
4
0
-10
-1,0π -20
-10
| G1(ξ)|
0
10
ξ
20
-20
1,0π
0,75
-10
Fase{G 1(ξ)}
0
ξ
0,5π 0,0π
0,50
-0,5π
0,25
-1,0π 0,00
2,0
-20
-10
0
10
20
-20
ξ
|R1(ξ)|
-10
Fase{R1(ξ)}
0
ξ
1,0π 1,5
0,5π
ξ0+ξm
0,0π
1,0
ξ0-ξm
-0,5π
0,5
-1,0π 0,0
-20
-10
0
ξ
ξ0-ξm
10
20
ξ0+ξm
-20
-10
0
10
20
ξ
Figura 10.28. Ejemplo de …ltrado en » 0 de una señal cuyo espectro G(») es una combinación lineal del espectro de la señal de entrada F (») limitado en banda en la forma descrita por (10.49): Se muestra el análisis del proceso con aliasing espectral en módulo y fase.
294
c Emilio Gago-Ribas, 2002 °
10.7
Ventaneados reales.
Los ventaneados descritos en las Seccs. 10.3 y 10.5 se basan en utilizar como función de ventaneado w(x) ó W (») un pulso unidad de anchos ¢x y ¢» en los dominios real y espectral, respectivamente. Estos casos constituyen los ventaneados ideales de una señal, bien f (x); bien F (»); dado que, a la salida del sistema, las señales s(x) ó S(») son exactamente iguales a las señales f (x) o F (») en los intervalos ¢x y ¢»; respectivamente. Este tipo de ventaneado es especialmente útil en cualquier desarrollo analítico de un problema que conlleve recortar señales en el dominio real. Sin embargo, presenta ciertos inconvenientes desde el punto de vista espectral. Recordando el proceso de ventaneado con el siguiente esquema sencillo, 8 9 < = f (x) Ã! F (») ¡ ¢ ¢x F (») ¤ sinc ¢x (10.75) ! s(x) = f(x)P¢x (x) Ã! S(») = ¡ ¢ 2 » ; : P (x) Ã! ¢x sinc ¢x » ; 2¼ ¢x
2
vemos que, desde el punto de vista espectral, el espectro S(») depende, no sólamente de F (») sino también de la función sinc a través de una operación de convolución. Como hemos visto también a través de ejemplos, la función sinc se extiende a lo largo de toda la variable espectral, de forma que
10.7.1
Funciones ventana habituales.
Se muestran a continuación algunos ejemplos de las funciones que se utilizan con más asiduidad en la práctica para realizar labores de ventaneado. Describiremos las funciones ventana en el dominio real, w(x); así como su representación espectral W (»): El uso de estas ventanas en el dominio espectral (…ltrado) no requiere más que modi…car adecuadamente esta tabla mediante la propiedad de dualidad de la transformada de Fourier, (9.42). Se deja como ejercicio para el lector la obtención de la tabla dual correspondiente al ventaneado en el dominio espectral. Sirvan las refs. [48]-[49] como ejemplos del uso de este tipo de ventaneados en aplicaciones prácticas8 : ² Cuadrada: ventana utilizada en el caso ideal (Secc. 9.7.1), w(x) = P¢x (x) Ã! W (») = ¢x sinc
¡ ¢x ¢ 2 » :
² Triangular o de Parzen: el par transformado se puede encontrar en la Secc. 9.7.3, ¡ ¢ 2 ¢x w(x) = T¢x (x) Ã! W (») = ¢x 2 sinc 4 » : ² Hanning: el par transformado viene dado por las siguientes expresiones, £ 2¼ ¡ ¢¤ª 1© w(x) = 1 ¡ cos ¢x x ¡ ¢x P¢x (x); 2 2 W (») =
¢ ¢x £ ¢ ¡ ¢¤ ¡ ¡ ¢x sinc ¢x » + sinc ¢x » ¡ ¼ + sinc ¢x »+¼ : 2 2 2 2 4
(10.76)
(10.77)
(10.78) (10.79)
El cálculo de la función W (») se puede encontrar en el Ap. E.9 y su análisis detallado en el Ap. F.7. ² Welch: el par transformado viene dado por las siguientes expresiones, h ¡ 2 ¢2 i w(x) = 1 ¡ a ¢x x P¢x (x); W (») = ¢x(1 ¡ a) sinc
¡ ¢x ¢ 2 » +
8a 1 ¢x 2
»
£ ¡ ¢ ¡ ¢x ¢¤ sinc ¢x : 2 » ¡ cos 2 »
(10.80) (10.81)
1. El cálculo de la función W (») se puede encontrar en el Ap. E.9 y su análisis detallado en el Ap. F.8. En la Fig. 10.29 se puede encontrar una representación comparativa de todas las ventanas, así como de los espectros correspondientes. Finalmente, en la Fig. 10.30 se muestran representaciones de la ventana de Welch y sus espectros correspondientes para diferentes valores del parámetro a: Nótese cómo, cuando a = 0; la ventana de Welch es la función pulso ideal y por lo tanto, su espectro se convierte en la función sinc habitual. 8 En los ejemplos mencionados, el ventaneado de funciones y su representación espectral se realiza en los dominios espacio-número de onda; sirvan estos casos como ejemplos particulares diferentes de los múltiples casos en los dominios tiempo-frecuencia que se pueden encontrar en la bibliografía habitual.
c Emilio Gago-Ribas, 2002 °
295
1,25
w(x) Hanning
Parzen
Cuadrada
1,00
Welch (a= 0) 0,75
0,50
0,25
0,00
-0,25 -1,0 1,00
-0,5
W(ξ)
x
0,0
0,5
1,0
Hanning 0,75
0,50
Welch (a= 0)
Cuadrada Parzen
0,25
0,00
-0,25 -30
-20
-10
0
ξ
10
20
30
Figura 10.29. Representación de algunas ventanas de ancho ¢x = 1 en los dominio real, x; y y espectral, » : (a) ventana ideal; (b) ventana triangular; (c) ventana de Hanning, y (d) ventana de Welch con a = 0: Todas las grá…cas se han normalizado respecto a su valor máximo.
1,25
w(x) a= 0.25
1,00
0,75
a= 0.5 a= 0
0,50
0,25
0,00 -0,75 1,00
W(ξ)
-0,50
-0,25
0,75
a= 0
0,00
x
0,25
0,50
0,75
10
20
30
a= 0.5
0,50
0,25
0,00
a= 0.25 -0,25 -30
-20
-10
0
ξ
Figura 10.30. Representación de la ventana de Welch de ancho ¢x = 1 para diferentes valores del parámetro a: Todas las grá…cas se han normalizado respecto a su valor máximo.
296
c Emilio Gago-Ribas, 2002 °
10.7.2
Ventaneados no ideales.
No es el objetivo del presente texto evaluar la adecuación o no de estas ventanas en sus diferentes aplicaciones, sino simplemente mostrarlas como ejemplo de funciones de ventaneado usadas en aplicaciones reales. El análisis del ventaneado en el dominio real sería similar al realizado en la Secc. 10.3 considerando ahora cualquiera de las funciones w(x) mencionadas, con las consiguientes modi…caciones del espectro que esto conllevaría. Si las ventanas se de…nieran en el dominio espectral y se usaran para problemas de …ltrado, el análisis sería similar al realizado en la Secc. 10.5, con las correspondientes modi…caciones que se producirían en el dominio real. Ambos casos, así como su aplicación al problema de recuperación de una señal analizado en la Secc. 10.6 se dejan como ejercicios de análisis práctico para el lector.
c Emilio Gago-Ribas, 2002 °
297
298
c Emilio Gago-Ribas, 2002 °
11.
La Transformada de Laplace
11.1
Introducción.
Hemos visto hasta el momento cómo los conjuntos de funciones exponenciales de exponente imaginario o funciones armónicas eran bases de los espacios de señales periódicas y aperiódicas continuas. De hecho, el segundo conjunto de funciones se obtenía a partir del primero pasando de una variable discreta numerable a una variable continua; así, ª ª © © ¡! f'(x; m)g = ejm»0 x m» 0 ! » ¡! f'(x; »)g = ej»x : (11.1) Consideremos ahora la siguiente continuación analítica de la variable real » a la variable compleja s; » ¡! s = s0 + js00 ; de forma que el nuevo conjunto de armónicos que se obtendrá será de la forma, n 0 o 00 f'(x; s)g = fesx g = es x ejs x :
(11.2)
(11.3)
Nótese una vez más cómo la variable » 2 R; vista como un parámetro descriptivo de cada una de las funciones del conjunto de base, pasa ahora a ser una variable s 2 C que ha de ser vista también como un parámetro descritivo del nuevo conjunto de funciones generado y descrito por (11.3). En la Fig. 11.1 se describe la naturaleza de las transformaciones de variable descritas por (11.1) y (11.2).
Figura 11.1. Representación general de los cambios de variable que dan lugar a diferentes conjuntos de funciones base en términos de funciones armónicas.
Con esta continuación analítica en mente, habremos de demostrar que el conjunto de funciones en (11.3) ~ es también una base del espacio de funciones S(¡1; 1): Este concepto, analizado de una forma sencilla, 299
~ consistirá en ver si es posible representar cualquier elemento f(x) 2 S(¡1; 1) en términos del nuevo conjunto de funciones f'(x; s)g ; en la forma descrita en el Cap. 4, (4.20), esto es, a través de algún tipo de combinación lineal continua1 . A la representación de f (x) en términos de fesx g la denominaremos como transformada inversa de Laplace; la transformación que de…na los coe…cientes de la combinación lineal continua anterior será la transformada directa de Laplace, o transformada de Laplace simplemente. Finalmente, deberemos analizar también la adecuación o no de ese conjunto de funciones desde el punto de vista de los sitemas lineales (e invariantes). Veremos que, una vez más, dicho conjunto de funciones ~ De este último punto serán funciones propias para todo sistema descrito por un operador F 2 LI(S): induciremos en primer lugar la de…nición de la transformada de Laplace para, seguidamente, analizar sus propiedades y estudiar la representación de la transformada inversa.
11.2
De…nición y propiedades básicas.
En el Cap. 9, Secc. 9.1, vimos como la de…nición de la transformada de Fourier aparecía de forma natural al estudiar el análisis en el dominio espectral de comportamiento de un sistema lineal (e invariante) frente a una señal periódica. Realicemos aquí la misma operación que consistirá en analizar el comportamiento ~ y caracterizado, por lo tanto, por una respuesta al de un sistema modelado por un operador F 2 LI(S) impulso h(x); frente al conjunto de funciones f'(x; s)g descrito en (11.3), Fig. 11.2. Así,
~ Figura 11.2. Sistema lineal e invariante identi…cado por el operador F 2 LI(S) frente a: (a) la distribución delta de Dirac; (b) una señal arbitraria f (x); y (c) el conjunto de funciones base '(x; s) descritas por el parámetro s 2 C:
sx
F ['(x; s)] = F [e ] = '(x; s) ¤ h(x) = Z 0 = es(x¡x ) h(x0 ) dx0 = 0 x Z 0 sx = e e¡sx h(x0 ) dx0 =
Z
x0
'(x ¡ x0 ; s)h(x0 ) dx0 =
x0
= esx H(s) = '(x; s)H(s);
(11.4)
expresión que se reduce al producto de la función base considerada2 multiplicada por un factor integral en la forma, Z H(s) = h(x)e¡sx dx: (11.5) x
Generalizando este resultado, diremos que el conjunto de funciones f'(x; s)g son funciones propias ~ el sistema, por lo tanto, actúa sobre cada una de las funciones modi…cando éstas respecto de F 2 LI(S); por el factor H(s); F : fesx g ! fH(s)esx g :
(11.6)
A la expresión (11.5) la denominaremos transformada de Laplace de la respuesta al impulso del sistema. La generalización de esta expresión a cualquier señal f (x) constituirá la transformada de Laplace de dicha señal. 1 Nótese que, después de haber estudiado la tranformada de Fourier, queda claro que el espacio S(¡1; ~ 1) es de dimensión in…nita y requiere de bases de in…nitos elementos continuos. 2 Nótese como siempre que la variable s ha de ser vista como el parámetro descriptivo del conjunto de funciones fesx g :
300
c Emilio Gago-Ribas, 2002 °
11.2.1
De…nición de la transformada de Laplace.
~ Consideremos una señal arbitraria f (x) 2 S(¡1; 1): De…nimos la transformada de Laplace de f (x) como, Z F (s) = TL [f(x)] = f(x)e¡sx dx: (11.7) x
Nótese, como ya anticipamos en el Cap. 4, que en este caso, la transformación TL no se corresponde ~ exactamente con el producto escalar de…nido en S(¡1; 1): Este hecho es debido a que el nuevo conjunto de coe…cientes F (s) dado por (11.7) es una señal compleja de variable compleja, y por lo tanto, el álgebra del espacio es diferente. En este sentido, podríamos escribir inicialmente la siguiente relación algebraica relativa al operador transformado, 9 8 ~ < TL : S(¡1; 1) ¡! C(ROC) = (11.8) ; : F (s) = TL [f (x)] ~ f(x) 2 S(¡1; 1) y F (s) 2 C(ROC);
denominando por C(ROC) al espacio de funciones complejas de variable compleja en la región del plano s donde la transformación en (11.7) es convergente. Veremos a continuación cómo el análisis de la convergencia de dicha transformada dará lugar a un cierto dominio de de…nición en el plano s que denominaremos como región de convergencia (ROC) de la transformada. 11.2.2
Análisis del conjunto de funciones base.
Desarrollando (11.3) en partes real e imaginaria, 0
0
(11.9)
0
(11.10)
Refesx g = es x cos(s00 x) = es x cos »x; 0
Imfesx g = es x sin(s00 x) = es x sin »x: Destacaremos las siguientes propiedades en relación con el conjunto de funciones exponenciales:
² En primer lugar, s00 = Imfsg juega el papel de una pulsación relativa a funciones sinusoidales de período 2¼=s00 : Denotaremos entonces a la parte imaginaria de s por »; esto es, s = Refsg + j Imfsg = s0 + j»;
(11.11)
relacionando así la notación respecto de la transformada de Fourier. ² Resulta también evidente que el conjunto de funciones fesx g no son periódicas debido al factor 0 exponencial es x excepto en el caso en que s0 = 0; esto es, a lo largo del eje imaginario en el plano complejo s; Fig. 11.1. ² Por otro lado, nótese tambien que estas funciones no son cuadrado integrables, y por lo tanto, su energía no es …nita, de forma que f'(x; s)g 2 = L2 (¡1; 1):
² En relación con el plano complejo s; resulta importante destacar que cualquier valor de s localizado en los semiplanos primero y cuarto, esto es, s0 > 0; describirá señales sinusoidales crecientes exponencialmente con x; mientras que cualquier valor de s localizado en los semiplanos segundo y tercero identi…cará señales sinusoidales decrecientes exponencialmente con x. Justamente cuando s0 = 0; las señales sinusoidales mantendrán su amplitud en x: Esto nos permite adelantar que el comportamiento de la transformada de Laplace vendrá descrito en el plano s por rectas con s0 constante, Fig. 11.1. Este hecho quedará demostrado en los siguientes apartados. El análisis detallado de estas funciones se realizó ya en la Secc. 5.3.2 y por lo tanto el lector debería referirse a ella para identi…car su comportamiento y formas de representación.
c Emilio Gago-Ribas, 2002 °
301
11.2.3
Visualización de la transformada de Laplace.
La transformada de Laplace deberá visualizarse en cualquiera de las formas habituales de visualizar una función compleja de variable compleja. Así por ejemplo, se podrán visualizar tanto su parte real e imaginaria como su módulo y su fase, en mabos casos sobre el plano complejo s; F (s) = RefF (s)g + j ImfF (s)g ó F (s) = jF (s)j ej'F (s) :
(11.12)
En la Fig. 11.3 se muestran ejemplos de estas representaciones. Otra forma muy importante de representación de este tipo de funciones por la simpli…cación que conlleva es la representación del denominado diagrama de polos y ceros, habitualmente el correspondiente al módulo de la función. Esta forma de visualización consiste en representar conjuntamente sobre el plano complejo s la posición de los polos y ceros que tenga la función, identi…cando de esta forma los puntos del plano s donde la super…cie es singular o pasa por cero, respectivamente. En la Fig. 11.3 se muestra también el diagrama de polos y ceros correspondiente a la función mostrada previamente. 11.2.4
La transformada de Laplace y la transformada de Fourier.
² Partiendo de (11.7) y denotando a la transformada de Fourier de f (x) por F (»); resulta evidente obtener la siguiente relación básica, 9 8 R = < F (») = f (x)e¡j»x dx x ¡! F (») = F (s)js0 =0 ; (11.13) f (x) ¡! : F (s) = R f(x)e¡sx dx = R f (x)e¡s0 x e¡j»x dx ; x x
es decir, que la transformada de Fourier F (») se puede obtener a partir de la transformada de Laplace, F (s); sin más que evaluar esta última sobre la recta s0 = 0; es decir, sobre el eje imaginario.
² De la relación anterior se deduce también que, h i 0 TL [f(x)] = TF f(x)e¡s x ! F (s) = G(»; s0 );
(11.14)
es decir, que la transformada de Laplace de f(x) se puede ver como el conjunto continuo fG(»; s0 )g de transformadas de Fourier correspondientes al conjunto continuo de funciones de…nido por, n o 0 fg(x; s0 )g = f (x)e¡s x (11.15)
descrito por el parámetro s0 : La interpretación de este resultado es que la transformada de Laplace evaluada en todo el plano complejo s se pude analizar calculando la transformada de Fourier de 0 funciones f(x)e¡s x a lo largo de rectas con s0 constante; el barrido completo para todo valor de s0 dará lugar a la super…cie que representa la función F (s) sobre el plano s: ² En la Fig. 11.4 se muestran varios ejemplos del conjunto de funciones fG(»; s0 )g para la transformada de Laplace mostrada en la Fig. 11.3. Los valores con s0 constante son los mostrados en el plano s de la Fig. 11.3. El caso particular con s0 = 0 se corresponde con la transformada de Fourier F (»): Se deja como ejercicio para el lector el calcular y analizar cuál sería la función f (x) cuya transformada F (s) es la dada en la Fig. 11.3, así como representar las funciones g(x; s0 ) correspondientes a las transformadas de Fourier G(»; s0 ) representadas en la Fig. 11.4. Realizar esto en detalle conllevará tener en cuenta los criterios de convergencia y, por lo tanto, las regiones de convergencia y propiedades asociadas a éstas analizadas posteriormente. 11.2.5
Notaciones habituales.
² Cuando la variable x representa el tiempo t; la notación habitual para la variable s es la siguiente, s = ¾ + j!;
(11.16)
siendo ! la variable utilizada para representar el dominio espectral respecto de la variable t en términos de la transformada de Fourier.
302
c Emilio Gago-Ribas, 2002 °
|F(s)|
Re{F(s)} 15 15
10 5
10
0 -5
5 -10 -15 -3
-2
-1
s'
0 1
-1
0
-2
2
1
2
0 -3
3
-2
ξ
-1 0
s'
1
-1 -2
2
3 -3
0
1
3
2
ξ
3 -3
Im{F(s)}
Fase{F(s)}
15 10
1,0π
5
0,5π
0
0,0π
-5 -0,5π
-10 -15 -3
-2
-1
s'
0 1
-1 -2
2
0
ξ
2
1
-1,0π -3
3
-2
-1
s'
0 1
-1 -2
2
3 -3
0
ξ
1
2
3
3 -3
3
s' = -1
s' =1.5
Polo
Im{F(s)}
2
1
s' =0
Cero
0
Cero -1
Polo
-2
-3 -3
-2
-1
0
1
2
3
Re{F(s)} (s ¡ s01 )(s ¡ s02 ) en (s ¡ sp1 )(s ¡ sp2 ) parte real e imaginaria y en módulo y fase, así como su diagrama de polos y ceros. Los ceros están localizados en las posiciones reales s01 = ¡1 y s02 = 2; mientras que los polos se encuentran en sp1 = 1 + 2j y sp2 = ¡1 ¡ 2j: Figura 11.3. Ejemplo de visualización de la función F (s) =
c Emilio Gago-Ribas, 2002 °
303
² Si la variable x representa una variable espacial z; la notación habitual di…ere tanto en la variable s como en las funciones base. Así, '(z; s) = e¡°z = e¡®z e¡j¯z ;
(11.17)
denotando habitualmente las partes real e imaginaria de ° por, (11.18)
° = ® + j¯:
Nótese que el cambio de variable s = ¡° representa una re‡exión respecto al origen, de forma que la relación entre la transformada de Laplace y la transformada de…nida en términos del conjunto de funciones en (11.17) conlleva simplemente una rotación de 180 grados del plano s respecto al plano °; 9 8 < jsj = j°j ; = : (11.19) s = ¡° ! : ' =' §¼ ; s °
Cualquier otra notación que se pueda encontrar en la literatura se puede interpretar de forma similar.
20
Re{G(ξ;s')}
30
10
|G(ξ;s')|
20
0 10
-10
s' = -1
-20 -3 20
-2
-1
0
Im{G(ξ;s')}
ξ
1
2
3
0 -3 1,0π
0
0,0π
-10
-0,5π
-20 -3
Re{F(ξ)}
-2
-1
0
ξ
1
2
3
1
1,5
0
1,0
0
ξ
1
2
3
|F(ξ)|
-2
-1
0
ξ
1
2
3
-2
-1
0
ξ
1
2
3
-2
-1
0
ξ
1
2
3
-2
-1
0
ξ
1
2
3
-2
-1
0
ξ
1
2
3
0,5
-2 -3 2
Im{F(ξ)}
-2
-1
0
ξ
1
2
3
0,0 -3 1,0π
Fase{F(ξ)}
0,5π
1 0
0,0π
-1
-0,5π
-2 -3
-2
Re{G(ξ;s')}
s' = 1.5
-1,0π -3 2,0
-1
s' = 0
-1
0,5π
10
2
-2
Fase{G(ξ;s')}
3 2 1 0 -1 -2 -3 -3
-1
0
1
2
3
-1,0π -3 3
|G(ξ;s')|
2 1 -2
-1
0
Im{G(ξ;s')}
3 2 1 0 -1 -2 -3 -3
ξ
ξ
1
2
3
0 -3 1,0π
Fase{G(ξ;s')}
0,5π 0,0π -0,5π -2
-1
0
ξ
1
2
3
-1,0π -3
Figura 11.4. Algunos ejemplos del conjunto de funciones fG(»; s0 )g para los valores s0 = ¡1; 0 y 1:5 para la transformada de Laplace mostrada en la Fig. 11.3.
304
c Emilio Gago-Ribas, 2002 °
11.3
Región de convergencia de la transformada de Laplace.
El análisis de la convergencia o no de la transformada de Laplace en (11.7) lo basaremos en los criterios de convergencia de la transformada de Fourier expuestos en la Secc. 9.3 junto con la propiedad descrita en (11.14), esto es, aplicando los criterios de convergencia a la transformada de Fourier G(»; s0 ) de 0 las funciones g(x; s0 ) = f(x)e¡s x : Este proceso dará lugar a la obtención de regiones en el plano s donde podremos asegurar que la transformada es convergente, y que denominaremos como región de convergencia, ROC, de la transformada, como ya se citó previamente. Nótese que cualquier transformada de Laplace debe ir acompañada de su región de convergencia. Su análisis será particularmente importante a la hora de operar con diferentes transformadas de Laplace. Recordemos brevemente los criterios de convergencia de la transformada de Fourier aplicados ya a las funciones g(x; s0 ); ² Que la señal sea cuadrado integrable o de energía …nita, Z Z 0 2 jg(x; s0 )j dx = jf (x)j2 e¡2s x dx < 1: x
(11.20)
x
² Que la señal sea absolutamente integrable, Z Z 0 jg(x; s0 )j dx = jf (x)j e¡s x dx < 1: x
(11.21)
x
Tomando como referencia el criterio de que la señal sea absolutamente integrable (habitualmente más ~ restrictivo que el primero), es decir, que pertenezca al espacio LD (¡1; 1) ½ S(¡1; 1); es posible de…nir las siguientes propiedades generales para la ROC de F (s): 11.3.1
Propiedades generales.
² La ROC de F (s) serán siempre franjas verticales delimitadas por rectas s0 constante, Fig. 11.5.
² La ROC de F (s) no contiene ningún polo (singularidad) de F (s); Fig. 11.5.
² En virtud de (11.13) podremos asegurar que existe TF [f (x)] = F (»); si la ROC de F (s) contiene a al eje imaginario s0 = 0; Fig. 11.5. Si esto no ocurre, no podremos asegurar que exista F (»); aunque pudiera existir. Este será el caso, por ejemplo, de la transformada de Laplace de ciertas distribuciones.
Figura 11.5. Propiedades generales asociadas a la ROC de la transformada de Laplace.
c Emilio Gago-Ribas, 2002 °
305
11.3.2
Propiedades particulares.
Además de las propiedades generales enunciadas anteriormente, todas ellas previsibles a partir de la de…nición de la transformada en (11.7), veremos a continuación algunas propiedades particulares que nos permitirán, a la vista de una cierta señal f (x); determinar cuál ha de ser la ROC asociada a su transformada de Laplace. Las demostraciones asociadas a estas propiedades son todas similares, pudiéndo encontrarse todas ellas en el Ap. E.10.1. ² Si f (x) es de duración …nita, y existe un s0 2 ROC, la ROC será todo el plano s; Fig. 11.6(a). 9 8 < f (x); x 2 (a; b) = ¡! ROC ´ Plano s: (11.22) ; : s0 2 ROC
² Si f (x) es in…nita y a derechas, y existe un s0 = s00 2 ROC, entonces toda la región a la derecha de s00 también pertenece a la ROC, Fig. 11.6(b). Esta propiedad no asegura que dicha región sea toda la ROC. 9 8 < f (x); x 2 (a; 1) = ¡! s0 > s00 2 ROC: (11.23) ; : s00 2 ROC
² Si f(x) es in…nita y a izquierdas, y existe un s0 = s00 2 ROC, entonces toda la región a la izquierda de s00 también pertenece a la ROC, Fig. 11.6(c). Esta propiedad no asegura que dicha región sea toda la ROC. 8 9 < f (x); x 2 (¡1; b) = ¡! s0 < s00 2 ROC. (11.24) : ; s00 2 ROC
² Finalmente, si f(x) es in…nita, y existe un s0 = s00 2 ROC, entonces la ROC será una franja vertical que contiene a s00 ; Fig. 11.6(d). Esta propiedad no dice qué franja vertical representa toda la ROC, pero sí que, sea cual sea, contiene a la recta s00 : 8 9 < f (x); x 2 (¡1; 1) = ¡! s00 2 ROC; ROC = fs = s01 < s0 < s02 g: (11.25) : ; 0 s0 2 ROC
11.4
Transformada inversa de Laplace.
Como ya adelantamos al comienzo del capítulo, el estudio del conjunto continuo de funciones f'(x; s)g = fesx g está encaminado a encontrar la forma del operador T¡1 en (4.20) que nos permita representa una señal f(x) arbitraria en términos de dicho conjunto. La representación de dicho operador nos lleva a analizar cuál sería la expresión de la transformada inversa de Laplace en términos del conjunto continuo de coe…cientes obtenido en (11.7). Para ello, partiremos de la representación de la transformada de Laplace en términos de la transformada de Fourier del conjunto de funciones g(x; s0 ) en (11.15), Z 0 F (s) = G(»; s0 ) = f (x)e¡s x e¡j»x dx: (11.26) x
Aplicando la expresión de la transformada inversa de Fourier en (9.17) a g(x; s0 ); ¡s0 x
f(x)e
1 = 2¼
Z
»
0
j»x
G(»; s )e
1 d» = 2¼
Z
s0 +j1
F (s)ej»x d»:
(11.27)
s0 ¡j1
Nótese que esta última expresión se ha reescrito teniendo en cuenta que g(x; s0 ) es un conjunto de funciones descrito por la variable s0 tomada una vez más como un parámetro descriptivo de dicho
306
c Emilio Gago-Ribas, 2002 °
4
f (x)
s0
ROC
ξ6 4
2
2
(a)
0
s'
0 -2
-2
-4 -4 -6 4
f (x)
-4
-2
0
x
2
4
-6 -6
6
-4
-2
s'0
ξ6
0
2
4
6
pertenece a la ROC
4 2
2
(b)
0
s'
0 -2
-2
-4 -4 -6 4
f (x)
-4
-2
0
x
2
4
-6 -6
6
ξ6
s0 -4
-2
0
2
pertenece a la ROC
s'0
4
6
s0
4 2
2
(c)
0
s'
0 -2
-2
-4 -4 -6 4
f (x)
-4
-2
0
x
2
4
-6 -6
6
ξ6
-4
s'1
-2
s'0
0
2
s'2
4
6
4 2
2
(d)
0
s'
0 -2
-2
-4 -4 -6
-4
-2
0
x
2
4
6
-6 -6
-4
s0
-2
0
2
4
posible ROC
6
Figura 11.6. Propiedades de la ROC de la transformada de Laplace de: (a) una señal de duración …nita; (b) una señal a derechas; (c) una señal a izquierdas, y (d) una señal de longitud in…nita.
conjunto; es decir, …jado un cierto valor de s0 = s00 ; la transformada inversa nos estará devolviendo la función g(x; s00 ): POdremos entonces decir que la función f(x) se podrá expresar como, f (x) =
1 s0 x e 2¼
Z
s0 +j1
F (s)ej»x d»:
(11.28)
s0 ¡j1
Nótese una vez más que este resultado indica que la función f (x) se podría obtener …jando un valor arbitrario de s0 ; lo que es lo mismo, a partir de la transformada inversa de cualquiera de las funciones del conjunto fG(»; s0 )g : Resulta evidente que la única restricción a imporner para el valor de s0 ; y por lo tanto, para la recta que determine el contorno de integracion es que pertenezca a la ROC para que F (s) esté de…nida. Esta expresión, totalmente válida para escribir f (x) en términos de f'(x; s)g ; se puede reescribir en función de la variable compleja s sin más que realizar el cambio s = s0 + j» con s0 = s00 constante, de forma que ds = jd» y, f(x) = =
1 2¼
Z
1 2¼j
s00 +j1
F (s)esx
s00 ¡j1 s00 +j1
Z
s00 ¡j1
ds = j
F (s)esx ds; s00 2 ROC,
(11.29)
es decir, la integral a lo largo de cualquier recta con s0 constante que esté contenida en la ROC, recorrida entre ¡1 y +1; Fig. 11.7.
c Emilio Gago-Ribas, 2002 °
307
11.4.1
Análisis de la transformada inversa.
Dado que los contenidos del presente texto no contemplan el análisis de funciones complejas de variable compleja, no entraremos en el detalle del análisis de (11.29). Si realizaremos a pesar de ello algunas observaciones importantes: ² Nótese en primer lugar cómo una vez más, podremos escribir la transformada de Laplace en la forma descrita en el Cap. 4, esto es, como una transformación T¡1 ´ TL¡1 que podremos describir como, 8 9 ~ TL¡1 : C(ROC) ¡! S(¡1; 1) > > > > > > > > > > < = ¡1 f(x) = TL [F (s)] (11.30) > > Z s00 +j1 > > > > 1 > > ¡1 > (¢)'(x; s) ds > : TL (¢) = ; 2¼j s00 ¡j1 ~ f (x); '(x; s) 2 S(¡1; 1); F (s) 2 C(ROC):
(11.31)
En este caso, la combinación lineal continua incluye análisis en variable compleja que hacen que el valor de los coe…cientes F (s) dados por (11.7) no se correspondan exactamente con el producto ~ escalar de…nido en el espacio de partida S(¡1; 1):
² El análisis de la transformada inversa suele abordarse a través de las propiedades de integración en variable compleja, esto es, identi…cando los polos de la función F (s)esx ; cerrando adecuadamente el contorno inicial por el in…nito (por ejemplo, para que la integral en la curva del in…nito se anule), y aplicando la teoría de integración a lo largo de contornos cerrandos y su relación con el valor de los residuos; de forma esquemática, I
sx
F (s)e
ds =
Z
Z
s00 +j1
sx
F (s)e
ds +
s00 ¡j1
s00 +j1
s00 ¡j1
F (s)esx ds = 2¼j
Z
F (s)esx ds = 2¼j
C1
X i
Residuos(i) ¡
X
Residuos(i);
(11.32)
i
Z
F (s)esx ds:
(11.33)
C1
En la Fig. 11.7 se recuerda el proceso de forma grá…ca.
Figura 11.7. Elección de la recta s00 para el cálculo de la tranformada inversa de Laplace y esquema de su cálculo en variable compleja.
308
c Emilio Gago-Ribas, 2002 °
11.5
Propiedades de la transformada de Laplace.
Las siguientes propiedades se basan todas en considerar una o dos señales arbitrarias f (x) y g(x) tales que sus transformadas de Laplace genéricas se representan por F (s) y G(s); denotando por ROCF y ROCG a sus correspondientes regiones de convergencia. Se deja como ejercicio para el lector la demostración de estas propiedades. 1. Linealidad. Al menos ROCF \ ROCG :
®f (x) + ¯g(x) $ ®F (») + ¯G(»);
(11.34)
2. Desplazamientos en x: f (x ¡ x0 ) $ F (s)e¡sx0
ROCF :
(11.35)
3. Producto por una exponencial. f (x)es0 x
$ F (s ¡ s0 )
ROCF desplazada.
(11.36)
ROCF escalada.
(11.37)
4. Escalado de la variable independiente. f(ax) $
1 ³s´ F jaj a
5. Convolución. f (x) ¤ g(x) $ F (s) G(s)
Al menos ROCF \ ROCG :
(11.38)
Al menos ROCF :
(11.39)
6. Primera derivada. df (x) dx
$ sF (s)
7. Derivada n-ésima. dn f (x) dxn
Al menos ROCF :
$ sn F (s)
(11.40)
8. Integración. Z
x
f (x¶) dx0 ¡1
$
1 F (s) s
Al menos ROCF \ Re fsg > 0:
(11.41)
9. Producto por x: ¡xf(x) $
11.6
dF (s) ds
ROCF :
(11.42)
Transformadas de Laplace racionales.
Un caso particula muy importante de transformadas de Laplace son todas aquellas que pueden expresarse en forma de funciones racionales, esto es, F (s) =
N (s) ; D(s)
(11.43)
siendo N (s) y D(s) funciones polinómica de grados n y d; respectivamente. Este tipo de tansformadas ocurren para: ² Funciones f(x) en forma de exponenciales, tanto reales como complejas.
² En el análisis de sistemas descritos por operadores diferenciales FD : c Emilio Gago-Ribas, 2002 °
309
El comportamiento y propiedades de este tipo de funciones se puede describir muy bien mediante la representación de su diagrama de polos y ceros, dado que los ceros de F (s) se corresponden con los ceros de N (s); y los polos de F (s) con los ceros de D(s); asumiendo que ninguno de los ceros de N (s) y D(s) coinciden, en cuyo caso habrá que estudiar el valor …nal de la indeterminación. En concreto, el diagrama de polos permite particularizar aún más las propiedades asociadas a la ROC analizadas en la Secc. 11.3. Partiendo de dichas propiedades, podremos añadir las siguientes consideraciones si F (s) es racional: ² La ROC no contiene ningún polo de F (s): Esto quiere decir que el diagrama de polos de F (s) permitirá determinar las posibles regiones de convergencia asociadas a dicha F (s); Fig. 11.8(a). ² Si f (x) es in…nita y a derechas, la ROC será toda la región del plano s localizada a la derecha del polo más a la derecha del diagrama de F (s); Fig. 11.8(b). ² Si f (x) es in…nita y a izquierdas, la ROC será toda la región del plano s localizada a la izquierda del polo más a la izquierda del diagrama de F (s); Fig. 11.8(c). ² Si f(x) es in…nita, la ROC será una de las franjas verticales contenida entre dos polos contigüos, Fig. 11.8(d). ξ
sp1
3
ROC1
ROC3
ROC2
2 1
s'
0 -1
sp2
-2
4
-3 -6
f(x) tal que F(s) racional
-4
ξ3
2
sp1
0
(a)
-2
s'0
0
2
ROC
4
6
2 1
s'
0 -1
-2
-2 -4 -6 4
-4
-2
f(x) tal que F(s) racional
0
x
2
4
-3 -6
6
ξ3
-4
-2
0
ROC
sp2
2
4
6
2 2
1
(b)
0
sp1
-2 -4 -6 4
-4
-2
f(x) tal que F(s) racional
0
x
2
4
-2 -3 -6
6
s'
0 -1
-4
-2
0
2
4
ξ3
2
sp1
0
(c)
sp2
6
2 1
s'
0 -1
-2
-2 -4 -6
-4
-2
0
x
2
4
6
-3 -6
-4
-2
0
2
4
6
ROC
Figura 11.8. Propiedades de la ROC de la transformada de Laplace de: (a) una señal a derechas; (b) una señal a izquierdas, y (c) una señal de longitud in…nita. En todos los casos se supone que F (s) es racional, identi…cando así su diagrama de polos.
310
c Emilio Gago-Ribas, 2002 °
11.7
Transformadas de Laplace de distribuciones y señales de energía in…nita.
Como ya analizamos en la Secc. 9.6, el hecho de poder de…nir la transformada de Fourier para señales de energía in…nita era posible debido justamente al hecho de haber de…nido objetos matemáticos de carácter impulsivo y/o localizador, como ±(x); ± 0 (x); ¡(x); etc. Veremos a continuación cuál sería su transformada de Laplace, intentando relacionar estos resultados con los obtenidos para la transformada de Fourier. En cualquier caso, aplicaremos siempre que sea posible la de…nición de una distribución D(x) como funcional operando en este caso sobre el conjunto de funciones fe¡sx g ; esto es, Z 1 D(x) : f (x) ¡! f (x)D(x) dx 2 C; (11.44) ¡1
D(x) : e¡sx ¡!
Z
1
¡1
e¡sx D(x) dx 2 C ´TL fD(x)g ;
(11.45)
obteniendo de esta forma su transformada de Laplace de forma directa. La ROC de estas transformadas deberá analizarse en base a las propiedades de las distribuciones, dado que todas ellas son de energía in…nita, y por lo tanto no son cuadrado integrables, ni tampoco absolutamente integrables, por lo que estos criterios no podrán aplicarse al igual que ocurría en la transformada de Fourier. 11.7.1
Distribución delta de Dirac.
Acudiendo a su de…nición en el origen, podremos identi…car fácilmente su transformada, Z 1 TL [±(x)] = ±(x)e¡sx dx = [e¡sx ]x=0 = 1; ROC ´ Plano s: ¡1
(11.46)
Veamos algunos comentarios importantes: ² Resulta evidente entonces que su transformada de Laplace será la función constante unidad de…nida para todo valor de s; lo que signi…ca que la ROC asociada será justamente todo el plano s: ² El estudio de la ROC conlleva el análisis de la existencia de la transformada de Fourier del conjunto de funciones fg(x; s0 )g de…nido en (11.15) cuando f (x) = ±(x); en función del parámetro s0 ; así, h 0 i 0 g(x; s0 ) = ±(x)e¡s x = ±(x) e¡s x = ±(x); (11.47) x=0
Z
g(x; s0 )e¡j»x dx =
x
Z
±(x)e¡j»x dx = 1; para todo s0 :
(11.48)
x
Nótese que en la primera expresión hemos utilizado la propiedad asociada al producto de una distribución por una función de buen comportamiento, en este caso p(x)±(x) = p(0)±(x) siendo 0 p(x) = e¡s x : Dado que TF [g(x; s0 )] = 1 para todo s0 ; la ROC será todo el plano s: ² Esto signi…ca que el eje imaginario s0 = 0 2 ROC, y por lo tanto, la transformada de Fourier de ±(x) se podría obtener utilizando la propiedad en (11.13), (11.49)
F (») = [F (s)]s0 =0 = 1; resultado que coincide con el obtenido a partir del análisis realizado en la Secc. 9.6.1. ² La representación de esta transformada se encuentra en la Fig. 11.9. 11.7.2
Distribución delta de Dirac desplazada.
Aplicando la de…nición de la distribución ±(x ¡ x0 ); Z 1 TL [±(x ¡ x0 )] = ±(x ¡ x0 )e¡sx dx = [e¡sx ]x=x0 = e¡sx0 ; ¡1
ROC ´ Plano s:
(11.50)
Algunos comentarios importantes: c Emilio Gago-Ribas, 2002 °
311
² El estudio de la ROC conlleva el análisis de la existencia de la transformada de Fourier del conjunto de funciones fg(x; s0 )g de…nido en (11.15) cuando f (x) = ±(x ¡ x0 ); en función del parámetro s0 ; así, h 0 i 0 0 g(x; s0 ) = ±(x ¡ x0 )e¡s x = ±(x ¡ x0 ) e¡s x = e¡s x0 ±(x ¡ x0 ); (11.51) x=x0
Z
0
¡j»x
g(x; s )e
¡s0 x0
dx = e
Z
x
x
0
±(x ¡ x0 )e¡j»x dx = e¡s x0 e¡j»x0 = e¡sx0 ; para todo s0 :
(11.52)
En la primera ecuación hemos utilizado una vez más la propiedad asociada al producto de una distribución por una función de buen comportamiento. Resulta evidente que TF [g(x; s0 )] existe para cualquier valor de s0 ; de forma que la ROC será todo el plano s igual que para ±(x): ² El eje imaginario s0 = 0 2 ROC, y por lo tanto, la transformada de Fourier de ±(x ¡ x0 ) se puede obtener utilizando la propiedad en (11.13), F (») = [F (s)]s0 =0 = e¡j»x0 ;
(11.53)
resultado que coincide con el obtenido a partir del análisis realizado en la Secc. 9.73. ² La representación de esta transformada se encuentra en la Fig. 11.10. 11.7.3
Distribución primera derivada de la delta.
Aplicando la de…nición de la distribución ± 0 (x); Z 1 £ ¤ TL ± 0 (x) = ± 0 (x)e¡sx dx = s [e¡sx ]x=0 = s; ¡1
ROC ´ Plano s:
(11.54)
Algunos comentarios importantes: ² El estudio de la ROC conlleva el análisis de la existencia de la transformada de Fourier del conjunto de funciones fg(x; s0 )g de…nido en (11.15) cuando f (x) = ± 0 (x); en función del parámetro s0 ; así, h i 0 0 g(x; s0 ) = ± 0 (x)e¡s x = ±(x) s0 e¡s x = s0 ±(x); (11.55) x=0
Z
g(x; s0 )e¡j»x dx = s0
x
Z
x
±(x)e¡j»x dx = s0 ¢ 1; para todo s0 :
(11.56)
En la primera ecuación se ha utilizado una vez más la propiedad asociada al producto de una distribución por una función de buen comportamiento, en este caso, p(x)± 0 (x) = ¡p0 (0)±(x); (??). Resulta evidente que la expresión …nal es válida para todo valor de s0 ; de forma que la ROC será todo el plano s igual que para ±(x): ² El eje imaginario s0 = 0 2 ROC, y por lo tanto, la transformada de Fourier de ± 0 (x) se puede obtener utilizando la propiedad en (11.13) junto con (11.54), (11.57)
F (») = [F (s)]s0 =0 = j»; resultado que coincide con el obtenido a partir del análisis realizado en la Secc. 9.82. ² La representación de esta transformada se puede encontrar en la Fig. 11.11. 11.7.4
Distribución segunda derivada de la delta.
Aplicando la de…nición de la distribución ± 00 (x); Z 1 £ ¤ TL ± 00 (x) = ± 00 (x)e¡sx dx = s2 [e¡sx ]x=0 = s2 ; ¡1
ROC ´ Plano s:
(11.58)
Algunos comentarios importantes: 312
c Emilio Gago-Ribas, 2002 °
² El estudio de la ROC conlleva el análisis de la existencia de la transformada de Fourier del conjunto de funciones fg(x; s0 )g de…nido en (11.15) cuando f (x) = ± 00 (x); en función del parámetro s0 ; así, i h 0 0 = s02 ±(x); (11.59) g(x; s0 ) = ± 00 (x)e¡s x = ±(x) s02 e¡s x x=0
Z
g(x; s0 )e¡j»x dx = s02 x
Z
x
±(x)e¡j»x dx = s02 ¢ 1 = s02 ; para todo s0 :
(11.60)
En la primera ecuación se ha utilizado una vez más la propiedad asociada al producto de una distribución por una función de buen comportamiento, en este caso, p(x)± 00 (x) = p00 (0)±(x): Resulta evidente que la expresión …nal es válida para todo valor de s0 ; de forma que la ROC será todo el plano s igual que para ±(x) y ± 0 (x): ² El eje imaginario s0 = 0 2 ROC, y por lo tanto, la transformada de Fourier de ± 00 (x) se puede obtener utilizando la propiedad en (11.13) junto con (11.58), F (») = [F (s)]s0 =0 = ¡» 2 ;
(11.61)
resultado que coincide con el obtenido a partir del análisis realizado en la Secc. 9.91. ² La representación de esta transformada se puede encontrar en la Fig. 11.12. 11.7.5
Distribución Gamma o de Heaviside.
Aplicando la de…nición de la distribución ¡(x); Z 1 1 ¡sx 1 1 e¡sx dx = TL [¡(x)] = [e ]0 = ; ¡s s 0
ROC ´ Refsg > 0:
(11.62)
Nótese que el valor de la transformada es válido cuando s0 > 0; de forma que la integral sea convergente en el in…nito, esto es, h 0 i £ ¡sx ¤ ¡s x ¡j»x e = e e = 0: (11.63) x!1 x!1
0
0
En el caso en que s < 0; el valor de la integral será divergente, dado que el término de amplitud e¡s x crece exponencialmente con x. En el caso en que s0 = 0; el factor se reduce a un término oscilatorio en la forma e¡j»x = cos »x ¡ j sin »x;
(11.64)
cuyo comportamiento cuando x ! 1 es desconocido sea cual sea el valor de la pulsación »: Este análisis determinan la ROC indicada en la ecuación (11.62). Algunos comentarios importantes: ² El análisis de la ROC realizado a partir del estudio de la existencia de la transformada de Fourier del conjunto de funciones fg(x; s0 )g de…nido en (11.15) cuando f (x) = ¡(x); en función del parámetro s0 es en este caso totalmente equivalente al realizado previamente. Se deja al lector la comprobación de este punto. ² El eje imaginario s0 = 0 2 = ROC y, por lo tanto, la transformada de Fourier de ¡(x) no se puede obtener utilizando la propiedad en (11.13). Su valor no podrá obtenerse entonces a partir de la transformada de Laplace sino en virtud de las consideraciones realizadas en su momento en la Secc. 9.6.5. Nótese que este hecho está relacionado con la discusión realizada anteriormente en relación con la convergencia de la transformada de Laplace en s0 = 0: ² La representación de esta transformada se puede encontrar en la Fig. 11.13.
² Resulta sencillo demostrar que la transformada de Laplace indicada en (11.62) es válida también para la distribución ¡¡(¡x) teniendo en cuenta que la región de convergencia es ahora el semiplano izquierdo de s; esto es, 1 (11.65) ROC ´ Refsg < 0: TL [¡¡(¡x)] = ; s La comprobación de este resultado se deja como ejercicio al lector. Su representación será la mostrada en la Fig. 11.13 considerando la nueva región de convergencia. c Emilio Gago-Ribas, 2002 °
313
Re{F(s)}
|F(s)|
2,0
2,0
1,5
1,5
1,0
1,0
0,5
0,5
0,0 -3
-2
-1
s'
0 1
-1
0
-2
2
1
2
0,0 -3
3
-2
-1
s'
ξ
0 1
-1
0
-2
2
1
2
3
ξ
3 -3
3 -3
Im{F(s)}
Fase{F(s)}
2,0
1,0π
1,5
0,5π
1,0 0,0π 0,5 -0,5π 0,0 -3
-2
-1
s'
0 1
-1
0
-2
2
1
2
3
-1,0π -3
ξ
-2 -1
s'
3 -3
ROC
ξ
0 1
-1 -2
2
F(ξ)
0
1
2
3
ξ
3 -3
3
2
1
s'
0
-1
-2
-3 -3
-2
-1
0
1
2
3
Figura 11.9. ±(x) Ã! 1; ROC = fsg :
314
c Emilio Gago-Ribas, 2002 °
Re{F(s)}
|F(s)|
400
400
200
300
0
200
-200
100
-400 -3
-2
-1
s'
0 1
-1
0
-2
2
1
2
0 -3
3
-2
-1
s'
ξ
0 1
-1
0
-2
2
1
2
3
ξ
3 -3
3 -3
Im{F(s)}
Fase{F(s)}
400
1,0π
200
0,5π
0 0,0π -200 -0,5π -400 -3
-2
-1
s'
0 1
-1
0
-2
2
1
2
3
-1,0π -3
ξ
-2 -1
s'
3 -3
ROC
ξ
0
0
1
-1 -2
2
F(ξ)
1
2
3
ξ
3 -3
3
2
1
s'
0
-1
-2
-3 -3
-2
-1
0
1
2
3
Figura 11.10. ±(x ¡ x0 ) Ã! e¡sx0 ; ROC = fsg :
c Emilio Gago-Ribas, 2002 °
315
|F(s)|
Re{F(s)} 4
3 2
3 1 2
0 -1
1 -2 -3 -3
-2
-1
s'
0 1
-1
0
-2
2
1
2
0 -3
3
-2
-1
s'
ξ
0 1
-1
0
-2
2
ξ
1
2
3
3 -3
3 -3
Im{F(s)}
Fase{F(s)}
3
1,0π
2 0,5π
1 0
0,0π -1 -2 -3 -3
-0,5π -2
-1
s'
0 1
-1
0
-2
2
1
2
3
-1,0π -3
ξ
-2 -1
s'
3 -3
ROC
ξ
0
0
1
-1 -2
2
F(ξ)
1
2
3
ξ
3 -3
3
2
1
s'
0
-1
-2
-3 -3
-2
-1
0
1
2
3
Figura 11.11. ±0 (x) Ã! s; ROC = fsg :
316
c Emilio Gago-Ribas, 2002 °
Re{F(s)}
|F(s)| 20
20 15
15
10 5
10
0 -5
5
-10 -15 -20 -3
-2
1
-1
s'
0
0 -1
1 2
2
3
0 -3
ξ
1
-2
-1
s'
-2
0
0
1 2
3 -3
Im{F(s)}
-1 -2
2
3
ξ
3 -3
Fase{F(s)}
20
1,0π
15 10
0,5π
5 0
0,0π
-5 -10
-0,5π
-15 -20 -3
-2
-1
s'
0
0 1
-1 2
1
2
3 -1,0π -3
ξ
-2
-2
-1
3 -3
ROC
ξ
3
s'
F(ξ)
1 0
0
-1
1 2
2
3
ξ
-2 3 -3
2
1
s'
0
-1
-2
-3 -3
-2
-1
0
1
2
3
Figura 11.12. ± 00 (x) Ã! s2 ; ROC = fsg :
c Emilio Gago-Ribas, 2002 °
317
Re{F(s)}
|F(s)| 10
10
8
5
6 0 4 -5
2
-10 -3
-2
-1
s'
0
0 -1
1 2
1
2
3
0 -3
-2
1
-1
ξ
s'
-2
0
0
-1
1 2
3 -3
Im{F(s)}
-2
2
3
ξ
3 -3
Fase{F(s)}
10
1,0π
5
0,5π
0 0,0π -5 -0,5π -10 -3
-2
-1
s'
0
0 -1
1 2
1
2
3 -1,0π -3
ξ
-2
-2
-1
s'
3 -3
ξ
3
F(ξ)
1 0
0
-1
1 2
2
3
ξ
-2 3 -3
ROC
2
1
s'
0
-1
-2
-3 -3
-2
-1
0
Figura 11.13. ¡(x) Ã!
318
1
2
3
1 ; ROC = Refsg > 0: s
c Emilio Gago-Ribas, 2002 °
11.8
Transformadas de Laplace de otras distribuciones y señales importantes.
Consideraremos a continuación el análisis de la transformada de Laplace de algunas distribuciones importantes, así como las regiones de convergencia asociadas. Algunos de los casos presentados serán los mismos que en la Secc. 9.7, lo que facilitará la comparación con las transformadas de Fourier allí analizadas. 11.8.1
Pulso unidad de ancho ¢(x).
Consideremos la distribución pulso de…nida en (9.118), 8 < 1 si P¢x (x) = : 0 si
jxj <
¢x 2
jxj >
¢x 2
(11.66)
o bien su versión en términos de la distribución ¡(x) en (9.119). Su transformada de Laplace se podrá obtener sin más que aplicar la expresión (11.7) a P¢x (x); TL [P¢x (x)] =
Z
1
¡sx
P¢x (x)e
¡1
dx =
Z
¢x 2
¡ ¢x 2
¡sx
e
dx =
es
¢x 2
¡ e¡s s
¢x 2
;
(11.67)
ROC ´ Plano s: Veamos algunos comentarios importantes: ² El estudio de la ROC conlleva el análisis de la existencia de la transformada de Fourier del conjunto de funciones fg(x; s0 )g de…nido en (11.15) cuando f (x) = P¢x (x); en función del parámetro s0 ; así, 8 < e¡s0 x x 2 (¡¢x=2; ¢x=2) 0 0 ¡s x g(x; s ) = P¢x (x)e = : (11.68) : 0 resto Resulta evidente que, sea cual sea el valor de s0 ; cualquier función g(x; s0 ) es de energía …nita y, por lo tanto, existirá transformada de Fourier para cualquier valor de s0 : La ROC será entonces todo el plano s:
² Desde el punto de vista de las propiedades analizadas en la Secc. 11.3, resulta evidente que la distribución pulso es de duración …nita y, por lo tanto, las propiedades aseguran que la ROC es todo el plano s; coincidiendo así con el análisis anterior. ² El eje imaginario s0 = 0 2 ROC, y por lo tanto, la transformada de Fourier de P¢x (x) se podrá obtener utilizando la propiedad en (11.13), F (») = [F (s)]s0 =0 =
ej»
¢x 2
¡ e¡j» j»
¢x 2
;
(11.69)
resultado a partir del cual se puede realizar un desarrollo idéntico al realizado en (9.122), obteniéndose la transformada de Fourier en términos de la función sinc : ² En las Figs. 11.14 y 11.15 se muestran las representaciones de esta transformada para diferentes anchos del pulso (los casos mostrados se corresponden con los presentados en la Fig. 9.13 para la 0 transformada de Fourier). ¡ ¢x Se ¢ puede notar fácilmente cómo la parte real en s = 0 se corresponde con la función ¢x sinc 2 » ; mientras que la parte imaginaria se hace nula justamente a lo largo del eje imaginario. De igual forma, se puede apreciar el efecto de aumentar el ancho del pulso, como ya se estudió en el Cap. 9. 11.8.2
Exponencial a derechas.
Consideremos la distribución exponencial a derechas de…nida en la forma, 8 < e¡ax si x > 0 e+ (x) = e¡ax ¡(x) = ; a 2 C: : 0 si x < 0 c Emilio Gago-Ribas, 2002 °
(11.70)
319
Con esta de…nición, el exponente pueda tomar inicialmente cualquier valor complejo. Realizaremos el análisis de la transformada justamente en función de los posibles valores del parámetro a. La obtención de esta transformada es muy sencilla sin más que aplicar una vez más su expresión en (11.7), Z 1 Z 1 TL [e+ (x)] = e¡ax ¡(x)e¡sx dx = e¡ax e¡sx dx = ¡1 0 (11.71) 1 1 £ ¡(s+a)x ¤ = : ¡ e x!1 s+a s+a Nótese como la convergencia de la última expresión dependerá justamente del valor que tome la exponencial cuando x ! 1; reescribiendo la exponencial en función de las partes real e imaginaria del exponente, i i h i h h 0 0 0 0 00 : (11.72) = e¡(s +a )x = e¡(s +a )x e¡j(»+a )x e¡(s+a)x x!1
x!1
x!1
00
Una vez más, el término oscilatorio e¡j(»+a )x cuando x ! 1 está acotado pero no de…nido, de forma que es el término de amplitud una vez más quien determina el comportamiento asintótico de la exponencial. Resulta trivial demostrar que dicha expresión será convergente (tendiendo a cero) cuando s0 + a0 > 0; 0 0 de forma que el término e¡(s +a )x sea decreciente; así, la ROC vendrá determinada por la condición s0 > ¡a0 : La transformada de Laplace vendrá de…nida de forma completa por, TL [e+ (x)] =
1 ; s+a
(11.73)
ROC ´ Re fsg > ¡ Re fag : ² Análisis de la transformada.
El estudio de la ROC a través de la transformada de Fourier del conjunto de funciones fg(x; s0 )g de…nido en (11.15) cuando f(x) = e+ (x) en función del parámetro s0 resulta totalmente equivalente al análisis realizado previamente. Se deja como ejercicio al lector el comprobar este punto. 1. Por otro lado, las propiedades analizadas en la Secc. 11.3 predicen que la ROC será una región a la derecha de un cierto valor por ser la señal a derechas, lo que concuerda con el resultado obtenido para la ROC. El límite de la ROC en este caso viene dado por la recta s0 = ¡ Refag:
2. En términos del parámetro a; el comportamiento de la señal en el dominio real presenta claramente tres casos según sea el valor de Re fag3 . Así, si Re fag > 0 la exponencial es decreciente; si Re fag = 0 la exponencial mantiene su amplitud, y …nalmente si Re fag < 0; la exponencial será creciente. Esto hace que en el primer caso la señal sea de energía …nita y también absolutamente integrable, hecho que no ocurre en los dos casos siguientes. En las Figs. 11.16, 11.17 y 11.18 se muestran ejemplos del comportamiento de e+ (x) para diferentes valores de Refag: 3. En el caso con Re fag > 0; el límite de la ROC se sitúa a la izquierda del eje imaginario s0 = 0; de forma que la existencia de la transformada de Fourier está asegurada al estar el eje imaginario contenido en la ROC. Este será el caso mostrado en la Fig. 11.16. Nótese que la exponencial, por ser decreciente, es de energía …nita, lo que corrobora la a…rmación anterior. Así, la transformada de Fourier podrá calcularse utilizando la propiedad en (11.13), F (») = [F (s)]s0 =0 =
1 ; a + j»
(11.74)
que coincide con el resultado obtenido en (9.150). 4. En el caso con Re fag = 0; el límite de la ROC se sitúa justamente sobre el eje imaginario s0 = 0; de forma que no pertenece a la ROC. En este caso, no será posible calcular la transformada de Fourier usando la propiedad (11.13). Este caso es el mostrado en la Fig. 11.17. Nótese cómo la transformada de Fourier sería la de una distribución de energía in…nita dado que la parte real cosenoidal y la parte imaginaria senoidal están de…nidas entre 0 e in…nito. 3 Nótese una vez más que la parte imaginaria de a juega el papel de una pulsación de forma que el término exponencial e¡j Imfagx = cos (Imfagx) ¡ j sin (Imfagx) es una señal periódica de período 2¼= Imfag:
320
c Emilio Gago-Ribas, 2002 °
5. Finalmente, resulta evidente que en el caso con Re fag < 0; la señal e+ (x) es de energía in…nita y de crecimiento exponencial. El eje imaginario s0 = 0 no pertenece a la ROC y tampoco podrá entonces aplicarse la propiedad (11.13). Este caso es el mostrado en la Fig. 11.18. Su transformada de Fourier debería analizarse en la forma presentada en la Secc. 9.6 considerando ahora señales cuya energía crezca de forma exponencial. Se deja como ejercicio para el lector el posible análisis de la existencia de la transformada de Fourier para este tipo de señales. 11.8.3
Coseno a derechas.
Consideremos la distribución coseno a derechas de…nida en la forma, 8 < cos » 0 x si x > 0 c+ (x) = [cos » 0 x] ¡(x) = ; : 0 si x < 0
(11.75)
siendo » 0 la pulsación del coseno original de período 2¼=» 0 : Aplicando una vez más la expresión de la transformada de Laplace en (11.7), Z 1 Z 1 TL [c+ (x)] = [cos » 0 x] ¡(x)e¡sx dx = [cos » 0 x] e¡sx dx = ¡1 0 Z 1 j»0 x (11.76) e + e¡j»0 x ¡sx 1 1 ¡ax = e dx = TL [e ]a=¡j»0 + TL [e¡ax ]a=j»0 : 2 2 2 0 La última igualdad se ha obtenido en base a la expresión de la transformada de Laplace de la función exponencial analizada en la sección anterior cuando Refag = 0: En virtud de (11.73) podremos desarrollar y simpli…car dicha expresión en la forma, £ ¤ TL c+ (x) =
=
1 1 1 1 + = 2 s ¡ j» 0 2 s + j» 0 µ ¶ 1 s + j» 0 + s ¡ j» 0 s : = 2 2 (s ¡ j» 0 ) (s + j» 0 ) s + » 20
(11.77) (11.78)
Resulta evidente que la ROC de esta transformada vendrá dada por la intersección de las regiones de convergencia asociadas a las transformadas de Laplace en (11.76). En este caso, ambas regiones vendrán dadas por Refsg > ¡ Refag = 0; de forma que la expresión …nal de la transformada se podrá resumir de la siguiente forma, TL [c+ (x)] =
s ; s2 + » 20
ROC ´ Re fsg > 0:
(11.79)
² Análisis de la transformada. 1. El estudio de la ROC a través de la transformada de Fourier del conjunto de funciones fg(x; s0 )g de…nido en (11.15) cuando f (x) = c+ (x) en función del parámetro s0 resulta totalmente equivalente al análisis realizado previamente junto con el análisis realizado en la sección anterior. Se deja como ejercicio al lector el comprobar este punto. 2. Las propiedades analizadas en la Secc. 11.3 predicen que la ROC será una región a la derecha de un cierto valor por ser la señal a derechas, lo que concuerda con el resultado obtenido para la ROC. El límite de la ROC en este caso viene dado por la recta s0 = 0: Nótese que los polos de (11.79) se sitúan justamente sobre el límite de la ROC en s = §j» 0 : La transformada de Laplace es claramente una función racional, de forma que la ROC no puede contener ninguna singularidad de F (s): 3. El límite de la ROC se sitúa justamente sobre el eje imaginario s0 = 0; de forma que éste eje no pertenece a la ROC. En este caso, no será posible calcular la transformada de Fourier usando la propiedad (11.13). Nótese cómo la transformada de Fourier sería la de una distribución de energía in…nita de orden de variación la unidad de forma que su transformada de Fourier estará asociada a la distribución delta en »: ² En la Fig. 11.19 se muestra un ejemplo de esta transformada para una cierta pulsación » 0 : c Emilio Gago-Ribas, 2002 °
321
Re{F(s)}
|F(s)| 2,0
2,0 1,5
1,5
1,0 0,5
1,0
0,0 -0,5
0,5
-1,0 -1,5 -2,0 -3 -2 -1
s'
0 1 2
-15
-10
-5
0
5
10
15
0,0 -3
20
-2 -1
s'
ξ
0 1 2 3 -20
3 -20
Im{F(s)}
-15
-10
-5
0
5
10
15
20
ξ
Fase{F(s)}
2,0
1,0π
1,5 1,0 0,5π
0,5 0,0
0,0π
-0,5 -1,0
-0,5π
-1,5 -2,0 -3 -2 -1
s'
0 1 2 3 -20
-15
-10
-5
0
5
10
15
20
-1,0π -3 -2
ξ
-1
s'
ROC
ξ
3
0 1 2
F(ξ)
-15
-10
-5
0
5
10
15
20
ξ
3 -20
2
1
s'
0
-1
-2
-3 -3
-2
Figura 11.14. P¢x (x) Ã!
322
-1
0
1
2
3
es¢x=2 ¡ e¡s¢x=2 ; ROC = fsg; ¢x = 1: s
c Emilio Gago-Ribas, 2002 °
Re{F(s)}
|F(s)| 8
6 4
6 2 4
0 -2
2 -4 -6 -3 -2 -1
s'
0 1 2
-15
-10
-5
0
5
10
15
0 -3
20
-2 -1
s'
ξ
0 1 2 3 -20
3 -20
Im{F(s)}
-15
-10
-5
0
5
10
15
20
ξ
Fase{F(s)}
6
1,0π
4 0,5π
2 0
0,0π -2 -4
-0,5π
-6 -3 -2 -1
s'
0 1 2 3 -20
-15
-10
-5
0
5
10
15
20
-1,0π -3 -2
ξ
-1
s'
ROC
ξ
3
0 1 2
F(ξ)
-15
-10
-5
0
5
10
15
20
ξ
3 -20
2
1
s'
0
-1
-2
-3 -3
-2
Figura 11.15. P¢x (x) Ã!
c Emilio Gago-Ribas, 2002 °
-1
0
1
2
3
es¢x=2 ¡ e¡s¢x=2 ; ROC = fsg; ¢x = 2: s
323
Re{F(s)}
|F(s)| 10
10 8
8
6 4
6
2 0
4
-2 -4
2
-6 -8 -10 -2 -1 0
s'
1 2 -12π
-8π
-4π
0π
4π
0 -2
12π
8π
-1
s'
ξ
0 1 2 -12π
Im{F(s)}
-8π
-4π
0π
4π
8π
12π
ξ
Fase{F(s)}
2
1,0π
1 0,5π 0 0,0π -1 -0,5π -2 -2 -1
s'
0 1 2 -12π
-8π
-4π
0π
4π
8π
12π
-1,0π -2 -1
ξ
s'
0 1
+
Re{e (x)}
-8π 2 -12π
1
ROC 12π
ξ
-4π
0π
4π
8π
12π
ξ
F(ξ)
0
8π
-1 -1,0
-0,5
0,0
x
0,5
1,0
1,5
2,0
+
Im{e (x)}
4π
s'
0π
1
-4π 0
Polo en -a
-8π
-1 -1,0
-0,5
0,0
x
0,5
Figura 11.16. e+ (x) Ã!
324
1,0
1,5
2,0
-12π -2
-1
0
1
2
1 ; ROC ´ Refsg > ¡ Refag = ¡1; a = 1 + j8¼: s+a
c Emilio Gago-Ribas, 2002 °
Re{F(s)}
|F(s)| 10
10 8
8
6 4
6
2 0
4
-2 -4
2
-6 -8 -10 -2 -1 0
s'
1 2 -12π
-8π
-4π
0π
4π
0 -2
12π
8π
-1
s'
ξ
0 1 2 -12π
Im{F(s)}
-4π
-8π
0π
4π
8π
12π
ξ
Fase{F(s)}
2
1,0π
1 0,5π 0 0,0π -1 -0,5π -2 -2 -1
s'
0 1 2 -12π
-8π
-4π
0π
4π
8π
12π
-1,0π -2 -1
ξ
s'
0 1
+
Re{e (x)}
2 -12π
1
-4π
-8π
ξ
12π
F(ξ)
0π
4π
8π
12π
ξ ROC
0
8π
-1 -1,0
-0,5
0,0
x
0,5
1,0
1,5
2,0
+
Im{e (x)}
4π
s'
0π
1
-4π 0
Polo en -a
-8π
-1 -1,0
-0,5
0,0
x
0,5
1,0
Figura 11.17. e+ (x) Ã!
c Emilio Gago-Ribas, 2002 °
1,5
2,0
-12π -2
-1
0
1
2
1 ; ROC ´ Refsg > ¡ Refag = 0; a = j8¼: s+a
325
Re{F(s)}
|F(s)|
10
10 8
8
6 4 2 0 -2 -4 -6 -8 -10 -2
6 4 2
-1
s'
0 1 2 -12π
-8π
-4π
0π
4π
8π
0 -2
12π
-1
s'
ξ
0 1 2 -12π
Im{F(s)}
-8π
-4π
0π
4π
8π
12π
ξ
Fase{F(s)}
2
1,0π
1
0,5π
0 0,0π -1 -0,5π -2 -2 -1 0
s'
1 2 -12π
-8π
-4π
0π
4π
8π
12π
-1,0π -2 -1
ξ
s'
+
9
0 1
Re{e (x)}
2 -12π
ξ
6 12π
3
-8π
-4π
F(ξ)
0π
4π
8π
12π
ξ ROC
0 8π
-3 -6 -9 -1,0
-0,5 +
9
0,0
x
0,5
1,0
1,5
2,0
Im{e (x)}
4π
s'
0π
6 -4π
3
Polo en -a
0 -8π
-3 -6 -9 -1,0
-0,5
0,0
x
0,5
Figura 11.18. e+ (x) Ã!
326
1,0
1,5
2,0
-12π -2
-1
0
1
2
1 ; ROC ´ Refsg > ¡ Refag = 1; a = ¡1 + j8¼: s+a
c Emilio Gago-Ribas, 2002 °
Re{F(s)}
|F(s)| 5
6 4
4
2 3 0 2 -2 1
-4 -6 -2
0 -2
8π
-1
s'
0
0π -4π
1
8π
-1
4π
4π 0
s'
ξ
0π -4π
1
ξ
2 -8π
2 -8π
Im{F(s)}
Fase{F(s)}
1,0
1,0π
0,5 0,5π 0,0 0,0π -0,5 -0,5π -1,0 -2
8π
-1
s'
4π 0
0π -4π
1
-1,0π -2
8π
-1
ξ
4π
s'
2 -8π
0
0π -4π
1
F(ξ)
ξ
2
8π
ROC
ξ
+
c (x)
Polo en j ξ0
4π
1,0
0,5
s'
0π
0,0
-0,5
-1,0 -1,0
-0,5
0,0
x
0,5
1,0
1,5
2,0
Polo en -j ξ0
-4π
-8π -2
Figura 11.19. c+ (x) Ã!
c Emilio Gago-Ribas, 2002 °
-1
0
1
2
s ; ROC ´ Refsg > 0; » 0 = 4¼; X0 = 0:5: s2 + » 20
327
11.9
La transformada de Laplace y los sistemas lineales e invariantes.
Como ya se estudió en el Cap. 4, y se aplicó al desarrollo en serie de Fourier en el Cap. 8 y a la transformada de Fourier en el Cap. 9, seleccionar una base dentro de un espacio de funciones no sólo está relacionado con el espacio de señales en cuestión, sino también por las características de los operadores que se vayan a aplicar sobre dicho espacio. Este hecho está ligado al concepto de adecuación del conjunto de funciones base respecto a los operadores que van a aplicarse sobre los espacios de señales ~ de partida. En el caso en que los sistemas estén descritos por operadores lineales e invariantes, F 2 LI(S); esto se traducirá en que el conjunto de funciones base sean funciones propias o autofunciones respecto a dichos sistemas. Veremos que éste es el caso, una vez más, del conjunto in…nito y continuo de funciones f'(x; sg = fesx g analizado en este capítulo. 11.9.1
Transformación del conjunto de funciones base por un sistema lineal e invariante.
Consideremos un sistema como el mostrado en la Fig. 11.20 operando sobre un espacio de funciones en el que la transformada inversa de Laplace existe, y por lo tanto, la transformada directa es convergente. En virtud de los conceptos expuestos en el Cap. 6, la respuesta a cualquier señal de entrada f (x) vendría dada por la integral de convolución, Z F : f (x) ! g(x) = f (x¶)h(x ¡ x¶) dx0 = f (x) ¤ h(x); (11.80) x0
siendo h(x) la respuesta al impulso del sistema. Asumiendo que la transformada de Laplace está de…nida, podremos desarrollar f(x) en términos del conjunto de funciones base a través de la combinación lineal continua dada por la transformada inversa en (11.29), de forma que podremos escribir, " # Z s00 +j1 1 sx g(x) = F [f (x)] = F F (s)e ds = 2¼j s00 ¡j1 Z s00 +j1 1 F (s)L [esx ] ds; s00 2 ROC. = (11.81) 2¼j s00 ¡j1 Nótese que esta expresión se ha obtenido recurriendo a la linealidad del operador transformada inversa respecto de la variable x. Por lo tanto, la salida del sistema g(x) se podrá analizar conociendo cómo el sistema descrito por F transforma cualquier elemento del conjunto de funciones base, F [esx ] = F ['(x; s)] ; Fig. 9.27.
~ Figura 11.20. Sistema lineal en invariante identi…cado por el operador F 2 LI(S) frente a: (a) la distribución delta de Dirac; (b) una señal arbitraria f (x); y (c) una función base cualquiera (valor arbitrario del parámetro s) del conjunto continuo e in…nito de funciones base fesx g :
El desarrollo a considerar a partir de ahora sería totalmente similar al expuesto en la Secc. 11.2 donde la transformación del conjunto de funciones base se utilizó justamente para introducir y porteriormente extender la de…nición de la transformada de Laplace. Así, F [esx ] = H(s)esx
´ F ['(x; s)] = H(s)'(x; s);
H(s) =
Z
(11.82)
h(x)e¡sx dx;
(11.83)
x
Basados en este resultado, resulta importante hacer notar las siguientes consideraciones:
328
c Emilio Gago-Ribas, 2002 °
² Como ya comprobamos en la Secc. 11.2, el conjunto de funciones base f'(x; sg = fesx g son funciones propias o autofunciones respecto a cualquier operador F que sea lineal e invariante, esto es, F 2 ~ LI(S):
² Este resultado presupone también la existencia de transformada de Laplace H(s) de la respuesta al impulso h(x): Por otro lado, h(x) = F [±(x)] ; es decir, una transformación de la distribución impulsiva ±(x). Esto quiere decir que h(x) será con toda probabilidad una nueva distribución, de forma que los aspectos analizados en las Seccs. 11.7 y 11.8 serán fundamentales a la hora de realizar el análisis espectral de cualquier sistema lineal e invariante. ² La señal de salida g(x) vendrá entonces dada por, 1 g(x) = F [f(x)] = 2¼j
Z
s00 +j1 s00 ¡j1
F (s)H(s)esx ds; s00 2 ROC,
(11.84)
es decir, en la forma de una nueva combinación lineal continua en términos del conjunto de funciones base, esto es, la transformada inversa de Laplace de g(x): El espectro G(s) de g(x) vendrá evidentemente dado por el conjunto continuo de coe…cientes, (11.85)
G(s) = H(s)F (s):
Nótese que, en esencia, esta expresión no representa más que la transformación del conjunto in…nito y continuo de coe…cientes (descritos por la variable s) asociados a la transformada inversa de la señal de entrada, a través del sistema. En otras palabras, asumiendo que la variable s juega el papel de un parámetro que enumera de forma continua cada uno de los elementos del conjunto de funciones base f'(x; s)g = fesx g ; siendo F (s) el conjunto continuo de coe…cientes asociado a una señal arbotraria f (x); el sistema lo que hace es modi…car en amplitud y fase cada uno de los elementos '(x; s) de forma que la señal de salida quede descrita por dichos elementos pesados por el conjunto de coe…cientes adecuado descrito por G(s);
1 f(x) = 2¼j
s00 +j1 Z
F (s)'(x; s) ds
1 g(x) = 2¼j
!F!
s00 ¡j1
s00 +j1 Z
G(s)'(x; s) ds
s00 ¡j1
#
"
F (s)'(x; s) 2 4
¡!
G(s)'(x; s)
G(s) = H(s)F (s) para todo s 2 C
3 5
² La interpretación del análisis espectral es totalmente similar a la realizada para la transformada de Fourier, de forma que el esquema anterior nos llevará una vez más al concepto de representación espectral de un sistema u operadores transformados que se analizará a continuación, en este caso respecto a la transformada de Laplace. 11.9.2
Operadores transformados. Representación espectral de un sistema.
Asumiendo como punto de partida un sistema lineal e invariante como el esquematizado en la Fig. 11.20 y recordando el concepto de que la respuesta al impulso puede verse como la función núcleo de un ~ podremos entonces escribir operador integral que caracteriza a cualquier operador arbitrario F 2 LI(S); la siguiente equivalencia, Z Z F´ h(x ¡ x0 ) dx0 = ¤ h(x) : f (x) ! g(x) = f (x0 )h(x ¡ x0 ) dx0 = f(x) ¤ h(x): (11.86) x0
x0
Ambas expresiones modelan el comportamiento de un sistema en el dominio real (variable x); la primera directamente a través del operador F; y la segunda a través de su versión integral. Resulta evidente que c Emilio Gago-Ribas, 2002 °
329
dicho operador podrá tener una versión en el dominio espectral de la variable compleja s sin más que aplicar la transformada de Laplace a su versión integral. En base a la propiedad (11.38), la transformada de Laplace de dicha convolución se convertirá en un producto; así, (11.87)
Fs ´ ¢ H(s) ! Fs [F (s)] = F (s)H(s);
es decir, que la versión espectral de un operador en este caso no es más que el producto de la transformada de Laplace de la respuesta al impulso que caracteriza a dicho operador. La función H(s) suele denominarse, como en el caso de la transformada de Fourier, como función de transferencia del sistema. Veamos algunos comentarios importantes: ² En base al análisis anterior, es importante hacer notar que la función de transferencia del sistema proporciona la información necesaria acerca de cómo el sistema modi…ca cada uno de los elementos del conjunto de funciones base que componen una señal arbitraria,
F (s)esx
!
F (s)H(s)esx
!
F
# F (s); ROCF
" !
H(s); ROCH
!
F (s)H(s); al menos ROCF \ ROCH
En este caso será fundamental caracterizar adecuadamente la región de convergencia de la función producto para poder volver al dominio real a traves de la transformada inversa en la forma adecuada. ² La importancia de la representación espectral de un sistema u operador viene determinada, además de por el signi…cado que adquiere, previamente comentado, por la sencillez que pasan a tener las ecuaciones que modelan el sistema. Nótese cómo un operador complicado como es el operador integral de convolución en (11.86), se convierte ahora en un producto de funciones en (11.87). Veamos a continuación los mismos ejemplos presentados en la Secc. 9.10.2 analizados ahora a través de la transformada de Laplace. 1. Ejemplo 1: Consideremos el problema eléctrico de una inductancia L sometida a una diferencia de potencial v(t) y recorrida por una corriente i(t) como el descrito en el ejemplo 2 de la Secc. 1.2. La descripción del sistema en el dominio real vendría dada por el operador diferencia ~ F = L d=dt 2 LI(S), v(t) = L
di(t) ; dt
(11.88)
o bien por su versión integral en términos de su respuesta al impulso, Z Z d±(t) 0 0 0 0 = L± (t) ! F ´ L ± (t ¡ t ) dt ! v(t) = i(t0 )± 0 (t ¡ t0 ) dt0 : h(t) = L dt 0 0 t t (11.89) Aplicando la transformada de Laplace a la ecuación (11.88), V (s) = sL I(s);
(11.90)
donde se ha utilizado la propiedad (11.39) asociada a la deriva de una función. Nótese como la versión espectral del operador no es más que la transformada de Laplace de la respuesta al impulso del sistema,
330
h(t) = L± 0 (t) Ã! H(s) = sL;
(11.91)
Fs ´ ¢ sL ! V (s) = sL I(s):
(11.92)
c Emilio Gago-Ribas, 2002 °
En la siguiente tabla queda recogido el proceso completo para este ejemplo. v(t) = L l
di(t) dt
Ã!
F´L
l 0
t0
0
l
Ã!
0
h(t) = L± (t) Z
V (s) = sL I(s)
0
± (t ¡ t ) dt
H(s) = sL l
Ã!
Fs ´ ¢ sL
2. Ejemplo 2: Consideremos un problema en el espacio descrito por la ecuación, d2 f (z) + k2 f (z) = g(z); dz 2
(11.93)
siendo f(z) y g(z) dos funciones arbitrarias que representan alguna magnitud arbitraria variando en un espacio unidimensional. En la siguiente tabla se recoge, de forma esquemática, la representación espectral del operador. g(z) =
d2 f(z) + k02 f (z) dz 2 l 00
h(z) = ± (z)
F´
Z
z0
+ k02 ±(z)
l £ 00 ¤ ± (z ¡ z 0 ) + k02 ±(z ¡ z 0 ) dz 0
Ã!
¤ £ G(k) = k02 ¡ s2 F (s) l
Ã!
H(k) = k02 ¡ s2
Ã!
l £ 2 ¤ Fs ´ ¢ k0 ¡ s2
² Finalmente, resulta importante destacar que si el sistema viene descrito por operadores diferen~ la representación espectral de dicho operador da lugar a funciones espectrales ciales LD 2 LI(S); racionales como las mencionadas en la Secc. 11.6. Consideremos por ejemplo el operador diferencial de coe…cientes constantes, FD = an
dn dn¡1 d + an¡1 n¡1 + ::::: + a1 + a0 : n dx dx dx
(11.94)
Utilizando la propiedad de derivación en (11.40), FDs = an sn + an¡1 sn¡1 + ::::: + a1 s + a0 :
(11.95)
Así, la relación entre la señal de salida y la señal de entrada vendría dada por, H(s) =
F (s) = an sn + an¡1 sn¡1 + ::::: + a1 s + a0 ; G(s)
(11.96)
o bien, la respuesta al impulso del operador inverso, G(s) =
G(s) 1 = ; n n¡1 F (s) an s + an¡1 s + ::::: + a1 s + a0
(11.97)
expresiones que claramente darán lugar a funciones raciones.
c Emilio Gago-Ribas, 2002 °
331
332
c Emilio Gago-Ribas, 2002 °
Apéndices
333
Apéndice A.
A.1
Diccionario Básico de Álgebra de Espacios
Espacios métricos. ² Distancia. Función escalar que asocia a dos elementos a y b de un conjunto arbitrario A un número real, d(a; b) ¡! R.
(A.1)
Esta función se denomina Métrica si cumple las siguientes condiciones: a: d(a; b) ¸ 0 y d(a; b) = 0 sii a = b:
b: d(a; b) = d(b; a): c: d(a; c)
d(a; b) + d(b; c):
² Espacio métrico. Espacio sobre el que se ha de…nido una métrica válida, esto es, satisface las condiciones de métrica anteriormente mencionadas. A + d ´ (A; d)
² Convergencia de series. Sea A un espacio sobre el que se ha de…nido una métrica válida d; esto es, (A; d): Tomemos una secuencia in…nita del tipo a1 ; a2 ; ....., an ; ..... = (an )1 n=1 : Decimos que dicha secuencia es convergente si existe a 2 A tal que para todo ² > 0; existe un N tal que d(an ; a) < ²; n ¸ N; ó limn!1 an = a:
² Secuencia de Cauchy. Sea una secuencia (an )1 n=1 2 A, abreviadamente (an ). Decimos que dicha secuencia es una secuencia de Cauchy si para todo ² > 0 existe un N tal que d(an ; am ) < ²; n y m ¸ N:
² Corolario. Toda secuencia convergente es de Cauchy pero no toda secuencia de Cauchy es convergente, ya que su límite no tiene porqué ser un elemento del espacio de partida.
² Espacios completos. Sea (A; d) un espacio métrico. Decimos que A es completo respecto a la métrica de…nida por d si toda secuencia de Cauchy de…nida con los elementos de A es convergente.
² Continuidad. Sean (A1 ; d1 ) y (A2 ; d2 ) dos espacios métricos, y sea f : (A1 ; d1 ) ¡! (A2 ; d2 ) un funcional operando sobre el espacio de partida. Decimos que f es continua en x0 2 A1 si para todo ² > 0 existe un ± > 0 tal que d1 (x; x0 ) < ± =) d2 (y; y0 ) < ²; con y = f (x) 2 A2 ; y x; x0 2 A1 : Diremos que f es continua si lo es para todo x0 2 A1 :
² Nota: el concepto de continuidad depende extremadamente de la de…nición de métrica realizada.
² Espacio métrico separable. Decimos que (A; d) es separable si para todo ² > 0 existe una secuencia (an ) 2 A contable1 tal que d(a; ai ) < ² para todo a 2 A (i = 1; 2; ....., n; .....):
² Nota: una forma de visualizar un espacio métrico separable es: aquel espacio que puede ser recubierto por un conjunto contable de esferas de radio ²:
² Espacio métrico pre-compacto. Sea (A; d) un espacio métrico. Decimos que es compacto si para todo ² > 0 existe una secuencia (an ) 2 A …nita tal que d(a; ai ) < ²; para todo a 2 A (i = 1; 2; ....., n; .....): 1 Se dice que un conjunto de elementos es contable si: (i) es …nito, o (ii) se puede poner en corrrespondencia uno a uno con los números naturales. Algunas propiedades importantes de los conjuntos contables son: (a) La unión de secuencias contables correspondiente a conjuntos contables también es contable. (b) El espacio R de los números reales no es contable, Cap. 12 de [21].
335
A.2
Espacios vectoriales. ² Un conjunto de elementos fa; b; c; :::::g decimos que es un espacio vectorial V, y denotamos a sus elementos por f~a; ~b; ~c; :::::g; si satisface las siguientes propiedades respecto de dos leyes de operación, una interna2 , y otra externa3 : 1. Ley interna: (a) Propiedad conmutativa: ~a + ~b = ~b + ~a: (b) Propiedad asociativa: ~a + (~b + ~c) = (~a + ~b) + ~c: (c) Elemento neutro, ~0; respecto de la ley interna: ~a + ~0 = ~a; para todo ~a 2 V:
(d) elemento opuesto, ¡~a: ~a + (¡~a) = ~0; para todo ~a 2 V: 2. Ley externa respecto a un cuerpo K de escalares:
(a) Propiedad distributiva respecto del cuerpo de escalares: (® + ¯)~a = ®~a + ¯~a: (b) Propiedad distributiva respecto del espacio vectorial: ®(~a + ~b) = ®~a + ®~b: (c) Propiedad asociativa respecto al cuerpo de escalares: ®(¯~a) = (®¯)~a: (d) Elemento neutro del cuerpo K: 1~a = ~a: ² Combinaciones lineales. Una vez de…nidas las leyes interna y externa, será posible generar combinaciones lineales de un número M arbitrario de elementos del espacio vectorial; así, de…niremos una combinación lineal en la forma, ~b =
M X i=1
®i ~ai ; ®i 2 K; y ~ai 2 VK :
(A.2)
El vector ~b obtenido como resultado de la combinación lineal será otro vector perteneciente a VK :
² Vectores linealmente independientes. Diremos que un conjunto de N vectores f~a1 ; ~a2 ; :::::; ~aN g 2 V es linealmente independiente si, N X
®i ~ai = ~0 =) ®i = 0; i = 1; 2; :::::; N:
(A.3)
n=1
² Espacio engendrado por un sistema de vectores de VK : Dado un conjunto de vectores f~a1 ; ~a2 ; :::::; ~aN g 2 VK ; denominaremos por VKs al espacio generado al realizar todas las combinaciones lineales posibles con ese conjunto de vectores, (N ) X VKs = ®i ~ai ; ®i 2 K: (A.4) n=1
En general, VKs µ VK :
² Base de un espacio vectorial. Diremos que un conjunto de vectores f~a1 ; ~a2 ; :::::; ~aN g 2 VK es una base de VK si: 1. Es linelamente independiente. 2. Engendra todo el espacio VK : El número N de elementos que componen una base será la dimensión de espacio VK ; Dim fVK g = N:
(A.5)
2 Operación suma de…nida sobre el propio espacio. El resultado de la suma de dos vectores del conjunto deberá ser otro vector perteneciente al mismo conjunto. 3 El producto por un número, o lo que es lo mismo, la posibilidad de escalar el tamaño de cualquiera de los vectores. Diho producto estará referido a un cuerpo de escalares K, habitualmente el cuerpo de los números reales R o de los números complejos C: El vector resultante del escalado será otro vector perteneciente al conjunto original.
336
c Emilio Gago-Ribas, 2002 °
² Componentes contravariantes de un vector: Sea f~ei gN una base arbitraria de un espacio vectorial VK . Cualquier vector ~a 2 VK se podrá escribir como una combinación lineal de los elementos de la base, esto es, ~a =
N X i=1
ai~ei ; ai 2 K; y ~ei 2 VK :
(A.6)
El conjunto de valores fai gN 2 K diremos que son las componentes (contravariantes) del vector ~a en la base f~ei gN : Cualquier operación entre dos vectores cualesquiera ~a y ~b 2 VK podrá realizarse en términos de sus componentes fai gN y fbi gN respecto a una cierta base.
² Subespacio vectorial (subespacio lineal). Sea VK un espacio vectorial, y sea M ½ VK : Se dice que M es un subespacio lineal de VK si ®~a + ¯~b 2 M; para todo ~a; ~b 2 M; y para todo ®; ¯ 2 K:
² Subespacio cerrado. Decimos que M ½ VK es cerrado si contiene a todos los límites de todas las secuencias que se pueden de…nir con los elementos de M:
² Suma directa. Sean M y N subespacios de VK : Decimos que VK es la suma directa de M y N (VK = M © N ) si: a: M \ N = f~0g:
b: Para todo ~a 2 VK ; ~a = ~b + ~c; ~b 2 M, ~c 2 N :
A.3
Espacios vectoriales normados. ² Norma de un vector. Sea VK un espacio vectorial. La norma de un vector ~a 2 VK se de…ne como el funcional k~ak : VK ¡! R;
(A.7)
que satisface: a: k~xk ¸ 0 y k~xk = 0 sii ~x = ~0 para todo ~x 2 VK :
b: k¸~xk = j¸j k~xk para todo ~x 2 VK y para todo ¸ 2 K. c: k~x + ~yk
k~xk + k~y k ; para todo ~x; ~ y 2 VK :
² Espacios vectoriales normados. Son espacios vectoriales en los que se de…ne una norma válida. VK + k¢k ´ (VK ; k¢k):
² Corolario. Todo espacio normado es un espacio métrico.
² Corolario. Si sobre un espacio vectorial se de…ne una norma válida, podemos aplicar los conceptos de espacios métricos respecto a la métrica de…nida por dicha norma, esto es, convergencia, continuidad, separabilidad, etc. ² Teorema. Para todo (VK ; k¢k); el funcional d : VK £ VK ¡! R de…nido por d(~x; ~ y ) = k~x ¡ ~yk de…ne una métrica invariante respecto a la traslación. ² Teorema. Para todo (VK ; k¢k); el funcional k¢k : VK ¡! R es continuo, es decir, la norma es una función continua. ² Teorema. En un espacio (VK ; k¢k); las operaciones algebráicas, esto es, la ley interna (+) : VK £ VK ¡! VK , y la ley externa (¢) : VK £ K ¡! VK , son continuas.
² Espacios de Banach. Sea BK un espacio vectorial normado (BK ; k¢k): Si BK es completo respecto a la métrica de…nida por k¢k ; se dice que es un espacio de Banach. Dicho de otra forma, es un espacio vectorial completo respecto de la métrica inducida por la norma de…nida sobre dicho espacio. ² Series convergentes en un espacio normado. Sea (V PK ; k¢k) un espacio vectorial normado, y (~an ) una secuencia dentro de dicho espacio. Decimos que 1 an converge a ~a sii n=1 ~ lim
k!1
c Emilio Gago-Ribas, 2002 °
k X
n=1
~an ! ~a:
(A.8)
337
Nota: el estudio de la convergencia de series en un espacio de Banach no es en absoluto trivial. Pero veremos que se pueden determinar una serie de reglas si el espacio es de Hilbert y la secuencia a sumar es ortonormal. ² Expansión lineal de A (lin A). Sea (VK ; k¢k) y A ½ VK : Se denomina expansión lineal de A a la intersección de todos los subespacios de VK que contienen a A:
² Expansión lineal cerrada de A (clin A). Sea (VK ; k¢k) y A ½ VK : Se denomina expansión lineal cerrada de A a la intersección de todos los subespacios cerrados de VK que contienen a A:
A.4
Espacios vectoriales con producto interno.
A.4.1
Espacios vectoriales de dimensión …nita. ² De…nimos el producto escalar como una cierta forma bilineal con las siguientes propiedades: a: Es simétrica. b: Es no degenerada (determinante no nulo). La particularización más común en comparación con R3 es la forma bien conocida (por ejemplo, para Cn ); h~a; ~bi =
A.4.2
n X
ai b¤i :
(A.9)
i=1
Extensión a espacios vectoriales de dimensión in…nita. ² De…nimos el producto interno como una forma bilineal del tipo h¢; ¢i : VK £ VK ¡! C;
(A.10)
tal que para todo ~a; ~b, ~c 2 VK ; y para todo ¸ 2 C; a: h~a; ~bi = h~b; ~ai¤ :
b: h¸~a; ~bi = ¸h~a; ~bi:
c: h~a + ~b; ~ci = h~a; ~bi + h~b; ~ci:
d: h~a; ~ai ¸ 0; y h~a;~ai = 0 sii ~a = ~0: A.4.3
Espacios vectoriales con producto interno como espacios métricos. ² Norma de un vector. k ~a k= h~a; ~ai1=2 : ² Desigualdad de Cauchy-Schwarz.
a: Geometría euclídea: ~a ¢ ~b =j ~a jj ~b j cos ® =)j ~a ¢ ~b j=j ~a jj ~b j cos ®
b: Espacios vectoriales: j h~a; ~bi j k ~a kk ~b k :
j ~a jj ~b j :
² Espacios de Hilbert. Sea HK un espacio vectorial con producto interno (HK ; h¢; ¢i): Si HK es completo respectro a la métrica de…nida por h¢; ¢i ; se dice que es un espacio de Hilbert. Dicho de otra forma, un espacio de Hilbert es un espacio vectorial completo respecto a la métrica inducida por la norma de…nida por el producto interno especi…cado sobre dicho espacio. ² Corolario. Los espacios con producto interno son un caso particular de los espacios normados.
² Corolario. Todo espacio de Hilbert es un espacio de Banach, pero no todo espacio de Banach es un espacio de Hilbert. ² Teorema. Sea HK un espacio de Hilbert y M un subespacio lineal cerrado de HK : Entonces M también es un espacio de Hilbert.
338
c Emilio Gago-Ribas, 2002 °
A.5
Espacios de Hilbert. Introducción al espacio L2 (a; b): 1. Partimos del espacio vectorial de funciones S(a; b); esto es: (a) Funciones complejas continuas de variable real. (b) De…nidas en el intervalo [a; b]: (c) Con la suma y el producto por un escalar complejo de…nidos punto a punto. 2. De…nimos un producto interno, hf(x); g(x)i =
Z
b
f (x)g¤ (x) dx:
(A.11)
a
3. La métrica inducida por el producto interno vendrá dada por, 1=2
d(f (x); g(x)) = kf(x) ¡ g(x)k = hf(x) ¡ g(x); f (x) ¡ g(x)i
=
"Z
b
a
2
#1=2
jf (x) ¡ g(x)j dx
:
(A.12)
4. Pero S(a; b) no es completo respecto a dicha métrica. Esto hace que S(a; b) no sea un espacio de Hilbert. 5. Por otro lado, dicho producto interno no es más que la versión continua del producto interno natural en Cn (de dimensión …nita) y aparece también de forma natural en el desarrollo de los operadores diferenciales, tan importantes en la práctica. Esto hace que queramos seguir usándola. Trataremos entonces de encontrar, a partir de S(a; b) un espacio que sea completo respecto a la métrica impuesta por dicho producto interno. 6. La clave estará en considerar también las funciones discontinuas. A pesar de la no completitud del espacio S(a; b); Hilbert trabajó siempre suponiendo funciones continuas. Fue Riezt quien introdujo el espacio L2 (a; b) como extensión de S(a; b); añadiendo también las funciones discontinuas.
7. En la práctica, es usual tener que restringir S(a; b) al conjunto de funciones que son cuadrado integrables (de forma similar a las secuencias cuadrado sumables). De hecho, cuando se habla normalmente de funciones integrables, es en el sentido de Riemann. De esta forma, podríamos de…nir ya un espacio, denominado en principio L2 (a; b); como el conjunto de: (a) Funciones complejas de variable real de…nidas en el intervalo [a; b]: (b) Continuas o discontinuas. (c) Con la suma y el producto por un escalar de…nidos punto a punto. (d) Con el producto escalar de…nido en (A.11). (e) Que son cuadrado integrables (en el sentido de Riemann). Es posible demostrar que el espacio así de…nido es todavía incompleto respecto al producto interno de…nido.
8. Se comenzó así a intentar de…nir una nueva forma integral, diferente a la de Riemann, que hiciese de dicho espacio de funciones un conjunto completo. La carrera fue ganada por Lebesgue, introduciendo la de…nición de integral de Lebesgue que aparece en la teoría de medidas. 9. Podemos de…nir ya el espacio L2 (a; b) como el conjunto de: (a) Funciones complejas de variable real de…nidas en el intervalo [a; b]: (b) Continuas o discontinuas. (c) Con la suma y el producto por un escalar de…nidos punto a punto. (d) Con el producto escalar de…nido en (A.11). (e) Que son cuadrado integrables, con la integral de…nida en el sentido de Lebesgue. El espacio así de…nido es completo, y por lo tanto, es un espacio de Hilbert. c Emilio Gago-Ribas, 2002 °
339
A.6
Expansiones ortogonales.
Sea (VK ; h¢; ¢i) un espacio vectorial en el que se ha de…nido un producto interno válido. ² Ortogonalidad. Decimos que ~a y ~b 2 VK son ortogonales sii h~a; ~bi = 0:
² Sistema ortogonal. (~a® )®2A 2 VK es un sistema ortogonal si ~a® ? ~a¯ para ® 6= ¯:
² Sistema ortonormal. Si k ~a® k= 1 para todo ®; el sistema es ortonormal. Un vector de norma unidad lo denotaremos por a ^: ² Si A ´ N; tendremos una secuencia ortonormal, (^ en )n2N :
² Un sistema ortogonal es propio si no contiene el vector ~0:
² Teorema. Sea ~a1 ; ~a2 ; ....., ~an un sistema ortogonal en (VK ; h¢; ¢i): La siguiente propiedad es cierta, ° n °2 n °X ° X ° ° ~ai ° = k ~ai k2 : ° ° ° i=1
A.6.1
(A.13)
i=1
Teoría de la mejor aproximación.
² Teorema. Sea ~a 2 (VK ; h¢; ¢i) y sea e^1 ; e^2 ; ....., e^n una secuencia ortonormal en VK : El vector ~b 2lin(^ e1 ; e^2 ; ....., e^n ) más cercano a ~a será, ~b =
n X i=1
(A.14)
h~a; e^i i e^i ;
y la distancia d(~a; ~b) será tal que d2 =k ~a ¡ ~b k2 =k ~a k2 ¡
n X i=1
jh~a; e^i ij2 :
(A.15)
² Corolario. Si ~a 2 V; y ~a 2lin(^ e1 ; e^2 ; ....., e^n ); entonces ~a =
n X i=1
(A.16)
h~a; e^i i e^i :
² Teorema. Desigualdad de Bessel. Sea (^ en ) una secuencia ortonormal in…nita en (VK ; h¢; ¢i): Para todo ~a 2 VK ; n X i=1
jh~a; e^n ij2
k ~a k2 :
(A.17)
² Sea (^ en ) una secuencia ortonormal en un espacio de Hilbert HK : Para todo ~a 2 HK : a: h~a; e^n i es el coe…ciente n¡ésimo de Fourier respecto a (~en ): P b: h~a; e^n i e^n es la serie de Fourier respecto a (~en ): n
A.6.2
Bases.
¿Hasta qué punto un sistema ortonormal puede hacer las veces de un sistema de coordenadas, o lo que P es lo mismo, de una base? Desde luego, estamos esperando que para todo ~a 2 HK , ~a = n h~a; e^n i e^n : Si queremos que esto sea así, la secuencia elegida (^ en ) deberá de cumplir o de asegurar: 1. La convergencia de dicha serie. 2. La completitud del sistema ortonormal (^ en ):
340
c Emilio Gago-Ribas, 2002 °
A.6.3
Convergencia de la serie. ² Convergencia P en espacios de Hilbert. Sea (^ en ) una secuencia ortonormal en HC ; y sea (¸n ) 2 C. 1 Decimos que n=1 ¸n e^n converge en HC si 1 X
n=1
j¸n j2 < 1:
(A.18)
En el caso de las series de Fourier, ¸n ´ h~a; (^ en )i tal que ~a =
1 X
n=1
h~a; e^n i e^n ;
(A.19)
si ~a 2lin(^ en ); de forma que 1 X
n=1
j¸n j2 =
1 X
n=1
jh~a; e^n ij2 < 1:
(A.20)
Pero esta última expresión nos viene asegurada por la desigualdad de Bessel. Esto hace que, sobre un espacio de Hilbert, la aproximación en serie de Fourier siempre sea convergente. A.6.4
Completitud de secuencias ortonormales.
Hemos visto que, tomada una secuencia ortonormal en un espacio de Hilbert, el desarrollo en serie de Fourier es convergente. Pero, sin tener más en cuenta, la teoría de la mejor aproximación nos dice que no podemos asegurar que dicha serie converja al elemento de partida ~x que queremos representar. ² Una secuencia ortonormal (^ en ) en un espacio de Hilbert HK es completa si el único miembro de HK ortogonal a cada elemento e^n es el vector ~0: ² Teorema. Sea (^ en ) una secuencia ortonormal completa en HK : Para todo ~a 2 HK ; ~a =
n X i=1
y
k ~a k2 =
(A.21)
h~a; e^i i e^i ;
n X i=1
jh~a; e^i ij2 :
(A.22)
² Una secuencia ortonormal en HK ´ Base ortonormal en HK : A.6.5
¿Cómo probar que una secuencia particular es completa?
El problema no es sencillo, y hay que intentar visualizarlo en términos topológicos. ² Teorema. Sea (^ en ) una secuencia ortonormal completa en HK : Las siguientes a…rmaciones son equivalentes: (^ en ) completa ´ clinf^ en ; n 2 Ng = HK ´k ~a k2 =
1 X
n=1
jh~a; e^i ij2 ; para todo ~a 2 HK :
(A.23)
² Espacios separables. Se dice que un espacio HK es separable si contiene una secuencia ortonormal completa.
c Emilio Gago-Ribas, 2002 °
341
342
c Emilio Gago-Ribas, 2002 °
Apéndice B.
B.1
Diccionario Básico de Álgebra de Operadores
Espacios duales (funciones escalares lineales). ² Función escalar. Es una asociación de los elementos de un espacio vectorial VK con los elementos de K; (B.1)
f : VK ¡! K: ² Función escalar lineal. Decimos que f es lineal si para todo ~x; ~y 2 VK y para todo ¸; ¹ 2 K;
(B.2)
f(¸~x + ¹~y) = ¸f(~x) + ¹f (~y ):
² Espacio dual. Formemos el espacio de funciones ff g = ff = f es lineal}. El espacio de dichas ¤ funciones se denomina espacio dual de VK ; y se denota por VK : ¤ ² Teorema. Si Dim(VK ) = n; entonces Dim(VK ) = n:
B.1.1
Espacios de dimensión in…nita. ² El espacio de todas las funciones escalares lineales sobre un espacio normado es demasiado grande. Una vez más, los espacios de Hilbert juegan aquí un papel fundamental ya que, básicamente, son su propio dual. Esto hace que nos acerquemos más a los conceptos de dimensión …nita que en el caso de los espacios de Banach. ² Teorema. Sea f una función escalar lineal sobre un espacio normado (BK ; k¢k): Las siguientes a…rmaciones son equivalentes: f es continua ´ f es continua en ~0 ´ sup fjf (x)j ; ~x 2 BK ; k ~x k
1g < 1:
(B.3)
¤ Dicho de otra forma, f es continua si está acotada en la bola unidad de BK :
¤ ² Teorema. El espacio BK dual de BK es, él mismo, un espacio de Banach respecto a:
a: Operaciones elemento a elemento. b: kfk =supfjf(x)j ; ~x 2 BK ; k ~x k
1g :
² Teorema de Riesz-Fréchet. Sea HK un espacio de Hilbert y sea f una función escalar lineal continua en HK : Existe un único ~y 2 HK tal que f(~x) = h~x; ~yi; para todo ~x 2 HK y, además, k ~ y k=k f k :
¤ ² Corolario. Para todo HK ; existe un operador T : HK ¡! HK dado por T [~y ] = h¢; ~yi que es suprayectivo, esto es, cubre todo el espacio dual.
² Corolario. En vista de la existencia de dicho operador, los espacios de Hilbert se dice que son auto-duales.
B.2 B.2.1
Operadores lineales. Operadores lineales en espacios de dimensión …nita.
Aplicaciones. ² Aplicaciones. Asociaciones de elementos de un espacio vectorial en otro espacio vectorial, F : VK1 ¡! WK2 :
(B.4)
² Dominio de F: Dom fFg ; conjunto de elementos de VK1 sobre los que actúa F: 343
² Imagen de F ´ Rango de F: Ran fFg = f~y 2 WK2 = 9 ~x 2 VK1 ; F [~x] = ~ y g µ WK2 :
(B.5)
² Aplicaciones inyectivas. Son aplicaciones del tipo uno-a-uno, es decir, la aplicación relaciona un elemento del conjunto de partida con un elemento del conjunto de llegada. Matemáticamente, para todo ~ y 2 Ran fFg ; existe un único ~x 2 VK1 tal que F [~x] = ~ y:
² Aplicaciones suprayectivas. Son aplicaciones que relacionan todo el conjunto de partida en todo el conjunto de llegada. Matemáticamente, para todo ~y 2 WK2 existe ~x 2 VK1 tal que F [~x] = ~ y:
² Aplicaciones biyectivas. Son aplicaciones del tipo uno-a-uno que, además, relacionan el conjunto de partida con todo el conjunto de llegada. Biyectivas=Inyectivas+Suprayectivas.
² Aplicaciones inversas. Una aplicación F : VK1 ¡! VK2 tiene inversa si y sólo si F es inyectiva y suprayectiva. Aplicaciones lineales. ² Sean dos espacios vectoriales VK y WK de…nidos sobre el mismo cuerpo de escalares.
² Aplicación lineal. Decimos que F : VK ¡! WK es lineal si y sólo si
(B.6)
F [®~x + ¯~y ] = ®F [~x] + ¯F [~y ] ; para todo ~x; ~y 2 VK y para todo ®; ¯ 2 K, con F [~x] y F [~y] 2 WK :
² Sea F una aplicación lineal. El rango de F es un subespacio lineal de VK :
² Sea F una aplicación lineal. El núcleo de F es un subespacio lineal de VK :
² Teorema. Sea VK un espacio de dimensión n; y sean q y s las dimensiones del núcleo y del rango de una aplicación lineal F de VK en WK : Se cumple que Dim fVK g = Dim fKer fFgg + Dim fRan fFgg ;
(B.7)
n = q + s:
(B.8)
o lo que es lo mismo,
Aplicaciones lineales inversas. ² Teorema. Sea F : VK ¡! WK una aplicación lineal con Ker fFg = f~0g; y F suprayectiva. Existe una aplicación F¡1 lineal tal que ~x = F¡1 [~ y ] ; para todo ~x 2 VK ; y para todo ~y 2 WK :
² Generalización. Operadores inversos sobre espacios lineales de dimensión …nita. Sea F : E ¡! E; siendo E un espacio normado. Las siguientes a…rmaciones son equivalente, F inyectiva ´ F suprayectiva ´ F¡1 2 L(E) tal que F ¢ F¡1 = I ´ ´ 9 F¡1 2 L(E) tal que F ¢ F¡1 = I ´ F es invertible. B.2.2
(B.9)
Introducción a los operadores lineales en espacios de dimensión in…nita. ² Sean VK y WK espacios vectoriales sobre un cuerpo K de escalares. Un operador lineal T es una transformación T : VK ¡! WK ;
(B.10)
T[®~x + ¯~y] = ®T[~x] + ¯T[~y];
(B.11)
tal que
para todo ~x; ~y 2 VK y para todo ®; ¯ 2 K; con T[~x]; T[~y ] 2 WK :
² Un operador lineal sobre VK es una transformación T : VK ¡! VK : 344
c Emilio Gago-Ribas, 2002 °
² Operadores acotados. Sean AK y BK espacios vectoriales normados, (AK ; k¢k); (BK ; k¢k): Un operador lineal F : AK ¡! BK se dice que está acotado si existe un M ¸ 0 tal que k F[~x] k M k ~x k; para todo ~x 2 AK :
² Norma de un operador acotado. Sea F : AK ¡! BK acotado. La norma del operador se de…ne como. k F k = sup fk T[~x] k; ~x 2 A; k ~x k< 1g :
(B.12)
La norma de un operador se puede ver como el mayor factor por el cuál el operador comprime los vectores del espacio de partida. ² Propiedad. Para todo ~x 2 AK ; k T[~x] k k T k k ~x k :
² Dominio de T:
Dom fTg = f~x 2 AK sobre los que se puede aplicar Tg µ AK :
(B.13)
Ran fTg = f~ y 2 WK = 9 ~x 2 VK ; T[~x] = ~y g µ WK :
(B.14)
² Rango de T:
El rango de T es un subespacio lineal si Dom fTg es también un subespacio lineal.
² Núcleo de T:
n o Ker fTg = ~x 2 VK = T[~x] = ~0 µ VK :
(B.15)
El núcleo de T es un subespacio lineal de Dom fTg :
² Teorema. Sean AK y BK espacios vectoriales normados, y T : AK ¡! BK un operador lineal. Las siguientes a…rmaciones son equivalentes: T es continuo1 ´ T es continuo en ~0 ´ T está acotado. B.2.3
(B.16)
El espacio de Banach L(AK ; BK ): ² Sean AK y BK espacios vectoriales normados, y sea L(AK ; BK ) el espacio de todos los operadores lineales continuos T : AK ¡! BK : Entonces, L(AK ; BK ) es también un espacio normado respecto a: a: Las operaciones elemento a elemento. b: La norma del operador. ² Si BK es un espacio de Banach, L(AK ; BK ) también es un espacio de Banach.
² Composición de operadores. Sea P : AK ¡! BK y Q : BK ¡! CK dos operadores lineales. Para todo ~x 2 AK ; QP[~x] = Q [P[~x]] 2 CK :
² Sean AK ; BK y CK espacios normados. Si P 2L(AK ; BK ) y Q 2L(BK ; CK ); entonces: a: QP 2L(AK ; CK ):
b: k QP k B.2.4
kQkkPk:
Ecuaciones. Operadores inversos. ² Resolver ecuaciones es lo mismo que invertir operadores. Dado un operador L 2 L(AK ; BK ) [el caso más común es que L 2 L(AK )]; L[~x] = ~y tiene solución única ~x = L¡1 [~y]: Espacios de dimensión …nita.
En espacios de dimensión …nita, y basados en las condiciones anteriores, existe la teoría de los determinantes que nos dicen todo lo que necesitamos conocer acerca de la existencia de L¡1 y de su obtención.
c Emilio Gago-Ribas, 2002 °
345
Espacios de dimensión in…nita. ² Sean AK y BK espacios vectoriales normados. Un operador P 2 L(AK ; BK ) es invertible si existe Q 2 L(BK ; AK ) tal que PQ = IB y QP = IA :
(B.17)
Si existe Q; es único, y se denota por P¡1 : ² Nota: aunque la de…nición parezca la misma que en espacios …nitos, es más extensa ya que, en este caso, las equivalencias realizadas antes para espacios …nitos no son equivalentes ahora. ² Sea BK un espacio de Banach, y P 2 L(BK ): Si k P k < 1; entonces I ¡ P es invertible y, además, X (I ¡ P)¡1 = Pn ; con P0 = I; P1 = P; P2 = P(P ), etc. (B.18) n
² Corolario. Sea BK un espacio de Banach. El conjunto de operadores invertibles sobre BK es abierto en L(BK ): B.2.5
Operadores adjuntos. ² Teorema. Sean H1 y H2 espacios de Hilbert, y sea P 2 L(H1 ; H2 ): Existe un único operador P¤ 2 L(H2 ; H1 ) tal que (B.19)
hP[~x]; ~ y iH2 = h~x; P[~ y ]iH1 ; para todo ~x 2 H1 y para todo ~y 2 H2 :
² Teorema. P¤¤ = P y k P¤ k=k P k; para todo P 2 L(H1 ; H2 ):
² Teorema. Sean H1 ; H2 y H3 espacios de Hilbert, y sean dos operadores P 2 L(H1 ; H2 ) y Q 2 L(H2 ; H3 ): La siguiente propiedad se cumple siempre, (QP)¤ = P¤ Q¤ : B.2.6
(B.20)
Operadores hermíticos (autoadjuntos). ² Sean H un espacio de Hilbert y P 2 L(H): P es autoadjunto si P = P¤ :
² Teorema. Si P es autoadjunto (hermítico) sobre un espacio de Hilbert H; k P k = sup jhP[~x]; ~xij :
(B.21)
j~ xj=1
B.2.7
Espectro de un operador. ² Sea P 2 L(AC ); siendo AC un espacio de Banach. El espectro P; ¾(P); es el conjunto de valores ¸ 2 C tales que ¸I ¡ P no es invertible.
B.3
Operadores compactos. ² Sean AK y BK espacios vectoriales normados, y P 2 L(AK ; BK ) lineal. P es compacto si para toda secuencia acotada (~xn ) 2 AK ; la secuencia (P[~xn ]) 2 BK posee una subsecuencia convergente en BK :
² Corolario. Un operador compacto ha de ser necesariamente acotado.
² La de…nición general de compactitud no es fácil de llevar a la práctica. Veamos una propiedad más fuerte que la de compactitud y, a la vez, más fácil de testear en la práctica. ² Sean H1 y H2 espacios de Hilbert, y sea P 2 L(H1 ; H2 ): Se dice que P P es un operador de HilbertSchmidt si existe una secuencia ortonormal completa (~en ) en H1 tal que n k P[~en ] k2 < 1:
² Teorema. Los operadores de Hilbert-Schmidt son compactos. 346
c Emilio Gago-Ribas, 2002 °
² Teorema. Sea k : (c; d) £ (a; b) ¡! C una función integrable en el sentido de Lebesgue, tal que RdRb 2 2 2 c a jk(t; s)j ds dt < 1: El operador integral K : L (a; b) ¡! L (c; d) con kernel k(t; s) es un operador de Hilbert-Schmidt, lo que hace que sea también compacto, K[f(t)] =
Z
b a
k(t; s)f(s) ds = F (t) 2 L2 (c; d):
(B.22)
² Corolario. No todos los operadores compactos son de Hilbert-Schmidt.
² Corolario. La prueba más usual de que un operador es compacto consiste en determinar que dicho operador es la norma límite de una secuencia de operadores con rango …nito. B.3.1
Espectro de un operador compacto y hermítico. ² Teorema. Sea K un operador hermítico y compacto sobre un espacio de Hilbert H: Al menos k K k ó ¡ k K k son autovalores de K:
² Teorema. Sea K un operador hermítico sobre un espacio de Hilbert H: a: Todos los autovalores de K son reales.
b: Todos los autovectores correspondientes a autovalores de K diferentes son ortogonales. ² Teorema. Sea K un operador hermítico y compacto sobre un espacio de Hilbert H: El conjunto de autovalores de K es un conjunto de números reales que es, o bien …nito, o bien una secuencia contable tendiendo a cero. ² Lema. Sea M un subespacio lineal cerrado de H que, además, es invariante2 bajo la acción de un operador lineal K sobre H: Se cumple que M? (complemento ortogonal de M) es invariante bajo la acción de K¤ ; esto es, K¤ [M? ] µ M? : B.3.2
Teorema espectral. ² Teorema. Sea K un operador hermítico y compacto sobre un espacio de Hilbert H: Existe una secuencia ortonormal …nita Po in…nita de autovectores (Án ) de K con autovalores reales (¸n ) tal que para todo ~x 2 H; K[~x] = n ¸n h~x; Án iÁn :
² Corolario. La secuencia ortonormal (Án ) de autovectores de K no tiene porqué ser completa. De hecho, si el espacio H no es separable, ninguna secuencia ortonormal en H es completa.
² Corolario. Si H es separable, (Án ) puede extenderse a una base ortonormal completa.
² Corolario. Sea K un operador hermítico y compacto sobre un espacio de Hilbert H separable y de dimensión in…nita. Existe una secuencia ortonormal completa (^ en )n2N formada por los autovalores de K de forma que, para todo ~x 2 H; X ~x = ¸n h~x; e^n i e^n : (B.23) n
2 K[M]
µ M:
c Emilio Gago-Ribas, 2002 °
347
348
c Emilio Gago-Ribas, 2002 °
Apéndice C.
De…nición de Distribuciones Mediante Sucesiones
Además de la sucesión de funciones Gaussianas utilizada en el Cap. 7 para de…nir las distribuciones ±(x); ± 0 (x) y ± 00 (x); o bien la sucesión de funciones arco tangente para de…nir la distribución de Heaviside, existen otras muchas sucesiones de funciones válidas para para modelar cualquiera de estos objetos matemáticos. Muchas de ellas pueden resultar de importancia dado que aparecen como consecuencia directa de situaciones límite de transformadas de Fourier directas o inversas así como de propiedades asociadas a la propia de…nición de la transformada de Fourier (véase por ejemplo la Secc. 9.7). Analizaremos las que, a juicio del autor, pueden ser más ilustrativas desde un punto de vista práctico en función de los aspectos mencionados.
C.1 C.1.1
Distribución delta de Dirac. Sucesión de funciones sinc.
En virtud de la transformada de Fourier de un pulso de ancho ¢ es posible obtener una nueva sucesión de funciones para representar la distribución delta de Dirac cuando ¢ ! 1; así, ¡ ¢ TF [P¢ (x)] = ¢ sinc ¢ (C.1) 2» : Cuando ¢ ! 1; P¢ (x) ! 1; es decir, la función constante unidad, cuya transformada de Fourier es igual a 2¼±(»): Podremos entonces escribir la siguiente relación, £ ¡ ¢¤ lim P¢ (x) = 1 Ã! lim ¢ sinc ¢ = 2¼±(»): (C.2) 2» ¢!1
¢!1
Reescribiendo este resultado en la variable x;
lim d¢ (x) = ±(x) ¡! d¢ (x) =
¢!1
¡ ¢ ¢ sinc ¢ 2x : 2¼
(C.3)
Resulta evidente que los ceros de la función sinc estarán localizados en, x0 = m
2¼ ; ¢
(C.4)
de forma que a medida que ¢ se hace mayor, obtendremos funciónes sinc más estrechas y de amplitud en x = 0 mayor. Cuando ¢ ! 1 se obtendrá el caracter impulsivo de la distribución delta en el origen. En la Fig. C.1 se muestra una representación grá…ca de la sucesión así como un esquema de las relaciones más importantes y las sucesiones a que dan lugar. Un análisis más detallado del comportamiento de la función sinc se puede encontrar en el Ap. F.4. En virtud de la relación en (C.3) resulta evidente la siguiente propiedad asociada a las funciones sinc; Z 1 Z 1 ¡ ¢ 2¼ ±(x) dx = 1 ¡! sinc ¢ (C.5) 2 x dx = ¢ ; ¢ > 0: ¡1 ¡1 C.1.2
Sucesión de funciones sinc cuadrado.
En virtud de la transformada de Fourier de una señal triangular de ancho ¢ es posible obtener una nueva sucesión de funciones para representar la distribución delta de Dirac cuando ¢ ! 1; así, TF [T¢ (x)] =
¡ ¢ ¢ sinc2 ¢ 4» : 2
(C.6)
Cuando ¢ ! 1; T¢ (x) ! 1; es decir, la función constante unidad, cuya transformada de Fourier es igual a 2¼±(»): Podremos entonces escribir la siguiente relación, ¸ ¡ ¢ ¢ 2 ¢ lim T¢ (x) = 1 Ã! lim sinc 4 » = 2¼±(»): (C.7) ¢!1 ¢!1 2 349
Reescribiendo este resultado en la variable x; lim d¢ (x) = ±(x) ¡! d¢ (x) =
¢!1
¡ ¢ ¢ sinc2 ¢ 4x : 4¼
(C.8)
Resulta evidente que los ceros de la función sinc cuadrado estarán localizados en las mismas posiciones que para la función sinc, esto es, x0 = m
2¼ ; ¢
(C.9)
de forma que a medida que ¢ se hace mayor, obtendremos funciónes sinc cuadrado más estrechas y de amplitud en x = 0 mayor. Cuando ¢ ! 1 se obtendrá el caracter impulsivo de la distribución delta en el origen. En la Fig. C.2 se muestra una representación grá…ca de la sucesión. Un análisis más detallado del comportamiento de la función sinc cuadrado se puede obtener a partir del análisis de la función sinc expuesto en el Ap. F.4. En virtud de la relación en (C.8) resulta evidente la siguiente propiedad asociada a las funciones sinc cuadrado, Z 1 Z 1 ¡ ¢ 4¼ ±(x) dx = 1 ¡! sinc ¢ (C.10) 4 x dx = ¢ ; ¢ > 0: ¡1 ¡1 C.1.3
Sucesión a partir de la distribución de Heaviside.
En el Cap. 7 establecimos la relación entre las distribuciones ¡(x) y ±(x); así, ±(x) =
d¡(x) : dx
(C.11)
Esta relación habrá de mantenerse también para cualquier sucesión de funciones que de…na la distribución de Heaviside. Considerando, por ejemplo, la sucesión de funciones utilizada en el Cap. 7, ecuación (7.63), podremos obtener una nueva sucesión de funciones válida para de…nir la delta sin más que obtener su derivada, ³x´ 1 1 ¡(x) = lim h¢ (x); h¢ (x) = + tan¡1 ; (C.12) ¢!0 2 ¼ ¢ ±(x) = lim d¢ (x); d¢ (x) = ¢!0
dh¢ (x) 1 ¢ = : 2 dx ¼ ¢ + x2
(C.13)
El comportamiento de esta sucesión de funciones se muestra en la Fig. C.3, así como su relación con la sucesión de funciones de partida h¢ (x): Resulta evidente que esta propiedad será aplicable a cualquier sucesión de funciones que de…nan la distribución de Heaviside, Ap. C.4.
C.2
Primera derivada de la delta de Dirac.
C.2.1
Sucesión de funciones sinc. ² A partir de la sucesión de funciones sinc utilizada para de…nir ±(x) en (C.3), y derivando dicha sucesión respecto de x; ¸ ¡ ¢¤ ¡¢ ¢ d ¢ ¢ £ ¡¢ ¢ 0 d¢ (x) = sinc 2 x = cos 2 x ¡ sinc ¢ (C.14) 2x : dx 2¼ 2¼x Esta nueva sucesión de funciones, cuando ¢ ! 1; será válida para representar ± 0 (x): Así, lim d¢ (x) = ±(x) ¡! lim d0¢ (x) = ± 0 (x):
¢!1
¢!1
(C.15)
En la Fig. C.1 se muestra una representación grá…ca de la sucesión d0¢ (x) para diferentes valores de ¢: En virtud de la relación en (C.15) resulta evidente la siguiente propiedad asociada a las funciones sinc cuadrado, Z 1 Z 1 ¡ ¢¤ 1 £ ¡¢ ¢ 0 ± (x) dx = 0 ¡! cos 2 x ¡ sinc ¢ dx = 0; ¢ > 0: (C.16) 2x x ¡1 ¡1 350
c Emilio Gago-Ribas, 2002 °
² Este resultado se puede obtener también si realizasemos un proceso similar al usado para la distribución delta, obtenida aquella a partir del límite de la transformada de Fourier de la señal P¢ (x) cuando ¢ ! 1; ecuación (C.2). Consideremos en este caso la señal de energía …nita, 8 < x x 2 (¡¢=2; ¢=2) f(x) = xP¢ (x) = (C.17) : 0 x2 = (¡¢=2; ¢=2)
El cálculo de su transformada de Fourier resulta trivial al ser una señal cuadrado integrable, obteniéndose (se deja su cálculo como ejercicio para el lector), Z 1 ¡ ¢¤ ¡ ¢¤ j¢ £ ¡ ¢ ¢ d £ F (») = f(x)e¡j»x dx = cos 2 » ¡ sinc ¢ » =j sinc ¢ : (C.18) 2 2» » d» ¡1 La última igualdad se ha obtenido en base al resultado presentado en el Ap. F.4. Nótese que en el límite cuando ¢ ! 1; la función f(x) = xP¢ (x) tiende a la función g(x) = x; así, su transformada de Fourier F (») deberá tender a G(») = 2¼j± 0 (»): Podremos enonces escribir el siguiente resultado, ½ ¾ ¡ ¢¤ d £ lim [xP¢ (x)] = x Ã! lim j » = 2¼j± 0 (»): (C.19) sinc ¢ 2 ¢!1 ¢!1 d» Reescribiendo una vez más este resultado en la variable x; lim d0¢ (x) = ± 0 (x); d0¢ (x) =
¢!1
¡ ¢¤ ¢ £ ¡¢ ¢ cos 2 x ¡ sinc ¢ 2x ; 2¼x
(C.20)
expresión de la sucesión que coincide justamente con la obtenida en (C.14). En las tablas de la Fig. C.1 se recogen de forma esquemática estas equivalencias. ² El resultado anterior puede analizarse también a través de la propiedad (9.41); así, podremos escribir las siguientes equivalencias, ¡ ¢ P¢ (x) Ã! F (») = ¢ sinc ¢ 2» ; (C.21) ¡ ¢¤ dF (») d £ » : xP¢ (x) Ã! j = j¢ sinc ¢ 2 d» d» Esta propiedad, leída a la inversa, es la que realmente nos sugirió la de…nición de la función xP¢ (x) analizada previamente.
C.2.2
Sucesión de funciones sinc cuadrado. ² A partir de la sucesión de funciones sinc cuadrado utilizada para de…nir ±(x) en (C.8), y derivando dicha sucesión respecto de x; ¡ ¢ ¸ £ ¡¢ ¢ ¡ ¢¤ ¡ ¢ d ¢ ¢ sinc ¢ 0 2 ¢ 4x d¢ (x) = sinc 4 x = cos 4 x ¡ sinc ¢ (C.22) 4x : dx 4¼ 2¼ x Esta nueva sucesión de funciones, cuando ¢ ! 1; será válida para representar ± 0 (x): Así, lim d¢ (x) = ±(x) ¡! lim d0¢ (x) = ± 0 (x):
¢!1
¢!1
(C.23)
En la Fig. C.2 se muestra una representación grá…ca de la sucesión d0¢ (x) para diferentes valores de ¢: En virtud de la relación en (C.23) resulta evidente la siguiente propiedad asociada a las funciones sinc, ¡ ¢ Z 1 Z 1 £ ¡¢ ¢ ¡ ¢¤ sinc ¢ 0 4x ± (x) dx = 0 ¡! cos 4 x ¡ sinc ¢ dx = 0: (C.24) 4x x ¡1 ¡1 ² Resulta interesante analizar también en este caso la relación de la sucesión de funciones con una cierta señal a través de la transformada de Fourier. En virtud de la propiedad (9.41) parece lógico considerar en este caso la señal de energía …nita, f(x) = xT¢ (x); c Emilio Gago-Ribas, 2002 °
(C.25) 351
esto es, la señal f(x) = x lineal de energía in…nita ventaneada en el dominio real por la señal triangular. El cálculo de su transformada de Fourier resulta trivial al ser una señal cuadrado integrable, obteniéndose justamente la derivada de la función sinc cuadrado (se deja como ejercicio para el lector esta comprobación), ¡ ¢ 2 ¢ T¢ (x) Ã! F (») = ¢ 2 sinc 4» ; (C.26) ¡ ¢¤ d £ dF (») » : xT¢ (x) Ã! j = j¢ sinc2 ¢ 2 4 d» d» En las tablas de la Fig. C.2 se recogen de forma esquemática estas importantes equivalencias. Z 1 Z 1 ¡ ¢ 4¼ ±(x) dx = 1 ¡! sinc ¢ (C.27) 4 x dx = ¢ ; ¢ > 0: ¡1 ¡1
C.2.3
Sucesión a partir de la distribución de Heaviside.
Partiendo de la relación (C.11) y en virtud de los resultados para la distribución delta, obtendremos una nueva sucesión para ± 0 (x) sin más que derivar la sucesión obtenida allí; así, dh¢ (x) 1 ¢ = ; dx ¼ ¢2 + x2
(C.28)
dd¢ (x) ¡2 ¢x = : dx ¼ (¢2 + x2 )2
(C.29)
±(x) = lim d¢ (x); d¢ (x) = ¢!0
± 0 (x) = lim d0¢ (x); d0¢ (x) = ¢!0
El comportamiento de esta sucesión de funciones se muestra en la Fig. C.3, así como su relación con la sucesión de funciones de partida h¢ (x):
C.3
Segunda derivada de la delta de Dirac.
C.3.1
Sucesión de funciones sinc. ² A partir de la sucesión de funciones sinc utilizada para de…nir ±(x) en (C.3), y derivando dos veces dicha sucesión respecto de x; ¸ ¸ µ ¶ ¡¢ ¢ ¡ ¢ ¡¢ ¢ ¢ ¢2 2 d2 ¢ x = x ¡ 2 cos x : (C.30) sinc ¢ 2 ¡ x sinc d00¢ (x) = 2 2 2 2 dx 2¼ 2¼x2 4 Esta nueva sucesión de funciones, cuando ¢ ! 1; será válida para representar ± 00 (x): Así, lim d¢ (x) = ±(x) ¡! lim d00¢ (x) = ± 00 (x):
¢!1
¢!1
(C.31)
En la Fig. C.1 se muestra una representación grá…ca de la sucesión d00¢ (x) para diferentes valores de ¢: En virtud de la relación en (C.31) resulta evidente la siguiente propiedad asociada a las funciones sinc; µ ¸ ¶ Z 1 Z 1 ¡¢ ¢ ¡¢ ¢ ¢2 2 1 2 ¡ x x ¡ 2 cos x dx = 0; (C.32) ± 00 (x) dx = 0 ¡! sinc 2 2 2 4 ¡1 ¡1 x resultado totalmente lógico si consideramos que la función subintegral es una función par.
² De forma similar a como se realizó para las distribuciones ±(x) y ± 0 (x); resulta sencillo comprobar que el desarrollo realizado para ± 00 (x) sería equivalente al siguiente desarrollo espectral (se deja como ejercicio para el lector su comprobación paso a paso), considerando como punto de partida la siguiente señal de energía …nita, 8 < x2 x 2 (¡¢=2; ¢=2) 2 f (x) = x P¢ (x) = (C.33) : 0 x2 = (¡¢=2; ¢=2) Así, en virtud de la propiedad (9.41) cuando n = 2; P¢ (x)
Ã!
F (») = ¢ sinc
¡¢ ¢ 2» ;
¡ ¢ ¢¤ d2 F (») d2 £ = ¡¢ : 2 2 sinc 2 » d» d» En las tablas de la Fig. C.1 se recogen de forma esquemática estas equivalencias. x2 P¢ (x) Ã! ¡
352
(C.34)
c Emilio Gago-Ribas, 2002 °
C.3.2
Sucesión de funciones sinc cuadrado. ² A partir de la sucesión de funciones sinc cuadrado utilizada para de…nir ±(x) en (C.8), y derivando dos veces dicha sucesión respecto de x; ¸ ¡ ¢ d2 ¢ 2 ¢ 00 d¢ (x) = sinc 4 x = dx2 4¼ µ ¶ ¸ ¡ ¢ ¡ ¢ ¡¢ ¢ ¡¢ ¢ ¢2 2 ¢ 2 ¢ 2 ¢ = cos 4 x + 3 ¡ x sinc 4 x ¡ 4 cos 4 x sinc 4 x : (C.35) 2¼x2 16 Esta nueva sucesión de funciones, cuando ¢ ! 1; será válida para representar ± 00 (x): Así, lim d¢ (x) = ±(x) ¡! lim d00¢ (x) = ± 00 (x):
¢!1
¢!1
(C.36)
En la Fig. C.2 se muestra una representación grá…ca de la sucesión d00¢ (x) para diferentes valores de ¢: ² Resulta interesante analizar una vez más la relación de la sucesión de funciones con una cierta señal a través de la transformada de Fourier. En virtud de la propiedad (9.41) cuando n = 2 parece lógico considerar en este caso la señal de energía …nita, f (x) = x2 T¢ (x);
(C.37)
esto es, la señal f (x) = x2 cuadrática de energía in…nita ventaneada en el dominio real por la señal triangular. El cálculo de su transformada de Fourier resulta trivial al ser una señal cuadrado integrable, obteniéndose justamente la segunda derivada de la función sinc cuadrado cambiada de signo (se deja como ejercicio para el lector esta comprobación), T¢ (x)
Ã!
x2 T¢ (x) Ã! ¡
F (») =
¢ 2
sinc2
¡¢ ¢ 4» ;
¡ ¢¤ d2 F (») d2 £ 2 ¢ = ¡¢ : 2 2 2 sinc 4» d» d»
(C.38)
En las tablas de la Fig. C.2 se recogen de forma esquemática estas equivalencias. C.3.3
Sucesión a partir de la distribución de Heaviside.
Partiendo de la relación (C.11) y en virtud de los resultados para la distribución delta y su primera derivada, obtendremos una nueva sucesión para ± 00 (x) sin más que derivar la sucesión obtenida para ± 0 (x); así, ±(x) = lim d¢ (x); d¢ (x) = ¢!0
± 00 (x) = lim d00¢ (x); d00¢ (x) = ¢!0
dh¢ (x) 1 ¢ = ; 2 dx ¼ ¢ + x2
d2 d¢ (x) 2¢ 3x2 ¡ ¢2 = : dx2 ¼ (¢2 + x2 )3
(C.39)
(C.40)
El comportamiento de esta sucesión de funciones se muestra en la Fig. C.3, así como su relación con la sucesión de funciones de partida h¢ (x):
c Emilio Gago-Ribas, 2002 °
353
1,00
∆
P¢ (x)
$
2¼d¢ (»)
h
lim
i
xP¢ (x)
$
j2¼d0¢ (»)
h
lim
i
x
$
2¼j± 0 (»)
x2 P¢ (x)
$
¡2¼d00¢ (»)
h
lim
i
x2
$
¡2¼± 00 (»)
0,50
0,00 -2
-1
x
0
1
2
$
1
¢!1
2¼±(»)
1,00 0,50 0,00
∆
-0,50 -1,00 -2
-1
x
0
1
¢!1
2
1,00 0,75
∆
0,50 0,25 0,00 -2
-1
0
x
1
2
2 6 6 6 6 6 6 4
4
¢!1
d¢ (x) = d0¢ (x) = d00¢ (x) =
¢ ¼x2
¢ ¼x
¢ ¼
3
sinc (¢x)
[cos(¢x) ¡ sinc (¢x)]
£¡ ¢ ¤ 2 ¡ ¢2 x2 sinc (¢x) ¡ 2 cos (¢x)
7 7 7 7 7 7 5
d∆(x)/2π ∆=4
3
∆=2 ∆=1
2 1 0 -1 -4π 4
d '∆(x)/2π
-2π
∆=1
0π
x
2π
4π
2π
4π
2π
4π
∆=2
2 0 -2 -4 -4π 10
∆=4
d''∆(x)/2π
-2π
0π
x
0
∆=1
-10
∆=2
-20 -30 -4π
∆=4 -2π
0π
x
Figura C.1. Sucesiones de funciones sinc y sus derivadas asociadas a las distribuciones ±(x); ± 0 (x) y ± 00 (x) para diferentes valores del parámetro ¢:
354
c Emilio Gago-Ribas, 2002 °
1,00
∆ 0,50
0,00 -2
-1
x
0
1
T¢ (x)
$
2¼d¢ (»)
h
xT¢ (x)
$
2¼jd0¢ (»)
h
x2 T¢ (x)
$
¡2¼d00¢ (»)
h
2
lim
i
lim
i
x
$
2¼j± 0 (»)
lim
i
x2
$
¡2¼± 00 (»)
$
1
¢!1
2¼±(»)
0,30
∆
0,15 0,00 -0,15 -0,30 -2
-1
x
0
1
2
¢!1
0,15
∆
0,10
0,05
0,00 -2
-1
x
0
2 6 6 6 6 6 6 4
0,4
1
2
d¢ (x) = d0¢ (x) = d00¢ (x) =
2¢ ¼x2
¢ ¼
2¢ sinc(¢x) ¼ x
¢!1
3
sinc2 (¢x)
[cos(¢x) ¡ sinc (¢x)]
£ 2 ¡ ¢ ¤ cos (¢x) + 3 ¡ ¢2 x2 sinc2 (¢x) ¡ 4 cos (¢x) sinc (¢x)
7 7 7 7 7 7 5
d∆(x) ∆=4
0,3
∆=3
∆=2
0,2 0,1 0,0 -4π 0,2
d '∆(x)
-2π
0π
x
2π
4π
0,1 0,0
∆=2 ∆=3
-0,1 -0,2 -4π 0,3
d''∆(x)
-2π
0π
x
∆=4 2π
4π
∆=2
0,2 0,1 0,0 -0,1
∆=3
-0,2
∆=4
-0,3 -4π
-2π
0π
x
2π
4π
Figura C.2. Sucesiones de funciones sinc cuadrado y sus derivadas asociadas a las distribuciones ±(x); ±0 (x) y ± 00 (x) para diferentes valores del parámetro ¢:
c Emilio Gago-Ribas, 2002 °
355
2
h¢ (x) =
³x´ 1 1 + tan¡1 2 ¼ ¢
6 6 6 6 6 h0 (x) = d (x) 6 ¢ ¢ 6 6 6 6 4 h00¢ (x) = d0¢ (x) 2
d¡(x) = ±(x) 6 dx 6 6 6 6 d2 ¡(x) 6 = ± 0 (x) 6 6 dx2 6 6 6 3 4 d ¡(x) = ± 00 (x) dx3
1,2
¡(x) =
1 ¢ ¼ x2 + ¢2
d0¢ (x) =
¡2 ¢x ¼ (x2 + ¢2 )2
d00¢ (x) =
2¢ 3x2 ¡ ¢2 ¼ (x2 + ¢2 )3
¡(x) =
Rx Ry
Rx Ry Rz
0,8
± 00 (w) dw dz dy
¡1 ¡1 ¡1
1,4
∆=0.25 ∆=0.5
1,0
0,6
∆=1
0,8
0,4
0,6
∆=0.25
0,2
7 7 7 7 7 7 7 7 7 7 7 5
d∆(x)
1,2
∆=0.5
∆=1
± 0 (z) dz dy
¡1 ¡1
¡(x) =
7 7 7 7 7 7 7 7 7 7 5 3
±(y) dy
¡1
h∆(x)
1,0
0,4
0,0
0,2
-0,2 -4 1,4
Rx
3
d¢ (x) =
h'∆(x)
-3
-2
-1
0
x
1
2
3
4
0,0 -4 4
1,2
3
1,0
2
d'∆(x)
-3
-2
-1
0
x
1
3
4
∆=0.5 ∆=1
1
0,8
2
0 0,6
-1
0,4
-2
0,2 0,0 -4 4
∆=0.25
-3
h''∆(x)
-3
-2
-1
0
x
1
2
3
4
-4 -4 10
d''∆(x)
-3
-2
-1
0
x
1
2
3
4
3
4
∆=1
3 0
2 1
∆=0.5
-10
∆=0.25
0 -20
-1 -2
-30
-3 -4 -4
-3
-2
-1
0
x
1
2
3
4
-40 -4
-3
-2
-1
0
x
1
2
Figura C.3. Sucesiones de funciones asociadas a ¡(x) y ±(x); h¢ (x) y d¢ (x); respectivamente, así como sus dos primeras derivadas.
356
c Emilio Gago-Ribas, 2002 °
C.4
Distribución de Heaviside o salto unidad.
De forma similar a como se ha realizado para las distribuciones ±(x); ± 0 (x) y ± 00 (x); es posible encontrar otras sucesiones de funciones de buen comportamiento para de…nir la distribución ¡(x); además de la utilizada ya en la Secc. 7.6. Entre otras, cabe resaltar aquellas directamente relacionadas con la distribución delta a partir de la ecuación inversa a (C.11), esto es, Z x ¡(x) = ±(y) dy: (C.41) ¡1
Veremos a continuación algunas de ellas. Nótese cómo estas sucesiones de funciones serán válidas también para de…nir la distribución sgn(x) sin más que restar el valor medio no nulo a ¡(x) y escalar adecuadamente el resultado. C.4.1
Función de error.
Consideremos en primer lugar la sucesión de funciones Gaussianas utilizada en la Secc. 7.3, 2 2 1 p e¡x =¢ : ¢ ¼
d¢ (x) =
(C.42)
Dicha sucesión de funciones, cuando ¢ ! 0; de…ne la distribución ±(x); así, la sucesión de funciones h¢ (x) obtenida aplicando (C.41) a (C.42) será una nueva sucesión de funciones válida para de…nir la distribución ¡(x); (C.43)
¡(x) = lim [h¢ (x)] ; ¢!0
h¢ (x) =
1 p ¢ ¼
Z
x
e¡y
2
=¢2
dy:
(C.44)
¡1
Esta sucesión de funciones se puede escribir en téminos tanto de la función de error como de la función de error complementaria1 en la forma (referirse al Ap. F.5), h¢ (x) = 1 ¡ h¢ (x) =
³x´ 1 erfc ; 2 ¢
³ x ´i 1h 1 + erf : 2 ¢
(C.45)
(C.46)
Estas expresiones se han obtenido teniendo en cuenta el valor de la integral de la función Gaussiana a lo largo de toda la variable independiente, r Z 1 ¼ ¡ax2 e dx = : (C.47) a ¡1 Nótese como el valor de cualquiera de estas funciones en el origen es siempre de 1=2: En el límite cuando ¢ ! 0; consideraremos una vez más que ¡(x) no está de…nida, poniéndo así énfasis en el caracter localizador del salto unidad representado por esta distribución. En la Fig. C.4 se muestra el per…l que presentan algunas de estas funciones para diferentes valores del parámetro ¢: 1 Las
funciones de error y de error complementaria se de…nen como, Z x 2 2 erf(x) = p e¡y dy; ¼ 0 2 erfc(x) = p ¼
c Emilio Gago-Ribas, 2002 °
Z
1 x
2
e¡y dy = 1 ¡ erf(x):
357
C.4.2
Funciones integrales sinosoidales.
Consideremos ahora la sucesión de funciones sinc presentada en la Secc. C.1.1, d¢ (x) =
¡ ¢ ¢ sinc ¢ 2x : 2¼
(C.48)
En en límite cuando ¢ ! 1; dicha sucesión de…ne la distribución ±(x); así, la sucesión de funciones h¢ (x) obtenida aplicando (C.41) a (C.48) será una nueva sucesión de funciones válida para de…nir la distribución ¡(x); ¡(x) = lim [h¢ (x)] ; ¢!1
h¢ (x) =
¢ 2¼
Z
x
sinc
¡1
¡¢ ¢ 2 y dy:
(C.49)
(C.50)
Esta sucesión de funciones se puede escribir en téminos de la función Si(x)2 en la forma (referirse al Ap. F.6), h¢ (x) =
1 1 ¡¢ ¢ + Si 2 x : 2 ¼
(C.51)
Nótese como el valor de cualquiera de estas funciones en el origen vuelve a ser también de 1=2: En la Fig. C.5 se muestra el per…l que presentan algunas de estas funciones para diferentes valores del parámetro ¢: C.4.3
Función integral de la función sinc cuadrado.
Consideremos en este caso la sucesión de funciones en términos del cuadrado de la función sinc presentada en la Secc. C.8, d¢ (x) =
¡ ¢ ¢ sinc2 ¢ 4x : 4¼
(C.52)
En en límite cuando ¢ ! 1; dicha sucesión de…ne la distribución ±(x); así, la sucesión de funciones h¢ (x) obtenida aplicando (C.41) a (C.52) será una nueva sucesión de funciones válida para de…nir la distribución ¡(x); ¡(x) = lim [h¢ (x)] ; ¢!1
h¢ (x) =
¢ 4¼
Z
x
sinc2
¡1
¡¢ ¢ 4 y dy:
(C.53)
(C.54)
Esta sucesión de funciones se puede escribir en téminos de la función Si2(x) y, a su vez, en términos de la función Si(x) de…nida en la sección anterior3 en la forma (referirse al Ap. F.6), " # ¡ ¢ ¡ ¢ ¢ 1 1 cos ¢ ¡¢ ¢ 1 2x ¡1 h¢ (x) = Si2 4 x = + + Si 2 x : (C.55) ¢ ¼ 2 ¼ 2x Una vez más, el valor de cualquiera de estas funciones en el origen es de 1=2: En la Fig. C.6 se muestra el per…l que presentan algunas de estas funciones para diferentes valores del parámetro ¢: 2 Las
funciones Si(x) se de…nen como, Si(x) =
Z
x 0
sin y dy: y
R x sin y Su valor en el in…nito es igual a ¼=2; de forma que ¡1 dy = ¼=2 + Si(x): y 3 La función Si2(x) se de…nen como, Z x sin2 y cos(2x) ¡ 1 ¼ Si2(x) = dy = + + Si(2x): 2 2x 2 ¡1 y
358
c Emilio Gago-Ribas, 2002 °
1,25
∆=0.5
1,00
∆=1
∆=2
0,75
∆=3
0,50 0,25 0,00 -0,25 -5
-4
-3
-2
-1
0
x
1
2
3
4
5
Figura C.4. Sucesión de funciones asociadas a la distribución ¡(x) en términos de la función de error. Se representan algunas funciones para diferentes valores de ¢:
1,25
∆=10
1,00
∆=1
∆=2
0,75 0,50 0,25 0,00 -0,25 -10
∆=4 -8
-6
-4
-2
0
x
2
4
6
8
10
Figura C.5. Sucesión de funciones asociadas a la distribución ¡(x) en términos de la función Si(x). Se representan algunas funciones para diferentes valores de ¢:
1,25
∆=10
1,00
∆=1
∆=2
0,75 0,50 0,25 0,00 -0,25 -10
∆=4 -8
-6
-4
-2
0
x
2
4
6
8
10
Figura C.6. Sucesión de funciones asociadas a la distribución ¡(x) en términos de la función Si2(x). Se representan algunas funciones para diferentes valores de ¢:
c Emilio Gago-Ribas, 2002 °
359
C.5
Tabla resumen de distribuciones y sucesiones de funciones ±(x) ± 0 (x) ± 00 (x) ¡(x) ±(x) ± 0 (x) ± 00 (x) ¡(x)
³ 2´ x exp ¡ ¢ 2 ³ 2´ ¡2 p x exp ¡ x 2 ¢ ¢3 ¼ i ³ 2´ h 2 2p x x ¡¢ 2¢ 2 ¡ 1 exp 2 ¢3 ¼ ¡ ¢ x 1 ¡ 12 erfc ¢ 1 p ¢ ¼
¡ ¢ sinc ¢ 2x £ ¡¢ ¢ ¡ ¢ ¢¤ ¢ 2¼x cos 2 x ¡ sinc 2 x ´ h³ ¡¢ ¢ ¡ ¢ ¢i ¢ ¢2 2 sinc 2 ¡ x x ¡ 2 cos 2 2¼x 4 2 2x ¡¢ ¢ 1 1 2 + ¼ Si 2 x ¢ 2¼
sinc2
¢ 4¼
± 0 (x)
¢ ¢ sinc( 4 x) 2¼ x
¡(x)
±(x) ± 0 (x)
£ ¡¢ ¢ ¡ ¢¤ cos 4 x ¡ sinc ¢ 4x h ³ ´ ¡ ¢ ¡¢ ¢ ¡ ¢ ¢i ¡ ¢ ¢ ¢2 2 2 ¢ sinc2 ¢ 2¼x2 cos 4 x + 3 ¡ 16 x 4 x ¡ 4 cos 4 x sinc 4 x ¡¢ ¢ 1 ¼ Si2 4 x ¢ ¢2 + x2 ¢x ¡2 ¼
(¢2 + x2 )2
3x2 ¡ ¢2 (¢2 + x2 )3 ¡x¢ + ¼1 tan¡1 ¢
± (x) ¡(x)
1 2
360
(¢ ! 1)
1 ¼
2¢ ¼
00
(¢ ! 1)
¡¢ ¢ 4x
±(x)
± 00 (x)
(¢ ! 0)
(¢ ! 0)
c Emilio Gago-Ribas, 2002 °
Apéndice D.
D.1
Propiedades de las Distribuciones
Escalado de la variable independiente. ±(ax) =
1 ±(x): jaj
(D.1)
La demostración de esta propiedad resulta extremadamente sencilla sin más que recurrir a la de…nición integral del nuevo objeto generado, desarrollarla mediante un sencillo cambio de variable y considerando los casos particulares con a > 0 y a < 0: Z 1 Z 1 Z 1 1 1 1 a>0 ! ±(ax) dx = ±(u) du = ±(u) du = : (D.2) a a a ¡1 ¡1 ¡1 a<0 !
Z
1
±(ax) dx =
¡1
Z
¡1
1
±(u)
¡1 1 du = jaj jaj
Z
1
¡1
±(u) du =
1 : jaj
(D.3)
Claramente, estas dos ecuaciones pueden reescribirse para todo a en función de su módulo, de forma que, Z 1 Z 1 1 1 = T (x) dx: (D.4) ±(ax) dx = jaj jaj ¡1 ¡1 Una vez más, la integral de T (x) deberá ser la unidad, de forma que T (x) = ±(x); obteniéndose la propiedad inicial.
D.2
Unidades de ±(x):
En virtud de la de…nición de la distribución ±(x); Z 1 f (x)±(x) dx = f(x);
(D.5)
¡1
resulta claro que las unidades de ±(x) han de ser el inverso de las unidades de la variable x de forma que el producto ±(x)dx mantenga inalteradas las unidades de la magnitud f (x)±(x)dx: ² Casos particulares: 1. Si la variable independiente x representa el tiempo t, sus unidades serán s¡1 . 2. Si la variable independiente x representa una coordenada espacial z, sus unidades serán m¡1 .
D.3
Producto por una función. f (x)D(x) = T (x):
(D.6)
Esta propiedad se puede visualizar muy fácilmente sin más que pensar en términos de que cualquier distribución es una función discontinua, de forma que el resultado de multiplicarla por una función de buen comportamiento claramente nos devolvera una función discontinua en el(los) punto(s) de discontinuidad, que deberemos tratar como una distribución. En la Fig. D.1 se muestra un ejemplo de esta descripción. Veamos a continuación algunos casos particulares.
361
Figura D.1. Ejemplo grá…co del producto de una función f (x) de buen comportamiento por una distribución D(x): En este caso, la distribución resultante es una señal con una discontinuidad de valor …nito.
² f (x)±(x ¡ x0 ) = f(x0 )±(x ¡ x0 ):
Sea1 T (x¡x0 ) = f(x)±(x¡x0 ): Integrando esta ecuación a lo largo de toda la variable independiente, Z 1 Z 1 ±(x ¡ x0 ) dx = f(x)±(x ¡ x0 ) dx = f(x0 ) = f (x0 ) ¡1 ¡1 Z 1 Z 1 f(x0 )±(x ¡ x0 ) dx = T (x ¡ x0 ) dx; (D.7) ¡1
¡1
de forma que la nueva distribución T (x ¡ x0 ) = f (x0 )±(x ¡ x0 ); esto es, una delta localizada en x0 de peso el valor de la función f (x) en x0 : Recuérdese que la integral de la distribución delta es igual a la unidad. ² f (x)±(x) = f (0)±(x):
Sea2 T (x) = f (x)±(x): Integrando a lo largo de toda la variable independiente, Z 1 Z 1 Z 1 f (x)±(x) dx = f(0) ±(x) dx = T (x) dx; ¡1
¡1
(D.8)
¡1
lo que nos lleva a que T (x) = f(0)±(x); es decir, una distribución delta de peso el valor de f(x) en el origen. ² x±(x) = 0±(x):
Esta propiedad no es más que la particularización de la propiedad anterior cuando f (x) = x; de forma que el valor en el origen, f(0); es nulo. El resultado …nal ha de leerse entonces como una distribución delta de peso nulo.
1 Dado que el carácter impulsivo de ±(x¡x ) se encuentra localizado en x ; la nueva distribución buscada ha de mantener 0 0 el carácter impulsivo en dicha posición. 2 En este caso, el carácter impulsivo de ±(x) se encuentra localizado en el origen, de forma que la nueva distribución buscada ha de mantener esta propiedad.
362
c Emilio Gago-Ribas, 2002 °
² f (x)± 0 (x ¡ x0 ) = ¡f 0 (x0 )±(x ¡ x0 ):
Sea T (x) = f (x)± 0 (x ¡ x0 ): Integrando esta ecuación a lo largo de toda la variable independiente, Z 1 Z 1 f(x)± 0 (x ¡ x0 ) dx = ¡f 0 (x0 ) = ¡f 0 (x0 ) ±(x ¡ x0 ) dx = (D.9) ¡1 ¡1 Z 1 Z 1 = ¡f 0 (x0 )±(x ¡ x0 ) dx = T (x ¡ x0 ) dx; (D.10) ¡1
¡1
donde f 0 (x0 ) = [df(x)=dx]x=x0 : Nótese que: (i) en la primera igualdad se ha usado directamente la de…nición de ± 0 (x ¡ x0 ); y (ii) en la segunda igualdad se ha multiplicado el valor de ¡f 0 (x0 ) por la unidad a través de la integral de la delta de Dirac3 . Así, el resultado …nal en términos impulsivos viene descrito por ±(x) y no por la distribución original ± 0 (x): ² f (x)± 0 (x) = ¡f 0 (0)±(x):
Esta propiedad es similar a la anterior con la distribución ± 0 (x) localizada en el origen.
² x± 0 (x) = ¡±(x):
Propiedad anterior cuando f (x) = x: En este caso, su derivada es la función constante unidad, de forma que su valor en el origen cambiado de signo será ¡1:
² f (x)± 00 (x ¡ x0 ) = f 00 (x0 )±(x ¡ x0 ):
Sea T (x) = f (x)± 00 (x ¡ x0 ): Integrando esta ecuación a lo largo de toda la variable independiente, Z 1 Z 1 00 00 00 f (x)± (x ¡ x0 ) dx = f (x0 ) = f (x0 ) ±(x ¡ x0 ) dx = (D.11) ¡1 ¡1 Z 1 Z 1 = f 00 (x0 )±(x ¡ x0 ) dx = T (x ¡ x0 ) dx; (D.12) ¡1
¡1
£ ¤ donde f (x0 ) = d2 f (x)=dx2 x=x0 : Nótese que: (i) en la primera igualdad se ha usado directamente la de…nición de ± 00 (x ¡ x0 ); y (ii) en la segunda igualdad se ha multiplicado el valor de f 00 (x0 ) por la unidad a través de la integral de la delta de Dirac4 . Así, el resultado …nal en términos impulsivos viene descrito por ±(x) y no por la distribución original ± 00 (x): 00
² f (x)± 00 (x) = f 00 (0)±(x):
Esta propiedad es similar a la anterior con la distribución ± 00 (x) localizada en el origen.
² x2 ± 00 (x) = 2±(x):
Propiedad anterior cuando f (x) = x2 : En este caso, la segunda derivada es la función constantede valor dos, y por lo tanto, su valor en el origen será 2:
D.4
Convolución de una función y una distribución. f (x) ¤ D(x) = g(x):
(D.13)
Esta propiedad se puede visualizar muy fácilmente sin más que recurrir a la interpretación de la operación de convolución, Z Z 0 0 0 g(x) = f(x )D(x ¡ x ) dx = T (x ¡ x0 ) dx0 : (D.14) x0
x0
Nótese que en la segunda igualdad hemos usado la propiedad ya demostrada que nos dice que el producto de una función por una distribución nos devuelve una nueva distribución. De esta forma, el análisis …nal pasará por la integral de esa nueva distribución que, lógicamente, será continua para todo x dado que los valores de las discontinuidades o efectos impulsivos de la distribución no afectan al valor …nal de la integral. En la Fig. D.2 se muestra una representación grá…ca del análisis en x y en x + ¢x; cuando ¢x ! 0; el área bajo la curva sumado dará lugar a un valor continuo de la integral, y por lo tanto, de la función g(x) resultante para todo valor de x: Veamos a continuación algunos casos importantes. 3 Recuérdese
4 Recuérdese
que la integral de la primera derivada de la delta es nula. que la integral de la segunda derivada de la delta es nula.
c Emilio Gago-Ribas, 2002 °
363
Figura D.2. Ejemplo grá…co de la convolución de una función f (x) de buen comportamiento por una distribución D(x): La distribución considerada es una señal con una discontinuidad de valor …nito localizada en un cierto valor arbitrario.
² f (x) ¤ ±(x ¡ x0 ) = f (x ¡ x0 ): f(x) ¤ ±(x ¡ x0 ) = =
Z
x0
Z
u
f (x0 )±(x ¡ x0 ¡ x0 ) dx0 = f (u ¡ x0 )±(x ¡ u) du = f (x ¡ x0 ):
(D.15)
En este desarrollo sencillo de la convolución se ha efectuado un simple cambio de variable x0 +x0 = u; y se ha tenido en cuenta la de…nición general de ±(x) que muestrea la función en u = x: ² f (x) ¤ ±(x) = f(x):
Propiedad anterior cuando x0 = 0; de…nición habitual de ±(x) como respuesta al impulso del operador identidad.
² f (x) ¤ ± 0 (x ¡ x0 ) = f 0 (x ¡ x0 ):
Z f(x0 )± 0 (x ¡ x0 ¡ x0 ) dx0 = f(x0 )± 0 (u ¡ x0 ) dx0 = x0 x0 Z = ¡ f (x0 )± 0 (x0 ¡ u) dx0 = ¡ [¡f 0 (u)] = f 0 (x ¡ x0 ):
f (x) ¤ ± 0 (x ¡ x0 ) =
Z
(D.16)
x0
En este desarrollo sencillo de la convolución se han considerado: (i) el cambio de variable x¡x0 = u; (ii) la propiedad de imparidad de la distribución ± 0 (x); y (iii) la de…nición general de ± 0 (x) que muestrea la primera derivada de la función en u = x cambiada de signo. ² f (x) ¤ ± 0 (x) = f 0 (x):
Esta propiedad es un caso particular de la anterior cuando x0 = 0; Z f(x) ¤ ± 0 (x) = f (x0 )± 0 (x ¡ x0 ) dx0 = f 0 (x):
(D.17)
x0
² Las propiedades para ± 00 (x) y ¡(x) se demuestran siguiendo un proceso similar al descrito para ±(x) y ± 0 (x); dejándose como ejercicio para el lector.
364
c Emilio Gago-Ribas, 2002 °
Apéndice E.
E.1
Demostraciones y Desarrollos Matemáticos
Propiedades de algunos tipos de señales. ² Señales reales e imaginarias.
Cualquier señal a(¿ ) compleja se puede expresar como la suma se una señal real y otra imaginaria. Denominaremos por ar (¿ ) y ai (¿) a dichas señales. Escribiendo a(¿) = a0 (¿) + ja00 (¿ ); de forma que a¤ (¿) = a0 (¿ ) ¡ ja00 (¿ ); y sumando y restando ambas expresiones obtendremos, 2a0 (¿ ) = 2ar (¿) = a(¿ ) + a¤ (¿ );
(E.1)
2ja00 (¿) = 2ai (¿ ) = a(¿ ) ¡ a¤ (¿); de donde se obtiene el resultado …nal, a(¿ ) = ar (¿ ) + ai (¿ ) ¡! ² Señales pares e impares.
8 < ar (¿ ) = : a (¿ ) = i
1 2 1 2
9 [a(¿ ) + a¤ (¿ )] =
[a(¿ ) ¡ a¤ (¿)] ;
(E.2)
:
Cualquier señal a(¿ ) compleja se puede descomponer como la suma de una señal par y otra impar. Denominaremos por ae (¿) y ao (¿ ) a dichas señales. Expresando a(¿) = ae (¿ ) + ao (¿ ); a(¡¿ ) = ae (¡¿ ) + ao (¡¿); teniendo en cuenta que ae (¿ ) = ae (¡¿) y que ao (¿) = ¡ao (¡¿ ); de forma que a(¡¿ ) = ae (¿) ¡ ao (¿); sumando y restando a(¿ ) y a(¡¿ ) obtendremos, 2ae (¿) = a(¿ ) + a(¡¿);
(E.3)
2ao (¿ ) = a(¿ ) ¡ a(¡¿ ); de donde se obtiene el resultado …nal, a(¿) = ae (¿ ) + ao (¿ ) ¡! ² Señales hermíticas y antihermíticas.
8 < ae (¿ ) =
: a (¿) = o
1 2 1 2
9 [a(¿ ) + a(¡¿ )] = [a(¿ ) ¡ a(¡¿)] ;
:
(E.4)
Cualquier señal a(¿) compleja se puede expresar como la suma de una señal hermítica y otra antihermítica. Expresando a(¿ ) = ah (¿ ) + aah (¿ ); a¤ (¡¿ ) = a¤h (¡¿) + a¤ah (¡¿ ); y teniendo en cuenta que a¤h (¡¿ ) = ah (¿ ) y que a¤ah (¡¿) = ¡aah (¿ ); obtendremos que a¤ (¡¿) = ah (¿) ¡ aah (¿ ); sumando y restando a(¿ ) y a¤ (¡¿ ) obtendremos, 2ah (¿ ) = a(¿) + a¤ (¡¿ ); 2aah (¿ ) = a(¿ ) ¡ a¤ (¡¿);
de donde se obtiene inmediatamente el resultado, 8 9 < ah (¿) = 1 [a(¿) + a¤ (¡¿ )] = 2 a(¿ ) = ah (¿ ) + aah (¿) ¡! : : a (¿ ) = 1 [a(¿) ¡ a¤ (¡¿ )] ; ah 2
(E.5)
(E.6)
365
E.2
Propiedades de la convolución continua. ² Propiedad conmutativa. Partiendo de
f(x) ¤ g(x) =
Z
1
¡1
f (x0 )g(x ¡ x0 ) dx0 ;
(E.7)
resulta sencillo aplicar el siguiente cambio de variable: x ¡ x0 = u; de forma que x0 = x ¡ u y dx0 = ¡du; obteniéndose Z ¡1 Z 1 f(x) ¤ g(x) = ¡ f (x ¡ u)g(u) du = g(u)f(x ¡ u) du = g(x) ¤ f (x): (E.8) 1
¡1
² Propiedad asociativa.
Observando los dos términos de la igualdad y desarrollando cada una de las convoluciones sobre una variable intermedia diferente, por ejemplo, u y v; podremos identi…car los siguientes términos, Z 1 Z 1 p(x) = g(x) ¤ h(x) = g(u)h(x ¡ u) du = g(x ¡ u)h(u) du; (E.9) u=¡1
q(x) = f (x) ¤ g(x) =
Z
1
v=¡1
u=¡1
f(v)g(x ¡ v) dv =
Z
1
v=¡1
f(x ¡ v)g(v) dv:
(E.10)
De esta forma, Z 1 f (x) ¤ [g(x) ¤ h(x)] = f(x) ¤ p(x) = f(v)p(x ¡ v) dv = v=¡1 ¸ Z 1 Z 1 = f (v) g(x ¡ v ¡ u)h(u) du dv = v=¡1 u=¡1 ¸ Z 1 Z 1 f (v)g(x ¡ v ¡ u) dv du = h(u) = v=¡1 u=¡1 Z 1 = h(u)q(x ¡ u) du = q(x) ¤ h(x) = u=¡1
= [f(x) ¤ g(x)] ¤ h(x):
Nótese que en este desarrollo se ha identi…cado el término base a (E.10). ² Propiedad distributiva.
R1
v=¡1 f (v)g(x ¡ v ¡ u)
(E.11)
dv = q(x ¡ u) en
La demostración de esta propiedad es trivial partiendo de cualquiera de los términos de la igualdad; por ejemplo, Z 1 f(x) ¤ [g(x) + h(x)] = [g(x0 ) + h(x0 )] f (x ¡ x0 ) dx0 = ¡1 Z 1 Z 1 0 0 0 = g(x )f(x ¡ x ) dx + h(x0 )f(x ¡ x0 ) dx0 = ¡1
= f(x) ¤ g(x) + f(x) ¤ h(x):
E.3
¡1
(E.12)
Convolución periódica de señales continuas.
Resulta sencillo demostar que el resultado de la convolución de dos señales periódicas continuas de período X0 es otra señal periódica perteneciente al mismo espacio de señales. Para ello, basta con demostrar la siguiente relación, c0 (x) = c0 (x + mX0 ):
366
(E.13)
c Emilio Gago-Ribas, 2002 °
2
Re{g0(x')}
2
1
1
0
0
-1
-1
-2 2
-2
-1
Re{g0(x-x')}
0
x'
1
2
x=2
3
-2 -2 2
1
1
0
0
-1
-1
-2 -1
0
1
x'
2
3
4
Im{g0(x')}
-1
x'
x=2
1
2
3
0
1
2
3
4
Im{g0(x-x')}
-2 -1
x'
0
Figura E.1. Re‡exión y desplazamiento, g0 (x¡x0 ); de una señal periódica de período X0 = 1: En este caso, el desplazamiento x = 2:
Desarrollando el segundo término de la igualdad, Z c0 (x + mX0 ) = f0 (x0 )g0 (x + mX0 ¡ x0 ) dx0 = hX0 i Z = f0 (x0 )g0 [x ¡ (x0 ¡ mX0 )] dx0 = hX0 i Z = f0 (x0 )g0 (x ¡ x0 ) dx0 = c0 (x):
(E.14)
hX0 i
Nótese que en la última igualdad se ha tenido en cuenta el hecho de que una re‡exión respecto al eje vertical y un cierto desplazamiento de valor x sobre la señal g0 (x) da lugar a una nueva señal perteneciente también a P (X0 ); Fig. E.1.
E.4
Propiedades de la convolución discreta.
La demostración de estas propiedades es totalmente análoga a la realizada para señales continuas en la Sección E.2 con las salvedades correspondientes a las propiedades que tienen que ver con la integración y las series, por ejemplo, Z
b
a
f (x) dx = ¡
Z
b
a
f(x) dx Ã!
N2 X
n=N1
x(n) =
N1 X
x(n):
(E.15)
n=N2
² Propiedad conmutativa. Partiendo de
x(n) ¤ y(n) =
1 X
m=¡1
x(m)y(n ¡ m);
(E.16)
resulta sencillo aplicar el siguiente cambio de variable discreto: n ¡ m = k; de forma que m = n ¡ k; obteniéndose x(n) ¤ y(n) =
c Emilio Gago-Ribas, 2002 °
¡1 X
k=1
x(n ¡ k)y(k) =
1 X
k=¡1
y(k)x(n ¡ k) = y(n) ¤ x(n):
(E.17)
367
² Propiedad asociativa.
Observando los dos términos de la igualdad y desarrollando cada una de las convoluciones sobre una variable intermedia diferente, por ejemplo, m y k; podremos identi…car los siguientes términos, 1 X
p(n) = y(n) ¤ h(n) =
q(n) = x(n) ¤ y(n) =
k=¡1 1 X
m=¡1
De esta forma,
y(k)h(n ¡ k) =
x(m)y(n ¡ m) =
x(n) ¤ [y(n) ¤ h(n)] = x(n) ¤ p(n) = =
1 X
x(m)
m=¡1
= =
1 X
k=¡1 1 X
k=¡1
h(k)
"
"
1 X
k=¡1 1 X
m=¡1
1 X
m=¡1 1 X
k=¡1 1 X
m=¡1
y(n ¡ k)h(k);
x(n ¡ m)y(m):
(E.18)
(E.19)
x(m)p(n ¡ m) = #
y(n ¡ m ¡ k)h(k) = #
x(m)y(n ¡ m ¡ k) =
h(k)q(n ¡ k) = q(n) ¤ h(n) =
= [x(n) ¤ y(n)] ¤ h(n): (E.20) P1 Nótese que en este desarrollo se ha identi…cado el término m=¡1 x(m)y(n ¡ m ¡ k) = q(n ¡ k) en base a (E.19).
² Propiedad distributiva.
La demostración de esta propiedad es trivial partiendo de cualquiera de los términos de la igualdad; por ejemplo, 1 X
x(n) ¤ [y(n) + h(n)] =
m=¡1 1 X
=
m=¡1
[y(m) + h(m)] x(n ¡ m) = y(m)x(n ¡ m) +
1 X
m=¡1
h(m)x(n ¡ m) =
= x(n) ¤ y(n) + x(n) ¤ h(n):
E.5
(E.21)
Convolución periódica de señales discretas.
Resulta sencillo demostar que el resultado de la convolución de dos señales periódicas discretas de período N0 es otra señal periódica perteneciente al mismo espacio de señales. Para ello, bastará con demostrar la siguiente relación, c0 (n) = c0 (n + kN0 ):
(E.22)
Desarrollando el segundo término de la igualdad, X c0 (n + kN0 ) = x0 (m)y0 (n + kN0 ¡ m) = hN0 i
=
X
hN0 i
=
X
hN0 i
x0 (m)y0 [n ¡ (m ¡ kN0 )] = x0 (m)y0 (n ¡ m) = c0 (n):
(E.23)
Nótese que en la última igualdad se ha tenido en cuenta el hecho de que una re‡exión respecto al eje vertical y un cierto desplazamiento sobre la señal y0 (n) da lugar a una nueva señal perteneciente también a D(N0 ); Fig. E.2. 368
c Emilio Gago-Ribas, 2002 °
3
Re{y0(m)}
3
2
2
1
1
0
0
-1 -8 3
0m Re{y0(n-m)}
8
16
24
-1 -8 3
2
2
1
1
0
0
-1
-16
-8
0
m
8
Im{y0(m)}
0m
8
16
24
Im{y0(n-m)}
-1
-16
-8
n=5
m
0
8
n=5
Figura E.2. Re‡exión y desplazamiento, y0 (n ¡ m); de una señal discreta periódica de período N0 = 8: En este caso, el desplazamiento n = 5:
E.6 E.6.1
Señales de partida importantes. Señales sinusoidales. ² Valor medio: hf0 (x)i =
A X0
=
A X0
Z
hX0 i
Z
X0
0
(
sin cos
(
² Energía: E [f0 (x)] = A2 = A2
sin cos
Z
hX0 i X0
Z
0
E.6.2
)
)
A (» 0 x + '0 ) dx = X0
¨x0 +X0 ¨x0
(
sin cos
)
[» 0 (x + x0 )] dx = (E.24)
» 0 u du = 0:
sin2 (» 0 x + '0 ) dx = A2 A2 sin2 » 0 u du = X0 : 2
Z
¨x0 +X0
¨x0
sin2 [» 0 (x + x0 )] dx = (E.25)
Exponenciales de exponente imaginario. ² Energía: E [f0 (x)] =
Z
hX0 i
E.6.3
Z
pf0 (x) dx =
Z
X0 0
j F~ j2 dx = X0 j F~ j2 :
(E.26)
Exponenciales reales. ² Valor medio:
1 hf(x)i = lim b!1 2b
² Potencia media:
1 hpf (x)i = lim b!1 2b
Z
Z
b
¡b
c Emilio Gago-Ribas, 2002 °
b ¡b
eab ¡ e¡ab ³ 1 ´ aeab + ae¡ab = = lim ! 1: b!1 b!1 2ab 1 2a
eax dx = lim
(E.27)
e2ab ¡ e¡2ab ³ 1 ´ 2ae2ab + 2ae¡2ab = = lim ! 1: (E.28) b!1 b!1 4ab 1 4a
e2ax dx = lim
369
E.6.4
Exponenciales complejas. ² Valor medio: 1 b!1 2b
hf(x)i = lim
Z
b
esb ¡ e¡sb ³ 1 ´ sesb + se¡sb = = lim ! 1: b!1 b!1 2bs 1 2s
esx dx = lim
¡b
² Energía: E [f (x)] =
Z
1
sx
e
¡1
² Potencia media: 1 hpf (x)i = lim b!1 2b =
E.7 E.7.1
lim
Z
b
e
¡b 0 2s0 b
2s e
b!1
2s0 x
0
es x ejs dx = s
00
¯1 ¯ ! 1: ¯ ¯
x¯
(E.29)
(E.30)
¡1
0 0 e2s b ¡ e¡2s b ³ 1 ´ dx = lim = = b!1 4bs0 1 0
+ 2s0 e¡2s b ! 1: 4s0
(E.31)
Desarrollo en serie de Fourier. Coe…cientes que minimizan la energía del error.
Consideremos la energía de la función de error entre una función periódica f0 (x) 2 P~ (X0 ) y su desarrollo PN en serie truncado a N términos, DSF¡1 N [a(m)] = m=¡N a(m)'(x; m); Z Z ¯ ¯ ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx: E [e0N (x)] = je0N (x)j2 dx = (E.32) N hX0 i
hX0 i
Consideremos un término cualquiera del desarrollo truncado que identi…caremos por el coe…ciente k: Analicemos la derivada de la energía del error respecto a dicho término a(k); "Z # ¯ ¯ d dE [e0N (x)] 2 ¯f0 (x) ¡ DSF¡1 [a(m)]¯ dx = = N da(k) da(k) hX0 i Z ¯2 i d h¯¯ ¯ dx: f0 (x) ¡ DSF¡1 [a(m)] = (E.33) N hX0 i da(k) En esta igualdad se ha tenido en cuenta que el valor de los coe…cientes no depende de la variable x; de forma que la derivada respecto al término k-ésimo se reducirá al análisis de la derivada de la función de error e0N (x): Consideremos en primer lugar que la función de error es positiva, de forma que su módulo coincide punto a punto con la función. Podremos entonces escribir, ¢2 i ¡ ¢ d h¡ de0N (x) = f0 (x) ¡ DSF¡1 [a(m)] = ¡2 f0 (x) ¡ DSF¡1 N N [a(m)] '(x; k): da(k) da(k)
(E.34)
Esta última igualdad se ha obtenido teniendo en cuenta la siguiente relación trivial, DSF¡1 N [a(m)] =
N X
a(m)'(x; m) =
m=¡N
= a(¡N )'(x; N ) + ::::: + ::::: + a(k)'(x; k) + ::::: + a(N )'(x; N ):
(E.35)
Así, la derivada respecto de a(k) del desarrollo truncado vendrá dada por la función '(x; k): Introduciendo el valor obtenido en (E.34) en la ecuación (E.33) e igualando a cero la derivada de la energía, obtendremos la siguiente relación, Z ¡ ¢ dE [e0N (x)] =0! f0 (x) ¡ DSF¡1 (E.36) N [a(m)] '(x; k) dx = 0: da(k) hX0 i 370
c Emilio Gago-Ribas, 2002 °
Deberá ocurrir entonces que, Z
f0 (x)'(x; k) dx =
hX0 i
Z
hX0 i
DSF¡1 N [a(m)] '(x; k) dx:
(E.37)
El término a la derecha de la igualdad puede analizarse de la siguiente forma, " N # Z Z X ¡1 DSFN [a(m)] '(x; k) dx = a(m)'(x; m) '(x; k) dx = hX0 i
hX0 i
=
N X
m=¡N
a(m)
N X
m=¡N
'(x; m)'(x; k) dx =
hX0 i
m=¡N
=
Z
a(m)
Z
ej(m+k)»0 x dx:
(E.38)
hX0 i
Todas las integrales del último sumatorio se anulan excepto la correspondiente al término con m + k = 0; en cuyo caso vale X0 : Así, la integral total se reducirá al valor X0 a(m) = X0 a(¡k): Imponiendo este resultado en la ecuación (E.37), Z f0 (x)'(x; k) dx = X0 a(¡k); (E.39) hX0 i
Z
hX0 i
f0 (x)'(x; ¡k) dx = X0 a(k):
(E.40)
La energía der error será mínima respecto del término a(k) cuando el valor de dicho coe…ciente sea, Z 1 a(k) = f0 (x)'(x; ¡k) dx = X0 hX0 i Z Z 1 1 = f0 (x)e¡jk»0 x dx = f0 (x)'¤ (x; k) dx; (E.41) X0 hX0 i X0 hX0 i lo que se puede reescribir en términos del producto escalar de…nido sobre P~ (X0 ) en la forma, a(k) =
1 hf0 (x)'(x; k)i: X0
(E.42)
Este desarrollo ha de ir acompañado de los siguientes comentarios: ² Nótese que en este desarrollo hemos impuesto la propiedad de que e0N (x) fuese siempre positiva para todo x: El desarrollo del módulo en (E.33) requiere del estudio complementario cuando e0N (x) fuese negativa. Se deja como ejercicio para el lector el análisis de este caso, que lleva al mismo resultado obtenido. ² El resultado …nal respecto a un cierto término k es independiente del coe…ciente elegido, es decir, del valor de k: Así: 1. Su generalización para cualquiera de los coe…cientes del desarrollo en serie truncado es el resultado …nal mostrado en la ecuación (8.27) en términos de la variable m: 2. Su valor será independiente del numero de términos N elegido para el desarrollo truncado. E.7.2
Condición de señales de energía …nita.
Partiendo de la expresión de la energía del error asociado al desarrollo en serie de Fourier truncado de una señal periódica descrito en (E.32), veremos como lim E [e0N (x)] = E [e0 (x)] ! 0
N!1
c Emilio Gago-Ribas, 2002 °
(E.43)
371
siempre que (E.44)
E [f0 (x)] < 1;
es decir, que f0 (x) sea una señal periódica de energía …nita. Consideremos una vez más la expresión, Z ¯ ¯ ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx: E [e0N (x)] = (E.45) N hX0 i
Escribiendo el módulo al cuadrado como el producto de una función por su conjugada y desarrollando el producto podemos reescribir la anterior igualdad en la forma, Z Z Z ¯ ¯ © ¤ª ¯DSF¡1 [a(m)]¯2 ¡ 2 E [e0N (x)] = jf0 (x)j2 dx + Re f0 (x)DSF¡1 dx = N N [a(m)] hX0 i hX0 i hX0 i Z Z Z ¯ ¯ ¯DSF¡1 [a(m)]¯2 ¡ 2 Re = jf0 (x)j2 dx + f0 (x)DSF¡1 [a(m)]¤ dx:(E.46) hX0 i
N
hX0 i
N
hX0 i
Analicemos a continuación cada uno de los términos de la última igualdad:
² El primer término no es más que la energía de la señal f0 (x); esto es, E [f0 (x)] :
² El segundo término se puede analizar escribiendo una vez más el módulo de la función como el producto de dicha función por su conjugado y usando la expresión del desarrollo en serie truncado, Z
¯ ¯ ¯DSF¡1 [a(m)]¯2 dx = N
hX0 i
=
R
hX0 i
Z
N P
hX0 i
m=¡N
¸ a(m)'(x; m)
a(¡N )a¤ (¡N)'(x; ¡N )'¤ (x; ¡N ) dx + ::::: +
N P
m=¡N
R
¸ a¤ (m)'¤ (x; m) dx =
¤ hX0 i a(¡N )a(N )'(x; ¡N )' (x; N )
dx+
+:::::+ R R + hX0 i a(0)a¤ (¡N )'(x; 0)'¤ (x; ¡N ) dx + ::::: + hX0 i a(0)a(N )'(x; 0)'¤ (x; N ) dx+
+:::::+ R R + hX0 i a(N)a¤ (¡N)'(x; N)'¤ (x; ¡N ) dx + ::::: + hX0 i a(N )a(N )'(x; N )'¤ (x; N ) dx+ (E.47) Esta última expresión se reduce notablemente si tenemos en cuenta las propiedades de ortogonalidad de las funciones base, de forma que todos los términos en la forma 8 Z < 0 si k 6= n h'(x; k); '(x; n)i = '(x; k)'¤ (x; n) dx = (E.48) : X hX0 i si k = n 0
pudiendo entonces escribir,
Z
hX0 i
2
¯ ¯ ¯DSF¡1 [a(m)]¯2 dx = N
= ja(¡N)j h'(x; ¡N); '(x; ¡N )i + ::: + ja(0)j2 h'(x; 0); '(x; 0)i + ::: + ja(N )j2 h'(x; N ); '(x; N )i = = X0
N X
m=¡N
ja(m)j2 :
(E.49)
² Finalmente, el tercer término se puede analizar como sigue, Z Z N P ¤ Re f0 (x)DSF¡1 [a(m)] dx = Re f0 (x) a¤ (m)'¤ (x; m) dx = N hX0 i
= Re
N P
m=¡N
a¤ (m)
Z
hX0 i
f0 (x)'¤ (x; m) dx = Re
hX0 i
= X0 Re
a¤ (m)hf0 (x); '(x; m)i =
m=¡N N P
m=¡N
372
m=¡N
N P
a¤ (m)a(m) = X0
N P
m=¡N
ja(m)j :
(E.50)
c Emilio Gago-Ribas, 2002 °
Sustituyendo estos tres resultados en la ecuación (E.46), N X
E [e0N (x)] = E [f0 (x)] + X0
m=¡N
= E [f0 (x)] ¡ X0
N X
m=¡N
ja(m)j2 ¡ 2X0
N P
m=¡N
ja(m)j2 :
ja(m)j = (E.51)
A la vista de esta última expresión y haciendo que N ! 1; podemos sacar las siguientes conclusiones: 1. En el límite, el desarrollo en serie de in…nitos términos aproxima a la señal f0 (x) de forma que se cumplirá la relación de Parseval en (E.74), lo que hace que dicha expresión valga cero y, por lo tanto, lim E [e0N (x)] = E [e0 (x)] = 0:
N!1
(E.52)
2. Por otro lado, el que dicha expresión se anule hace necesario que E [f0 (x)] sea de valor …nito, de forma que no exita una indeterminación en la forma in…nito menos in…nito. Así, podremos asegurar que la energía del error tiende a cero siempre que la energía de la señal sea …nita. En otro caso, podría ser que para una cierta señal de energía in…nita, la indeterminación tendiera a cero también, hecho que ni podremos asegurarlo a priori, ni se cumplirá para toda señal de energía in…nita. E.7.3
Propiedades del desarrollo en serie de Fourier. ² Linealidad. ®f0 (x) + ¯g0 (x) $ ®a(m) + ¯b(m):
(E.53)
La demostración de esta propiedad se deja al lector, dado que es completamente trivial en virtud de la linealidad de los operadores DSF¡1 y DSF de…nidos en (8.18) y (8.19). ² Desplazamientos en x: f0 (x ¡ x0 ) $ a(m)e¡jm»0 x0
(E.54)
La demostración de esta propiedad es trivial sin más que aplicar la expresión de los coe…cientes del desarrollo en serie en (8.19) a la función desplazada y aplicando el cambio de variables trivial, x ¡ x0 = x0 ; Z Z 0 ¡jm»0 x f0 (x ¡ x0 )e dx = f0 (x0 )e¡jm»0 (x +x0 ) dx0 = hX0 i hX0 i Z 0 = e¡jm»0 x0 f0 (x0 )e¡jm»0 x dx0 = e¡jm»0 x0 a(m): (E.55) hX0 i
² Producto por el armónico M -ésimo. f0 (x)ejM»0 x
$ a(m ¡ M )
(E.56)
La demostración de esta propiedad es trivial aplicando la expresión de los coe…cientes del desarrollo en serie en (8.19) a la función completa y reescribiendo el término exponencial en función de m ¡ M; Z Z f0 (x)ejM»0 x e¡jm»0 x dx = f0 (x)e¡j(m¡M)»0 x dx = a(m ¡ M ): (E.57) hX0 i
hX0 i
² Conjugado de la función. f0¤ (x) $ a¤ (¡m)
c Emilio Gago-Ribas, 2002 °
(E.58)
373
La demostración de esta propiedad resulta trivial a partir de la expresión del desarrollo en serie en (8.18), X f0 (x) = a(m)ejm»0 x ; m
f0¤ (x) =
X
b(m)ejm»0 x =
m
X
a¤ (m)e¡jm»0 x =
m
= ::::: + a¤¡2 ej2»0 x + a¤¡1 ej»0 x + a¤0 + a¤1 e¡j»0 x + a¤2 e¡j2»0 x + :::::
(E.59)
Identi…cando en ambas igualdades los términos correspondientes a armónicos de igual pulsación, b(¡2) = a¤ (2); b(:1) = a¤ (1); b(0) = a¤ (0); b(1) = a¤ (¡1); :::::
(E.60)
resultado que, generalizado para todo valor de m; b(m) = a¤ (¡m):
(E.61)
f0 (¡x) $ a(¡m)
(E.62)
² Re‡exión sobre el eje vertical. La demostración de esta propiedad resulta trivial sin más que analizar el valor de f0 (¡x) partiendo del desarrollo en serie en (8.18) y aplicando el cambio de variable ¡m por n; X f0 (x) = a(m)ejm»0 x ; m
f0 (¡x) =
1 X
m=¡1
b(m)ejm»0 x =
1 X
a(m)e¡jm»0 x =
m=¡1
¡1 X
a(n)ejn»0 x =
n=1
1 X
a(n)ejn»0 x ; (E.63)
n=¡1
de forma que los nuevos coe…cientes b(m) se pueden identi…car claramente con, b(m) = a(n) = a(¡m):
(E.64)
² Escalado de la variable independiente. f0 (ax); a > 0 y X00 =
X0 a
$ a(m)
(E.65)
Consideremos la señal de partida f0 (x): Los siguientes comentarios son importantes a la hora de analizar esta propiedad: – El factor de escala sólamente puede ser un número real para que la nueva función continúe siendo de variable real. – Esta operación en realidad debe de verse como un operador que actuando sobre el espacio de señales P~ (X0 ); nos devuelve una señal perteneciente a un nuevo espacio P~ (X00 ); dado que el período de la nueva señal se ve modi…cado por el factor de escala a; esto es, X00 = X0 =a: La demostración de esta propiedad pasa por aplicar la ecuación de análisis en (8.19) a la nueva señal respecto a su nuevo período, y por lo tanto, respecto a su nueva pulsación » 00 = a» 0 ; y realizando el cambio de variable1 ax = y; Z Z 0 1 1 dy ¡jm»00 x b(m) = f (ax)e dx = f0 (y)e¡jm»0 y=a = 0 0 0 X0 hX00 i X0 hX0 i a Z Z 1 1 ¡jm»0 y = f0 (y)e dy = f0 (y)e¡jm»0 y dy = a(m): (E.66) aX00 hX0 i X0 hX0 i Nótese que, manteniéndose el valor de los coe…cientes, el desarrollo en serie de f0 (ax) ha de expresarse en términos del nuevo período X00 = X0 =a, y por lo tanto, de la nueva pulsación, » 00 = a» 0 : - ® que la integral sobre x en un intervalor X00 pasa a ser la integral sobre x0 en un intervalo hX0 i en virtud del cambio de variable realizado. 1 Nótese
374
c Emilio Gago-Ribas, 2002 °
² Convolución periódica. f0 (x) ¤ g0 (x) $ X0 a(m)b(m)
(E.67)
La demostración de esta propiedad pasa por aplicar la ecuación de los coe…cientes en (8.19) a la expresión desarrollada de la convolución f0 (x)¤g0 (x); intercambiando posteriormente las integraciones en las variables x e x0 ; y teniendo en cuenta la propiedad de desplazamiento en (E.54), "Z # Z Z 1 1 ¡jm» 0 x c(m) = f0 (x) ¤ g0 (x)e dx = f0 (y)g0 (x ¡ y) dy e¡jm»0 x dx = X0 hX0 i X0 x=hX0 i y=hX0 i "Z # Z Z 1 ¡jm»0 x g0 (x ¡ y)e dx dy = f0 (y)b(m)e¡jm»0 y dy = = f0 (y) X 0 x=hX0 i y=hX0 i y=hX0 i Z = b(m) f0 (y)e¡jm»0 y dy = X0 b(m)a(m): (E.68) y=hX0 i
² Producto. f0 (x)g0 (x) $
1 X
k=¡1
a(k)b(m ¡ k)
(E.69)
La demostración de esta propiedad pasa por aplicar la expresión de análisis en (8.19) a la señal resultante del producto f0 (x)g0 (x); sustituyendo una de las funciones por su desarrollo en serie dado por (8.18), e intercambiando adecuadamente la integración en x y la suma en k; " # Z Z X 1 1 ¡jm»0 x jk»0 x c(m) = f0 (x)g0 (x)e dx = f0 (x) b(k)e e¡jm»0 x dx = X0 hX0 i X0 hX0 i k Z Z X 1 1 X jk»0 x ¡jm» 0 x b(k) f0 (x)e e dx = b(k) f0 (x)e¡j(m¡k)»0 x dx = = X0 X0 hX i hX i 0 0 k k X = b(k)a(m ¡ k): (E.70) k
² Primera derivada. df0 (x) dx
(E.71)
$ jm» 0 a(m)
La demostración de esta propiedad pasa por derivar la función y, por lo tanto, derivar su desarrollo en serie en (8.18), df0 (x) dx
X d X dejm»0 x a(m)ejm»0 x = a(m) dx = dx m dx m X X = a(m)jm» 0 ejm»0 x = b(m)ejm»0 x ; b(m) = jm» 0 a(m): =
m
(E.72)
m
² Derivada n-ésima.
dn f0 (x) dxn
$ (jm» 0 )n a(m)
(E.73)
La demostración de esta propiedad pasa por derivar sucesivamente la expresión del desarrollo en serie de f0 (x): En base al desarrollo realizado para la primera derivada, se deja al lector la demostración de esta propiedad. ² Relación de Parseval.
Z
hX0 i
jf0 (x)j2 dx = X0
1 X
m=¡1
ja(m)j2 ;
E [f0 (x)] = X0 E [a(m)] c Emilio Gago-Ribas, 2002 °
(E.74) 375
La demostración de esta propiedad pasa por desarrollar la energía de la señal f0 (x) sustituyendo jf0 (x)j2 por su equivalente f0 (x)f0¤ (x); y utilizar la expresión del desarrollo en serie (8.18), bien para f0 (x); bien para f0¤ (x); # " Z Z Z X 2 ¤ ¤ ¡jm»0 x dx = jf0 (x)j dx = f0 (x)f0 (x) dx = f0 (x) a (m)e hX0 i
hX0 i
X
=
m
= X0
a¤ (m)
X
"Z
hX0 i
#
m
f0 (x)e¡jm»0 x dx =
hX0 i
¤
a (m)a(m) = X0
m
X m
2
ja(m)j :
X
a¤ (m)X0 a(m) =
m
(E.75)
² Funciones pares. Si f0 (x) es par, su espectro discreto también es par, esto es, (E.76)
f0 (x) = f0 (¡x) $ a(m) = a(¡m):
Su demostración es trivial dado que el espectro de f0 (¡x) es a(¡m) en virtud de la propiedad (E.64). ² Funciones impares. Si f0 (x) es impar, su espectro también es impar, esto es, (E.77)
f0 (x) = ¡f0 (¡x) $ a(m) = ¡a(¡m):
Su demostración es trivial dado que el espectro de f0 (¡x) es a(¡m) en virtud de la propiedad (E.64). ² Funciones reales. (E.78)
f0 (x) real $ a(m) = a¤ (¡m)
La demostración de esta propiedad pasa sencillamente por analizar la función conjugada de la ecuación de los coe…cientes (8.19) considerando la propiedad f0 (x) = f0¤ (x) asociada a una función real evaluada en ¡»; Z 1 a(m) = f0 (x)e¡jm»0 x dx; X0 hX0 i Z Z 1 1 ¤ ¤ jm»0 x a (m) = f (x)e f0 (x)ejm»0 x dx; dx = X0 hX0 i 0 X0 hX0 i Z 1 ¤ a (¡m) = f0 (x)e¡jm»0 x dx = a(m): (E.79) X0 hX0 i
E.8 E.8.1
Transformada de Fourier. Coe…cientes que minimizan la energía del error.
2 Consideremos la energía de la función de error entre una función f (x) R 2 L (¡1; 1) y su desarrollo en ¡1 términos de la transformada inversa de Fourier TF [F (»)] = 1=2¼ » F (»)'(x; ») d»;
E [e(x)] =
Z
x
je(x)j2 dx =
Z ¯ ¯ ¯f(x) ¡ TF¡1 [F (»)]¯2 dx:
(E.80)
x
Consideremos un armónico cualquiera del conjunto f'(x; »)g que identi…caremos por º; esto es, '(x; º): Analicemos la derivada de la energía del error respecto al coe…ciente F (º); ¸ Z Z ¯ ¯2 ¯2 i d d h¯¯ dE [e(x)] ¡1 ¯ ¯ = f(x) ¡ TF [F (»)] dx = f (x) ¡ TF¡1 [F (»)]¯ dx: (E.81) dF (º) dF (º) x x dF (º)
En esta igualdad se ha tenido en cuenta que el valor de los coe…cientes F (») no depende de la variable x; de forma que la derivada respecto al término F (º) se reducirá al análisis de la derivada de la función
376
c Emilio Gago-Ribas, 2002 °
de error e(x): Consideremos que la función de error es positiva, de forma que su módulo coincide punto a punto con la función. Podremos entonces escribir, ¢2 i ¡ ¢ de(x) d h¡ = f (x) ¡ TF¡1 [F (»)] = ¡2 f(x) ¡ TF¡1 [F (»)] '(x; º): (E.82) dF (º) dF (º)
Esta última igualdad se ha obtenido teniendo en cuenta la siguiente relación que TF¡1 [F (»)] puede ser vista como una suma en la forma del sumatorio en (E.35) para el caso de funciones discretas pero ahora de forma continua. Así, la derivada respecto a F (º) será justamente el armónico '(x; º) de todo el conjunto f'(x; »)g : Introduciendo el resultado en (E.82) en la ecuación (E.81) e igualando a cero la derivada de la energía, obtendremos la siguiente relación, Z ¡ ¢ dE [e(x)] =0! f(x) ¡ TF¡1 [F (»)] '(x; º) dx = 0: (E.83) dF (º) x Deberá entonces suceder que, Z
f(x)'(x; º) dx =
x
Z
TF¡1 [F (»)] '(x; º) dx:
(E.84)
x
El término a la derecha de la igualdad puede analizarse de la siguiente forma, ¸ Z Z Z 1 ¡1 TF [F (»)] '(x; º) dx = F (»)'(x; ») d» '(x; º) dx = x x 2¼ » ¸ Z Z 1 = F (») '(x; »)'(x; º) dx d» = 2¼ » x ¸ Z Z 1 = F (») ej(»+º)x dx d»: 2¼ » x
(E.85)
Teniendo en cuenta que la expresión del producto escalar de dos funciones base cualesquiera se puede escribir en términos de la distribución delta, (9.225), ocurrirá que la integral en x es igual a, Z ej(»+º)x dx = 2¼±(» + º); (E.86) x
de forma que
Z
TF¡1 [F (»)] '(x; º) dx =
x
Z
F (»)±(» + º) d» = F (¡º):
(E.87)
»
El valor de la integral en (E.84) se podrá reescribir en la forma siguiente, Z f(x)'(x; º) dx = F (¡º);
(E.88)
x
Z
x
(E.89)
f(x)'(x; ¡º) dx = F (º):
La energía der error será entonces mínima respecto del término F (º) cuando el valor de dicho coe…ciente sea, Z Z Z F (º) = f (x)'(x; ¡º) dx = f (x)e¡jºx dx = f (x)'¤ (x; º) dx; (E.90) x
x
x
~ lo que se puede reescribir en términos del producto escalar de…nido sobre S(¡1; 1) en la forma, F (º) = hf(x)'(x; º)i:
(E.91)
Los siguientes comentrios resultan de especial importancia en el desarrollo realizado: ² Hemos impuesto inicialmente la propiedad de que e(x) fuese siempre positiva para todo x: El desarrollo del módulo en (E.81) requiere del estudio complementario cuando e(x) es negativa. Se deja como ejercicio para el lector el análisis de este caso que lleva al mismo resultado obtenido. ² El resultado …nal respecto a un cierto término º es independiente del coe…ciente elegido, es decir, del valor de º: Su generalización para cualquiera de los coe…cientes de la transformada inversa será el resultado …nal mostrado en la ecuación (9.232) en términos de la variable »: c Emilio Gago-Ribas, 2002 °
377
E.8.2
Condición de señales de energía …nita.
Partiendo de la expresión de la energía del error asociado a la transformada inversa de Fourier de una señal f (x) descrito en (E.81), veremos como E [e(x)] ! 0
(E.92)
E [f (x)] < 1;
(E.93)
siempre que
es decir, que f(x) sea una señal cuadrado integrable o de energía …nita. Consideremos una vez más la expresión, Z ¯ ¯2 E [e(x)] = ¯f(x) ¡ TF¡1 [F (»)]¯ dx: (E.94) x
Escribiendo el módulo al cuadrado como el producto de una función por su conjugada y desarrollando este producto, podemos reescribir la anterior igualdad en la forma, Z Z ¯ Z ¯2 © ª E [e(x)] = jf (x)j2 dx + ¯TF¡1 [F (»)]¯ ¡ 2 Re f (x)TF¡1 [F (»)]¤ dx = x Zx Zx Z ¯ ¯ 2 2 ¡1 ¯ ¯ = jf (x)j dx + TF [F (»)] ¡ 2 Re f(x)TF¡1 [F (»)]¤ dx: (E.95) x
x
x
Analicemos a continuación cada uno de los términos de la última igualdad:
² El primer término no es más que la energía de la señal f(x); esto es, E [f (x)] :
² El segundo término se puede analizar escribiendo una vez más el módulo de la función como el producto de dicha función por su conjugado, usando la expresión de la transformada inversa en dos variables diferentes » y º; y reoordenando adecuadamente los órdenes de integración; así, ¸ ¸ Z ¯ Z Z Z ¯ 1 1 ¤ ¤ ¯TF¡1 [F (»)]¯2 dx = F (»)'(x; ») d» F (º)' (x; º) dº dx = 2¼ º x x 2¼ » µ ¶2 Z ½Z ¸ ¾ Z 1 ¤ j(»¡º)x = F (») F (º)e dº d» dx = 2¼ x » º µ ¶2 Z ½Z ¸ ¾ Z 1 = F (») F ¤ (º) ej(»¡º)x dx dº d»: (E.96) 2¼ » º x Esta expresión se reduce notablemente sin más que tener en cuenta una vez más la expresión del producto escalar en términos de delta, (9.225), de forma que la integral en x se reduce a 2¼±(» ¡ º): Aplicando la de…nición de la delta de Dirac obtendremos, µ ¶2 Z ½ Z ¾ Z ¯ ¯ ¯TF¡1 [F (»)]¯2 dx = 1 F (») 2¼ F ¤ (º)±(» ¡ º) dº d» = 2¼ x » º Z Z 1 1 1 2 ¤ = F (»)F (º) d» = jF (»)j d» = E [F (»)] : (E.97) 2¼ » 2¼ » 2¼ ² El tercer término se puede analizar como sigue, ¸ Z Z Z 1 Re f (x)TF¡1 [F (»)]¤ dx = Re f(x) F ¤ (»)'¤ (x; ») d» dx = 2¼ » x x ¸ Z Z Z 1 1 = Re F ¤ (») f (x)'¤ (x; ») dx d» = Re F ¤ (»)hf (x); '(x; »)i d» = 2¼ 2¼ » x » Z Z 1 1 1 2 ¤ = Re F (»)F (») d» = jF (»)j d» = E [F (»)] : 2¼ 2¼ 2¼ » »
(E.98)
Sustituyendo estos tres resultados en la ecuación (E.95), 1 E [F (»)] : 2¼ A la vista de esta última expresión, podemos asegurar que: E [e(x)] = E [f (x)] ¡
378
(E.99)
c Emilio Gago-Ribas, 2002 °
1. Dicha expresión se anula sin más que tener presente la relación entre las energías de la señal original y los coe…cientes de su representación espectral, relación de Parseval en (E.128), E [e(x)] = E [f(x)] ¡
1 E [F (»)] = 0: 2¼
(E.100)
2. Para que esa relación sea cierta es necesario que E [f (x)] sea de valor …nito, de forma que no exita una indeterminación en la forma in…nito menos in…nito. Así, podremos asegurar que la energía del error es nula siempre que la energía de la señal sea …nita. Si la energía de f (x) es in…nita, la indeterminación puede o no tender a cero, no pudiendo asegurar a priori que E [e(x)] = 0: En estos casos, el análisis de la indeterminación no resulta trivial en muchos casos, y el equivalente a este análisis sería el procedimiento seguido en las Seccs. 9.6 y 9.8 donde se analiza la tranformada de Fourier de algunas señales de energía in…nita de particular importancia práctica. E.8.3
Propiedades de la transformada de Fourier. ² Linealidad. ®f(x) + ¯g(x) $ ®F (») + ¯G(»):
(E.101)
Igual que en el caso del desarrollo en serie, la comprobación de esta propiedad se deja al lector dado que es trivial sin más que considerar la linealidad de los operadores TF y TF¡1 de…nidos en (9.17) y (9.18). ² Desplazamientos en x: f(x ¡ x0 ) $ F (»)e¡j»x0
(E.102)
La demostración de esta propiedad es trivial aplicando (9.18) a la función desplazada y aplicando un cambio de variables trivial, x ¡ x0 = x0 ; Z Z Z 0 0 f(x ¡ x0 )e¡j»x dx = f (x0 )e¡j»(x +x0 ) dx0 = e¡j»x0 f (x0 )e¡j»x dx0 = e¡j»x0 F (»): x0
x
x0
(E.103)
² Producto por una exponencial imaginaria de pulsación » 0 : f (x)ej»0 x
$ F (» ¡ » 0 )
(E.104)
La demostración de esta propiedad es trivial aplicando (9.18) a la función completa y reescribiendo el término exponencial en función de » ¡ » 0 ; Z Z f(x)ej»0 x e¡j»x dx = f (x)e¡j(»¡»0 )x dx = F (» ¡ » 0 ): (E.105) x
x
² Conjugado de la función. f ¤ (x) $ F ¤ (¡»)
(E.106)
La demostración de esta propiedad resulta trivial a partir de la transformada inversa en (9.17), Z 1 F (»)ej»x d»; f (x) = 2¼ » ¤
f (x) = =
c Emilio Gago-Ribas, 2002 °
Z Z 1 1 ¤ ¡j»x F (»)e d» = F ¤ (¡»)ej»x (¡d») = 2¼ » 2¼ ¡» Z 1 F ¤ (¡»)ej»x d» = TF¡1 fF ¤ (¡»)g : 2¼ »
(E.107)
379
² Re‡exión sobre el eje vertical.
(E.108)
f(¡x) $ F (¡»)
La demostración de esta propiedad resulta trivial a partir de la transformada inversa en (9.17), Z 1 f(x) = F (»)ej»x d»; 2¼ » f (¡x) = =
Z Z 1 1 F (»)e¡j»x d» = F (¡»)ej»x (¡d») = 2¼ » 2¼ ¡» Z 1 F (¡»)ej»x d» = TF¡1 fF (¡»)g : 2¼ »
² Escalado de la variable independiente. f(ax) $
1 F jaj
µ ¶ » a
(E.109)
(E.110)
La demostración de esta propiedad pasa por aplicar la expresión de la transformada directa en (9.18) considerando los casos con a > 0 y a < 0: El resultado …nal se podrá expresar directamente en términos del módulo de a; µ ¶ µ ¶ Z Z 0 dx0 1 1 » » a > 0 ! f(ax)e¡j»x dx = f(x0 )e¡j»x =a = F = F : (E.111) a a a jaj a 0 x x µ ¶ µ ¶ Z Z 0 » dx0 1 a < 0 ! f(ax)e¡j»x dx = f(x0 )e¡j»x =a ¡ = F : (E.112) jaj jaj a 0 x ¡x ² Convolución. f(x) ¤ g(x) $ F (») G(»)
(E.113)
La demostración de esta propiedad pasa por aplicar la expresión de la transformada directa en (9.18) a la señal resultante de la convolución f(x)¤g(x); e intercambiando adecuadamente las integraciones en x y en x0 ; Z Z Z f (x) ¤ g(x)e¡j»x dx = f (x0 )g(x ¡ x0 ) dx0 e¡j»x dx = x x x0 Z Z 0 = f (x ) g(x ¡ x0 )e¡j»x dx dx0 = x0 x Z 0 0 = f (x )G(»)e¡j»x dx0 = 0 x Z 0 = G(») f (x0 )e¡j»x dx0 = x0
= G(»)F (»):
(E.114)
² Producto.
1 (E.115) F (») ¤ G(») 2¼ La demostración de esta propiedad pasa por aplicar la expresión de la transformada directa en (9.18) a la señal resultante del producto f (x)g(x); sustituyendo una de las funciones por su transformada inversa en (9.17) e intercambiando adecuadamente las integraciones en x y en » 0 ; Z Z Z 0 1 ¡j»x f (x)g(x)e dx = f (x) G(» 0 )ej» x d» 0 dx = 0 2¼ x x » Z Z 0 1 0 = G(» ) f(x)e¡j(»¡» )x dx d» 0 = 2¼ »0 x Z 1 0 = G(» )F (» ¡ » 0 ) d» 0 = 2¼ »0 1 1 = G(») ¤ F (») = F (») ¤ G(»): (E.116) 2¼ 2¼ f (x)g(x) $
380
c Emilio Gago-Ribas, 2002 °
² Primera derivada. df(x) dx
$ j»F (»)
(E.117)
La demostración de esta propiedad pasa por derivar la función, y por lo tanto derivar su transformada inversa en (9.17), df (x) dx
= =
Z Z d 1 1 dej»x F (»)ej»x d» = F (») dx = dx 2¼ » 2¼ » dx Z 1 j»F (»)ej»x d» = TF¡1 fj»F (»)g: 2¼ »
² Derivada n-ésima.
dn f(x) dxn
$ (j»)n F (»)
(E.118)
(E.119)
La demostración de esta propiedad pasa por derivar sucesivamente la transformada inversa de Fourier, es decir, las sucesivas derivaciones del desarrollo realizado previamente, dejándose como ejercicio para el lector. ² Integración. Rx
¡1
f(x0 ) dx0
$
1 F (») + ¼F (0)±(») j»
(E.120)
La demostración de esta propiedad requiere de la transformada de Fourier de la distribución ¡(x) obtenida en la Secc. 9.6.5, esto es, TF [¡(x)] = ¼±(») + 1=j»: R x Es sabido también que ¡(x) es la respuesta al impulso del operador lineal e invariante L = ¡1 dx0 ; Secc. 7.9, resultando entonces trivial escribir la siguiente igualdad, Z x f(x0 ) dx0 = f (x) ¤ ¡(x): (E.121) ¡1
Por la propiedad de convolución en (E.113), podremos escribir, ¸ Z x 0 0 TF f (x ) dx = TF [f(x) ¤ ¡(x)] = ¡1
= F (») ¢ TF [¡(x)] = F (») [¼±(») + 1=j»] = 1 1 = F (») + ¼F (»)±(») = F (») + ¼F (0)±(»): j» j»
(E.122)
En la última igualdad se ha aplicado la propiedad del producto de una función de buen comportamiento, F (») en este caso, por la distribución delta de Dirac. ² Producto por x: xf (x) $ j
dF (») d»
La demostración de esta propiedad pasa por derivar la transformada directa en (9.18), £1 R ¤ d 2¼ f (x)e¡j»x dx dF (») x = = d» d» Z Z 1 de¡j»x 1 = f (x) dx = ¡jxf(x)e¡j»x dx = 2¼ x d» 2¼ x Z ¡j = xf(x)e¡j»x dx = TFf¡jxf (x)g: 2¼ x
c Emilio Gago-Ribas, 2002 °
(E.123)
(E.124)
381
² Dualidad. (E.125)
F (x) $ 2¼f(¡») Consideremos la expresión de la transformada de Fourier de f(x); Z 1 F (») = f(x)e¡j»x dx:
(E.126)
x=¡1
Realizando el cambio x Ã! »; multiplicando y dividiendo la expresión resultante por 2¼ y realizando posteriormente el cambio de variable » = ¡»; Z 1 Z 1 1 F (x) = f (»)e¡j»x d» = 2¼f(»)e¡j»x d» = 2¼ »=¡1 »=¡1 Z ¡1 Z 1 1 1 j»x = 2¼f(¡»)e (¡d») = 2¼f(¡»)ej»x d»: (E.127) 2¼ »=+1 2¼ »=¡1
Por comparación de esta última expresión con la de la transformada inversa podemos concluir que la función 2¼f (¡») ha de ser la transformada de Fourier de F (x):
² Relación de Parseval.
Z
x
jf(x)j2 dx = E [f (x)] =
Z 1 jF (»)j2 d» 2¼ » 1 E [F (»)] 2¼
(E.128)
La demostración de esta propiedad pasa por desarrollar la energía de la señal f(x) sustituyendo jf (x)j2 por su equivalente f (x)f ¤ (x); y utilizar la transformada inversa (9.17), bien para f(x); bien para f ¤ (x), Z Z Z Z 1 2 ¤ jf (x)j dx = f(x)f (x) dx = f(x) F ¤ (»)e¡j»x d» dx = 2¼ x x x » Z Z 1 ¤ ¡j»x = F (») f (x)e dx d» = 2¼ » x Z Z 1 1 = F ¤ (»)F (») d» = jF (»)j2 d»: (E.129) 2¼ » 2¼ » ² Funciones pares. Si f(x) es par, su espectro también es par, esto es, (E.130)
f(x) = f (¡x) $ F (») = F (¡»):
Su demostración es trivial dado que la transformada de f (¡x) es F (¡») en virtud de la propiedad (E.108). ² Funciones impares. Si f (x) es impar, su espectro también es impar, esto es, f (x) = ¡f (¡x) $ F (») = ¡F (¡»):
(E.131)
Su demostración es trivial dado que la transformada de f (¡x) es F (¡») en virtud de la propiedad (E.108). ² Funciones reales. f (x) real $ F ¤ (¡») = F (»):
(E.132)
La demostración de esta propiedad pasa por analizar simplemente la función conjugada de la transformada directa (9.18) evaluada en ¡»; Z F (») = f(x)e¡j»x dx; x Z Z F ¤ (») = f ¤ (x)ej»x dx = f(x)ej»x dx; x Zx F ¤ (¡») = f(x)e¡j»x dx = F (»): (E.133) x
382
c Emilio Gago-Ribas, 2002 °
E.9 E.9.1
Análisis de algunos sistemas básicos. Espectro de la ventana de Hanning.
La transformada de Fourier de cualquier función ventana se podrá calcular a partir de la expresión integral de la transformada, dado que son señales de energía …nita. Dada la importancia de operar con las propiedades de la transformada de Fourier, calcularemos el espectro de la ventana de Hanning usando éstas, dejando como ejercicio para el lector el cálculo de la integral y su comparación con el resultado aquí presentado. Para ello, partiremos de la expresión de w(x) en la forma, w(x) =
£ 2¼ ¡ 1© 1 ¡ cos ¢x x¡ 2
expresión que podrá desarrollarse de la siguiente forma,
¢x 2
¢¤ª
£ 2¼ ¡ 1 1 w(x) = P¢x (x) ¡ cos ¢x x¡ 2 2
P¢x (x);
¢x 2
¢¤
P¢x (x):
(E.134)
(E.135)
Ya podemos ver cómo la transformada de Fourier se podrá expresar en términos de las transformadas de dos señales básicas, P¢x (x) y cos(» 0 x): Así, ¡ ¢ P¢x (x) Ã! ¢x sinc ¢x (E.136) 2 » ; cos [» 0 (x ¡ x0 )] Ã! [¼±(» ¡ » 0 ) + ¼±(» + » 0 )] e¡j»x0 ;
(E.137)
donde » 0 = 2¼=¢x y x0 = ¢x=2 en nuestro caso particular. Usando las propiedades del producto de la delta de Dirac por una función de buen comportamiento, el último par transformado podrá desarrollarse de la siguiente forma, ¼±(» ¡ » 0 )e¡j»0 x0 + ¼±(» + » 0 )e+j»0 x0 = cos [» 0 (x ¡ x0 )] Ã! = ¼±(» ¡ » 0 )e¡j¼ + ¼±(» + » 0 )e+j¼ =
(E.138)
= ¡¼ [±(» ¡ » 0 ) + ±(» + » 0 )] : Usando la propiedad del producto de dos funciones en (E.115), podremos identi…car el siguiente par transformado, ¡ ¢x ¢ ¡ ¢x 2 [±(» ¡ » 0 ) + ±(» + » 0 )] ¤ sinc 2 » = cos [» 0 (x ¡ x0 )] P¢x (x) Ã! (E.139) £ ¤ £ ¤ ¢x ¢x ¢x = ¡ ¢x sinc (» ¡ » ) ¡ sinc (» + » ) ; 0 0 2 2 2 2 expresión en la que se ha utilizado la propiedad de la convolución de la delta de Dirac con una función de buen comportamiento, en este caso la función sinc : Finalmente, la transformada de Fourier de w(x) en (E.135) podrá escribirse como, W (») = =
¡ ¢ ¢x sinc ¢x » + 2 2 ¡ ¢ ¢x sinc ¢x » + 2 2
£ ¤ £ ¤ª ¢x © 2¼ 2¼ sinc ¢x (» ¡ ¢x ) + sinc ¢x (» + ¢x ) = 2 2 4 ¡ ¢ ¡ ¢¤ ¢x £ sinc ¢x » ¡ ¼ + sinc ¢x »+¼ : 2 2 4
(E.140)
Su análisis detallado se puede encontrar en el Ap. F.7. E.9.2
Espectro de la ventana de Welch.
Igual que para la ventana de Hanning, la transformada de Fourier de la ventana de Welch se podrá calcular a partir de la expresión integral de la transformada por ser una señal de energía …nita. Se deja como ejercicio para el lector dicho cálculo, centrándonos aquí en su obtención a partir de las propiedades de la transformada de Fourier. Partiendo de la expresión de w(x) en la forma, h ¡ 2 ¢2 i w(x) = 1 ¡ a ¢x x P¢x (x); (E.141) c Emilio Gago-Ribas, 2002 °
383
podemos desarrollar dicha expresión de la siguiente forma, ¡ 2 ¢2 2 w(x) = P¢x (x) ¡ a ¢x x P¢x (x):
(E.142)
La transformada de Fourier se podrá expresar entonces en términos de las transformadas de dos señales básicas, P¢x (x) y x2 ; la primera de energía …nita, Secc. 9.7.1, y la segunda de energía in…nita, Secc. 9.6.4. Así, ¡ ¢ P¢x (x) Ã! ¢x sinc ¢x (E.143) 2 » ; x2 Ã! ¡2¼± 00 (»):
(E.144)
Usando la propiedad del producto de dos funciones en (E.115), podremos identi…car el siguiente par transformado, x2 P¢x (x) Ã! ¡¢x ± 00 (») ¤ sinc x2 P¢x (x) Ã!
¡ ¢x ¢ ¡ ¢¤ d2 £ » = ¡¢x sinc ¢x ; 2 2 » dx2
¡ ¢2 2 ´ ¡ ¢ ¡ ¢x ¢i ¡¢x h³ 2 ¡ ¢x » sinc ¢x ; 2 2 2 » ¡ 2 cos 2 » »
(E.145)
(E.146)
expresión en la que se ha utilizado la propiedad de la convolución de la segunda derivada de la delta de Dirac con una función de buen comportamiento, Secc. 7.8.2, en este caso la función sinc; Ap. F.4. Finalmente, la transformada de Fourier de w(x) en (E.142) podrá escribirse como, ¢ ¢ ¡ ¢x ¢i ¡ ¡ ¡ ¢2 2 ´ 4a h³ = W (») = ¢x sinc ¢x » sinc ¢x 2 ¡ ¢x 2 » + 2 2 » ¡ 2 cos 2 » 2 ¢x» ¡ ¢ ¡ ¢x ¢¤ ¡ ¢x ¢ 8a 1 £ = ¢x(1 ¡ a) sinc ¢x : (E.147) 2 » + ¢x 2 sinc 2 » ¡ cos 2 » » Su análisis detallado se puede encontrar en el Ap. F.8.
E.10
Transformada de Laplace.
E.10.1
Propiedades asociadas a la ROC.
La demostración de las siguientes propiedades se basará en los siguientes conceptos: ² La representacion de la transformada de Laplace de o una función f (x) como la transformada de n 0 Fourier del conjunto continuo de funciones f(x)e¡s x ; ecuación (11.14), h i 0 TL [f(x)] = TF f(x)e¡s x ! F (s) = G(»; s0 ):
(E.148)
² En base a la representación en (E.148), imponer los criterios de convergencia de la tranformada de Fourier a la transformada de Laplace;nen concreto, o impondremos la condición de que la tranformada 0 de Fourier del conjunto de funciones f(x)e¡s x sea absolutamente integrable, Z ¯ Z ¯ 0 ¯ ¡s0 x ¯ ¯f(x)e ¯ dx = jf(x)j e¡s x dx < 1: x
(E.149)
x
Con estos dos conceptos en mente, demostraremos las propiedades particulares asociadas a la ROC de la tranformada de Laplace. ² Si f(x) es de duración …nita, y existe un s0 2 ROC, la ROC será todo el plano s:
Consideremos: (i) una función f(x) de…nida en un intervalo de longitud …nita (a; b); y (ii) un cierto valor s0 en el plano s: Dado que s0 2ROC, las siguientes a…rmaciones iniciales serán válidas, Z b 0 0 s0 2 ROC =) la recta s0 2 ROC =) jf (x)j e¡s0 x dx < 1: (E.150) a
384
c Emilio Gago-Ribas, 2002 °
Para explorar lo que ocurre en el resto del plano s; dividiremos éste en los semiplanos s0 > s00 y s0 < s00 y analizaremos lo que ocurre en cada caso. Consideremos en primer lugar el semiplano s0 > s00 ; lo que es lo mismo una recta s01 a la derecha de la recta s00 : El análisis de la convergencia de la transformada de Laplace a lo largo de dicha recta conlleva el análisis de la convergencia de (E.149) con s0 = s01 ; dicha integral podrá analizarse de la siguiente forma, Z b Z b Z b 0 0 0 0 0 0 0 jf (x)j e¡s1 x dx = jf (x)j e¡s1 x e¡s0 x es0 x dx = jf (x)j e¡(s1 ¡s0 )x e¡s0 x dx; (E.151) a
a
a
0
expresión en la que simplemente hemos multiplicado y dividido por e¡s0 x : Consideremos ahora el 0 0 término e¡(s1 ¡s0 )x : Inicialmente podemos asegurar que en el intervalo de de…nición (a; b) de f (x); dicho término, además de ser siempre positivo, es decreciente, dado que s01 ¡ s00 > 0 por estar s01 a la derecha de s00 : Así, la función exponencial tomará su valor máximo en el comienzo del intervalo, 0 0 esto es, e¡(s1 ¡s0 )a ; de forma que se cumplirá, 0
0
e¡(s1 ¡s0 )x
0
0
e¡(s1 ¡s0 )a ; x 2 (a; b): 0
0
(E.152)
0
0
0
0
Esto signi…ca que los términos h1 (x) = jf(x)j e¡(s1 ¡s0 )x e¡s0 x y h2 (x) = jf (x)j e¡(s1 ¡s0 )a e¡s0 x tendrán un comportamiento como el mostrado en la Fig. E.3(a). Podemos así asegurar que la integral en (E.151) cumplirá la siguiente desigualdad, Z b Z b Z b Z b 0 0 0 0 0 0 h1 (x) dx < h2(x) dx ! jf(x)j e¡(s1 ¡s0 )x e¡s0 x dx < jf (x)j e¡(s1 ¡s0 )a e¡s0 x dx: a
a
a
a
(E.153)
La igualdad en (E.151) quedará descrita enconces en términos de la siguiente desigualdad, que podrá a su vez desarrollarse como sigue, Z b Z b Z b 0 ¡(s01 ¡s00 )a ¡s00 x ¡(s01 ¡s00 )a ¡s01 x jf(x)j e¡s0 x dx: (E.154) jf (x)j e e dx = e jf (x)j e dx < a
a
a
¡(s01 ¡s00 )a
Dado que el valor e es …nito y positivo, y que se satisface la desigualdad en (E.150) por ser s00 2ROC, podemos concluir que la anterior expresión toma un valor …nito, Z b 0 jf (x)j e¡s1 x dx < 1; (E.155) a
s01
es decir, 2 ROC sea quien sea pertenecerá a la ROC.
s01
> s00 : Esto signi…ca que todo el semiplano a la derecha de s00
Consideremos ahora el semiplano s0 < s00 ; tomamos para ello una recta s02 a la izquierda de la recta s00 : El análisis de la convergencia de la transformada de Laplace a lo largo de dicha recta conlleva el análisis de la convergencia de (E.149) con s0 = s02 ; dicha integral podrá analizarse de la siguiente forma, Z b Z b Z b 0 0 0 0 0 0 0 jf (x)j e¡s2 x dx = jf (x)j e¡s2 x e¡s0 x es0 x dx = jf (x)j e¡(s2 ¡s0 )x e¡s0 x dx; (E.156) a
a
a
¡s00 x
expresión en la que hemos multiplicado y dividido por e : Considerando una vez más el término 0 0 e¡(s2 ¡s0 )x ; podemos asegurar que en el intervalo de de…nición (a; b) de f (x); el término, además de ser siempre positivo, es creciente, dado que s02 ¡ s00 < 0 por estar s02 a la izquierda de s00 : Así, la 0 0 función exponencial tomará su valor máximo en el …nal del intervalo, esto es, e¡(s2 ¡s0 )b ; de forma que se cumplirá, 0
0
e¡(s2 ¡s0 )x
0
0
e¡(s2 ¡s0 )b ; x 2 (a; b): 0
0
0
(E.157) 0
0
0
Esto signi…ca que los términos h1 (x) = jf (x)j e¡(s2 ¡s0 )x e¡s0 x y h2 (x) = jf (x)j e¡(s2 ¡s0 )b e¡s0 x tendrán un comportamiento como el mostrado en la Fig. E.3(b). Podemos antonces asegurar que la integral en (E.156) cumplirá la siguiente desigualdad, Z b Z b 0 0 0 ¡(s02 ¡s00 )x ¡s00 x jf(x)j e e dx < jf (x)j e¡(s2 ¡s0 )b e¡s0 x dx: (E.158) a
c Emilio Gago-Ribas, 2002 °
a
385
2
-s'0x
-(s'1-s'0)x
e
| f(x) |
e
ξ s'0
3
s'1
1
2 0 -2
-1
0
1
x
2
3
4
1
2
h1(x)
s0
(a)
s'
0
1
0 -2
-1
0
1
x
2
2
3
-1
4
h2(x)
-2
1
-3 -3
0 -2 9
-1
0
1
-s'0x
x
3
-2
-1
0
4
-(s'2-s'0)x
1
2
3
s'2 ξ s'0
3
e
e
6
2
| f(x) |
3
2
0 -2
-1
0
1
9
x
2
3
4
1
h1(x)
6
s0
(b)
s'
0
3 0 -2
-1
0
1
9
2
x
3
-1
4
h2(x)
6
-2
3
-3 0 -2
-1
0
x
1
2
3
-3
4
-2
-1
0
1
2
3
Figura E.3. Análisis de las funciones subintegrales h1 (x) y h2 (x) relativas a la demostración de la propiedad de la ROC asociada a señales de…nidas en un intervalo …nito (a; b): Las zonas en gris indican la visualización grá…ca del valor de cada una de las integrales. Los ejemplos presentados se han obtenido considerando la función jf (x)j mostrada en cada caso, s00 = 0:4; y los casos (a) s01 = 1 > s00 ; y (b) s02 = ¡0:3 < s00 :
La igualdad en (E.156) quedará descrita enconces en términos de la siguiente desigualdad, que podrá a su vez desarrollarse como sigue, Z
a
b
¡s02 x
jf(x)j e
dx < 0
Z
b a
¡(s02 ¡s00 )b ¡s00 x
jf(x)j e
e
¡(s02 ¡s00 )b
dx = e
Z
b a
0
jf(x)j e¡s0 x dx:
(E.159)
0
Dado que el valor e¡(s2 ¡s0 )b es …nito y positivo, y que se satisface la desigualdad en (E.150) por ser s00 2ROC, podemos concluir que la anterior expresión toma un valor …nito; así, Z
a
b
0
jf (x)j e¡s2 x dx < 1;
(E.160)
es decir, s02 2 ROC sea quien sea s02 < s00 : Esto signi…ca que todo el semiplano a la izquierda de s00 pertenecerá a la ROC. La conclusión …nal será que la ROC será todo el plano s; por serlo para todo s01 > s00 y para todo s02 < s00 : ² Si f (x) es in…nita y a derechas, y existe un s0 = s00 2 ROC, entonces toda la región a la derecha de s00 también pertenece a la ROC. Consideremos: (i) una función f(x) a derechas, esto es, de…nida en un intervalo de longitud in…nita (a; +1); y (ii) un cierto valor s0 en el plano s: Dado que s0 2ROC, las siguientes a…rmaciones iniciales serán válidas, Z 1 0 jf (x)j e¡s0 x dx < 1: (E.161) s0 2 ROC =) la recta s00 2 ROC =) a
386
c Emilio Gago-Ribas, 2002 °
Para explorar lo que ocurre en el resto del plano s; realizaremos un desarrollo similar al utilizado en la propiedad 1. Consideremos en primer lugar el semiplano s0 > s00 ; lo que es lo mismo una recta s01 a la derecha de la recta s00 : El análisis de la convergencia de la transformada de Laplace a lo largo de dicha recta conlleva el análisis de la convergencia de (E.149) con s0 = s01 El análisis es totalmente similar al realizado para la propiedad 1, llegándose a la misma conclusión que allé, Z 1 0 jf (x)j e¡s1 x dx < 1; (E.162) a
lo que segura la convergencia a la derecha de s00 : Se deja como ejercicio para el lector repetir el proceso para este caso así como su descripción grá…ca en la forma mostrada en la Fig. E.3(a), considerando ahora una señal de partida f(x) de…nida en x 2 (a; +1):
Si consideramos ahora el semiplano s0 < s00 ; bastará con tomar una recta s02 a la izquierda de la recta s00 y analizar la convergencia de la integral en (E.149) con s0 = s02 ; dicha integral podrá analizarse de forma similar a como se hizo en la propiedad 1, esto es, Z 1 Z 1 Z 1 0 0 0 0 0 0 0 jf(x)j e¡s2 x dx = jf(x)j e¡s2 x e¡s0 x es0 x dx = jf(x)j e¡(s2 ¡s0 )x e¡s0 x dx; (E.163) a
a
a
¡s00 x
expresión en la que hemos multiplicado y dividido por e : Considerando una vez más el término 0 0 e¡(s2 ¡s0 )x ; podemos asegurar que en el intervalo de de…nición (a; +1) el término, además de ser siempre positivo, es creciente y divergente, dado que s02 ¡ s00 < 0 por estar s02 a la izquierda de s00 y su representación se extiende hasta x ! 1: Esto signi…ca que en el intervalo (a; +1); la función exponencial tomará su valor máximo en el in…nito donde tiende a in…nito. En otras palabras, el 0 0 término e¡(s2 ¡s0 )x ; no está acotado en el dominio de de…nición. Este hecho hace que no podamos asegurar la convergencia …nal de la integral en (E.163) Se deja como ejercicio para el lectro el análisis grá…co de este segundo caso en la forma indicada en la Fig. E.3(b), considerando ahora una señal de partida f(x) de…nida en x 2 (a; +1):
La conclusión …nal será que podemos asegurar que la región a la derecha de s00 2 ROC pero no podemos asegurar lo mismo de la región a la izquierda de s00 : Esto no signi…ca que no pueda haber una zona a la izquierda de s00 que no pertenezca a la ROC, de forma que la ROC total no tiene porqué ser sólamente la región a la derecha de s00 : ² Si f (x) es in…nita y a izquierdas, y existe un s0 = s00 2 ROC, entonces toda la región a la izquierda de s00 también pertenece a la ROC. Consideremos: (i) una función f (x) a izquierdas, esto es, de…nida en un intervalo de longitud in…nita (¡1; b); y (ii) un cierto valor s0 en el plano s: Dado que s0 2ROC, las siguientes a…rmaciones iniciales serán válidas, s0 2 ROC =) la recta s00 2 ROC =)
Z
b
¡1
0
jf (x)j e¡s0 x dx < 1:
(E.164)
El análisis de esta propiedad es totalmente similar al realizado en la propiedad 2, obteniéndose como Rb 0 conclusiones: (a) para todo s02 < s00 ; la integral ¡1 jf(x)j e¡s1 x dx < 1; de forma que dicha región del plano s pertenece a la ROC; (b)
c Emilio Gago-Ribas, 2002 °
387
388
c Emilio Gago-Ribas, 2002 °
Apéndice F.
Señales y Funciones de Referencia Importantes
Se presenta a continuación un resumen de las señales (funciones y distribuciones) más importantes que es conveniente tener siempre en mente como referencia en cualquier análisis de señal y que han ido apareciendo a lo largo del presente texto.
F.1
Funciones y distribuciones periódicas. 1,00
0,00
cos » 0 x sin » 0 x
-1,00 -2
-1
0
x/X0
1
2
3
-1
0
x/X0
1
2
3
1,00
0,00
-1,00
-2
2,00
± 0 (x)
1,00
0,00
-2
-1
0
x/X0
1
2
3
-1
0
x/X0
1
2
3
-1
0
x/X0
1
2
3
2,00 1,00
± 00 (x)
0,00 -1,00 -2,00 -2
1,00 0,50
± 000 (x)
0,00 -0,50 -1,00 -2
389
1,50
∆x/X0
1,00
P0;¢x (x)
0,50 0,00 -0,50 -2
-1
0
1,50
x/X0
1
2
3
1
2
3
1
2
3
∆x/X0
1,00
T0;¢x (x)
0,50 0,00 -0,50 -2
1,00
-1
0
x/X0
Real 2π/(a''X0)
0,00
e0 (x) = e¡ax a 2 C, Refag > 0
-1,00 -2 1,00
-1
0
Imag
x/X0 2π/(a''X0)
0,00
-1,00 -2
-1
0
x/X0
1
2
3
-1
0
x/X0
1
2
3
1,00
e0 (x) = e¡ax a 2 R, a > 0
0,50
0,00
390
-2
c Emilio Gago-Ribas, 2002 °
F.2
Funciones y distribuciones aperiódicas. 1,00 -1
e
0,75
a=1
-1
e
2
e¡ax
0,50
Secc. F.3
0,25 0,00
-3
-2
-1
0
1/2
(a) x
1
2
3
1,00
a=1
d ¡ax2 e = dx
0,50 0,00
2
= ¡2a xe¡ax
-0,50
Secc. F.3
-1,00 -3
-2
-1
0
x
1
2
3
1,00
a=1
d ¡ax2 e = dx
0,00
2
= 2a(2ax2 ¡ 1)e¡ax Secc. F.3
-1,00
-2,00 -3
1,00
x2
1 + b2
-1
x
0
1
2
3
f(x) / fmax
0,75 0,50
2
fmax = 1=b
0,25 0,00 -10
1,0
x2
-2
x + b2
fmax = 1=2b
-8
-6
-4
-2
0
x
2
4
6
8
10
-6
-4
-2
0
x
2
4
6
8
10
0
x
f(x) / fmax
0,5 0,0 -0,5 -1,0 -10
-8
2,00
±(x)
1,00
0,00
c Emilio Gago-Ribas, 2002 °
-2
-1
1
2
3
391
2,00 1,00
± 0 (x)
0,00 -1,00 -2,00 -2
-1
0
x
1
2
3
-1
0
x
1
2
3
-1
0
x
1
2
3
-1
0
x
1
2
3
1,00 0,50
± 00 (x)
0,00 -0,50 -1,00 -2
1,50 1,00
¡(x)
0,50 0,00 -0,50 -2
1,50 1,00 0,50
sgn(x)
0,00 -0,50 -1,00 -1,50 -2
1,50
∆x
1,00
P¢x (x)
0,50 0,00 -0,50 -3
-2
-1
0
1,50
x
1
2
3
x
1
2
3
∆x
1,00
T¢x (x)
0,50 0,00 -0,50 -3
392
-2
-1
0
c Emilio Gago-Ribas, 2002 °
1,00
Real 2π/(a''X0)
0,50 0,00 -0,50
e+ (x) = e¡ax ¡(x) a 2 C, Refag > 0
-1,00 -2 1,00
-1
0
Imag
x
1
2
3
2π/(a''X0)
0,50 0,00 -0,50 -1,00 -2
-1
0
x
1
2
3
-1
0
x
1
2
3
-1
0
x
1
2
3
-1
0
x
1
2
3
2
3
2
3
1,00
0,50
e+ (x) = e¡ax ¡(x) a 2 R, a > 0
0,00
-0,50 -2
1,00 0,50
c+ (x) = [cos » 0 x] ¡(x)
0,00 -0,50 -1,00 -2
1,00 0,50
s+ (x) = [sin » 0 x] ¡(x)
0,00 -0,50 -1,00 -2
0,25
Real 2π/(a''X0)
0,00
xe¡ax ¡(x) a 2 C; Refag > 0
-0,25 -2 0,25
-1
0
Imag
x
1
2π/(a''X0) 0,00
-0,25 -2
c Emilio Gago-Ribas, 2002 °
-1
0
x
1
393
0,25
xe¡ax ¡(x)
0,00
a 2 R; a > 0 -0,25 -2
-1
0,40
n¡1
x e¡ax ¡(x) (n ¡ 1)!
a 2 R; a > 0
0
1
x
2
n=2 n=3 n=4
0,20
3
n=5
0,00
-0,20 -4
-2
0
2
x
4
6
8
10
1,00
0,50
sinc(x) =
sin(x) x
0,00
-0,50 -8π
-7π
-6π
-5π
-4π
-3π
-2π
-1π
0π
x 1π
2π
3π
4π
5π
6π
7π
8π
-7π
-6π
-5π
-4π
-3π
-2π
-1π
0π
x 1π
2π
3π
4π
5π
6π
7π
8π
-7π
-6π
-5π
-4π
-3π
-2π
-1π
0π
x 1π
2π
3π
4π
5π
6π
7π
8π
-7π
-6π
-5π
-4π
-3π
-2π
-1π
0π
x 1π
2π
3π
4π
5π
6π
7π
8π
0,50
d sinc(x) = dx cos(x) ¡ sinc(x) = x
0,25 0,00 -0,25 -0,50 -8π
0,30 0,20
d2 sinc(x) = dx2 (2 ¡ x2 ) sinc(x) ¡ 2 cos(x) = x2
0,10 0,00 -0,10 -0,20 -0,30 -0,40 -8π
0,30
d3 sinc(x) = dx3 (6 ¡ x2 ) cos(x) ¡ 3(2 ¡ x2 ) sinc(x) = x3
394
0,20 0,10 0,00 -0,10 -0,20 -0,30 -8π
c Emilio Gago-Ribas, 2002 °
F.3
Análisis de la función Gaussiana.
Consideremos la función Gaussiana y sus primeras derivadas escritas en la forma, g(x) =
g 0 (x) =
g 00 (x) =
2p ¢3 ¼
¡2 p ¢3 ¼
2 2 1 p e¡x =¢ ¢ ¼
2
xe¡x
=¢2
¡!
¡!
2 2 g(x) = e¡x =¢ ; gmax
g0 (x) = 0 jgmin j
p ¡ 2 ¢
³ 2 ´ x 1 ¡ ¢ 2 ¡2
xe
(F.1)
(F.2)
;
h 2 i i ³ x2 1 ´ g 00 (x) h x2 ¡ ¡ ¡x2 =¢2 x 2¢ ¡ 1 e ¡! = 2 ¡ 1 e ¢2 2 ; 2 00 j ¢2 jgmin g 000 (x) =
4p ¢5 ¼
(F.3)
h i 2 2 x2 x 3 ¡ 2¢ e¡x =¢ : 2
(F.4)
En la Fig. F.3 se representan estas funciones junto con su caracterización básica que resumimos en la siguiente tabla1 . La integración de la función Gaussiana se puede encontrar en la Secc. F.5.
g(x)
x=¢
g(x)=gmax
Máximos
0
1
Ptos. In‡exión
p 1= 2
exp(¡1=2)
(b)
Valores
1
exp(¡1)
(d)
g0 (x)
x=¢
Cero
0
0 g0 (x)= jgmin j p 0 gmin = ¡ 2=¼e¡1=2 =¢2
0
(a’)
Mínimos
p 1= 2
1
(c’)
0 p ¡ 3 exp (¡1)
(d’)
Ptos. In‡exión
g00 (x)
Ceros Máximos Mínimos
F.4
0 p 3=2 x=¢
p 1= 2 p 3=2 0
p gmax = 1=¢ ¼
Fig. F.3
00 g00 (x)= jgmin j
p 00 gmin = ¡2=¢3 ¼ 0 2 exp(¡3=2) 1
(a”) (b”) (c”)
Análisis de la función sinc.
Consideremos la función sinc(x) y sus tres primeras derivadas, s(x) = sinc (x) =
sin(x) x ;
s0 (x) = x1 [cos (x) ¡ sinc (x)] ; £¡ ¢ ¤ s00 (x) = x12 2 ¡ x2 sinc (x) ¡ 2 cos (x) ; £¡ ¢ ¡ ¢ ¤ s000 (x) = x13 6 ¡ x2 cos (x) ¡ 3 2 ¡ x2 sinc (x) :
(F.5)
1 Todos los valores se dan para x ¸ 0: Similares valores y propiedades se obtienen para x < 0 sin más que aplicar las propiedades de paridad de cada una de las funciones.
c Emilio Gago-Ribas, 2002 °
395
En la Fig. F.4 se representan estas funciones junto con su caracterización que resumimos en las siguientes tablas2 . La integración de funciones sinc se puede encontara en la Secc. F.6. s(x)
x=¼
s(x)=smax smax = 1
Fig. F.4
Ceros
k¼; k 6= 0
0
(a)
Máximo
0
1
(b)
2.4590
0.1284
4.4774
0.0709
1.4303
-0.2172
3.4709
-0.0913
5.4816
-0.0580
x=¼
s0 (x)= js0min j
Otros Máximos
Mínimos 0
s (x)
(b) (c)
js0min j ¼ 0:4626 Cero
0
Otros ceros
1.4303
2.4590
tan (x) = x
3.4709
4.4774
Secc.F.4.1
5.4816
Máximos
Mínimos
s00 (x)
0
(a’)
0
(a’)
1.8909
0.3853
3.9484
0.1848
0.6626
1
2.9303
-0.249
4.9590
-0.1472
x=¼
s00 (x)= js00min j
(b’) (c’)
js00min j ¼ 0:3333 Ceros
tan (x) = Secc.F.4.2
2x 2 ¡ x2
s000 (x)
0.6626
1.8909
2.9303
3.9484
0
(a”)
4.9590
x=¼
s00 (x)=s00max 000 smax ¼ 0:2381
F.4.1
Análisis de tan(x) = x:
El análisis aproximado de la ecuación tan(x) = x se puede realizar de una forma sencilla sin más que interpretar grá…camente su signi…cado y utilizar algún método sencillo de resolución de ecuaciones3 . La primera interpretación grá…ca se recoje en la Fig. F.1 donde se puede apreciar que el primer valor x0;1 donde ambas grá…cas se cortan está comprendido entre 5¼=4 y 3¼=2: Dado que la función tan(x) comienza a crecer muy rápidamente en ese rango de valores, resulta especialmente conveniente analizar la ecuación en la forma, sin(x) = cos(x); x cuya interpretación grá…ca se muestra también en la Fig. F.1.
(F.6)
2 Todos los valores se especi…can para x ¸ 0: Similares valores y propiedades se obtienen para x < 0 sin más que aplicar las propiedades de paridad o imparidad de cada una de las funciones analizadas. 3 Habitualmente estos métodos son especialmente sensibles al comportamiento de las funciones involucradas en la forma de escribir la ecuación a resolver.
396
c Emilio Gago-Ribas, 2002 °
8,00 6,00
x
tan(x)
4,00 2,00 0,00 -2,00 -4,00 -6,00 -8,00 0,00π
0,25π
0,50π
0,75π
1,00π
x
1,25π
x
1,25π
1,50π
1,75π
2,00π
primer cero (x=4.4934)
1,00
sin(x)/x 0,50
0,00
cos(x) -0,50
-1,00 0,00π
0,25π
0,50π
0,75π
1,00π
1,50π
1,75π
2,00π
Figura F.1. Representación grá…ca del cálculo de la primera solución x0;1 a tan (x) = x o su equivalente sin(x)=x = cos(x):
En este caso, las funciones sin(x)=x y cos(x) presentan un comportamiento no divergente de forma que es posible utilizar, por ejemplo, la regla de Newton ([39], Secc. 3.9.54 ). Considerando la ecuación de partida f (x) = 0; con f(x) = sin(x)=x ¡ cos(x); obteniendo su derivada y eligiendo un valor inicial en el intervalo [5¼=4; 3¼=2]; es posible obtener una solución aproximada para el primer cero de la ecuación, x0;1 ¼ 4:4934 ¼ 1:4303¼: Dado que la función tan(x)=x no es periódica, los siguientes ceros deberán calcularse siguiendo un proceso similar. En la siguiente tabla se muestran los valores aproximados para los primeros ceros de (F.6). k x0;k
1
2
3
4
5
6
7
4.4934
7.7253
10.9041
14.0662
17.2208
20.3713
23.5195
x0;k ¼
1.4303
2.4590
3.4709
4.4774
5.4816
6.4844
7.4865
Algunos ceros de tan(x) = x:
F.4.2
Análisis de tan(x) = 2x=(2 ¡ x2 ):
El análisis aproximado de la ecuación tan(x) = 2x=(2 ¡ x2 ) se puede realizar de una forma sencilla de forma similar a como se realizó para tan(x) = x en la Secc. F.4.1. En la Fig. F.2 se recojen dos de sus posibles interpretaciones, la primera para su expresión original y la segunda escrita la ecuación en la forma, (2 ¡ x2 ) sin(x) = cos(x): 2x
(F.7)
Una vez más, esta última expresión resulta especialmente conveniente dado que ninguna de las funciones presenta singularidades en el intervalo de interés. Utilizando la regla de Newton una vez más aplicada a la segunda forma de la ecuación en (F.7) podemos obtener la siguiente tabla en la que se muestran los valores aproximados para los primeros ceros de dicha ecuación. 4 Regla de Newton: partiendo de una solución inicial x a una ecuación f (x) = 0; es posible obtener la solución f (x ) = 0 0 k calculando la secuencia xk+1 = xk ¡ f (xk )=f 0 (xk ); secuencia que converge cuadráticamente al valor x0 :
c Emilio Gago-Ribas, 2002 °
397
5,00
tan(x) 2,50
0,00
-2,50 2
2x/(2-x ) -5,00 0,0π
0,5π
1,0π
1,5π
primer cero
x
2,0π
x
2,0π
2,5π
3,0π
3,5π
4,0π 2
otros ceros
(2-x )sin(x)/2x
6,00 4,00 2,00 0,00 -2,00
cos(x) -4,00 0,0π
0,5π
1,0π
1,5π
2,5π
3,0π
3,5π
4,0π
Figura F.2. Representación grá…ca del cálculo de la primera solución x0;1 a tan (x) = 2x=(2 ¡ x2 ) o su equivalente (2 ¡ x2 ) sin(x)=x = cos(x):
m x0;m
1
2
3
4
5
6
7
2.0816
5.9404
9.2058
12.4044
15.5792
18.7426
21.8997
x0;m ¼
0.6626
1.8909
2.9303
3.9484
4.9590
5.9660
6.9709
Algunos ceros de tan(x) = 2x=(2 ¡ x2 ):
F.4.3
Propiedades asociadas.
Las propiedades descritas a continuación se han obtenido todas ellas a partir de las propiedades y los desarrollos de diferentes señales, habitualmente distribuciones, y su representación espectral asociada, Cap. 9. Algunas de ellas resultan también evidentes en virtud de las funciones de paridad o imparidad de las funciones subintegrales. Z 1 sinc (ax) dx = ¼=a; a > 0: Z
¡1 1
1 x [cos (ax) ¡ sinc (ax)] dx = 0; a > 0: ¡1 Z 1 £¡ 2 ¢ ¤ 2 sinc (ax) ¡ x22 cos (ax) dx = x2 ¡ a ¡1 Z 1 2
0:
sinc (ax) dx = ¼=a; a > 0:
¡1 Z 1
Z
Z Z
sinc4 (x) dx = 2¼:
¡1 1
¡1 1 ¡1 1 ¡1
398
1 sinc [b(x ¡ x0 )] dx0 = a + jx0 2
0
0
0
Z
1 ¡1
cos (ax ) sinc [b(x ¡ x )] dx =
Z
1 1 ¡ e¡b(a+jx) 0 0 sinc (bx ) dx = : a + j(x ¡ x0 ) a + jx
1 ¡1
cos2 [a(x ¡ x0 )] sinc (bx0 ) dx0 =
sin(ax0 ) cos(ax0 ) sinc [b(x ¡ x0 )] dx0 =
Z
1 ¡1
2¼ : b
sin [a(x ¡ x0 )] cos [a(x ¡ x0 )] sinc (bx0 ) dx0 = 0: c Emilio Gago-Ribas, 2002 °
1,0
g(x)/gmax
b
exp(-1/2) exp(-1)
0,8
exp(-1/2) exp(-1)
0,6
d
0,4
d
0,2 0,0 -3 1,0
-2
g'(x)/|g'min|
-1
x/∆
0
1
2
3
2
3
0,5
a', d'
0,0 -0,5
0,5
d'
c'
-1,0 -3
-2
g''(x)/|g''min|
-1
x/∆
0
1
b''
0,0
a''
-0,5
c''
-1,0 -3 1,0
g'''(x)/g'''max
-2
-1
0
x/∆
1
2
3
-2
-1
0
x/∆
1
2
3
0,5 0,0 -0,5 -1,0 -3
Figura F.3. Representación de la función Gaussiana y sus tres primeras derivadas. En todos los casos, las grá…cas están normalizadas respecto a su valor máximo.
1,00
s(x)/smax
b
0,75 0,50
b
0,25 0,00
a
-0,25 -0,50 -8π
-7π
s'(x)/|s'min|
1,00 0,75 0,50 0,25 0,00 -0,25 -0,50 -0,75 -1,00 -8π
-6π
-5π
-4π
-3π
-2π
-1π
0π
c
1π
x
b a
a 2π
c
3π
4π
b' a'
c 5π
b'
a'
a'
a
c'
a'
6π
7π
8π
b' c'
c' -7π
s''(x)/|s''min|
-6π
-5π
-4π
-3π
-2π
-1π
0π
1,00 0,75 0,50 0,25 0,00 -0,25 -0,50 -0,75 -1,00 -8π
-7π
-6π
-5π
-4π
-3π
-2π
-1π
0π
1,00 0,75 0,50 0,25 0,00 -0,25 -0,50 -0,75 -1,00 -8π
-7π
-6π
-5π
-4π
-3π
-2π
-1π
0π
x
1π
a''
g'''(x)/g'''max
x
x
2π
a''
3π
a''
4π
5π
6π
7π
8π
a''
1π
2π
3π
4π
5π
6π
7π
8π
1π
2π
3π
4π
5π
6π
7π
8π
Figura F.4. Representación de la función sinc y sus tres primeras derivadas. En todos los casos, las grá…cas están normalizadas respecto a su valor máximo.
c Emilio Gago-Ribas, 2002 °
399
F.5
Funciones de error.
Las funciones de error y de error complementaria vienen descritas por las siguientes ecuaciones, Z x 2 2 erf(x) = p e¡y dy; ¼ 0 2 erfc(x) = p ¼
Z
1
x
2
e¡y dy = 1 ¡ erf(x):
(F.8)
(F.9)
Nótese la relación de estas funciones con la función Gaussiana descrita en la Secc. F.3 a través del operador integral. Su comportamiento básico viene descrito en la Fig. F.5. En [39], Cap. 7, Error Function and Fresnel Integrals, se puede encontrar una descripción muy detallada de estas funciones, así como su relación con otras funciones importantes. Nótense las siguientes propiedades: ² Resulta trivial demostrar que la función de error es impar, (F.10)
erf(¡x) = ¡ erf(x):
² No ocurre lo mismo con la función complementaria de error, para la cuál resulta trivial demostrar la siguiente propiedad, (F.11)
erfc(¡x) = 2 ¡ erfc(x):
1,20
erf(x)
1,00 0,80 0,60 0,40 0,20 0,00 0,0 1,20
0,5
1,0
x
1,5
2,0
0,5
1,0
x
1,5
2,0
erfc(x)
1,00 0,80 0,60 0,40 0,20 0,00 0,0
Figura F.5. Representación del comportamiento de las funciones de error erf(x) y erfc(x) para valores de x positivos.
400
c Emilio Gago-Ribas, 2002 °
F.6
Integrales exponenciales y sinusoidales.
Las funciones más importantes relativas a la integración de exponenciales vienen descritas por las siguientes ecuaciones, Z 1 ¡y e dy; (F.12) E1 (x) = y x Ei(x) =
Z
x
¡1
li(x) =
Z
x
0
ey dy; x > 0; y
1 dy = Ei(ln x); x > 1: ln y
(F.13)
(F.14)
Estas funciones están relacionadas, a su vez, con la integración de funciones sinusoidales de…nidas estas como, Z x sin y Si(x) = dy; (F.15) y 0 Ci(x) = ° + ln x +
Z
0
x
cos y ¡ 1 dy; y
(F.16)
donde ° denota la constante de Euler (° ¼ 0:5772). Nótese la relación de la función Si(x) con la integración de funciones sinc : El comportamiento básico de estas funciones viene representado en la Fig. F.6. En [39], Cap. 5, Exponential Integrals and Related Functions, se puede encontrar una descripción detallada de estas funciones, así como sus propiedades y su relación con otras funciones importantes. Cabe destacar las siguientes propiedades: ² Resulta trivial demostrar que la función Si(x) es impar, Si(¡x) = ¡ Si(x): ² No ocurre lo mismo con la función Ci(x) para la cuál se cumple la siguiente propiedad, Ci(¡x) = Ci(x) ¡ j¼:
(F.17)
(F.18)
² Las siguientes relaciones entre integrales exponenciales e integrales sinusoidales resultan de especial importancia práctica, Si(x) =
1 ¼ [E1 (jx) ¡ E1 (¡jx)] + ; (x > 0); 2j 2
(F.19)
¡1 [E1 (jx) + E1 (¡jx)] ; (x > 0); 2
(F.20)
Ei(x) = Re [¡ E1 (¡x)] :
(F.21)
Ci(x) =
² La función Si(x) tiende asintóticamente al valor de ¼=2 para valores su…cientemente grandes de x; ¼ (F.22) lim Si(x) = : x!1 2 Esto hace que las siguientes relaciones sean válidas, Z 1 ¼ sin y dy = ¡ Si(x); (F.23) y 2 x Z
x
¡1
sin y ¼ dy = + Si(x): y 2
² La función Ci(x) tiende asintóticamente a cero para valores su…cientemente grandes de x; lim Ci(x) = 0:
x!1
c Emilio Gago-Ribas, 2002 °
(F.24)
(F.25)
401
E1(x)
4 3 2 1 0 0,0 6
Ei(x)
0,5
x
1,0
1,5
2,0
0,5
x
1,0
1,5
2,0
0,5
x
1,0
1,5
2,0
4 2 0 -2 -4 0,0 2
li(x)
0
-2
-4 0,0 2,0
Si(x)
1,5 1,0 0,5 0,0
0
0,5
Ci(x)
4
8
x
12
16
20
4
8
x
12
16
20
0,0 -0,5 -1,0 -1,5 -2,0
0
Figura F.6. Representación del comportamiento de las funciones E1 (x); Ei(x); li(x); Si(x) y Ci(x) para valores de x positivos.
F.6.1
Integral de la función sinc cuadrado.
Un análisis de especial interés práctico es el relativo a la función resultante de integrar el cuadrado de la función sinc escrita en la forma, Z x sin2 y Si2(x) = dy: (F.26) 2 ¡1 y
Una posible forma de análisis consiste en intentar relacionar dicha expresión con la función Si(x) descrita en (F.15). Consideremos para ello el siguiente desarrollo sencillo, Z x Z sin2 y 1 x 1 ¡ cos(2y) dy = dy = 2 2 ¡1 y2 ¡1 y Z Z 1 x dy 1 x cos(2y) = ¡ dy = 2 ¡1 y2 2 ¡1 y 2 Z x 1 cos(2x) sin(2y) = ¡ + + dy; (F.27) 2x 2x y ¡1 de forma que el valor …nal de la integral se reduce a, Si2(x) = 402
cos(2x) ¡ 1 ¼ + + Si(2x): 2x 2 c Emilio Gago-Ribas, 2002 °
En este desarrollo se han utilizado las siguientes propiedades: (i) el desarrollo del coseno del ángulo doble en términos de la función seno al cuadrado; (ii) la integral de la función 1=y 2 ; (iii) la integral5 de la función cos(2y)=y 2 ; y (iv) la función6 Si(2x) El comportamiento de esta función se presenta en la Fig. F.7 junto con el comportamiento del término [cos(2x)¡1]=2x; de interés también práctico. En su representación se ha tenido en cuenta la expresión de la función Si(x) en términos de E1 (x) dada en (F.19) para valores positivos de x; así como la propiedad de imparidad de Si(x) para los valores de x negativos. 1,00
[cos(2x)-1]/2x
0,50
0,00
-0,50
-1,00 -20 1,0 π
-15
-10
-5
x
0
5
10
15
20
-15
-10
-5
x
0
5
10
15
20
Si2(x)
0,5 π
0,0 π -20
Figura F.7. Representación del comportamiento de las funciones [cos(2x) ¡ 1]=2x y Si2(x):
F.7
Transformada de Fourier de la ventana de Hanning.
Tal y como se obtuvo en el Ap. E.9, la transformada de Fourier de la ventana de Hanning se puede expresar en términos de una función en la forma (reescrita ahora sobre una variable x genérica), h(x) = sinc(x) +
1 [sinc(x ¡ ¼) + sinc(x + ¼)] ; 2
(F.28)
lo que equivale a sumar a la función h1 (x) = sinc(x); dos señales sinc desplazadas a +¼ y ¡¼; h2 (x) y h3 (x); respectivamente. En la Fig. F.8 se recoje esta forma de visualización que permite analizar fácilmente las propiedades de la función en comparación con las de la función sinc analizada en la Secc. F.4. Así, los ceros de las funciones h1 (x); h2 (x) y h3 (x) vendrán dados por,
5 Basta
h1 (x) ! x01 = k¼; k 6= 0;
(F.29)
h2 (x) ! x02 = (k + 1)¼; k 6= 0;
(F.30)
h3 (x) ! x03 = (k ¡ 1)¼; k 6= 0;
(F.31)
para ello con considerar la relación, Z Z cos(ax) cos(ax) a sin(ax) dx = ¡ ¡ dx; n n¡1 x (n ¡ 1)x n¡1 xn¡1
particularizada al caso con a = 2 y n = 2: Véase, por ejemplo, el Cap. 14 de [40]. 6 A partir de la relación en (F.24) es posible identi…car rápidamente la siguiente relación, Z x sin(2y) ¼ dy = + Si(2x): y 2 ¡1
c Emilio Gago-Ribas, 2002 °
403
1,00
h1(x)
h3(x) 0,75
h2(x)
0,50 0,25
0,00
-0,25 -4,00π 1,00
-3,00π
-2,00π
-1,00π
0,00π
x
1,00π
2,00π
3,00π
4,00π
2,00π
3,00π
4,00π
h(x)
0,80 0,60 0,40 0,20 0,00 -4,00π
-3,00π
-2,00π
-1,00π
0,00π
x
1,00π
Figura F.8. Representación de las funciones h1 (x) = sinc(x); h2 (x) = 0:5 sinc(x¡¼) y h3 (x) = 0:5 sinc(x + ¼); así como la función h(x) = h1 (x) + h2 (x) + h3 (x):
A raiz de estos sencillos resultados, y a la vista de la representación de las diferentes funciones, es posible extraer las siguientes conclusiones básicas: ² Los ceros de h(x) estarán situados en x0 = k¼; k 6= ¡1; 0 y 1:
(F.32)
² Los primeros ceros de h(x) estarán localizados en §2¼; de forma que el lóbulo principal tendrá un ancho, ¢lp ; doble del de la función sinc(x); sinc(x) ! ¢lp = 2¼;
(F.33)
h(x) ! ¢lp = 4¼:
(F.34)
² Los lóbulos secundarios de h(x) son mucho menores en amplitud que los lóbulos de la sinc(x); de forma que la energía de h(x) será muy aproximadamente la energía del lóbulo principal, cosa que no ocurre con la función sinc(x); Z E [h(x)] ¼ jh(x)j2 dx: (F.35) ¢l p
F.8
Transformada de Fourier de la ventana de Welch.
Tal y como se obtuvo en el Ap. E.9, la transformada de Fourier de la ventana de Welch se puede expresar en términos de una función en la forma (reescrita ahora sobre una variable x genérica), w(x) = 2(1 ¡ a) sinc (x) + 4a
1 [sinc (x) ¡ cos (x)] ; x2
(F.36)
expresión que puede escribirse en la siguiente forma, w(x) = 2 sinc(x) + lo que equivale a sumar las funciones
¤ 2a £ (2 ¡ x2 ) sinc(x) ¡ 2 cos(x) ; 2 x
s1 (x) = 2s(x) = 2 sinc(x) 404
(F.37)
(F.38) c Emilio Gago-Ribas, 2002 °
£ ¤ s2 (x) = 2as00 (x) = 2a (2 ¡ x2 ) sinc(x) ¡ 2 cos(x) =x2 ;
(F.39)
donde s00 (x) representa la segunda derivada de la función sinc(x) analizada en la Secc. F.4. En la Fig. ?? se recoje esta forma de visualización que permite analizar más fácilmente las propiedades de la función en comparación, una vez más, con las de la función sinc analizada también en la Secc. F.4. Nótese cómo los ceros de w(x) no serán ni los ceros de s(x) ni los ceros de s00 (x); así, deberemos analizar la ecuación, s1 (x) = ¡s2 (x) ! s(x) = ¡as00 (x): 2,00
(F.40)
s1(x)
1,50
-s2(x)
1,00 0,50 0,00 -0,50 -4,00π 1,40
-3,00π
-2,00π
-1,00π
0,00π
x
1,00π
2,00π
3,00π
4,00π
3,00π
4,00π
w(x)
1,20 1,00
ceros
0,80 0,60 0,40 0,20 0,00 -0,20 -4,00π
-3,00π
-2,00π
-1,00π
0,00π
x
1,00π
2,00π
Figura F.9. Representación de las funciones s1 (x) = 2s(x) = 2 sinc(x) y s2 (x) = 2as00 (x); ésta última cambiada de signo para el análisis de los ceros de w(x): Caso con a = 1:
Dado que s1 (x) y s2 (x) son funciones de buen comportamiento, podremos aplicar una vez más alguna regla de cálculo sencilla que permita obtener valores aproximados de las posiciones de los ceros. Utilizando, por ejemplo, la regla de Newton7 usada ya en las Seccs. F.4.1 y F.4.2, podemos obtener las siguientes tablas para los primeros ceros de w(x) tomando el valor de a como parámetro8 . 1
2
3
4
5
6
7
4.4934
7.7253
10.9041
14.0662
17.2208
20.3713
23.5195
1.4303
2.4590
3.4709
4.4774
5.4816
6.4844
7.4865
3.9720
6.9387
9.9421
12.9860
16.0581
19.1486
22.2515
1.2643
2.2086
3.1647
4.1336
5.1114
6.0952
7.0829
3.5909
6.5664
9.6254
12.7204
15.8326
18.9541
22.0811
1.1430
2.0902
3.0639
4.0490
5.0397
6.0333
7.0286
3.3283
6.3855
9.4944
12.6189
15.7502
18.8848
22.0214
1.0594
2.0326
3.0222
4.0167
5.0134
6.0112
7.0096
3.2093
6.3181
9.4482
12.5840
15.7221
18.8613
22.0012
1.0215
2.0111
3.0075
4.0056
5.0045
6.0037
7.0032
k a=1 a = 0:75 a = 0:5 a = 0:25 a = 0:1
x0;k x0;k =¼ x0;k x0;k =¼ x0;k x0;k =¼ x0;k x0;k =¼ x0;k x0;k =¼
7 Nótese que en este caso, aplicar la regla de Newton implica derivar la función f (x) = s(x) + as0 (x); así, f 0 (x) = s0 (x) + as000 (x): Tanto s0 (x) como s000 (x) fueron obtenidas en la Secc. F.4. 8 Nótese cómo en el caso con a = 1 (ventana de Welch de peralte nulo), la ecuación s(x) = ¡as00 (x) se convierte justamente en tan(x) = x; así, los ceros de la ecuación serán los ceros de s0 (x) obtenidos en la Secc. F.4.1. En el caso con a = 0; la ventana de Welch se reduce al pulso unidad y por tanto, la función w(x) se reduce a s(x); coincidiendo así sus ceros.
c Emilio Gago-Ribas, 2002 °
405
406
c Emilio Gago-Ribas, 2002 °
Bibliografía
407
Bibliografía
[1] Jean-Louis Lacoume. Théorie du Signal. Presses Universitaires de France, 1983. [2] L. E. Franks. Teoría de la Señal. Editorial Reverté, 1975. [3] L. E. Franks. Signal Theory. Prentice-Hall, 1969. [4] R A. Gabel, R.A. Roberts. Signal and Linear Systems. John Wiley & Sons, third edition, 1987. [5] T. Kailath. Linear Systems. Prentice-Hall, 1980. [6] P. Kraniauskas. Transforms in Signals and Systems. Addison Wesley, 1992. [7] H. Kwakernaak, R. Sivan. Modern Signals and Systems. Prentice-Hall International, 1991. [8] M.L. Meade, C.R. Dillon. Señales y Sistemas: Modelos y Comportamientos. Addison Wesley Iberoamericana, 1993. [9] A.V. Oppenheim, R.W. Schafer. Discrete-Time Signal Processing. Prentice-Hall International, 1989. [10] A.V. Oppenheim, A.S. Willsky, I.T. Young. Signals and Systems (2nd. Ed.), Prentice-Hall International, 1997. [11] A. Papoulis, M. Beltran. Sistemas y Circuitos Digitales y Analógicos. Marcombo Boixareu Editores, 1989. [12] A.D. Poularikas, S. Seeley. Signals and Systems. PWS Publishers, 1985. [13] W. McC. Siebert. Circuits, Signals and Systems. The MIT Press. McGraw Hill, 1986. [14] S.S. Soliman, M.D. Srinath. Continuos and Discrete Signals and Systems. Prentice-Hall, 1990. [15] F.J. Tylor. Principles of Signals and Systems. McGraw-Hill Series in Electrical and Computer Engineering. New York, NY, McGraw-Hill, 1994. [16] Douglas K. Lindner. Introduction to Signals and Systems. Ed. McGraw-Hill, 1999. Teoría Algebraica [17] S. Lang. Álgebra Lineal. Fondo Educativo Interamericano. 1976. [18] A. N. Kolmogórov y S. V. Fomín. Elementos de la Teoría de Funciones y del Análisis Funcional. Ed. Bib…smat. 1978. [19] Michael Spivak. Calculus. Cálculo In…nitesimal. Ed. Reverté, S. A. 1991. [20] N. C. Bobillo, C. Dehesa. Introducción al Cálculo Tensorial. E. T. S. Ingenieros de Telecomunicación. Universidad Politécnica de Madrid. 1984-85. [21] K. G. Binmore. Logic, Sets and Numbers. Tomo I. Cambridge University Press. [22] N. Young. An Introduction to Hilbert Space. Cambridge University Press, 1990. [23] E. Sanvicente Gargallo. Espacios de Hilbert. E.T.S.I. Telecomunicación. U.P.M. 1969. [24] K. E. Gustafson. Partial Di¤erential Equations and Hilbert Space Methods. John Wiley and Sons, 1980. [25] N. I. Akhiezer, I. M. Glazman. Theory of Linear Operators in Hilbert Space. Two Volumes Bound As One. Dover Publications, Inc. 1993. [26] P. Roman. Some Modern Mathematics for Physicists and Other Outsiders. Vol. 1: Algebra, Topology, and Measure Theory. Pergamon Press, Inc., 1975.
409
[27] P. Roman. Some Modern Mathematics for Physicists and Other Outsiders. Vol. 2: Functional Analysis with Applications. Pergamon Press, Inc., 1975. Funciones Generalizadas y Distribuciones [28] V. S. Vladimirov. Generalized Functions in Mathematical Physics. Ed. Mir, 1979. [29] J. I. Richards y H. K. Youn. Theory of Distributions. A Non-Technical Introduction. Cambridge University Press, 1990. [30] J. Van Bladen. Singular Electromagnetic Fields and Sources. IEEE/OUP Series on Electromagnetic Theory. IEEE Press, 1991. [31] L. Schwartz. Métodos Matemáticos para las Ciencias Físicas. Selecciones Cientí…cas, 1969. [32] I. B. Gel’fand y G. E. Shilov. Generalized Functions. Academic Press, 1964. [33] H. Bremermann. Distributions, Complex Variables, and Fourier Transforms. Addison-Wesley, 1965. Análisis de Fourier [34] R. Bracewell. The Fourier Transform and Its Applications. McGraw-Hill, 1965. [35] Hwei P. Hsu. Fourier Analysis. Ed. Simon & Schuster, Inc. 1970. [36] Hwei P. Hsu. Análisis de Fourier. Ed. Addison-Wesley Iberoamericana, 1987. [37] H. S. Carslaw. An Introduction to the Theory of Fourier’s Series and Integrals. 3a Edición. Dover Publications, Inc. 1950. [38] E. O. Brigham. The Fast Fourier Transform. Prentice-Hall, Inc. 1974. Manuales de Tablas, Fórmulas Matemáticas y Programación [39] M. Abramowitz & I. A. Stegun. Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables. Dover Publications, Inc. 1972. [40] M. R. Spiegel, J. Liu, L. Abellanas. Fórmulas y Tablas de Matemática Aplicada. McGraw-Hill, 2000 (Segunda Edición). [41] J. J. Tuma. Engineering Mathematics Handbook. McGraw Hill, 1987. [42] G. Petit Bois. Tables of Inde…nite Integrals. Dover Publications, Inc. 1961. [43] W. H. Press, B. P. Flannery, S. A. Teukolsky, W. T. Vetterling. Numerical Recipes. The Art of Scienti…c Computing (FORTRAN Version). Cambridge University Press. 1989. Otras Referencias de Interés [44] D. G. Dudley. Mathematical Foundations for Electromagnetic Theory. IEEE Press Series on Electromagnetic Waves. IEEE Press. 1994. [45] G. Arfken. Mathematical Methods for Physicists. Academic Press, Inc. 1985. [46] D. C. Stinson. Intermediate Mathematics of Electromagnetics. Prentice-Hall, Inc. 1976. [47] P. M. Morse & H. Feshbach. Methods of Theoretical Physics (2 Vols.). McGraw-Hill, Inc. 1953. [48] E. Gago-Ribas. Optimización y Mejora del Método del Gradiente Conjugado y la Transformada Rápida de Fourier para el Análisis de Cuerpos Bidimensionales y Tridimensionales. Tesis Doctoral. Grupo de Radiación. UPM. 1990. [49] M. F. Cátedra, R. P. Torres, J. Basterrechea, E. Gago. The CG-FFT Method. Application of Signal Processing Techniques to Electromagnetics. Artech House, Inc. 1995. [50] P. C. Clemmow. The Plane Wave Spectrum Representation of Electromagnetic Fields.IEEE/OUP Series on Electromagnetic Wave Theory. 1996.
410
c Emilio Gago-Ribas, 2002 °