Fundamentos de Se˜ nales nales y Sistemas Notas de Clase
Antoni Morell y Rosana Rodr´ Rodr´ıguez
Universitat Aut` onoma de Barcelona (UAB) onoma Escola d’Enginyeria
i
´Indice general 1.
Introd Introducc ucci´ i´ on o n a Se˜ nales y Sistemas
1
2. La Transformada de Laplace
18
3. Funci´ unci´ on de Transferencia de un Sistema
41
4. La Transformada de Fourier
57
5. Correlaci Correlaci´ ´ on y Espectro de Se˜ on nales Deterministas
85
ii
Tema 1: Introducci´ on a Se˜ nales y Sistemas Antoni Morell y Rosana Rodr´ıguez 24 de febrero de 2014
1.
Se˜ nales
Definici´ o n de se˜nal: Imagen o representaci´ a casi siempre la repreon de algo. Para nosotros ser´ sentaci´ on de una magnitud f´ısica (tensi´ on, voltaje, etc.) y normalmente llevar´a un mensaje asociado (entendiendo mensaje como la manifestaci´on f´ısica de la informaci´on tal y como la produce la fuente). En un sistema de comunicaciones esto est´a claro. 1.1.
Clasificaci´ o n de se˜ nales
Encontramos diferentes clasificaciones. Las m´as relevantes son: Determinista/aleatoria Determinista: conocida para ∀ t. P. ej.: x(t) = A cos(w0 t). Aleatoria: No es posible determinar su valor para un instante t = t 0 . No obstante, s´ı sabemos algo sobre dicho valor, aunque se trata de un conocimiento probabil´ıstico. P. ej.: A cos(w0 t+φ), φ[0, π4 ]. En la figura vemos una realizaci´o n de la se˜ nal para φ = 0 (trazo continuo) y otra para φ = π4 (trazo discontinuo). Nuestra se˜ nal puede ser cualquiera de entre estas dos con igual probabilidad, pero nunca con otro desfase φ ∈ ( π4 , 2π). A
0
−A 0
2
4
6
8
10
12
14
16
18
Figura 1: Ejemplo de se˜ nal aleatoria.
1
20
Peri´ odica/No peri´ odica Peri´ odica: x(t) = x(t+mT 0 ) para m = 0, ±1, ±2, . . .. T 0 es el menor periodo de repetici´on posible. P.ej., en la figura anterior T 0 = 2π y no 4π aunque este ´ultimo tambi´en cumpla la condici´ on. No peri´odica: no se repite peri´odicamente. Cont´ınua/Discreta Cont´ınua: definida para ∀ t. Discreta: definida s´ olo para los instantes de tiempo nT con n entero. Ej.: el ´ındice de la bolsa. Anal´ ogica/Digital Anal´ ogica: la amplitud de la se˜ nal puede tomar cualquier valor. P. ej.: m´usica grabada en un disco LP. Digital: la amplitud de la se˜nal no puede ser cualquiera sino un valor dentro de un conjunto de valores posibles. Por lo tanto, conocemos algo de la estructura de la se˜nal antes de recibirla. P. ej.: m´ usica grabada en un disco CD. 1.2.
Transformaciones de la variable independiente
Partiendo de una se˜ nal x(t) conocida, vemos como se modifica ´esta cuando se aplica alguna transformaci´ on sobre la variable independiente t. Las m´as habituales son: Reflexi´on: x(−t). La se˜ nal sufre un giro respecto al eje de ordenadas. En una cinta de v´ıdeo, ser´ıa reproducirla c´ amara atr´ as. x(t)
x(−t)
!
!
Escalado: x(at). Siempre con a > 0, la se˜ nal se contrae respecto al eje de ordenadas en un factor a si se cumple a > 1 y se expande por un factor b > 1 si a = 1b . En el primer caso, reproducir´ıamos a veces m´as r´apido y en el segundo b veces m´as lento. x t
x(2t)
( t2 )
x
!
!
!
Traslaci´on: x(t − t0 ) o bien x(t + t0 ). En el primer caso, la se˜nal se retasa t 0 segundos mientras que en el segundo se adelanta t 0 segundos. 2
x(t
x(t)
!
− 1)
x(t +
!
"
1)
!
#"
Muy importante. A menudo nos encontraremos con una combinaci´on de transformaciones, como por ejemplo en x(− 2t − 2). Para no equivocarse, es aconsejable seguir siempre los siguientes pasos: Expresar la transformaci´ on como x(k(t − t0 )). En el caso de ejemplo ser´ıa x( −1 2 (t + 4)). Hacer primero reflexi´ on y escalado. En el ejemplo, girar y ensanchar por un factor 2. (t)
x(
−t 2
)
!
!
Finalmente, hacer la traslaci´ on. En el ejemplo, avanzar la se˜ nal 4 unidades . ( −2 )
x
x
!
( −2t )
"#
!
Si queremos asegurarnos que la transformaci´on es correcta, cogemos 2 puntos f´aciles de reconocer y los comprobamos. Por ejemplo, en el caso anterior, sustituimos t = − 4 en x(− 2t − 2), lo que nos da x(0). Es decir, el valor correspondiente al punto t = − 4 en la se˜ nal transformada tiene que coincidir con el valor en el origen de la se˜nal sin transformar. En este caso es cierto, pero faltar´ıa mirar otro punto para estar del todo seguros. Relacionado con esto, vemos la definici´on de la se˜ nal par e impar: Se˜nal par: si cumple x(t) = x(−t). Se˜nal impar: si cumple x(t) = − x(−t). Toda se˜ n al se puede descomponer en parte par e impar de tal forma que x(t) = par{x(t)} + impar{x(t)}. Parte par e impar se hallan seg´un:
3
1 (x(t) + x(−t)) 2 1 impar{x(t)} = (x(t) − x(−t)) 2 par{x(t)} =
(1) (2)
Ejemplo: ar{x(t)}
x(t)
!
$# $"
1.3.
"
impar{x(t)}
!
#
$# $"
"
!
#
$"
"
#
Se˜ nales continuas b´ asicas
Tenemos: Funci´ on exponencial: x(t) = C eat En el caso que tanto a como C sean reales, tenemos:
"%$ "#$ !
Si ambos son complejos, es decir C = |C |e jθ y a = r + jw0 , entonces x(t) = |C |ert e j(w t+θ) = |C |ert [cos(w0 t + θ) + j sin(w0 t + θ)]. Se trata pues, de una se˜nal compleja. Para representarla gr´aficamente, debemos dibujar parte real e imaginaria por separado (en funci´o n de t) o bien m´odulo y fase. A continuaci´on vemos s´olo una parte de la se˜nal, Re{x(t)} = |C |ert [cos(w0 t + θ)]: 0
!"#
Pulso rectangular: x(t) = Π
!$#
t T
=
1 |t| < T 2 0 resto
4
!%#
Π
t T
!
T 2
− T 2
Pulso triangular: x(t) = ∆
t T
=
1 − 0
|t| T
|t| < T resto t
∆( T ) !
#"
Funci´ on signo: sgn(t) =
"
1 t > 0 −1 t < 0 sgn(t) !
Funci´ on escal´on: u(t) =
1 t > 0 0 t < 0
= 21 (1 + sgn(t)) u(t)
!
5
Funci´ on sinc: sinc(t) =
sin πt πt 1 0.8 0.6 0.4 0.2 0 −0.2 −0.4 −6
−4
−2
0
2
4
6
Importante recordar: sinc(0) = 1 y sinc(T t) = 0 para los m´ultiplos de 1/T , es decir, t = ± k/T con k ∈ N+ . Funci´ on delta: δ (t) =
0 t =0 ∞ t = 0
Podemos entender la funci´on delta (de Dirac), que no es propiamente un funci´on ya que δ (0) tiene varias im´agenes, como la caracterizaci´on matem´ atica de un impulso. Por ejemplo, esto es lo que sucede cuando se de un golpe con un martillo: se produce una fuerza elevada durante un intervalo de tiempo muy peque˜no. Bajo ese punto de vista, lo que realmente nos interesa es la suma (integral) de dicha fuerza y de ah´ı sale la definici´on formal de la funci´on delta. En la siguiente figura vemos un impulso de duraci´on 1/A y amplitud A, que por tanto tiene ´area 1. Si reducimos progresivamente su duraci´on y aumentamos la amplitud con el objetivo de mantener el ´area a la unidad, obtendremos la funci´on delta.
A
−→ ∞
A
1/A
Dicha interpretaci´ on justifica la definici´on formal de la delta, que toma forma integral. Pero m´as que la propia definici´o n, consideraremos una propiedad que se deriva de ella y que es ∞ a 1 siempre y −∞ δ (t)dt = 1. Hay que interpretarla como que la integral de una delta valdr´ cuando la delta est´e dentro de los l´ımites de integraci´on.
1.3.1.
Propiedades de δ (t)
Son las siguientes: 1 1. δ (at) = |a| δ (t). Intuitivamente, est´a claro que ensanchar o estrechar la delta no tiene ning´un efecto ya que ´esta tiene“ancho 0” y seguir´a con el mismo ancho despu´es de cualquier escalado. Si hacemos la integral de δ (at) (hacer cambio de variable para ponerla en funci´on de la integral ∞ de δ (t)) veremos que se debe cumplir esta propiedad para conseguir que −∞ δ (t)dt = 1.
6
2. δ (t) = δ (−t). Se trata, por tanto, de una funci´on par. 3. x(t)(δt) = x(0)δ (t). Si una funci´on se multiplica por δ (t), s´olo nos importa el valor de la funci´on en el origen ya que el resto vale 0. Lo mismo sucede si desplazamos la delta, es decir: x(t)δ (t−t0 ) = x(t0 )δ (t − t0 ). ∞
4. x(t) = −∞ x(τ )δ (τ − t)dτ . Multiplicamos primero x(τ ) por una delta centrada en t e integramos ∞ para todo τ , o sea −∞ x(t)δ (τ − t)dτ . Como la integral de la delta debe ser 1 y x(t) no depende de τ , el resultado final es x(t).
∞
De la misma manera, x(t) = −∞ x(τ )δ (t − τ )dτ . S´olo hay que fijarse que δ (t − τ ) (τ es la variable independiente) se puede expresar como δ (−1(τ − t)). Seg´ un hemos visto, esto es girar la delta y desplazarla t unidades a la derecha. Dado que la delta es par, δ (t − τ ) = δ (τ − t), y por lo tanto estamos en la misma situaci´on que antes. Tambi´en podemos interpretar la integral como una suma infinita de deltas, algo como “x(t) = ∞ ımite, k=−∞ xk δ (t − t k )” (ver figura). En el l´ cuando la distancia entre dos deltas sea 0, tendr´ıamos la se˜nal x(t).
x1 x2
t−1
1 t2
!
0
5. u(t) =
t −∞ δ (τ )dτ =
∞ 0 δ (τ − t)dτ .
6. δ (τ ) = du(t) on escal´on es plana para todo t (derivada 0) excepto para t = 0, donde hay dt . La funci´ un salto abrupto de 0 a 1 con pendiente ∞ . Esto se corresponde con la funci´on δ (t).
7
2.
Sistemas
Un sistema es una combinaci´on de objetos o componentes que act´uan conjuntamente para cumplir un determinado objetivo. Existen sistemas de distinta naturaleza: mec´anicos, f´ısicos, biol´ogicos, sociales, pol´ıticos, etc. Por ejemplo, los frenos de un coche constituyen un sistema mec´anico cuyo objetivo es detener el veh´ıculo. Un sistema puede ser, a su vez, subsistema de otro mayor, as´ı como los frenos son un subsistema del sistema coche. A nosotros nos interesar´a modelar matem´ aticamente el sistema y desde este punto de vista, lo veremos como el proceso que transforma la se˜nal de entrada para obtener una se˜nal de salida, o lo que es lo mismo: y (t) = T [x(t)].
!"#$%&' )* +
,-$.
2.1.
/-$.
Propiedades de los sistemas
2.1.1.
Linealidad
Un sistema es lineal si cumple las propiedades de superposici´ on y homogeneidad : Superposici´on: supongamos que y1 (t) es la salida del sistema cuando la entrada es x1 (t), es decir, y1 (t) = T [x1 (t)]. Del mismo modo, y2 (t) = T [x2 (t)]. Entonces, en el caso que exista superposici´on, la salida del sistema a la suma de entradas, x 1 (t) + x2 (t), es tambi´en la suma de salidas y 1 (t) + y2 (t). En otras palabras: T [x1 (t) + x2 (t)] = y 1 (t) + y2 (t). Homogeneidad: cuando un escalado a la entrada se traduce en el mismo escalado a la salida. Es decir, si y 1 (t) = T [x1 (t)], entonces T [αx1 (t)] = αy 1 (t). Ambas propiedades se puede resumir diciendo que un sistema es lineal si y s´olo si: T [α1 x1 (t) + α2 x2 (t)] = α1 y1 (t) + α2 y2 (t) Ejemplos: 1. Un derivador, T [ ] = Comprobaci´ on:
d( ) dt ,
T [α1 x1 (t) + α2 x2 (t)] =
es un sistema lineal. d dx1 (t) dx2 (t) (α1 x1 (t) + α2 x2 (t)) = α1 + α2 = α 1 y1 (t) + α2 y2 (t) dt dt dt
2. Un sistema que saque el cuadrado de la salida, T [ ] = ( ) 2 , no es lineal. Comprobaci´ on: (T [x1 (t)] = y 1 (t) = x 21 (t)) T [α1 x1 (t) + α2 x2 (t)] = (α1 x1 (t) + α2 x2 (t))2 = α12 x21 (t) + α22 x22 (t) + α1 α2 x1 (t)x2 (t) = α21 y1 (t) + α22 y2 (t) + α1 α2 x1 (t)x2 (t) = α1 y1 (t) + α2 y2 (t) 8
(3)
No cumple ni superposici´on ni homogeneidad. 3. El sistema T [ ] = a( ) + b no es lineal. Comprobaci´ on: (T [x1 (t)] = y 1 (t) = ax 1 (t) + b) T [α1 x1 (t)+α2 x2 (t)] = α 1 a x1 (t)+α2 a x2 (t)+b = α 1 y1 (t)+α2 y2 (t)+(1−α1 −α2 )b = α1 y1 (t)+α2 y2 (t) No cumple superposici´on ni homogeneidad. 2.1.2.
Invarianza
Un sistema es invariante cuando un retraso en la se˜nal de entrada se traduce en el mismo retraso en la se˜nal de salida. Es decir, si T [x(t)] = y(t), entonces T [x(t − t0 )] = y(t − t0 ). Ejemplos: 1. T [ ] = cos( ), es un sistema invariante. Compobaci´on: (y(t) = cos(x(t))) y(t − t0 ) = cos(x1 (t − t0 )) = T [x(t − t0 )] 2. T [ ] = ( ) cos(w0 t), es un sistema variante. Comprobaci´ on: (T [x(t)] = y(t) = x(t) cos(w0 t)) En primer lugar, transformamos x(t − t0 ): T [x(t − t0 )] = x(t − t0 )cos(w0 t). Vemos que el resultado depende por un lado de t y por otro de t − t0 . Ahora desplazamos y(t) sustituyendo t por t − t0 , es decir, y(t − t0 ) = x(t − t0 )cos(w0 (t − t0 )). Ahora el resultado s´olo depende de t − t0 . No coinciden y por lo tanto es variante. 2.1.3.
Causalidad
Un sistema es causal cuando la salida no se anticipa a la entrada, lo que significa que en un sistema causal, la salida en un determinado instante no depende de instantes futuros de la entrada. Matem´aticamente, si x(t) = 0 para t < t0 , entonces se debe cumplir y (t) = 0 para t < t0 . Ejemplos: 1. y(t) = x(t − 1) es causal ya que produce un retardo. 2. y(t) = x(t + 1) no es causal ya que la salida se anticipa a la entrada. Por ejemplo, en el instante t = 0, para obtener la salida y(0) necesitamos conocer x(1), o sea, un valor futuro de la entrada.
9
2.1.4.
Estabilidad
Un sistema es estable cuando, para cualquier entrada acotada, la salida tambi´en lo es, es decir, si |x(t)| < ∞ , entonces | y(t)| < ∞ . Ejemplo: Consideremos el sistema integrador T [x(t)] =
"
t −∞ x(τ )dτ .
Si x(t) = Π
"
!
t−T /2 T
, tenemos:
!
Por lo tanto, la salida es acotada y podr´ıamos pensar que es estable. No obstante, hay que comprobarlo para cualquier entrada. Si ahora cogemos x(t) = u(t), tenemos:
!
!
Entonces vemos que la salida crece indefinidamente, con lo cual el sistema es inestable. 2.2.
Caracterizaci´ on matem´ atica de los sistemas
Ahora buscamos una forma simple y gen´ erica de obtener y(t) a partir de x(t) para cualquier sistema. Usaremos dos caracterizaciones distintas: A trav´es de ecuaciones diferenciales:
i
dxi (t) ai = dti
j
dy j (t) b j dt j
(4)
Es la que usaremos por ejemplo en circuitos y la respuesta del sistema depender´a de las condiciones en que ´este se encuentre al aplicar la entrada, lo que denominamos condiciones iniciales. Por ejemplo, la respuesta de un circuito donde haya un condensador no ser´a la misma si, en aplicar la entrada, ´este tiene cierta carga o est´a totalmente descargado. Para obtener esta caracterizaci´ on hace falta conocer el sistema componente a componente y por lo tanto, puede ser compleja si el sistema es grande. A trav´es de la respuesta impulsional, que se define como la salida del sistema a una delta. La denominamos h(t) = T [δ (t)]. Esta aproximaci´on toma el sistema como una caja negra y “s´olo” necesitamos conocer cu´al es la salida a una determinada entrada, o sea, hacer un “experimento” sin necesidad de abrir la caja. A partir de h(t) se puede encontrar la salida a cualquier entrada seg´ un:
10
∞
y(t) = T [ T [x(t)] = T
x(τ ) τ )δ (t − τ ) τ )dτ =
−∞
si el sistema es lineal
∞
=
x(τ ) τ )T [ T [δ (t − τ )] τ )]dτ dτ
(5)
−∞
En el mejor de los casos, cuando el sistema es invariante, tendremos T [ T [δ (t − τ )] τ )] = h( h (t − τ ), τ ), es decir, simplemente h simplemente h((t) (que ya conocemos) desplazada. En cambio, si el sistema es variante, la salida a una delta desplazada depender´a de cu´anto anto vale el desplazamiento τ τ p pero ero tambi´ tamb i´en en de cu´al al es el instante instante t en t en que la delta entra en el sistema. En este ´ultimo caso, decimos que tenemos una respuesta impulsional variante en tiempo y escribimos h(t, τ ). τ ). El sistema es m´as as dif´ıcil ıci l de caracterizar ya que habr´ habr´ıa que hacer un experimento para cada instante de tiempo tiemp o t. t . De aqu´ı sacamo sac amos: s:
• Sistema variante: y (t) =
∞ τ )h(t, τ ) τ )dτ . dτ . −∞ x(τ ) ∞ = −∞ x(τ ) τ )h(t − τ ) τ )dτ . dτ .
Esta ecuaci´on o n es la ecuaci´ la ecuaci´ on on o integral • Sistema invariante: y (t) de convoluci´ on on de sistemas LTI (Linear and Time Invariant), que escribiremos: ∞
y(t) = x( x (t) ∗ h( h(t) =
x(τ ) τ )h(t − τ ) τ )dτ
(6)
−∞
Ejemplo 1: Amplificador.
x t)
y t) = K x t)
!
En este caso h(t) = K δ (t) independientemente de cuando hagamos el experimento. Por tanto, es invariante. Ejemplo 2: Retardador.
x(t)
y (t) = x (t − T )
!
En este caso h caso h((t) = δ (t − T ), T ), tambi´ en en independientemente de cuando hagamos el experimento. Por tanto, tambi´en en es un u n sistema invariante.
11
Ejemplo 3: Integrador.
t
x t
−∞
y (t)
t
En este caso h(t) = −∞ δ (τ ) τ )dτ = u( u (t), tambi´ en en independientemente de cuando hagamos el experimento. Por tanto, tambi´ en en es un sistema invariante. invariante. Ejemplo 4: Modulador. x t
y t = x t cos w0 t
!
cos
w0 t
En este caso, si entramos una delta al sistema tenemos T [ T [δ (t)] = δ (t)cos w0 t = δ = δ (t). Est´a claro que esto no n o caracteri car acteriza za bien bie n el sistema s istema ya que en realidad reali dad no nos devuelve de vuelve la entrada. entrada . Aqu´ı s´ s´ı que la respuesres puesta del sistema depende del momento en que se hace el experimento, ya que el coseno va evolucionando con el tiempo. En este caso el sistema es variante y tenemos que usar T [ T [δ (t − τ )] τ )] = δ (t − τ )cos τ )cos w0 t. ∞ ∞ ∞ Entonces y (t) = −∞ x(τ ) τ )h(t, τ ) τ )dτ = −∞ x(τ ) τ )δ (t − τ )cos τ )cos w0 tdτ tdτ = cos w0 t −∞ x(τ ) τ )δ (t − τ ) τ )dτ = x(t)cos w0 t, lo cual es correcto (mirar el siguiente apartado para ver c´omo funciona la integral de convoluci´on). on).
A partir de ahora, nos centraremos en el estudio de sistemas LTI.
3.
Sistem Sistemas as lineal lineales es inv invarian ariantes tes
3.1. 3.1.
Obte Obtenc nci´ i´ on on semi-gr´ afica afica de y (t) = x (t) ∗ h(t)
Consideremos el siguiente sistema:
(t)
x(t)
y (t) !
!
Para calcular la integral, que es respecto a τ , τ , vemos que necesita n ecesitamos mos los t´erminos ermino s x( x (τ ) τ ) y h( h (t − τ ). τ ). El primero ya est´a claro, y el segundo lo reescribimos como h(−1(τ 1(τ − t)). t)). O sea, que para encontrar 12
la salida en el instante t debemos primero multiplicar x(τ ) τ ) con h(τ ) τ ) girada y desplazada t y luego integrar para todo τ todo τ ,, tal y como vemos en la siguiente figura para t = 5: t x(τ )h(5
!
− τ )
!
!"#
∞
−∞
x(τ )h(5
!"#
− τ )
As´ As´ı hemos obtenido obteni do y (5). La se˜ nal entera se obtiene con este mismo procedimiento barriendo desnal de t de t = −∞ . on on de x de x 1 (t) = Π Ejemplo 1: calcular la convoluci´
t−T B /2 T B
y x 2 (t) = Π
∞
t−T A /2 T A
con T A > T B .
En este caso vamos a calcular x 2 (t) ∗ x1 (t) como −∞ x2 (τ ) τ )x1 (t − τ ) τ )dτ , dτ , aunque aun que tambi´ tamb i´en en lo podr´ po dr´ıamos ıam os haber hab er hecho al rev´es. es. Gr´aficamente, aficamente, queremos hacer: T B
x 1 (t
A
− τ )
x2
τ
τ
− T B
En primer lugar, vemos que las se˜nales nales no se solapan hasta t = 0, con lo que y (t) = 0 para t < 0. Si seguimos avanzando en t, los dos pulsos se solapan. Entre t = 0 y t = T B el producto de funciones ser´a un pulso que va de τ = 0 a τ = t. La integral de convoluci´on on en este intervalo ∞ t ser´a y (t) = −∞ x2 (t)x1 (t − τ ) τ )dτ = 0 1dτ 1 dτ = t. Luego, x1 (t − τ ) τ ) se solapa por completo hasta que ∞ t t = tA . La integral ser´a y (t) = −∞ x1 (t − τ ) τ )dτ = t−T 1dτ = T B . Finalmente, el pulso x1 (t − τ ) τ ) sale de x2 (τ ), τ ), desde t = T A hasta t = T A + T + T B . En este ultimo u ´ ltimo intervalo, el solape entre pulsos, y por lo tanto el valor de la integral, es cada vez menor. El producto de funciones es un pulso que va ∞ T T de τ de τ = t − T B hasta τ hasta τ = T A . Matem´ aticamente aticamente tenemos: y tenemos: y (t) = −∞ x2 (τ ) τ )x1 (t − τ ) τ )dτ = t−T 1dτ = T A − t + t + T T B = (T A + T + T B ) − t. t. A partir de este punto ya no existe solape y la salida se mantiene a 0. Si agrupamos los resultados de las distintas partes obtenemos la siguiente salida y (t):
B
13
A
B
y (t)
T B
T A
T A + T B
De este ejemplo, podemos sacar dos observaciones importantes: La duraci´ on de la salida es la suma de las duraciones de las se˜nales. Esto es as´ı en general. Si T A = T B la salida pasa a ser un tri´angulo. Por lo tanto, la convoluci´o n de dos pulsos de duraci´ on T , Π( tT ), da lugar a un tri´angulo de duraci´ on 2T que expresamos como ∆( tT ). nal y(t) que oyen los espectadores de un auditorio cuando los Ejemplo 2: queremos obtener la se˜ m´usicos tocan una melod´ıa x(t). x t
!"#$%&'$&
t
Supondremos que el auditorio es un sistema LTI, lo cual parece razonable, ya que se espera que se comporte de la misma manera independientemente del momento en que es usado. El paso siguiente es ver cu´al es la respuesta a una delta para obtener la respuesta impulsional del auditorio. Para ello, generamos un impulso de sonido en el escenario y medimos en el patio de butacas. En particular vemos que recibimos el mismo impulso generado con un retardo despreciable m´as un eco del impulso, que llega 200ms m´as tarde y con un nivel per debajo del primero. Determinamos entonces que la respuesta impulsional de la sala es: h
τ
ms
Si hacemos la convoluci´on para cualquier x(t) como antes, tenemos:
14
!
h(t
− τ )
( )
x τ
τ
Como h(t) son dos deltas y sabemos que la convoluci´on cumple la propiedad distributiva, vamos a convolucionar cada delta por separado y luego sumar. Fij´ emonos en la delta de mayor nivel. Cuando se solape con la se˜nal, el producto x(τ )h(t − τ ) ser´a x(t)δ (τ − t), con lo que despu´ es de integrar en todo τ , nos quedamos con x(t). Comprobamos, pues, la propiedad x(t) ∗ δ (t) = x(t). Para la segunda delta tendremos m´as o menos lo mismo, pero con un retardo adicional y una reducci´on de nivel. A continuaci´ on vemos la se˜nal de salida como suma de las dos convoluciones:
y (t !"#$"%&!'(# +#,+/-
t !"#$"%&!'(# *+%,-
!"#$"%&!'(# *+%,-
.'# /+,-/*"
*+% +!"
As´ı pues, comprobamos que el operador convoluci´ on da como resultado lo que esperar´ıamos de este sistema. Podemos usar este ejemplo para interpretar la convoluci´on seg´ u n (5) como sigue: si descomponemos h(τ ) como una suma (quiz´a infinita) de deltas con su valor correspondiente, entonces la salida del sistema ser´a la suma de r´eplicas (quiz´a infinitas) de x(t) adecuadamente escaladas y retardadas. 3.2.
Propiedades de la convoluci´ on
Son las siguientes: 1. Conmuntativa: x(t) ∗ h(t) = h(t) ∗ x(t) −→
∞ −∞ x(τ )h(t − τ )dτ =
∞ −∞ h(τ )x(t − τ )dτ
En el ejemplo 1 anterior, podemos comprobar que si giramos y desplazamos x(τ ) en vez de h(τ ) para obtener y (5), el ´area resultante es exactamente la misma. 2. Asociativa: x(t) ∗ (y(t) ∗ z(t)) = (x(t) ∗ y(t)) ∗ z(t) = x(t) ∗ y(t) ∗ z(t) En sistemas en cascada, no importa el orden en que se encuentren. Los siguientes sistemas son todos equivalentes:
15
x t
h1 t
h2 t
y t
x t
h2 (t)
h1 (t)
y t
x t
h1 (t) ∗ h 2 (t)
y t
x t
h2 t
y t
∗
h 1 t
3. Distributiva: x(t) ∗ (h1 (t) + h2 (t)) = (x(t) ∗ h1 (t)) + (x(t) ∗ h2 (t)) Esto equivale a decir que dos sistemas en paralelo equivalen a uno cuya respuesta impulsional es suma de la respuestas. h1 t
x t)
x t)
y t)
h1 (t) + h 2 (t)
y t)
h2 t
4. Identidad con δ (t): x(t) ∗ δ (t) = x(t), δ (t) ∗ δ (t) = δ (t) Ejemplo: Calcular la respuesta impulsional del siguiente sistema: h1 t x t
"
t
"
−∞
#
y t
h3 (t)
!
h2 t
Simplemente hay que expresar h(t) en funci´on de las respuestas de los subsistemas individuales, es decir, h(t) = (h1 (t) − h2 (t)) ∗ h3 (t) = (δ (t) − δ (t − T )) ∗ u(t) = u(t) − u(t − T ) = Π t−T/2 . T
3.3.
Propiedades de los sistemas LTI a partir de h(t)
Conociendo h(t) es posible determinar si un sistema LTI es causal y/o estable de la siguiente forma: Causalidad: el sistema ser´a causal si h(t) = 0 para t < 0. Recordemos la definici´ o n de un sistema causal, es decir, si x(t) = 0 para t < t0 entonces ∞ y(t) = 0 para t < t0 . Calculemos ahora la salida del sistema como y(t) = −∞ x(τ )h(t − τ )dτ .
16
Si la respuesta impulsional debe ser 0 para t < 0, entonces h(t − τ ) = 0 para t − τ < 0, o lo que es lo mismo, para τ > t. En la integral de convoluci´on, esto se traduce en que s´olo hace falta integrar hasta t, ya que h(t − τ ) es 0 para valores mayores. Por lo tanto, en este caso, t y(t) = −∞ x(τ )h(t − τ )dτ . En la integral s´olo intervienen valores de x(τ ) anteriores a t y por lo tanto, se comprueba que el sistema es causal.
Estabilidad: se requiere que
∞ −∞ |h(τ )|dτ
< ∞ .
Miremos si ante estas condiciones y para una entrada acotada | x(t)| < B, la salida se mantiene acotada: ∞
|y(t)| =
∞
x(t − τ )h(τ )dτ ≤
−∞ ∞
≤
|x(t − τ )h(τ )|dτ
−∞
∞
|x(t − τ )||h(τ )|dτ ≤ B
−∞
|h(τ )|dτ ≤ ∞
(7)
−∞
N´ otese que en la primera desigualdad se interpreta la integral como una suma y luego se hace uso de la desigualdad triangular, que dice que dados dos complejos a y b, entonces | a + b| ≤ |a| + |b|. En la segunda desigualdad se tiene en cuenta tambi´ en que para dos complejos a y b, se cumple |a · b| = | a| · | b|.
17
Tema 2: La Transformada de Laplace Antoni Morell y Rosana Rodr´ıguez 3 de marzo de 2014
1.
La transformada de Laplace. Definici´ on y propiedades.
Antes de empezar con la definici´on formal de la transformada, comencemos viendo cu´a l es su utilidad. Desde ese punto de vista, la transformada de Laplace es una operaci´on o transformaci´ on matem´ atica muy u ´til para la resoluci´on de ecuaciones diferenciales ordinarias (en particular, las lineales y de coeficientes constantes). Pero... ¿qu´e es una ecuaci´on diferencial? Es una ecuaci´on donde aparecen funciones de una o varias variables y tambi´en sus derivadas. Si nos centramos en las ecuaciones diferenciales ordinarias de orden n con coeficientes reales, ´estas tomaran la siguiente forma: dn dn−1 d y(t) + an−1 n−1 y(t) + . . . + a1 y(t) + a0 y(t) = f (t) n dt dt dt
(1)
donde a i son los coeficientes constantes, y(t) es la variable dependiente y f (t) se conoce como funci´on excitadora. Consideremos un ejemplo pr´actico. Supongamos que, en el circuito de la Figura 1, se quiere ver cu´al es la tensi´on del condensador en todo momento v c (t). R !
!
"
!
i t
V
vC t
C "
Figura 1: Circuito RC. Aplicando la ley de Kircho ff de tensiones, vemos que: V = R i(t) + vC (t)
(2)
donde ya se ha considerado que la tens´ı´on en la resistencia vale v R (t) = R i(t). Finalmente, si tenemos d en cuenta la ley tensi´on-corriente del condensador, es decir, i C (t) = C dt vC (t), llegamos a la ecuaci´on V = RC
d vC (t) + vC (t) dt 18
(3)
Comprobamos que se trata de una ecuaci´on en la que intervienen tanto la funci´on inc´ognita vC (t) como su derivada. Pues bien, la transformada de Laplace es una herramienta que, entre otras cosas, nos permitir´a resolver ecuaciones diferenciales de forma sencilla. ¿C´omo es eso posible? Como veremos, gracias a la transformada de Laplace podremos pasar de una ecuaci´ on diferencial en el dominio del tiempo a una ecuaci´ on algebraica en el dominio s o dominio transformado (se llama dominio s porque ´esta es la variable que usaremos en el otro dominio al igual que en tiempo usamos la variable t y que, dicho sea de paso, se trata de una variable compleja que descompondremos seg´ un s = σ + j ω ). Trabajar con la ecuaci´on algebraica va a ser en general mucho m´as sencillo que hacerlo con la ecuaci´on en el dominio temporal (hemos resuelto muchas veces este tipo de ecuaciones) y una vez encontrada la soluci´on en el dominio s, la clave ser´a poder antitransformar para volver al dominio temporal que es el que nos interesa. 1.1.
Definici´ on de la Transformada de Laplace Unilateral
La trasformada de Laplace unilateral de una funci´on temporal f (t) es una funci´on de variable compleja s que se define seg´un ∞
F (s) = L {f (t)} =
Z
f (t) e−st dt
(4)
0
donde f (t) es una funci´on que depende del tiempo t y que est´a definida para t > 0 (supondremos siempre que f (t) = 0 para t < 0), F (s) es la versi´on transformada en el dominio s de f (t) y L es el s´ımbolo que distingue al operador de Laplace, lo cual indica que lo que haya dentro de dicho operador ser´a transformado. Cuando tratamos con la transformada unilateral de Laplace (v´eanse los l´ımites de integraci´ on, que tienen en cuenta s´olo el lado positivo del eje real) nos importan los valores que toma la funci´on para t > 0. A menudo trataremos con funciones f (t) definidas para todo t pero a la luz de la transformada unilateral de Laplace, estamos suponiendo que multiplicamos impl´ıcitamente dicha funci´on por u(t) (esto ser´ıa lo m´as correcto aunque no siempre lo explicitemos). Veamos a continuaci´on algunos ejemplos: f (t) = 1. Como hemos comentado, en la transformada unilateral de Laplace consideraremos indistintamente f (t) = 1 y f (t) = u(t) puesto que para t ≥ 0 son “la misma” funci´on, aunque lo correcto es siempre a˜ nadir el t´ermino u(t). En el caso que estamos tratando tenemos: ∞
F (s) =
Z 0
1 1 e−st dt = − s
∞
= 0
1 s
(5)
f (t) = t (o bien f (t) = t u(t)). En este caso calculamos la transformada de Laplace como: ∞
F (s) =
Z 0
te
st
−
dt =
integraci´ on por partes
!
t e−st = − s
∞
Z
∞
+
0
0
e−st 1 dt = − 2 e−st s s
∞
= 0
1 s2
(6)
f (t) = eλt . Este caso es algo m´as especial que los anteriores ya que dependiendo del valor que tome s existe o no transformada. N´otese que cuando Re {s} > λ, entonces la exponencial 19
eλt e−st = e(λ−s)t tiene parte real negativa o, lo que es lo mismo, el complejo resultante tiene un m´odulo que decae exponencialmente con el tiempo. En esta situaci´on la integral converge y podemos calcular su transformada de Laplace como ∞
Z 0
∞
λt
e e
st
−
dt =
Z
∞
e
(λ−s)t
0
dt =
Z
e
(s−λ)t
−
dt =
0
1 s−λ
∞
(s−λ)t
−
e
0
=
1 s−λ
(7)
As´ı pues, asociada a la transformada de Laplace est´ a la regi´ on de convergencia o ROC, que nos dice para qu´ e valores de s existe transformada. El concepto de ROC es muy importante aunque no lo veamos de forma expl´ıcita a la largo de esta asignatura per el hecho de tratar con la transformada unilateral de Laplace, pero para mostrar su importancia diremos que, en caso de considerar la transformada bilateral, entonces una misma transformada puede corresponder a dos se˜ nales temporales distintas y s´olo la ROC nos delimitar´a cu´al es la buena. La transformada bilateral se puede ver como una extensi´on de la unilateral en la que los l´ımites de integraci´ on van de −∞ a +∞ y por lo tanto, elimina la condici´on f (t) = 0 para t < 0. A nivel de sistema, la transformada unilateral tiene sentido ya que todos los sistemas implementables ser´an causales y por lo tanto su respuesta impulsional estar´a definida u ´ nicamente para t ≥ 0. Volviendo al ejemplo anterior y considerando ahora la transformada bilateral, la funci´on transformada F (s) = s−1 λ tendr´ıa como transformada:
• f (t) = e λt u(t) si la ROC fuese Re {s} > λ • f (t) = e −λt u(−t) si la ROC fuese Re {s} < λ Por lo tanto, vemos en este ejemplo que la ROC para un sistema causal es siempre el semiplano a la derecha de un cierto umbral como indica la siguiente figura: j ω
!"!#$%&
!"!#$%&
&(#")*&+!&,
*&+!&,
σ
1.2.
Existencia de la Transformada de Laplace
Con el objetivo de determinar la existencia de la Transformada de Laplace debemos asegurarnos b´asicamente que la integral de la definici´on exista y resulte en algo finito. As´ı pues, podemos decir que: 1. Si una funci´on no es integrable, entonces seguro que no tiene transformada. 2. Si una funci´on es integrable pero su integral no converge (se va a infinto), entonces tampoco puede tener transformada.
20
Si consideramos una funci´on f (t) definida en [0, ∞) y adem´as continua a trozos, conseguimos solucionar el primer problema, pues ser´a integrable aunque no necesariamente va a converger (es decir, podremos hacer la suma pero ´esta puede ser infinita). Para solucionar tambi´ en el segundo problema requeriremos que adem´ as la funci´on sea de orden exponencial . Una funci´on es de orden exponencial si en valor absoluto est´a acotada por una exponencial del tipo M ect con M , c ∈ R, es decir (8) |f (t)| ≤ M ect como muestra la figura. En este caso, podemos asegurar que la integral converge para todo s con ct
Me
|f (t | M
Re{s} > c ya que el producto M ect e−st ser´a una exponencial con m´odulo decreciente en el tiempo. N´ otese que si este producto es decreciente, a´un con m´as raz´ on lo ser´a el producto f (t)e−st . Teorema de exixtencia de la Transformada de Laplace
Dada f (t) para 0 ≤ t < ∞, si se cumple: i) f (t) es continua a trozos y ii) f (t) es de orden exponencial, entonces su transformada de Laplace F (s) existe para Re {s} > c. Nota: Las condiciones son suficientes pero no necesarias, con lo que una funci´on f (t) no cont´ınua a
trozos y que no sea de orden exponencial puede tener tambi´ en (o no) transformada de Laplace. Comprobaci´ on A
l´ım
A→∞
Z 0
f (t)e
st
−
dt
A
≤ l´ım
Z Z
A→∞ 0
f (t)e A
≤ M l´ım
A→∞ 0
st
−
A
dt = l´ım
e(c−σ)t dt =
Z
A→∞ 0
M σ−c
|f (t)| e−st dt
(9)
(si σ > c)
Aqu´ı vemos claramente que la transformaci´on (de Laplace) resulta en algo finito bajo las condiciones expuestas. 1.3.
Propiedades de la Transformada de Laplace
Son las siguientes: 21
1. Correspondencia biun´ıvoca: f (t) ←→ F (s). en definir la ROC corresponNota: En la transformada de Laplace bilateral es necesario tambi´ diente. En la unilateral (la que usaremos nosotros) no hace falta. 2. Linealidad: L{ c1 f 1 (t) + c2 f 2 (t)} = c 1 L{f 1 (t)} + c2 L{f 2 (t)} es de la linealidad del operador integraci´ on Comprobaci´ on: a trav´ ∞
Z
∞
st
−
[c1 f 1 (t) + c2 f 2 (t)]e
0
dt = c1
Z
∞
f 1 (t)e
0
st
−
dt + c2
Z 0
f 2 (t)e−st dt
(10)
= c1 L{f 1 (t)} + c2 L{f 2 (t)}
Ejemplo de aplicaci´ on: encontrar las transformadas del seno y del coseno. Si consideramos f (t) = cos(ωt) y g (t) = sin(ωt) y aplicamos la f´ormula de Euler, vemos que e j ωt = f (t) + jg(t). Desde
el punto de vista transformado y aplicando la propiedad de linealidad tenemos:
L{e j ωt } = L{ f (t)} + j L{g(t)} = F (s) + jG(s)
(11)
Por suerte, ya sabemos calcular la transformada de e j ωt , que vale L{e j ωt } = s−1 j ω = Ahora ya simplemente identificando partes llegamos a la conclusi´on deseada, es decir F (s) = L{cos(ω t)} = G(s) = L{sin(ω t)} =
s2
s + ω2 ω
s2 + ω 2
s+ j ω . s2 +ω2
(12)
(13)
3. Derivaci´ on: L{ f 0 (t)} = L{ df (t) dt } = sF (s) − f (0). Comprobaci´ on: ∞
Z
f 0 (t)e−st dt =
0
u = e −st f 0 (t)dt = dv du = −se−st dt f (t) = v ∞
= e
st
−
Z
f (t)
(14)
∞
+ s
0
Generalizaci´ on:
!
f (t)e−st dt = −f (0) + sF (s)
(15)
0
Esta propiedad se puede generalizar siempre que la derivada n-´ esima tenga transformada de Laplace, que se relacionar´a con F (s) seg´ un
L{
dn f (t) } = s n F (s) − sn−1 f (0) − sn−2 f 0 (0) − sn−3 f 00 (0) − . . . − sf (n−2) (0) − f (n−1) (0) (16) n dt
Ejemplo de aplicaci´ on:
Gracias a la propiedad de derivaci´on obtenemos una de las aplicaciones m´as importantes de la transformada de Laplace, pues es lo que nos permite transformar una ecuaci´on diferencial ordinaria en algebraica. Por ejemplo, supongamos un sistema cuya respuesta y(t) evoluciona a lo largo del tiempo seg´ un la ecuaci´on y00 (t) + 4y 0 (t) + 3y(t) = t 22
(17)
con condiciones iniciales y(0) = 2 y y 0 (0) = −3. N´o tese que, al fin y al cabo, una ecuaci´on diferencial nos da informaci´on sobre variaciones del sistema pero en ning´u n caso nos da una medida absoluta de su estado. Por eso son necesarias las condiciones iniciales si se pretende dar una caracterizaci´ on completa del sistema. Usando la propiedad de derivaci´on, vemos que
L{y(t)} = Y (s) L{y 0 (t)} = sY (s) − 2 L{y00 (t)} = s2 Y (s) − sy(0) − y 0 (0) = s 2 Y (s) − sy(0) − y0 (0) Adem´as, sabemos que L{t} = s1 , por lo que sustituyendo t´ erminos, la ecuaci´on temporal se transforma en 1 (18) s2 Y (s) − 2s + 3 + 4sY (s) − 8 + 3Y (s) = 2 s que es una ecuaci´on algebraica. Ahora es posible aislar Y (s), con lo que llegamos a la soluci´on 2
Y (s) =
1 + s2 (2s + 5) (s2 + 4s + 3)s2
(19)
y u ´ nicamente nos faltar´ıa anti-transformar para encontrar y(t), que es lo que realmente nos interesa. t
R
4. Integraci´ on: L{ 0 f (τ )dτ } = Comprobaci´ on:
F (s) s
Para verificar esta propiedad, emplearemos el primer teorema fundamental del c´alculo, que nos dice d b(x) f (t)dt = f (b(x))b0 (x) − f (a(x))a0 (x) (20) dx a(x)
Z
Aplicado a nuestro caso tenemos t
g(t) =
Z
f (u)du −→
0
d g(t) = f (t) dt
(21)
Ahora, aplicando la anterior propiedad de derivaci´on obtenemos t
F (s) = L{ g 0 (t)} = s L{g(t)} − g(0) = s L
Z 0
ya que g(0) =
0 0 f (u)du =
R
f (u)du
(22)
0. As´ı pues concluimos que t
L
Z
f (u)du =
0
d 5. Multiplicaci´ on por t: L{ t f (t)} = − ds F (s)
Comprobaci´ on:
23
F (s) s
(23)
d d F (s) = ds ds
∞
Z
∞
st
−
e
f (t)dt =
0
Z 0
d −st e f (t)dt = ds
∞
Z
−t e−st f (t)dt = −L{t f (t)} (24)
0
Generalizaci´ on:
L{tn f (t)} = (−1)n 6. Divisi´on por t: L{ f (t) t } = Comprobaci´ on:
∞
+∞ F (u)du s
∞
∞
∞
R 0
f (t)e−st dt, vemos que
Z Z Z Z Z
f (t)e−ut dtdu =
F (u)du =
s
(25)
R
Partiendo de la definici´on de F (s) =
Z
dn F (s) dsn
s
0
∞
=
∞
cambio del orden de integraci´on ∞
Z
e−ut du dt =
f (t)
0
s
0
!
e−st f (t) dt = L t
(26)
f (t) t
7. Multiplicaci´ on por e αt : L eαt f (t) = F (s − α) Comprobaci´ on:
∞
αt
αt
L{e f (t)} =
e f (t) e
∞
st
−
dt =
0
Z
f (t) e−(s−α)t dt = F (s − α)
(27)
0
An´ alogamente, podemos afirmar que L e−αt f (t) = F (s + α). Pongamos un ejemplo: si sabemos que L{ cos(ω t)} =
L{e−αt cos(ωt)} =
s , s2 +ω2
entonces
s + α (s + α)2 + ω2
(28)
8. Traslaci´ on en el tiempo: si F (s) = L{f (t)} y desplazamos f (t) un cierto tiempo a obteniendo f (t − a) t ≥ a ˜ = as´ı f (t) (ver figura), entonces L{ ˜ f (t)} = e −as F (s). 0 t
(
Comprobaci´ on:
∞
˜ } = L{f (t)
Z Z 0
∞
=
∞
e−st ˜ f (t)dt =
Z
e−st f (t − a)dt =
a
t − a = u dt = du
!
(29)
e−su e−sa f (u)du = e −as F (s)
0
Ejemplo de aplicaci´ on: encontrar la transformada de Laplace del pulso rectangular f (t) = Π
t−t0 /2 t0
.
24
f (t
˜(t) f
Sabemos que podemos expresar el pulso rectangular como: Π
t−t0 /2 t0
= u(t) −u(t −t0 ). Teniendo
esto en cuenta y conociendo la transformada del pulso unitario L{u(t)} = 1s , encontramos
L
Π
t − t0 /2 t0
1 e −st 1 − e−st = L{ u(t)} − L{u(t − t0 )} = − = s s s 0
9. Cambio de escala: L{ f (at)} = a1 F Comprobaci´ on:
∞
Z
e
st
−
f (at)dt =
0
t = dt =
λ
a dλ a
0
(30)
s a
! Z
∞
=
sλ a
−
e
0
dλ 1 f (λ) = a a
∞
Z
e
sλ a
−
0
1 s f (λ)dλ = F a a
(31)
10. Funciones peri´ odicas: si f (t) es una funci´ on peri´odica, es decir, f (t+rt) = f (t), r ∈ N+ , entonces podemos encontrar su transformada de Laplace como T −st f (t)dt 0 e 1 − e−sT
R
L{f (t)} =
(32)
Comprobaci´ on: T
∞
F (s) = L{ f (t)} =
Z
st
−
e
f (t)dt =
0
Z
∞
st
−
e
f (t)dt +
0
Z
e−st f (t)dt
(33)
T
Hacemos el cambio de variable t = T + u en la segunda de las integrales y nos queda T
F (s) =
Z Z
∞
e−st f (t)dt +
0
0
e−s(T +u) f (T + u)du =
0
T
=
Z
T
∞
e
st
−
f (t)dt + e
sT
−
Z
su
−
e
f (u)du =
0
Finalmente, aislando F (s) llegamos al resultado deseado.
25
Z 0
f (u) = f (T + u) por ser peri´odica
!
e−st f (t)dt + e−sT F (s)
(34)
11. Teorema del valor inicial: nos permite encontrar f (t) para t → 0 a partir de F (s) sin necesidad de calcular la transformada inversa para obtener f (t) y luego calcular el l´ımite correspondiente. Gracias al teorema del valor inicial podremos, por ejemplo, verificar las condiciones iniciales del sistema. Sean f (t) y
df (t) dt
transformables, entonces l´ımt→0 f (t) = l´ıms→∞ s F (s).
Comprobaci´ on:
Empezamos usando la propiedad de derivaci´on para establecer la siguiente relaci´on ∞
Z 0
d f (t) −st e dt = s F (s) − f (0) dt
(35)
y tomamos el l´ımite s −→ ∞ en la parte izquierda de la igualdad, lo que resulta en ∞
l´ım
Z
s→∞ 0
d f (t) −st e dt = dt
∞
Z 0
d f (t) l´ım e−st dt = dt s→∞
∞
Z 0
d f (t) 0 dt = 0 dt
(36)
Por lo tanto, teniendo en cuenta la relaci´on inicial llegamos a ∞
l´ım
Z
s→∞ 0
d f (t) −st e dt = l´ım s F (s) − f (0) = 0 s→∞ dt
(37)
Finalmente, identificando f (0) = l´ım t→0 f (t) llegamos al resultado deseado. 2s+5 on I 1 (s) = (s+1)(s+2) en el domino transformado y nos Ejemplo de aplicaci´ on: Nos dan la funci´
piden i 1 (0). Aplicando el teorema del valor inicial, podemos encontrarlo sin necesidad de anti-transformar haciendo 2s2 + 5s i1 (0) = l´ım 2 =2 (38) s→∞ s + 3s + 2 Si hubi´eramos anti-transformado (veremos c´ omo m´ as adelante), obtendr´ıamos i1 (t) = 3e−t − e−2t y tomando el l´ımite t → 0, hubi´ eramos llegado al mismo resultado. 12. Teorema del valor final: an´ alogamente al teorema del valor inicial, nos permiten encontrar f (t) para t → ∞ a partir de F (s) sin necesidad de calcular la transformada inversa para obtener f (t) y luego calcular el l´ımite correspondiente. Gracias al teorema del valor final po dremos saber, por ejemplo, hacia d´onde tiende el sistema (a muy largo plazo). Sean f (t) y
df (t) dt
ttransformables tal que exista f (∞), entonces l´ım t→∞ f (t) = l´ıms→0 s F (s).
Comprobaci´ on:
De manera semejante al caso anterior pero tomando el l´ımite s → 0 obtenemos ∞
l´ım
Z
s→0 0
d f (t) −st e dt = dt
∞
Z 0
d f (t) l´ım e−st dt = dt s→0
∞
Z 0
d f (t) 1 dt = f (∞) − f (0) dt
(39)
Usando de nuevo la propiedad de derivaci´o n y a˜ nadiendo los l´ımites obtenemos f (∞) − f (0) = l´ım [s F (s) − f (0)] s→0
(40)
Finalmente, cancelando f (0) a ambos lados de la igualdad e identificando f (∞) = l´ımt→∞ f (t) llegamos al resultado descrito. 26
13. Evaluaci´ on de integrales: si F (s) = L{ f (t)}, entonces ∞
l´ım F (s) = l´ım
s→0
Z
∞
st
−
e
s→0 0
f (t)dt =
Z
f (t)dt = F (0)
(41)
0
14. Transformada de la integral de convoluci´ on: L{ f 1 (t) ∗ f 2 (t)} = F 1 (s) · F 2 (s) As´ı pues, una operaci´on m´as bien compleja a nivel temporal como es la convoluci´on se simplifica enormemente bajo el prisma de la transformada de Laplace. Como en el caso de la resoluci´on de ecuaciones diferenciales ordinarias, a menudo nos resultar´a mucho m´as interesante transformar las se˜ nales a convolucionar, hacer el producto en el dominio s y luego anti-transformar que intentar abordar la convoluci´ on directamente a nivel temporal. Comprobaci´ on:
∞
∞
Z Z Z Z
L{f 1 (t) ∗ f 2 (t)} =
0
=
f 1 (t − τ )f 2 (τ )dτ e−st dt
0
∞
∞
0
(42)
f 1 (t − τ )e−st dt f 2 (τ )dτ
0
N´ otese que en la primera igualdad la integral de convoluci´on empieza en 0 y no en −∞ dado que las se˜ nales a convolucionar valen 0 para t < 0. En la segunda igualdad cambiamos el orden de integraci´ on y nos damos cuenta que la integral interior es justamente la transformada de Laplace de f 1 (t) con un cierto desplazamiento τ . Aplicando la propiedad de desplazamiento temporal podemos ver que dicha integral vale e −τ s F 1 (s). Entonces ∞
∞
Z Z 0
0
f 1 (t − τ )e
st
−
∞
Z
dt f 2 (τ )dτ =
0
e−τ s F 1 (s)f 2 (τ )dτ
(43)
∞
= F 1 (s)
Z
e−τ s f 2 (τ )dτ = F 1 (s) · F 2 (s)
0
Transformada de Laplace de u(t) y δ (t):
Ambas funciones tienen especial relevancia en t´erminos de convoluci´on y transformada de Laplace. En cuanto a la funci´on δ (t), ya sabemos que la salida de un sistema cuando a la entrada hay una delta nos proporciona su respuesta impulsional h(t). En el dominio transformado, definiremos H (s) = L{ h(t)} como la funci´ on de transferencia del sistema y para encontrarla necesitaremos la transformada de Laplace de δ (t). Otras veces, con el mismo fin de encontrar H (s), nos ser´a m´ as pr´ actico considerar como entrada al sistema el pulso unitario u(t) (a la pr´actica es conectarlo) y medir su respuesta. La transformada de u(t) ya la hemos visto, pero la recordamos, ∞
L{u(t)} =
Z
∞
st
−
u(t)e
0
dt =
Z
e−st dt =
0
1 s
(44)
La transformada de δ (t) es ∞
L{δ (t)} =
Z
δ (t)e−st dt = e −s0 = 1
0
27
(45)
Comprobaci´ on mediante ejemplo:
Consideremos las funciones f 1 (t) = u(t) y f 2 (t) = u(t)e−t . La convoluci´on de ambas funciones resulta ∞
f (t) = f 1 (t) ∗ f 2 (t) =
∞
Z
u(t − τ )u(τ )e
−τ
dτ =
Z
u(t − τ )e
−τ
dτ =
0
−∞
t
Z
e−τ dτ = 1 − e−t (46)
0
Si lo miramos en el dominio transformado tenemos 1 F 1 (s) = L{f 1 (t)} = s 1 F 2 (s) = L{f 2 (t)} = s + 1
F (s) = L{f (t)} = L{ 1 − e−t } = L{ 1} − L{e−t } =
(47)
1 1 1 = − s s + 1 s(s + 1)
donde claramente comprobamos que se cumple F (s) = F 1 (s) · F 2 (s).
2.
La Transformada Inversa de Laplace
Hasta el momento hemos visto cu´al es la puerta de entrada al dominio s (la propia transformada de Laplace), una serie de herramientas que nos permiten relacionar ambos dominios de forma m´as sencilla que a fuerza bruta (las propiedades de la transformada) y nos falta ver cu´al es el camino de regreso del dominio s al dominio temporal, es decir, la transformada inversa o anti-transformada de Laplace, que denotaremos como L −1 . Para encontrar la transformada inversa de Lapace tenemos b´asicamente dos opciones: Aplicar directamente la anti-transformada de Laplace como sigue
L
1
−
1 {F (s)} = f (t) = l´ım T →∞ 2π j
c+ jT
Z
F (s)est ds
(48)
c− jT
donde c se debe escoger con el fin de integrar ´unicamente puntos dentro de la ROC y t ≥ 0. Se trata de un m´ etodo gen´erico pero a su vez complicado ya que implica el c´alculo de una integral sobre variable compleja y lo evitaremos en la pr´actica. Por descomposici´ o n de F (s) en t´erminos cuya anti-transformada sea conocida. En ese caso, aplicando la propiedad de linialidad de la transformada, podremos expresar f (t) como suma de anti-transformadas. Anti-transformada de Laplace por descomposici´ on en fracciones simples
Centr´ emonos pues en la segunda opci´on y busquemos una manera sistem´atica de hacer la descomposici´o n de F (s) en t´erminos conocidos. En concreto, este m´etodo nos ser´a u ´ til cuando podamos expresar F (s) como fracci´ on de polinomios en s con el grado del numerador menor o igual que el del denominador. As´ı pues, tenemos N (s) F (s) = (49) D(s) 28
donde m = grado{N (s)} y n = grado{D(s)} con m ≤ n. Gracias al teorema fundamental del ´algebra, sabemos que es posible descomponer N (s) y D(s) en m y n ra´ıces complejas contando multiplicidades, respectivamente. As´ı pues, podemos expresar F (s) como F (s) = K
(s − z1 )(s − z2 ) . . . (s − zm ) (s − p1 )(s − p2 ) . . . (s − pn )
(50)
donde z k son las ra´ıces de N (s), a las que llamaremos los ceros de F (s), y p k son las ra´ıces de D(s), a las que llamaremos polos de F (s). A continuaci´on veremos c´omo obtener la transformada inversa en cuatro casos distintos, que son 1. Polos simples reales y n > m. 2. Polos simples reales y complejos conugados con n > m. 3. Polos reales m´ ultiples y n > m. 4. La funci´on F (s) cumple n = m. Caso 1: Polos reales simples
En este caso es posible hacer la siguiente descomposici´on F (s) =
N (s) A1 A2 An = + + ... (s − p1 )(s − p2 ) . . . (s − pn ) s − p1 s − p2 s − pn
donde A k son valores constantes. Una vez conseguida la descomposici´on y sabiendo que L{ eαt } = encontramos la transformada inversa como f (t) = A1 e p t + A2 e p t + . . . + An e p
1
2
n
t
u(t)
(51) 1 s−α ,
(52)
La cuesti´on ahora es c´omo encontrar los valores A k . Fij´emonos que, dado que m < n y que disponemos de n valores Ak , tenemos suficientes grados de libertad para poder fijar los m + 1 coeficientes que tendr´a a lo sumo el polinomio N (s), por lo que la descomposici´on es posible. Pongamos un ejemplo sencillo. F (s) =
4s − 3 A1 A2 A2 (s + 1) + A1 (s + 3) (A1 + A2 )s + (3A1 + A2 ) = + = = s2 + 4s + 3 s + 1 s + 3 (s + 1)(s + 3) s2 + 4s + 3
(53)
con lo que debemos cumplir A 1 + A2 = 4 junto con 3A1 + A2 = −3, lo cual es factible. No obstante, este modo de proceder resultar´ıa algo tedioso, por lo que intentaremos encontrar una alternativa m´ as simple. Veamos qu´ e sucede si multiplicamos F (s) en su forma descompuesta por (s − pk ). Tendremos F (s)(s − pk ) =
A1 A2 Ak An (s − pk ) + (s − pk ) + . . . + (s − pk ) + . . . (s − pk ) s − p1 s − p2 s − pk s − pn
29
(54)
y cancelando (s − pk ) en el k -´esimo t´ermino tenemos F (s)(s − pk ) =
A1 (s − pk ) A 2 (s − pk ) An (s − pk ) + + . . . + Ak + . . . s − p1 s − p2 s − pn
(55)
Finalmente, si evaluamos F (s)(s − p k ) en s = pk obtenemos directamente Ak ya que el resto de sumandos valen 0. As´ı pues, el m´etodo para determinar los coeficientes es multiplicar F (s) por el monomio correspondiente y evaluar todo en el valor del polo. En resumen, Ak = F (s)(s − pk )
(56)
s= pk
2
s +2s+2 Ejemplo: anti-transformar F (s) = (s+1)(s+2)(s+3)
En primer lugar expresamos F (s) como F (s) =
s2 + 2s + 2 A1 A2 A3 = + + (s + 1)(s + 2)(s + 3) s + 1 s + 2 s + 3
(57)
Acto seguido calculamos las constantes haciendo A1 = A2 = A3 =
(s2 + 2s + 2) (s + 1) 1−2+2 = = 0, 5 (s + 2)(s + 3) (s + 1) s=−1 1 · 2 (s2 + 2s + 2) (s + 2) 4−4+2 = = −2 (s + 1)(s + 3) (s + 2) s=−2 (−1) · 1 (s2 + 2s + 2) (s + 3) 9−6+2 = = 2, 5 3) s=−3 (s + 1)(s + 2) (s + (−2) · (−1)
(58)
0,5 2,5 2 con lo que nos queda F (s) = s+1 + s+3 . Ahora ya podemos anti-transformar cada una de las − s+2 fracciones para llegar al resultado deseado, que es
f (t) = 0, 5e−t − 2e−2t + 2, 5e−3t u(t) Caso 2: Polos complejos
(59)
En este segundo caso supondremos que adem´as de ra´ıces reales tenemos ra´ıces complejas y hay que tener en cuenta que cuando aparece una ra´ız compleja debe haber tambi´ en su compleja conjugada. A continuaci´on vemos qu´ e sucede cuando hay una ra´ız y su compleja conjugada, pero el siguiente desarrollo sirve para cuantas ra´ıces existan. Supongamos pues que F (s) es de la forma F (s) =
N (s) D0 (s) ((s − α)2 + β 2 )
(60)
En este caso est´a claro que no existe ning´un n´ umero real tal que (s − α)2 + β 2 = 0 y debemos recorrer a los n´ umeros complejos para hallar sus dos raices, que son α ± j β . De esta forma la descomposici´on en fracciones simples quedar´ıa
N (s) A A∗ F (s) = 0 = + + . . . D (s) [s − (α + j β )] [s − (α − j β )] s − α − j β s − α + j β 30
(61)
donde los puntos suspensivos indican la descomposici´on en fracciones simples de las ra´ıces reales (caso 1). N´ otese que las constantes A y A∗ que acompa˜ nan a las fracciones complejas y que se calculan del mismo modo que en el caso anterior son tambi´ en complejas conjugadas, por lo que no hace falta calcular ambas. En cuanto a la transformaci´ on inversa, este caso es muy parecido al anterior aunque ahora nos aparecer´an exponenciales con argumento complejo con los que podremos elaborar algo m´as. Tenemos dos posibilidades: 1. Expresar A en m´odulo y fase como A = | A|e j θ , con lo que A ∗ = | A|e− j θ . En este caso la anti-transformada seria:
j θ (α+ j β )t
f (t) = u(t) |A|e e αt
+ |A|e
j(β t+θ)
= u(t) |A|e (e
+ e
j θ (α+ j β )t
−
e
j(β t+θ)
−
+ . . .
(62)
) + . . . = u(t) 2|A|eαt cos(β t + θ) + . . .
2. Expresar A en parte real e imaginaria como A = a + jb, con lo que A ∗ = a − jb.
En este caso la anti-transformada seria:
(α+ j β )t
f (t) = u(t) (a + j β )e αt
j β t
= u(t) e (ae
+ (a − jb)e
j β t
+ jbe
(α− j β )t
+ ae
j β t
−
− jbe
= u(t) eαt (2a cos β t + 2b sin β t) + . . .
+ . . .
j β t
−
) + . . .
(63)
Aunque no llegamos a la misma expresi´on, evidentemente ambas son la misma funci´on. Quiz´a la primera nos sea m´as u ´ til para visualizar el resultado final, pues se trata de una senoide de amplitud inicial |A| y fase θ que se aten´ ua (α < 0) o amplifica (α > 0) de forma exponencial seg´ un el t´ermino αt e (si α = 0 la amplitud se mantiene constante a | A|). 2s+3 Ejemplo: anti-transformar F (s) = s3 +5s 2 +9s+5
En primer lugar buscamos las ra´ıces del denominador y encontramos F (s) =
2s + 3 (s + 1)[s2 + 4s + 5]
(64)
Si buscamos las ra´ıces de s 2 + 4s + 5 utilizando la f´ ormula para resolver ecuaciones de segundo grado, encontramos que ´estas se encuentran en s = −2 ± j. As´ı pues, expresamos F (s) como F (s) =
2s + 3 A1 A2 A3 = + + (s + 1)(s + 2 + j)(s + 2 − j) s + 1 s + 2 + j s + 2 − j
Ahora calculamos A 1 y A 2 igual que en el caso 1, es decir (2s + 3) (s + 1) A1 = = 0, 5 (s + 2 + j)(s + 2 − j) (s + 1) s=−1 (2s + 3) (s + 2 + j) −1 − 2 j −2 + 6 j A2 = = = = −0, 25 + 0, 75 j (2 j − 2) 8 (s + 1)(s + 2 − j) (s + 2 + j) s=−2− j
31
(65)
(66)
N´ otese que no hace falta calcular A3 ya que A3 = A∗2 = −0, 25 − 0, 75 j. De esta forma podemos expresar F (s) como −0, 25 + 0, 75 j −0, 25 − 0, 75 j 0, 5 F (s) = + + (67) s + 1 s + 2 + j s + 2 − j y anti-transformar seg´ un lo explicado, cuyo resultado ser´a f (t) = u(t) 0, 5e−t + (−0, 25 + 0, 75 j)e−2t e− jt + (−0, 25 − 0, 75 j)e−2t e jt
= u(t) 0, 5e−t + e−2t −0, 25(e− jt + e jt ) + e−2t −0, 75 j(e jt + e− jt )
= u(t) 0, 5e−t + e−2t (−0, 5cos t + 1, 5sin t) Caso 3: Polos m´ ultiples
(68)
En este tercer caso exploramos la existencia de ra´ıces m´ultiples. As´ı pues, supongamos que F (s) tiene una ra´ız de multiplicidad l y veamos c´omo pasar al dominio temporal. Supongamos primero F (s) =
N (s) (s − p1 )l (s − p2 ) .
. . (s − pn )
(69)
En este caso el polo en p1 debe considerar tantas constantes en la descomposici´on como su multiplicidad. En nuestro caso, la descomposici´on deber´ıa ser F (s) =
A11 A12 A1l A2 An + + . . . + + + . . . + −1 l l (s − p1 ) (s − p1 ) s − p1 s − p2 s − pn
(70)
Nos preocupamos primero del c´alculo de los coeficientes A1k . Siguiendo la l´ogica del primer caso encontramos f´ acilmente el coeficiente A 11 como A11 = F (s)(s − p1 )l
(71) s= p1
No obstante, no sabemos c´omo calcular el resto de los coeficientes. Consideremos ahora la funci´on (s − p1 )l F (s) simplificada l
l−1
F (s)(s − p1 ) = A 11 + A12 (s − p1 ) + . . . + A1l (s − p1 )
A 2 (s − p1 )l A n (s − p1 )l + + . . . + s − p2 s − pn
(72)
y tomemos la derivada respecto a s. Llegamos a d A2 l (s − p1 )l−1 (s − p2 ) − A2 (s − p1 )l l l−2 +. . . (73) {F (s)(s − p1 ) } = A 12 +. . .+A1l (l − 1)(s − p1 ) + ds (s − p2 )2 y nos damos cuenta que evaluando en s = p1 obtendremos el valor de A12 ya que el proceso de derivaci´on ha anulado los t´erminos de orden inferior mientras que el resto de t´erminos valen cero una vez evaluamos en s = p1 . Vemos tambi´ en que este mecanismo se puede repetir tomando derivadas sucesivas para conseguir todos los valores requeridos. De forma gen´erica, calcularemos el t´ermino A 1k como 1 dk−1 A1k = l´ım (74) { (s − p1 )n F (s)} (k − 1)! s→ p dsk−1 1
N´ otese que el l´ımite s → p1 es equivalente a evaluar la funci´on resultante en s = p1 . No obstante, formalmente ponemos el l´ımite ya que si no simplificamos la funci´on cancelando t´erminos como hemos 32
hecho hasta el momento y evaluamos directamente, obtendremos una indeterminaci´on. Con el l´ımite evitamos ese error de d definici´on y en los casos anteriores hubiera sido m´as correcto tambi´en expresarlo as´ı. Finalmente, para pasar al dominio temporal la expresi´on de F (s) descompuesta en fracciones simples resultante de (70) y en particular los t´erminos con denominador (s − p1 )k , haremos uso de la propiedad de multiplicaci´on por t (propiedad 5), que de forma gen´erica nos dec´ıa n
L{t f (t)} =
n n d F (s) (−1) dsn
(75)
Partimos de la relaci´on ya vista en los casos anteriores e p t ←→ 1
1 s − p1
(76)
y aplicamos dicha propiedad. Para n = 1, obtendr´ıamos p1 t
te
d ←→ (−1) ds
1 1 = s − p1 (s − p1 )2
(77)
De la misma forma, para n = 2 obtendr´ıamos t2 e p
1
t
d2 ←→ 2 ds
1 2 = s − p1 (s − p1 )3
(78)
Vemos que a trav´es de sucesivas multiplicaciones por t vamos consiguiendo los t´erminos (s− p1 ) . Simplemente hay que tener en cuenta los factores adicionales que van apareciendo para finalmente llegar a la relaci´on que nos interesa y que es 1
tn e p t ←→ 1
n! (s − p1 )n+1
=⇒
tn p t 1 e ←→ n! (s − p1 )n+1
1
k
(79)
Con todo esto ya somos capaces de traba jar con ra´ıces m´ultiples. Veamos a continuaci´on un ejemplo. s+2 Ejemplo: anti-transformar F (s) = (s+1) 2 (s+3)
En primer lugar hacemos la descomposici´on en fracciones simples seg´un lo que hemos dicho, resultando F (s) =
A11 A12 A2 + + (s + 1)2 s + 1 s + 3
(80)
y calculamos los coeficientes haciendo s + 2 −1 + 2 (s + 1)2 = = 0, 5 2 1) (s + 3) −1 + 3 (s + d s + 2 1 · (s + 3) − (s + 2) · 1 = l´ım (s + 1) 2 = l´ ı m = 0, 25 s→−1 ds s→−1 (s + 1) 2 (s + 3) (s + 3) 2
A11 = A12
A2 =
(s + 2)(s + 3) (s + 1) 2 (s + 3)
= −0, 25
(81) (82)
s=−3
33
con lo que nos queda F (s) =
0, 5 0, 25 0, 25 + − (s + 1)2 s + 1 s + 3
(83)
Ahora ya podemos anti-transformar y nos queda f (t) = u(t) 0, 5 t e−t + 0, 25 e−t − 0, 25 e−3t
Caso 4: Grados numerador y denominador iguales
(84)
Por u ´ ltimo, supongamos que F (s) tiene la forma pn sn + pn−1 sn−1 + . . . + p0 F (s) = q n sn + q n−1 sn−1 + . . . + q 0
(85)
En este caso, podemos hacer la divisi´on de polinomios y nos quedar´ıa: F (s) =
pn + q n
pn−1 − pqnn q n−1 sn−1 + . . . + p0 − pqnn q 0 q n sn + q n−1 sn−1 + . . . + q 0
(86)
La segunda parte ya sabemos solucionarla con los casos 1-3 y la primera parte tendr´ıa como transformada pq δ (t), as´ı que f (t) ser´ıa pn f (t) = u(t) (87) δ (t) + . . . q n n
n
Con esto acabamos la transformaci´on inversa de Laplace y a continuaci´on veremos dos aplicaciones importantes de la transformada de Laplace.
3.
Aplicaciones de la Transformada de Laplace
Dos de las aplicaciones m´as importantes de la transformada de Laplace para un ingeniero de telecomunicaci´on o electr´onico son la resoluci´on de ecuaciones diferenciales ordinarias y el an´alisis de circuitos con elementos capacitivos y reactivos. A continuaci´on emplearemos las herramientas desarrolladas hasta el momento en estas dos aplicaciones concretas. 3.1.
Resoluci´ on de ecuaciones diferenciales ordinarias
Veremos esta aplicaci´on a trav´ es de un ejemplo y para ello vamos a rescatar el circuito RC del principio del tema dando valores a los elementos como vemos en la figura. Vimos que el circuito deb´ıa responder a la siguiente ecuaci´on diferencial (ya sustituyendo los valores) 6=3
dv c (t) + vc (t) dt
34
(88)
R = 1M Ω !
!
"
(t)
C = 3µF
!
V = 6V
vC (t) "
A partir de la ecuaci´on diferencial, debemos sustituir cada uno de los t´ erminos por su transformada de Laplace. En este caso tendr´ıamos 6 s L{vc (t)} = V c (s) dvc (t) = 3(s V c (s) − vc (0)) = 3 s V c (s) − 3 vc (0) L 3 dt
L{6} =
(89)
Suponiendo que la tensi´on inicial del circuito es nula (vc (0) = 0), la ecuaci´on diferencial se transformar´ıa en el dominio s en 6 = 3 s V c (s) + V c (s) = (3s + 1)V c (s) (90) s que es una ecuaci´on algebraica f´acil de resolver. Aislando V c (s) llegamos a la soluci´on en el dominio de Laplace, que es 6 (91) V c (s) = s(3s + 1) No obstante, nos interesa la soluci´on en el dominio temporal. Como ya sabemos anti-transformar, empezamos por descomponer V c (s) en fracciones simples seg´un 6 6/3 A1 A2 = = + s(3s + 1) s(s + 1/3) s s + 1/3
V c (s) =
(92)
y calculamos los coeficientes como A1 A2
6/3 6/3 = = =6 s(s + 1/3) s s=0 1/3 6/3 6/3 = = = −6 s (s + 1/3) (s + 1/3) s=−1/3 −1/3
As´ı nos queda V c (s) =
(93)
6 6 6 = − s(3s + 1) s s + 1/3
(94)
Finalmente ya podemos pasar al dominio temporal y nos queda 1 3
vc (t) = 6(1 − e− t )
35
(95)
donde comprobamos que la tensi´on en el condensador es 0 inicialmente y ´este se va cargando de forma exponencial hasta igualar la tensi´on de la fuente. Aunque aqu´ı hemos visto la resoluci´on de ecuaciones diferenciales en base a un ejemplo, la forma de proceder sirve para todos los casos. En este ejemplo en particular hemos visto, adem´as, que la resoluci´on de circuitos con condensadores requiere tratar de alg´un modo con ecuaciones diferenciales. Desde el punto de vista de transformada de Laplace, existe un m´ etodo m´as sistem´atico para tratar circuitos que tengan bobinas y condensadores. Es lo que estudiaremos a continuaci´on y con eso cerramos el tema de transformada de Laplace. 3.2.
An´ alisis de circuitos
El an´alisis de circuitos usando transformada de Laplace se podr´ıa plantear de la siguiente manera. Primero podr´ıamos extraer las ecuaciones diferenciales por las que se rigen las tensiones o corrientes en el circuito, luego las podr´ıamos transformar para resolver en el dominio s y una vez encontrada la soluci´on pasar al dominio temporal. No obstante, esta manera de proceder podr´ıa ser complicada y existe un m´etodo m´as sencillo de llevar a cabo el an´alisis de circuitos. Lo que haremos es analizar el circuito directamente en el dominio s aprovech´andonos de que es posible interpretar bobinas y condensadores como si fueran resistencias especiales (a las que llamaremos impedancias). Como ya sabemos analizar un circuito que tenga ´unicamente resistencias, lo ´unico que nos quedar´a ser´a antitransformar la soluci´ on alcanzada, pero tambi´ en es algo que ya sabemos hacer. Transformaci´ on de los elementos
Una resistencia es un elemento o dispositivo que establece una relaci´on proporcional entre la corriente que circula por ella y la tensi´on que hay en sus bornes. Sabemos que la relaci´on tensi´on-corriente en bobinas y condensadores es algo m´as complicada, pues es diferencial. No obstante, esta relaci´o n se puede simplificar en el dominio s y lo que pretendemos es que se parezca lo m´as posible a algo proporcional. Empecemos viendo qu´ e sucede cuando las condiciones iniciales son nulas y luego veremos el caso general. Condiciones iniciales nulas
Estudiemos primero la relaci´on V-I en el condensador cuando vc (0) = 0 (ver la figura). Sabemos que ic t)
! c
t
36
"
la relaci´on temporal es ic (t) = C d vdt(t) . Si transformamos esta relaci´ on al dominio s obtenemos c
I c (s) = C s V c (s)
(96)
y si lo expresamos en forma de tensi´on-corriente nos queda 1 V c (s) = I c (s) Cs
(97)
Precisamente esta relaci´on es la impedancia y se puede entender como una generalizaci´on del concepto de resistencia. Dicho de otra forma, en el dominio transformado podr´ıamos ver al condensador como una “resistencia” cuyo valor es 1/C s y por lo tanto, los mismos m´etodos de an´alisis que us´abamos en circuitos con resistencias en el dominio temporal servir´an en circuitos con condensadores en el dominio transformado. De forma gr´ afica representaremos al condensador como en la figura. I c (s) 1/Cs
!
V c s
"
Analicemos ahora qu´e sucede con una bobina, cuya ecuaci´on V-I es v L (t) = L d idt(t) . Si transformamos esta ecuaci´ on al dominio s suponiendo i L (0) = 0 obtendremos L
V L (s) = L s I L (s)
V L (s) = L s I L (s)
−→
(98)
Ahora la impedancia en el dominio transformado vale L s y por lo tanto podremos tratar una bobina como si fuera una “resistencia” de valor L s. Gr´aficamente representaremos la bobina en ambos dominios como en la figura. I L s
iL t
Ls !
"
!
vL (t)
V L s
"
Condiciones iniciales NO nulas
Si consideramos que las condiciones iniciales pueden ser no nulas, entonces no basta con representar el condensador y la bobina como una impedancia. Hace falta hacer algo m´as. Empezemos viendo qu´e sucede con el condensador. Si v c (0) 6 = 0, entonces (96) pasa a ser I c (s) = C s V c (s) − Cvc (0) 37
(99)
y la relaci´on de proporcionalidad anterior deja de existir. Reescribimos la relaci´on anterior como V c (s) =
I c (s) v c (0) + Cs s
(100)
e identificamos la parte de proporcionalidad como antes a la que se le suma un “o ff set”. Este u ´ ltimo t´ermino lo podemos ver como un generador de las condiciones iniciales y circuitalmente podemos representar al condensador con condiciones iniciales no nulas seg´un se ve en la figura (impedancia + fuente). I c (s)
v (0)/s c
1/Cs
!
"
V (s) c
Otra posibilidad es representar al condensador como una impedancia en paralelo a una fuente de corriente. Para ello empleamos el equivalente Th´evenin-Norton y sabemos que la fuente de corriente (0)/s debe valer la tensi´on de fuente inicial dividida por la impedancia, es decir, v1/C s = C vc (0). De esta forma, conseguimos la representaci´on de la figura. c
!
1
vc (0)
V c (s)
Cs
"
En el caso de la bobina partimos de la relaci´on V L (s) = LsI L (s) − LiL (0) y vemos que ahora el generador de tensi´ o n toma el valor −LiL (0). Aplicando el teorema de Th´ evenin-Norton podemos i (0) pasar a una configuraci´ on compuesta por una fuente de corriente de valor s con la impedancia en paralelo. Vemos ambas posibilidades en la siguiente figura. L
I L (s) LiL (0) !
!
iL (0)
Ls
s
" !
Ls
V L (s)
"
V L (s)
Por u ´ltimo, cabe comentar que las resistencias se mantienen como impedancias de valor R puesto que la relaci´on v R (t) = R iR (t) no cambia en el dominio transformado, donde tenemos V R (s) = R I R (s).
38
Ejemplos de aplicaci´ on Ejemplo1:
Supongamos que queremos analizar el circuito de la siguiente figura y, por ejemplo, nos interesa calcular la evoluci´on de la tensi´on en el condensador. 10Ω
!
i(t)
1 F 10
(t)
C
"
vc (0)
= 20V
Para poder analizarlo directamente en el dominio s como si se tratase de un circuito con resistencias y generadores, debemos transformar primero los elementos. En este caso s´olo hay que transformar el condensador (puesto que la resistencia se mantiene como impedancia de valor 10). Dado que existe una condici´on inicial no nula, el condensador se convierte en una impedancia m´as un generador. El circuito transformado resulta ser el de la figura siguiente. 10 ! 1 Cs
V c (s)
10 s
=
I (s)
! vc
(0)
s
=
20 s
"
Dado que el objetivo era encontrar la tensi´on en el condensador, la identificamos primero en el dominio transformado como vc (0) I (s) V c (s) = (101) − s Cs y una vez hallada la corriente I (s) en el circuito transformado, s´olo nos quedar´a anti-transformar para encontrar el resultado buscado. Ejemplo 2:
Supongamos ahora que queremos analizar el siguiente circuito, donde las condiciones iniciales de la bobina y condensador son no nulas.
39
R1
R2
!
!
vs t
C
C
t
L
L
t
"
Como en el caso anterior, transformamos los elementos para obtener el circuito transformado (ver figura). R1
R2
!
1
Cs
V s (s)
iL (0)
Ls
! vc
s
(0)
s
Una vez transformado, aplicamos las herramientas cl´asicas de an´alisis de circuitos (leyes de Kircho ff , equivalente Th´evenin-Norton, principio de superposici´o n, . . . ) para hallar la tensi´ on o corriente que deseemos encontrar. Por ejemplo, podr´ıamos aplicar el equivalente Th´evenin-Norton para pasar de 3 a 2 mallas como muestra la figura. R1
R2
!
1
Ls
Cs
V s (s)
! vc
(0)
iL (0)L
s
!
Una vez obtenidas las magnitudes deseadas, s´olo nos queda anti-transformar para conocer la evoluci´on temporal de las corrientes y tensiones en el circuito.
40
Tema 3: Funci´ on de Transferencia de un Sistema Antoni Morell y Rosana Rodr´ıguez 18 de marzo de 2014
1.
Definici´ on
La funci´ on de transferencia de un sistema LTI se define como la relaci´on (cociente) entre la transformada de Laplace de la salida o respuesta del sistema Y (s) = y(t) y la transformada de Laplace de la entrada o funci´on excitadora X (s) = x(t) suponiendo condiciones iniciales nulas (sistema en estado cero) y una ´unica excitaci´on. As´ı tenemos
L{ }
L{ }
H (s) =
Y (s) X (s)
(1)
Si convertimos la ecuaci´on anterior a Y (s) = H (s)X (s) y aplicamos la propiedad de convoluci´on para volver al dominio temporal (propiedad 14 del tema 2), obtenemos
L−1{Y (s)} = L−1{H (s)X (s)}
−→
y(t) = h(t) x(t)
(2)
∗
con lo que ya podemos anticipar que, en realidad, la funci´on de transferencia corresponde a la transformada de Laplace de la respuesta impulsional en sistemas lineales e invariantes con condiciones iniciales nulas. En caso de definir el sistema en forma de ecuaci´on diferencial como dn y(t) dn−1 y(t) dy(t) dm x(t) dx(t) bn + bn−1 + . . . + b1 + b0 y(t) = a m + . . . + a1 + a0 x(t), n n m 1 − dt dt dt dt dt
(3)
su transformaci´ on al dominio s (suponiendo condiciones iniciales nulas) nos lleva a
b s n
n
+ bn−1 sn−1 + . . . + b1 s + b0 Y (s) = am sm + am−1 sm−1 + . . . + a1 s + a0 X (s),
(4)
de lo que concluimos que H (s) =
Y (s) am sm + am−1 sm−1 + . . . + a1 s + a0 = X (s) bn sn + bn−1 sn−1 + . . . + b1 s + b0
(5)
Finalmente, llamaremos orden de la funci´ on de transferencia al orden del polinomio que se encuentra en el denominador.
41
Utilidad de la funci´ on de transferencia La funci´on de transferencia nos sirve para caracterizar un determinado sistema de una forma compacta (igual que lo hace su respuesta impulsional) pero, adem´as, nos permite calcular la salida a cualquier entrada de forma habitualmente m´as simple que haciendo la integral de convoluci´on. En otras palabras, es preferible transformar la se˜nal de entrada, hacer el producto con H (s) y finalmente anti-transformar el resultado obtenido que abordar la convoluci´on directamente. Ve´amoslo en un ejemplo muy simple. Consideremos el circuito de la figura siguiente y definamos la entrada vi (t) como la tensi´on de generador y la salida v 0 (t) como la tensi´on en bornes de la resistencia R 2 . 1
!
! i
(t)
0
2
(t)
"
A priori, como se trata de un circuito muy simple, vemos f´acilmente que v0 (t) = R R+R vi (t). No obstante, hagamos un peque˜ no ejercicio acad´emico y abord´emoslo como un sistema gen´erico. Como ya hemos dicho, una opci´on para caracterizar el sistema es obtener su respuesta impulsional. Para ello fijamos v i (t) = δ (t) y obtenemos v0 (t) = h(t) = R R+R δ (t). Ahora, para calcular la salida a cualquier entrada deber´ıamos hacer ∞ ∞ R2 v0 (t) = h(t) vi (t) = h(t τ )vi (τ )dτ = vi (τ ) δ (t τ )dτ (6) R1 + R2 0 0 ∞ R2 R2 = vi (τ )δ (t τ ) = vi (t) R1 + R2 0 R1 + R2 2
1
2
2
1
∗
2
−
−
−
Intuimos en este caso tan simple que el hecho de tener que calcular una integral para nada facilita el c´alculo. Por contra, si calculamos H (s) =
Y (s) obtenemos X (s)
H (s) =
R2 R1 + R2
(7)
Ahora la salida se obtiene haciendo el producto V 0 (s) = H (s)V i (s). Es cierto que har´a falta transformar primero v i (t) y luego anti-transformar V 0 (s), pero normalmente resultar´a menos complejo que integrar directamente. Adem´as, como veremos m´as adelante, el estudio de H (s) nos permite un an´alisis m´as profundo y a la vez simple del sistema.
42
2.
Determinaci´ o n de la Funci´ o n de Transferencia a Partir de las Respuestas al Impulso Unidad y al Escal´ on Unitario
A la pr´actica, determinaremos la funci´on de transferencia de un sistema inyect´andole se˜ nal y midiendo su respuesta, todo ello a nivel temporal. Lo ideal (m´as pr´actico) ser´ıa inyectar al sistema el impulso unitario δ (t), puesto que con s´olo anti-transformar la salida y(t) = h(t) nos valdr´ıa. No obstante, a veces resulta complicado generar un impulso unitario y es mucho m´as pr´actico usar el escal´on unidad. Por ejemplo, si nuestro sistema es un circuito y definimos la entrada al sistema como la tensi´on de generador, entonces aplicar u(t) a la entrada es equivalente a conectar el circuito usando una fuente de tensi´on constante. En cualquiera de los dos casos, es sumamente importante que el sistema se encuentre en estado cero antes de hacer el experimento. Veamos a continuaci´on los dos casos descritos: 1. Si x(t) = δ (t), entonces y(t) = h(t) δ (t) = h(t). En el dominio transformado X (s) = 1 y por lo tanto Y (s) = H (s), con lo que nos basta transformar la salida del sistema a nivel temporal para obtener su funci´on de transferencia.
∗
2. Si x(t) = u(t), entonces y(t) = h(t) u(t). En el dominio transformado X (s) = 1/s y por lo tanto Y (s) = H (s)/s, con lo que H (s) = s Y (s). En este caso, para hallar H (s) deberemos transformar la salida del sistema al dominio s y luego simplemente la multiplicaremos por s.
∗
Ejemplo de aplicaci´ on: Supongamos que para cierto sistema, la respuesta al escal´on unidad en estado 3t
− e− u(t). Encontrar H (s).
cero es y (t) = 1
En este caso transformamos primero y (t) al dominio de Laplace, resultando en Y (s) =
1 s
− s +1 3
(8)
y luego multiplicamos por s para finalmente encontrar la funci´ on de transferencia. As´ı resulta H (s) = s Y (s) = 1
− s +s 3
(9)
Ahora ya podemos conocer la respuesta a cualquier entrada del sistema. Simplemente hay que transformar la entrada al dominio de Laplace, multiplicarla por H (s) y anti-transformar el resultado obtenido.
3.
Diagrama de Zeros y Polos
Como ya vimos en el tema 2, todo polinomio de orden n se puede descomponer, por el teorema fundamental del ´algebra, en n ra´ıces (contando multiplicidades). Cuando H (s) sea una divisi´o n de polinomios en s, es decir, H (s) = N (s)/D(s), entonces podremos expresarla como H (s) = K
(s (s
− z1) . . . (s − z ) − p1) . . . (s − p ) m n
43
(10)
y diremos que n es el grado de la funci´on de transferencia, o sea, el grado del polinomio denominador. Como ya vimos en el tema anterior, llamaremos ceros de H (s) a las ra´ıces del polinomio numerador y polos de H (s) a las ra´ıces del polinomio denominador. Como tambi´en sabemos, s es una variable compleja que descomponemos seg´un s = σ + jω. Llamaremos plano complejo o plano s al plano de dimensi´on 2 que forman todos los valores de s con σ ( , + ) y ω ( , + ). En este plano se representan los ceros de H (s) con un c´ırculo ( ) y sus polos con una cruz ( ). La posici´on de ambos en el plano s, as´ı como el valor de K , es lo que finalmente determina la respuesta del sistema y tambi´en algunas de sus propiedades como veremos en el siguiente apartado.
∈ −∞ ∞
∈ −∞ ∞ ×
◦
Ejemplos de representaci´ on: H (s)
= K (s−sj+2 )(s+j )
H (s)
+3 = K [s−(1+js)][ s−(1−j )]
j ω
j ω
!
!
σ
!
4.
!
σ
Estabilidad
Una de las propiedades fundamentales de cualquier sistema es su estabilidad, pues un sistema inestable pocas veces tendr´a utilidad pr´actica. En este caso son los polos de la funci´on de transferencia quienes determinan si un sistema es estable o no para una entrada cualquiera, siempre que ´esta est´e acotada. Consideremos ahora el sistema de la figura, inicialmente en estado cero, X (s)
H (s)
(s)
donde la salida vale Y (s) = H (s) X (s). Si quisi´eramos volver al dominio temporal para encontrar y(t), deber´ıamos descomponer Y (s) en fracciones simples seg´un ya hemos visto en el tema anterior. Supongamos que el producto H (s) X (s) da lugar a n fracciones simples correspondientes a los n polos de H (s) m´as otras l fracciones simples correspondientes a las l ra´ıces del denomindador de la se˜ nal de
44
entrada X (s). En este caso tenemos Y (s) =
A1 An B1 Bl + ... + + + ...+ s p1 s pn s s1 s sl
−
−
−
−
(11)
Por otro lado, llamaremos componente libre a la respuesta que el sistema genera de manera intr´ınseca pero que no est´a relacionada con la forma temporal de la se˜ nal de entrada y denominaremos componente forzada a la parte de la respuesta que es debida directamente a la entrada, es decir, que comparte su misma forma temporal. Si nos fijamos de nuevo en (11) veremos que ya se ha separado en dos grupos de fracciones simples: i) las correspondientes a las ra´ıces del denominador de H (s) (los polos del sistema) y ii) las correspondientes a las ra´ıces del denominador de la se˜nal de entrada X (s). Si ahora nos plante´asemos pasar al dominio temporal, resulta evidente que el segundo grupo de fracciones simples dar´ıa formas de onda iguales a las de la se˜nal de entrada (modificadas s´olo por el coeficiente Bi correspondiente) mientras que el segundo grupo dar´ıa lugar a formas de onda que el sistema genera por s´ı mismo y que, salvo por los coeficientes A k , no dependen de cu´al es la entrada. Llegados a este punto, disponemos de herramientas suficientes para plantearnos cu´ ando un sistema es estable y cu´ando no. Recordemos del tema 1 que un sistema es estable por definici´on si la salida a cualquier entrada acotada es tambi´en acotada. Teniendo esto en cuenta y volviendo a la expresi´on de Y (s) en (11), vemos claramente que la componente forzada de la respuesta no influye en la estabilidad del sistema, ya que si la entrada es estable, esa parte de la salida tambi´en lo ser´a (los coeficientes son siempre finitos). Por lo tanto, la estabilidad del sistema tiene que venir determinada por la componente libre. Intuitivamente, si un sistema es estable esperaremos que la respuesta libre tienda a desaparecer con el avance del tiempo, es decir, que exista un cierto instante t0 a partir del cual la componente libre sea nula o despreciable y ´unicamente nos quede la respuesta forzada. Siguiendo esta misma idea podemos definir: R´egimen transitorio: intervalo de tiempo en el que la componente libre de la respuesta es ostensible frente a la componente forzada. R´egimen permanente: intervalo de tiempo en el que la componente libre se puede considerar nula o despreciable y queda ´unicamente la parte forzada de la respuesta. Formalmente, diremos que un sistema es estable si la componente libre de la respuesta tiende a cero cuando el tiempo tiende a infinito. Adem´as, como ya se ha visto, un sistema es estable independientemente de la excitaci´on a la que es sometido. A continuaci´on veremos la relaci´on entre la respuesta libre del sistema y su diagrama de ceros y polos. Relaci´ on entre Respuesta Libre y Diagrama de Polos y Ceros A continuaci´on veremos los distintos tipos de polos que podemos encontrar para analizar a continuaci´on su efecto en la respuesta del sistema. a) Polos reales con parte real negativa. 45
Supongamos que tenemos un polo simple en p = α. Entonces, su anti-transformada tendr´a forma de exponencial decreciente, es decir, ser´a del tipo Ae−αt u(t). Vemos que da lugar a una respuesta que se aten´ ua con el tiempo. Incluso si el polo hubiera sido m´ultiple, una respuesta del k −αt tipo At e u(t) tambi´ en se atenuar´ıa con el tiempo puesto que la exponencial decrece siempre m´a s r´apido que el t´ermino tk para un k dado. Vemos tambi´ en que a mayor valor de α (polo m´as negativo) mayor es la velocidad de decrecimiento. Por lo tanto, polos reales con parte real an a que el sistema sea estable . negativa contribuir´
−
b) Polos reales con parte real positiva. Si el polo es real pero positivo sucede justo lo contrario. Si tenemos un polo simple en p = α, ´este dar´a lugar a una respuesta de tipo Aeαt u(t), es decir, crecer´a exponencialmente con el tiempo y como mayor sea el valor de α, tambi´en mayor ser´a su velocidad de crecimiento. Por lo tanto, polos reales con parte real positiva har´ an que el sistema sea inestable . N´otese que una sola contribuci´on de este tipo har´a que el sistema sea inestable. Dicho de otra forma, aunque un sistema tenga 100 polos reales negativos y uno solo de positivo, el sistema ser´a inestable. c) Polos complejo conjugados. Parte real negativa. Supongamos que tenemos un polo complejo conjugado del tipo p = α jω. Como vimos en el tema 2, estos polos generan una respuesta del tipo Ae −αt cos(ωt + φ)u(t) y se trata, por lo tanto, de una cosnoide a frecuencia angular ω cuya amplitud decrece exponencialmente seg´ un e−αt . Como sucede en el caso a), como m´as negativa es la parte real del polo m´as r´ apidamente decrece. Por lo tanto, estos polos contribuir´a n a la estabilidad del sistema.
− ±
Parte real positiva. Consideremos ahora p = α jω. En este caso la respuesta es del tipo Ae αt cos(ωt + φ)u(t) y ahora la amplitud de la cosenoide crece exponencialmente con el tiempo. Por lo tanto, un polo de este tipo fuerza la inestabilidad del sistema.
±
Finalmente, si el polo tiene parte real nula, es decir p = jω, la respuesta ser´a A cos(ωt + φ)u(t), o sea, una cosenoide. En este caso el sistema ser´ıa estable seg´un la definici´on del tema 1 pero la componente libre del sistema no se aten´ua con el tiempo. Es por eso que en este caso diremos que el sistema es estable en sentido amplio o bien marginalmente estable . Lo mismo sucede si el polo fuera real con parte real nula.
±
d) Polos m´ ultiples en el eje imaginario. En este caso tendremos el escal´on multiplicado por t n o bien un coseno multiplicado por t n . Por lo tanto, el sistema ser´a inestable en este caso ya que la respuesta correspondiente a estas ra´ıces crece a infinto, aunque lo haga de forma m´as lenta que la exponencial. Una vez hemos analizado todos los casos, podemos anticipar la condici´on de estabilidad de un sistema mirando u ´nicamente su funci´on de transferencia H (s).
46
Estabilidad / Inestabilidad de un Sistema Podemos clasificar los sistemas seg´un: Sistema estable en sentido estricto: si todos sus polos tienen parte real estrictamente negativa (no 0). Sistema estable en sentido amplio: si todos sus polos tienen parte real estrictamente negativa o bien 0 (en este caso con multiplicidad 1). Sistema marginalmente estable: si tiene al menos un polo con parte real nula (pero ´unicamente con multiplicidad 1). Sistema inestable: si tiene al menos un polo con parte real estrictamente positiva o bien un polo m´ultiple con parte real nula. La figura siguiente muestra, para los distintos tipos de polo, su forma temporal asociada y su condici´ on de estabilidad / inestabilidad.
j ω
!
!
!
!
!
! σ
!
!
!
$%&'()$ +%, $%&-".&/0
"#$%&'()$
$%&'()$ +%, '13)"/0
5.
1'-2"#')1$#&$ $%&'()$
Diagramas de Bode
Los diagramas de Bode son una representaci´on gr´ afica de la respuesta de un determinado sistema a un tipo de entrada muy particular: la cosenoide. Su utilidad pr´actica se pone de manifiesto cuando nos damos cuenta de que las se˜nales con las que trabajan los sistema de comunicaci´on se pueden descomponer como suma de senoides (de diferente amplitud y fase) seg´un la transformada de Fourier (que veremos en el siguiente tema). As´ı pues, conocer la respuesta del sistema a una cosenoide de cualquier frecuencia y fase nos lleva a poder predecir la respuesta del sistema a cualquier se˜nal de entrada. De ahora en adelante, diremos que el sistema trabaja en r´ egimen permanente senoidal cuando a la entrada tiene una senoide que est´a presente desde t = .
−∞
47
5.1.
Respuesta a la cosenoide. La se˜ nal exponencial como autofunci´ o n de los sistemas LTI.
Veamos primero qu´e queremos decir con que la exponencial es autofunci´on de un sistema LTI cualquiera. Pues bien, esto significa que si a la entrada de un sistema LTI inyectamos una se˜nal exponencial x(t) = e st , entonces la salida tambi´en tendr´a la misma forma de exponencial multiplicada por un cierto factor constante al que llamamos autovalor. Esto es v´alido tanto para la transformada de Laplace unilateral como bilateral. No obstante, ya que hasta ahora nos hemos centrado en la transformada de Laplace uniltateral, vamos a considerar el sistema causal como indica la siguiente figura.
x(t)
h(t)
= est
y (t) = est
!"# % &'()'*
En este caso, la salida resulta y(t) = x(t) h(t) =
∗
∞
h(τ )x(t
−∞
− τ )dτ =
∞
h(τ )es(t−τ ) dτ = e st
0
∞
h(τ )e−sτ dτ = e st H (s) (12)
0
Este resultado es interesante por su simplicidad pero tiene un problema desde el punto de vista pr´actico: una se˜ nal exponencial de tipo est con s complejo no es algo demasiado intuitivo ni ´util si no es que la parte real de s sea nula (si es positiva la se˜nal no est´a acotada y si es negativa la se˜nal se desvanece). Por contra, una se˜nal senoidal de tipo cos (ωt + φ), correspondiente a una parte real nula, resulta mucho m´as manejable o interpretable y la salida del sistema a dicha se˜nal nos permite entenderlo mucho mejor ya que nos dice c´omo ´este se comporta ante una determinada frecuencia angular ω. Si utilizamos la f´ormula de Euler, vemos que podemos expresar el coseno como suma de exponenciales seg´ un 1 jω t+φ cos(ωt + φ) = e + e− jω t−φ (13) 2 Ahora podemos encontrar la salida del sistema aplicando el resultado de (12), obteniendo
1 jωt jφ y(t) = e e H ( jω) + e− jω t e− jφ H ( jω) 2
−
(14)
Centr´emonos un momento a ver qu´e vale H ( jω). Empezando con la definici´on de transformada de Laplace, esto es ∗ ∞ ∞ jωτ jωτ ∗ − H ( jω) = h(τ )e dτ = h (τ )e dτ (15)
−
−
0
0
donde hemos conjugado dos veces teniendo en cuenta que en complejos se cumple ( ab + cd)∗ = a ∗ b∗ + c∗ d∗ independientemente del numero de sumandos que haya. Si nos fijamos en la ´ultima expresi´on encontrada y tenemos en cuenta que los sistemas ser´an reales en la pr´actica, es decir h∗ (τ ) = h(τ ), entonces llegamos a H ( jω) = H ∗ ( jω) (16)
−
Por lo tanto, H ( jω) y H ( jω) ser´an iguales en m´odulo y tendr´an fase opuesta, que denotaremos por ψ(ω), por el hecho de ser uno el conjugado del otro. Aplicando esta idea al desarrollo inicial podemos
−
48
ver que 1 jωt jφ y(t) = e e H ( jω) e jψ (ω) + e− jωt e− jφ H ( jω ) e− jψ (ω) = H ( jω ) cos(ωt + φ + ψ(ω)) 2
|
|
|
|
|
(17)
|
Llegamos a la conclusi´on que la salida a una senoide de frecuencia ω y fase φ es otra senoide a la misma frecuencia pero desfasada una cierta cantidad marcada por la fase de H ( jω ) a dicha frecuencia y escalada por el m´odulo de H ( jω ). As´ı pues, nos interesaran estas dos magnitudes y esa informaci´on es lo que representamos gr´aficamente con los diagaramas de Bode de amplitud y fase. 5.2.
Diagrama de Bode de Amplitud y Fase.
Como acabamos de decir, son la representaci´on de H ( jω) y ψ(ω) = ∠H ( jω) en funci´on de la frecuencia angular ω dada en rad/s, aunque tambi´ en se pueden representar en funci´on de la frecuencia natural f dada en Hz, ambas relacionadas seg´ un ω = 2πf . Habitualmente se representa en escala logar´ıtmica tanto el eje de frecuencias como el de amplitudes para ambos diagramas. Esto es interesante para poder representar as´ı en una misma gr´afica un amplio margen de frecuencias (el logaritmo comprime).
|
|
Diagrama de Bode de amplitud En este caso en particular, aplicaremos 10 log10 H ( jω) 2 = 20log10 H ( jω) en el eje de amplitudes para trabajar as´ı en dB (magnitud relativa habitualmente relacionada con medidas de potencia o intensidad). La raz´on principal es que los distintos t´ erminos de H ( jω) que est´an multiplicando y dividiendo pasan a sumar y restar dadas las propiedades del logaritmo. Es decir, si representamos ( jω ) H ( jω) como H ( jω) = K N , entonces D ( jω )
|
|H ( jω)|2
dB =
|
|
|
20 log10 H ( jω) = 20 log10 K + 20 log10 N ( jω)
|
|
| |
|
| − 20log10 |D( jω)|
(18)
Diagrama de Bode de fase En este caso representaremos la amplitud en lineal pues la escala ir´a entre 0 y 2π. En general, el diagrama de Bode es una herramienta para ver el comportamiento de un sistema de verdad con se˜ nales de verdad y de una forma r´apida. Adem´as, nos permite incluso reconstruir la funci´on de transferencia del sistema si es necesario. Aunque gracias a las herramientas inform´aticas existentes en la actualidad resulta relativamente f´ acil dibujar el diagrama de Bode de un sistema, tambi´ en veremos c´omo hacer una representaci´ on asint´otica (no exacta) de ´este (aplicado a circuitos) de forma f´acil y sin necesidad de ordenadores. No obstante, antes de eso veremos c´omo son los diagramas de Bode de algunos sistemas muy b´asicos, ya que m´as tarde los combinaremos para obtener los diagramas de sistemas m´as complejos. Casos b´ asicos 1. H ( jω) = K (constante). Este caso es muy elemental y tenemos
|H ( jω)|2
dB =
20 log10 K
∠H ( jω)
| | 49
= 0 rad ω
∀
(19)
∠H ( j ω )
20log10 |H ( j ω )|
20log10 |K |
1 −1 0 10 0 10
2
0
10
3
10
log10 ω
4
1 2 −1 10 10 10 0 10
3
10
10
4
log10 ω
que corresponde a 2. H ( jω) = K/jω. En este segundo caso, el diagrama de Bode de amplitud responde a
|H ( jω)|2
dB =
20 log10 H ( jω) = 20 log10
|
|
K = 20log10 K ω
| | − 20log10 ω
(20)
lo que corresponde a una recta con pendiente negativo (ojo, con ω en escala logar´ıtmica). ¿Qu´e sucede si pasamos de una frecuencia ω0 a una 10 veces mayor, es decir, 10 ω0 ? (Nota: Este salto entre una frecuencia ω0 y otra 10 veces superior es lo que llamamos d´ ecada.) Queda claro que para ω 0 tendr´ıamos el resultado de (20) si sustituimos ω por ω 0 . Para 10ω0 tendr´ıamos
|H ( j10 ω0)|2
dB
K | | (21) 10 ω0 20 l og10 |K | − 20log10 ω0 − 20log10 10 = 20 log10 |K | − 20log10 ω0 − 20
= 20 l og10 H ( j10 ω0 ) = 20 log10 =
Se trata pues de una recta de pendiente -20 dB/d´ecada, o sea, entre una frecuencia cualquiera y una frecuencia 10 veces superior a la primera caen 20 dB. El diagrama de Bode de fase se encuentra a partir de ∠H ( jω)
= ∠ numerador
− ∠ denominador = tan−1 K 0 − tan−1 ω0 = 0 − π2 ∀ω
As´ı pues, el diagrama de Bode para este segundo caso resulta ser
50
(22)
∠H ( j ω )
20log10 |H ( j ω )| 20log10 |K |
ω0
0
−1
10
1
0
2
10
3
10 ω0 10
log10 ω
4
−1 10
1
10
2
3
10
0
log10 ω
4
10
π
20 dB
−
2
3. H ( jω) = jKω. En este caso, el diagrama de Bode de amplitud es
|H ( jω)|2
dB =
20 log10 H ( jω) = 20 log10 Kω = 20 log10 K + 20 log10 ω
|
|
| |
(23)
y si multiplicamos la frecuencia por 10 tenemos
|H ( j10 ω)|2
dB =
20 log10 K 10 ω = 20 log10 K + 20log10 ω0 + 20
| |
(24)
| |
Se trata entonces de una recta con pendiente +20 dB/d´ ecada. El diagrama de Bode de fase responde a ∠H ( jω)
= tan−1
K ω π = 0 2
∀ω
(25)
En resumen, tenemos ∠H ( j ω )
20log 10 |H ( j ω)| 20 dB
π
2 20log10 |K | −1 10
1
10
2
10
ω0
10 ω0
−1 10
log10 ω
1
10
2
10
3
10
4
10
log10 ω
4. H ( jω) = K/( jω)n . En este ´ultimo caso el diagrama de Bode de amplitud es
|H ( jω)|2
dB =
20 log10 H ( jω) = 20 log10
|
|
51
K = 20 log10 K ωn
| | − 20n log10 ω
(26)
que corresponde a una recta de pendiente -20n dB/d´ecada. El diagrama de fase responde a ∠H ( jω )
=0
− ∠( j
n
−n π2
ωn ) =
y por lo tanto cada incremento de n corresponde a un incremento de En resumen, tenemos
(27)
π
− 2 en la fase.
∠H ( j ω )
20 log10 |H ( j ω)| 20 log10 |K |
−1 10
ω0 10 ω0
−1 10
3
10
4
10
2
10
3
10
4
og10 ω
10
log10 ω π
20n dB
5.3.
1
10
−n
2
Obtenci´ on del Diagrama de Bode de un Circuito
Veremos c´omo obtener el diagrama de Bode de un circuito a trav´es del estudio de un ejemplo sencillo: un circuito RC como el de la figura, donde la tensi´on de generador se define como la entrada y la tensi´on del condensador como la salida del sistema. Podemos ver tambi´ en el circuito equivalente seg´un Laplace, que usaremos para encontrar la funci´on de transferencia del sistema.
!
!
vi (t)
C
!
!
1
V i s)
v0 (t)
V 0 s)
s C
"
"
Lo primero que debemos hacer es calcular H ( jω), es decir, H (s) de tensi´on, encontramos f´acilmente
s= jω
. Utilizando la f´ormula del divisor
1
V 0 (s) =
V i (s) V i (s) = 1 1 + sRC + R Cs
Cs
y de aqu´ı V 0 (s) H ( jω) = V i (s)
s= jω
52
=
1 1 + jωRC
(28)
(29)
Por lo tanto, el diagrama de Bode de este circuito ser´a la representaci´on gr´ afica de
|H ( jω)|2
dB =
20 log10
√ 1+(1
∠H ( jω )
ωRC )2
− tan−1 ωRC
=
(30)
Para dibujar ambas funciones de forma f´ acil y sin necesidad de soporte inform´atico, usaremos la aproximaci´ on asint´ otica del diagrama de Bode. Para ello calcularemos dos as´ıntotas especiales: As´ıntota de baja frecuencia Cuando ω es muy peque˜no, el t´ermino jωRC del denominador se puede despreciar frente al 1. Es por eso que aproximamos H ( jω) 1 y por lo tanto las funciones a representar (amplitud y fase) son
≈
|H ( jω)|2
dB =
20 log10 1 = 0 dB
∠H ( jω)
= tan−1 10 = 0 rad
(31)
As´ıntota de alta frecuencia En cambio, cuando ω es suficientemente grande el 1 del denominador se puede despreciar frente 1 al t´ermino jωRC , por lo que la funci´on se puede aproximar ahora por H ( jω ) y las jω RC funciones a representar en el diagrama de Bode son
≈
1 = 20log10 ωRC dB ωRC −1 0 tan−1 ωRC = π rad ∠H ( jω) = tan 1 0 2
|H ( jω)|2
dB =
20 log10
(32)
−
−
−
Si juntamos ambas aproximaciones en una misma gr´afica obtenemos
20log10 |H ( j ω)| ωc
−3
∠H
= 1/RC
ωc
log10 ω
dB
jω = 1/RC
log10 ω
−π/2
−20 dB/d´ecada
π
−
2
donde vemos en trazo negro el diagrama de Bode asint´otico y en trazo rojo el diagrama real. Vemos en la figura que se ha marcado una frecuencia en particular, la frecuencia de corte o ω c . Esta frecuencia es el punto de corte (en ampitud) entre las as´ıntotas de alta y baja frecuencia, es decir 2
1 =
1 RCωc
2
−→ 53
ωc =
1 RC
(33)
En esa frecuencia, adem´as, sabemos que el diagrama de Bode en amplitud real est´a 3 dB por debajo del asint´otico y que el diagrama de Bode en fase real tiene una fase de π/4 en ese punto. Podemos comprobarlo haciendo 1 H ( jω) ω= = (34) 1 + j RC
y por lo tanto
|H ( jω)|2
dB =
1 20 log10 √ = 2
1
−3 dB
∠H ( jω)
=0
− tan−1 11 = − 4 rad π
(35)
Visto esto, el mensaje es que una vez dibujado el diagrama de Bode asint´otico y conociendo la frecuencia de corte ω c , dibujar una buena aproximaci´on del diagrama de Bode real no resulta dif´ıcil. An´ alisis frecuencial de sistemas m´ as completos Consideremos ahora el siguiente circuito con R = 21Ω, L = 1H y C = 1/20C.
!
!
vi (t)
C
v0 (t) "
En este caso, el an´alisis en el dominio de Laplace nos da la siguiente funci´on de transferencia H (s) =
20/s 20 20 1 = 2 = = s 21 + s + 20/s s + 21s + 20 (s + 1)(s + 20) (s + 1) 20 + 1
(36)
Vemos que hemos expresado dicha funci´on en t´erminos del tipo (1 +a s). En este caso s´olo ha sido en el denominador, pero si el numerador tuviera grado mayor que uno, har´ıamos lo mismo. La raz´ on de esto es que intentamos reproducir lo visto en el circuito RC donde H (s) = 1/1+ RCs para poder aprovechar los resultados ya vistos. Calculemos pues la respuesta frecuencial de este circuito considerando dicha descomposici´on como 1 H ( jω) = (37) ω (1 + jω) 1 + j 20
Ahora podemos calcular el diagrama de Bode de amplitud como
|H ( jω)|2
dB =
y el de fase como
20 log10
(1 + jω)11 + j ∠H ( jω)
ω
20
=∠
= 20 log
10
1 (1 + jω) + 20 log
1 1 +∠ ω 1 + jω 1 + j 20
54
10
1 1 + j
ω
20
(38)
(39)
de forma que los t´ erminos que aparecen ya los hab´ıamos visto en el circuito RC. Para dibujar el diagrama de Bode lo haremos por partes. Por ejemplo, en amplitud sabemos que a partir de la frecuencia angular 1 rad la respuesta decae a raz´on de 20 dB/d´ecada debidos al primer polo. Como el segundo polo provoca otra pendiente de -20 dB/d´ecada a partir de la frecuencia angular 20 rad, en total tendremos -40 dB/d´ecada. Adem´as, si los polos est´an lo suficientemente alejados, los -3 dB en la frecuencia de corte siguen siendo v´alidos. En fase tendremos un primer polo que provoca un desfase de π/2 rad y un segundo polo que provoca un desfase adicional de otros π/2 rad. Podemos ver todo lo dicho en la siguiente figura.
−
−
∠H ( j ω )
20log 10 |H ( j ω)| 20
1
log10 ω
3 dB
log10 ω
−π /4
20 dB/d´ecada −3
20
1
−π /2
dB
-40 dB/d´ecada
−π
odulo y fase de la siguiente funci´o n de Ejemplo de aplicaci´ on: Dibujar el diagrama de Bode de m´ transferencia H (s) = 4
s+2 (s + 1)(s + 3)
(40)
Lo primero que debemos hacer es expresar la respuesta frecuencial de la forma adecuada, haciendo 1 + j ω2 jω + 2 8 H ( jω) = 4 = ( jω + 1)( jω + 3) 3 (1 + jω)(1 + j ω3 )
(41)
Para facilitar m´ as las cosas, podemos descomponer H ( jω) en t´ erminos de los que ya sabemos como hacer el diagrama de Bode, es decir H ( jω) =
8 ω 1 (1 + j ) 3 2 1 + jω
·
·
1 · 1 + j
ω
3
= H 1 ( jω ) H 2 ( jω) H 3 ( jω) H 4 ( jω)
·
·
·
(42)
Analicemos cada uno de los t´erminos: 1. H 1 ( jω) =
8 3
Este t´ermino nos dar´a una amplitud constante de 20 log10
8 3
= 8, 52 dB y una fase de 0 rad.
2. H 2 ( jω) = 1 + j ω2 Este t´ermino contribuir´ a en amplitud con una recta de pendiente +20 dB/d´ecada a partir de su frecuencia de corte, que en este caso es ωc = 2, y con una fase que pasar´a de 0 rad a π/2 rad.
55
3. H 3 ( jω) = 1 + jω Este t´ermino contribuir´a en amplitud con una recta de pendiente -20 dB/d´ecada a partir de su frecuencia de corte, que en este caso es ω c = 1, y con una fase que pasar´a de 0 rad a π/2 rad.
−
4. H 4 ( jω) = 1 + j ω3 De forma semejante al anterior, este t´ermino contribuir´ a en amplitud con una recta de pendiente -20 dB/d´ecada a partir de su frecuencia de corte, que en este caso es ω c = 3, y con una fase que tambi´en pasar´a de 0 rad a π/2 rad.
−
Una vez hecho este an´alisis, dibujamos en el siguiente gr´afico el diagrama de Bode asint´otico de los distintos t´erminos solapando unos con otros. 20 log10 |H ( j ω )|
∠H ( j ω )
+20 dB d´ecada
8, 52dB π
2
,
2
1
log10 ω
−6 dB −9
2 3
log10 ω
54dB
−20 dB d´ecada
−π/2
Finalmente, dibujamos el diagrama de Bode asint´ otico del conjunto y a partir de este aproximamos el diagrama de Bode del sistema tal y como aparece en la figura siguiente. ∠H ( j ω )
20log10 |H ( j ω)| 8, 52dB
2
,
−20 B
52dB 1
2
3
1
´eca a
2
3
log10 ω
log10 ω
−π 2
56
Tema 4: La Transformada de Fourier Antoni Morell y Rosana Ro dr´ıguez 22 de mayo de 2014
1. 1.1.
Definici´ on de la transformada de Fourier Recordatorio: Autofunciones y autovalores de la ecuaci´ on de convoluci´ on
En el Tema 3 vimos que la se˜nal x(t) = e st era autofunci´ on de la ecuaci´on de convoluci´on. Esto es, si la entrada a un sistema caracterizado por h(t) es x(t) = e st , entonces la salida es y(t) = H (s)est , donde H (s) es lo que llamamos autovalor.
x(t)
y (t)
h t /H s
= est
= x(t) ∗ h(t) = H (s)est
Verifiqu´emoslo de nuevo, ∞
y(t) =
∞
x(t − τ )h(τ )dτ =
−∞
s(t−τ )
e
h(τ )dτ = e
st
−∞
∞
e−sτ h(τ )dτ = H (s)est
(1)
−∞
∞
donde identificamos H (s) = −∞ e−sτ h(τ )dτ , que se corresponde con la transformada (bilateral) de Laplace de h(t). En este caso se llama bilateral porque integramos desde −∞ y no de 0, pero coinciden para sistemas causales (los que nos interesan) ya que h(t) = 0 para t < 0. Recordemos que s es una variable compleja con parte real σ y parte imaginaria ω , es decir, s = σ + jω y que gracias a la transformada de Laplace pod´ıamos traba jar con las se˜ nales y sobretodo con los sistemas en el dominio s de forma m´ as simple que directamente en el dominio temporal. Ahora nos preguntamos si particularizando s de forma que σ = 0, o sea, haciendo s = j ω podr´ıamos hacer algo parecido. La transformaci´ on resultante se llama transformada de Fourier y es lo que estudiaremos en este tema, ya que tiene sus particularidades con respecto la transformada de Laplace. La transformada de Fourier estar´a asociada a frecuencia, ya sea angular ω medida en rad/s o bien frecuencia f medida en Hz o s −1 , siendo ω = 2πf .
Bajo esa nueva idea tendremos
∞
H (w) =
e− jωτ h(τ )dτ
(2)
−∞
como la transformada de Fourier de h(t) y, de la misma manera que antes, y(t)|x(t)=ejωt = H (w)e jw t. Intuitivamente, dado que e jωt es una se˜ nal de tipo senoidal, la transformada de Fourier nos ser´a u ´til
57
cuando sea posible expresar la se˜nal de entrada como suma (integral) de senoides, es decir, si x(t) = jω i t . Entonces la salida se determinar´ a f´ acilmente como y (t) = ai H (ωi )e jω i t . i ai e A partir de este momento, trabajaremos con frecuencia f (es lo mismo pero quiz´a un poco m´as c´ omodo), as´ı que de ahora en adelante escribiremos la transformada de Fourier como
∞
H (f ) =
e− j2πf τ h(τ )dτ
(3)
−∞
1.2.
La transformada de Laplace versus la transformada de Fourier
Si planteamos la transformada de Fourier como una particularizaci´on de la transformada de Laplace, inmediatamente nos surge la pregunta: ¿Por qu´ e es necesaria esta nueva transformaci´on? ¿No vale s´olo con la de Laplace? En primer lugar, est´a claro que la transformada de Laplace es m´as gen´ erica. Desde el punto de vista de se˜ nales y sistemas, esto tiene las siguientes ventajas: Permite transformar un mayor n´ umero de se˜ nales. Por ejemplo, como veremos m´as adelante, la transformada de Fourier no nos permite transformar se˜ nales que no decaen en el tiempo (las se˜ nales peri´odicas s´ı, pero como veremos, son un caso especial). Es decir, habr´a se˜ nales como por ejemplo x(t) = t u(t) que no se pueden transformar con Fourier ya que la integral no converge. El hecho de trabajar en dos dimensiones nos aporta m´as informaci´ on. En otras palabras, con la transformada de Fourier no podremos estudiar el sistema desde el punto de vista de polos y ceros como hemos hecho con Laplace. En cambio, cuando la transformada de Fourier aplique, nos beneficiamos de: Mayor simplicidad en la transformaci´ on. Mayor facilidad para trabajar en el dominio transformado, ya que tenemos m´as propiedades (herramientas) que emplear. M´as f´acil de interpretar ya que s´olo tenemos una dimensi´on. De hecho, ya lo hemos visto en los diagramas de Bode, donde se particularizaba para s = jω. En general, podemos afirmar que la transformada de Laplace ser´a m´as u ´ til en el estudio de sistemas y, por contra, la transformada de Fourier ser´a m´as u ´ til en el an´alisis de se˜ nales. Fij´emonos que la transformada de Laplace trata problemas de valor inicial (se fijan las condiciones iniciales) y esto ya nos va bien des del punto de vista de sistema. En se˜nales esto no es as´ı. Por ejemplo, no podemos fijar un valor inicial a la se˜nal x(t) = A cos ω0 t ya que se extiende en todo t. En Fourier, a cambio de trabajar en r´egimen p ermanente senoidal, esto es posible.
1.3.
Definici´ on formal
Tal y como hemos anticipado en (3), la transformada de Fourier de una se˜nal, digamos x(t) y que denotaremos X (f ) = F{x(t)}, se define como +∞
X (f ) =
x(t)e− j2πf t dt
−∞
58
(4)
y desde nuestro punto de vista, debemos interpretarla como una transformaci´on que nos dice cu´al es el contenido frecuencial de la se˜nal, es decir, cu´al es la contribuci´on de una determinada frecuencia f 0 a la se˜ nal x(t). Intuitivamente, fij´emonos que para encontrar X (f )|f =f 0 = X (f 0 ), multiplicamos primero x(t) por e− j2πf 0 t y luego integramos para todo t. Lo que estamos haciendo con esto es “comparar” la se˜ nal x(t) con un tono puro a f 0 (coseno en parte real y seno en parte imaginaria). Si se parecen mucho, X (f 0 ) tomar´ a un valor grande y en cambio, si no se parecen, el valor ser´a bajo. A continuaci´on se muestran dos grupos de condiciones que son suficientes (aunque no necesarias) para que exista X (f ) (con un solo grupo hay suficiente): 1. x(t) es de cuadrado integrable, es decir 2. Condiciones de Dirichlet:
+∞ 2 −∞ |x(t)| dt
x(t) es absolutamente integrable, es decir
< ∞.
+∞ −∞ |x(t)|dt
< ∞.
x(t) debe tener un n´ u mero de m´aximos y m´ınimos finito dentro de un intervalo finito. Contraejemplo: x(t) = sin 2π t en el intervalo t ∈ [−0,5, 0,5]
1 0.8 0.6 0.4 0.2 0 −0.2 −0.4 −0.6 −0.8 −1 −0.5
0
0.5
x(t) debe tener un n´umero de discontinuidades finitas dentro de un intervalo finito. Contraejemplo: x(t)
!"#
$"%
&"'
!
Esta funci´on est´a definida para t ∈ [0, 1] y vale x(t) = 1 para t ∈ [0, 1/2] y x(t) = n 1 2 n −1 t ∈ [ 2 2n −1 1 , 2n ] con n ∈ N, n > 1. −
−
59
1 2n
−1
para
1.4.
La transformada inversa de Fourier
Dada la se˜ nal en el dominio frecuencial X (f ), la transformada inversa de Fourier, que denotaremos x(t) = F −1 {X (f )}, se define como +∞
x(t) =
X (f )e j2πf t df
(5)
−∞
y nos permite recuperar la se˜nal temporal. Para comprobarlo, calculemos primero +∞
j2πf t
e
+∞ j2πf t df . −∞ e
W
df =
l´ım
W →∞
−∞
=
l´ım
W →∞
j2πf t
e
El c´alculo es el siguiente
df = l´ım
W →∞
−W
e j2πf t j2πt
W
(6)
−W
sin2πW t = l´ım [2W sinc(2W t)] = δ (t) W →∞ πt
donde vemos que la suma de todos los tonos posibles (de cualquier frecuencia) da como resultado una delta. A partir de aqu´ı, podemos decir +∞
h(t) = T [δ (t)] = T [
j2πf t
e
df ] =
−∞
si el sistema es lineal
+∞
=
T [e j2πf t ]df
(7)
−∞
Es decir, de la misma forma que la integral de convoluci´on era una combinaci´on lineal de infinitas respuestas a deltas desplazadas, ahora buscamos la respuesta a una suma (infinita) de se˜nales exponenciales. Pero ya hemos visto antes que la exponencial es una autofunci´on del sistema, es decir T [e j2πf t ] = H (f )e j2πf t , as´ı que nos queda +∞
h(t) =
H (f )e j2πf t df
(8)
−∞
llegando entonces a la definici´on de la transformada inversa de Fourier.
2.
Transformada de se˜ nales b´ asicas 1. Transformada de δ (t): +∞
F{δ (t)} =
− j2πf t
δ (t)e
+∞
dt =
−∞
δ (t)dt = 1
(9)
−∞
De forma compacta, escribiremos las transformadas como x(t) ←→ X (f ). As´ı pues, para este caso nos queda: δ (t) ←→ 1 (10) 2. Transformada de δ (t − t0 ): +∞
F{δ (t − t0 )} =
−∞
− j2πf t
δ (t − t0 )e
+∞
dt =
−∞
60
δ (t − t0 )e− j2πf t0 dt = e − j2πf t0
(11)
Si lo expresamos como m´odulo y fase, vemos que X (f ) = |X (f )|e jϕ X (f ) = 1 e j(−2πt0 f ) . Por lo tanto se trata de una se˜ nal en frecuencia de m´odulo constante 1 y de fase lineal con pendiente −2πt 0 . De forma compacta escribimos: δ (t − t0 ) ←→ e− j2πf t0
(12)
3. Transformada de la se˜ nal constante x(t) = A: +∞
F{A} =
− j2πf t
Ae
T
dt = A l´ım
T →∞
−∞
− j2πf t
e
dt = Aδ (f ),
−T
(13)
donde la integral se calcula tal y como hemos visto para la transformada inversa. Fij´emonos que existe una cierta “dualidad” en la transformada de Fourier: la transformada de la delta es una constante y la de una constante es una delta. De forma compacta escribimos: A ←→ Aδ (f )
(14)
4. Transformada de h(t) = e −αt u(t) con α > 0 (en caso contrario la integral no converge): −αt
F{e
+∞
u(t)} =
−αt
e
−∞ +∞
=
u(t)e
− j2πf t
−( j2πf +α)t
e
dt =
0
+∞
dt =
−∞ e−(α+ j2πf )t
−(α + j2πf )
Si descomponemos en m´odulo y fase obtenemos
|H (f )| =
1
α2 + (2πf )2
,
e−( j2πf +α)t u(t)dt
ϕH (f ) = − arctg
|H (f )|
+∞
=
0
(15)
1 α + j2πf
2πf α
(16)
ϕH (f )
α
!"# √ 1
2α
f $!"# α
−2
π
α
2π
f
Como vemos, se trata de un filtro paso-bajo. Fij´emonos, adem´ as, que H (f ) es una funci´on herm´ıtica, es decir H (f ) = H ∗ (−f ). Esto quiere decir que la parte real es una funci´on par y la parte imaginaria impar, o bien, como vemos en las gr´aficas, que el m´odulo es una funci´on par y la fase una funci´on impar. De forma compacta escribimos: e−αt u(t) ←→
61
1 α + j2πf
(17)
5. Transformada de h(t) = e −α|t| (tambi´en con α > 0): −α|t|
F{e
+∞
} =
−α|t| − j2πf t
e
e
0
dt =
−∞
=
(α− j2πf )t
e
+∞
dt +
−∞
e−( j2πf +α)t dt
(18)
0
1 1 2α + = 2 α − j2πf α + j2πf α + (2πf )2
En este caso, el m´odulo tiene una forma parecida al caso anterior pero con un decaimiento m´as r´apido, ya que para f = α/2π el m´o dulo decae a la mitad de su m´aximo. En cambio, la fase permanece constante a 0 ◦ ya que la transformada es real. Fij´ emonos que hemos pasado de una se˜ nal real y par en el dominio del tiempo a otra tambi´en real y par en el dominio frecuencial. De forma compacta escribimos: e−α|t| ←→ t T
6. Transformada de x(t) = AΠ
F A Π
t T
2α α2 + (2πf )2
(19)
(20)
:
+∞
=
t e− j2πf t dt = T
A Π
−∞
e− j2πf t = A − j2πf
+T /2
−T /2
+T/2
A Π
−T /2
t e− j2πf t dt = T
e− j2πfT/2 − e j2πfT/2 = A = − j2πf
AT sin πf T = AT sinc(f T ) πf T
=
Aqu´ı volvemos a ver como una se˜nal real y par se convierte en otra tambi´ en real y par, por lo que con solo representar la parte real ser´a suficiente. Alternativamente, podemos representar el m´odulo (valor absoluto de la sinc) y la fase (que tomar´a valores 1 ´o -1). En este caso, adem´as, observamos como a medida que x(t) se ensancha en tiempo, X (f ) se estrecha en frecuencia y viceversa. x(t)
X (f ) !" !
%"#$
"#$ 1
2
T
T
f
De forma compacta escribimos: AΠ
t T
←→ AT sinc(f T )
62
(21)
3.
Propiedades de la transformada de Fourier
Son extremadamente u ´ tiles ya que nos proporcionan una serie de herramientas que nos ayudaran enormemente en el an´alisis frecuencial de los sistemas. Veremos un total de 11 propiedades, algunas de las cuales ya nos han salido en transformada de Laplace. No obstante, en transformada de Fourier tenemos alguna m´as, lo que se traduce en m´as posibilidades para el an´alisis. 1. Linealidad: Partimos de x1 (t) ←→ X 1 (f ) x2 (t) ←→ X 2 (f ) Entonces se cumple que α1 x1 (t) + α2 x2 (t) ←→ α1 X 1 (f ) + α2 X 2 (f ) lo cual se comprueba f´acilmente a trav´es de la definici´on de la transformada de Fourier y viene dado por el hecho de que la integral es una operaci´on lineal. 2. Simetr´ıas: Vemos dos tipos de simetr´ıa b´asicos en la transformada de Fourier, que son: a ) La transformada de Fourier conserva la paridad, es decir
x(t) es par ←→ X (f ) es par x(t) es impar ←→ X (f ) es impar Comprobaci´ on: en el caso de x(t) par, partimos de la definici´on de X (f ) =
y calculamos X (−f ) teniendo en cuenta que se cumple x(t) = x(−t), +∞
X (−f ) =
x(t)e− j2π(−f )t dt =
−∞
−∞
= −
+∞
x(−t)e− j2πf (−t) dt =
−∞
+∞ − j2πf t dt −∞ x(t)e
t′
= −t dt′ = −dt
=
′
x(t′ )e− j2πf t dt′ = X (f )
+∞
b ) Adem´ as, se cumple tambi´en
x(t) es real ←→ X (f ) es herm´ıtica x(t) es imaginaria ←→ X (f ) es antiherm´ıtica Aclaraci´ on:
X (f ) es herm´ıtica si se cumple X (f ) = X ∗ (−f ), es decir, que tiene parte real par y parte imaginaria impar. Tambi´ en podemos decir que tiene m´odulo par, | X (f )| = |X (−f )|, y fase impar, ϕ X (f ) = −ϕX (−f ). X (f ) es antiherm´ıtica si se cumple X (f ) = − X ∗ (−f ), es decir, que tiene parte real impar y parte imaginaria par. Alternativamente, podemos decir que el m´odulo |X (f )| es par, |X (f )| = |X (−f )|, y la fase cumple ϕ X (f ) = −ϕX (−f ) + π. 63
´ Estas dos son las simetr´ıas b´asicas que existen, pero tambi´en las podemos combinar, por ejemplo: a ) x(t) es real y par −→ X (f ) es real y par Comprobaci´ on: Por ser x(t) par, podemos afirmar que X (f ) = X (−f ). Por ser x(t) real,
podemos afirmar que X (f ) = X ∗ (−f ). Juntando ambas, tenemos que X (f ) debe ser par en parte real e impar en parte imgainaria y adem´as debe ser par (tanto en parte real como en parte imaginaria). La u ´nica opci´on para cumplir ambas condiciones es que Im {X (f )} = 0 y por lo tanto debe ser una se˜nal real (y par, por supuesto). b ) x(t) es real e impar −→ X (f ) es imaginario puro e impar
3. Retardo: Partimos de la relaci´on x(t) ←→ X (f ) y aplicamos un retardo t 0 a la se˜ nal temporal. Entonces obtenemos la siguiente relaci´ on: x(t − t0 ) ←→ e− j2πf t0 X (f )
(22)
Comprobaci´ on: +∞
F{x(t − t0 )} =
= e
−∞
x(t − t0 )e
− j2πf t0
+∞
− j2πf t
dt =
t′
= t − t0 dt′ = dt
+∞
=
′
x(t′ )e− j2πf (t +t0 ) dt′
−∞
′
x(t′ )e− j2πf t dt′ = e − j2πf t0 X (f )
−∞
Por lo tanto, un retardo conserva el m´odulo de la se˜ nal pero a˜ nade una fase linial en f de valor −2πt 0 f . 4. Cambio de escala: Partimos de la relaci´ on x(t) ←→ X (f ) y aplicamos un escalado por a a la se˜nal temporal. Entonces obtenemos la siguiente relaci´on:
1 f x(at) ←→ X a |a|
(23)
Comprobaci´ on: directamente a trav´ es de la definici´on como en el caso del retardo. Con este resultado se extiende la observaci´o n que hemos hecho para el pulso rectangular a cualquier se˜ nal, es decir, un estrechamiento en tiempo supone un ensanchamiento en frecuencia y viceversa. 5. Teorema de convoluci´ on: Es muy u ´ til (como ya hemos visto en Laplace) y nos dice y(t) = x(t) ∗ h(t) ←→ Y (f ) = X (f ) · H (f ),
(24)
o sea, la convoluci´on de dos se˜ nales en el dominio temporal se traduce en el producto de ambas se˜ nales en el dominio transformado. N´otese que resulta mucho m´as f´acil hacer un producto que una convoluci´on. 64
Comprobaci´ on:
Teniendo en cuenta que x(t) = +∞
y(t) = T [x(t)] = T
+∞ j2πf t df −∞ X (f )e
j2πf t
X (f )e
−∞
=
la exponencial es autofunci´on del sistemal
Por otro lado, tenemos que
df =
si el sistema es lineal
+∞
=
+∞
=
X (f )T e j2πf t df
−∞
X (f )H (f )e j2πf t df
−∞
+∞
y(t) =
Y (f )e j2πf t df,
−∞
con lo que, identificando t´erminos en las dos expresiones anteriores, llegamos a la conclusi´on que Y (f ) = X (f )H (f ). 6. Dualidad: Partimos de la relaci´on x(t) ←→ X (f ) y nos preguntamos cu´al es la transformada de Fourier de una se˜ nal que en tiempo tenga la forma de X (f ). Llegamos entonces al siguiente resultado: x(t) ←→ X (f ) X (t) ←→ x(−f )
(25)
Es decir, si cogemos X (f ) y la reinterpretamos como una se˜ nal temporal X (t), entonces su transformada tiene la misma forma que x(t) pero girada, esto es, x(−f ). Comprobaci´ on:
Hay que ver que transformar x(t) nos da la misma se˜nal que antitransformar x(−f ). Nos fijamos en la forma de la se˜ nal, indpendientemente de si la variable es t o f . La primera transformaci´ on es inmediata, y cambiaremos la variable f por α para no confundirnos, esto es +∞
F{x(t)} =
− j2πf t
x(t)e
+∞
dt −→ {α = f } −→ X (α) =
−∞
x(t)e− j2παt dt
(26)
−∞
Ahora antitransformamos x(−f ), cambiando t por α como antes, esto es +∞
−1
F {x(−f )} =
−∞ +∞
=
j2πf t
x(−f )e
+∞
df −→
x(−f )e j2πf α df = {f ′ = −f } (27)
−∞
′
x(f ′ )e− j2πf α df ′ = X (α)
−∞
Vemos, pues, que ambas se˜nales son id´ enticas. Es muy importante, en este caso, no dar sentido f´ısico a las variables f y t, s´olo sentido matem´atico como variables. Ejemplo de aplicaci´ on: calcular la transformada de Fourier de x(t) = sinc(W t).
En este caso p odemos usar dualidad ya que sabemos que la transformada de un pulso rectangular t es una sinc, o sea, Π W ←→ W sinc(f W ). As´ı pues, tenemos
Π
t W
←→ W sinc(f W )
W sinc(tW ) ←→ Π 65
−f W
(28)
Aplicando la propiedad de linealidad y teniendo en cuenta que la funci´on pulso es par, llegamos finalmente a 1 f sinc(tW ) ←→ Π (29) W W
7. Desplazamiento frecuencial (modulaci´ on): Esta propiedad es la dual del desplazamiento en tiempo y nos dice x(t) ←→ X (f )
(30)
x(t)e j2πf 0 t ←→ X (f − f 0 )
(31)
Comprobaci´ on: j2πf 0 t
F{x(t)e
+∞
}=
j2πf 0 t − j2πf t
x(t)e
e
+∞
dt =
−∞
−∞
x(t)e− j2π(f −f 0 )t dt = X (f − f 0 )
Ejemplo de aplicaci´ on 1: Encontrar la transformada de cos (2πf 0 t) y de sin (2πf 0 t)
Sabiendo que la transformada de 1 es δ (f ), entonces tenemos 1 j2πf 0 t 1 1 e + e− j2πf 0 t −→ δ (f − f 0 ) + δ (f + f 0 ) 2 2 2
(32)
1 j2πf 0 t 1 1 e − e− j2πf 0 t −→ δ (f − f 0 ) − δ (f + f 0 ) 2 j 2 j 2 j
(33)
cos (2πf 0 t) = De la misma manera, sin(2πf 0 t) =
Ejemplo de aplicaci´ on 2: Circuito modulador x(t)
y (t) = x (t) cos(2πf 0 )
!
cos(2πf 0 t)
La se˜ nal de salida en el dominio de la frecuencia es 1 1 1 1 x(t)e j2πf 0 t + x(t)e j2πf 0 t = X (f − f 0 ) + X (f + f 0 ) F {x(t)cos(2πf 0 t)} = F 2 2 2 2
(34)
que gr´aficamente corresponde a X (f )
Y f ) !
−f 0
f
f 0
f
cos(2π 0 t)
La modulaci´on de se˜ nales es lo que nos permite transmitir varias de ellas en un mismo tiempo si ´estas se encuentran separadas en frecuencia. Por ejemplo, esto es lo que se hac´ıa en la televisi´on anal´ ogica para transmitir la se˜ nal de audio y la de video simult´aneamente. 66
8. Integraci´ on: De manera semejante a la transformada de Laplace tenemos: x(t) ←→ X (f ) t X (f ) 1 x(τ )dτ ←→ + X (0)δ (f ) j2πf 2 −∞
(35)
Comprobaci´ on: t
Basta con ver que −∞ x(τ )dτ = x(t) ∗ u(t). Conociendo la transformada del escal´on U (f ) = 1 1 j2πf + 2 δ (f ), podemos hacer la transformada que buscamos como el producto X (f )U (f ). 9. Derivaci´ on: Tambi´ en de manera parecida a la transformada de Laplace tenemos: x(t) ←→ X (f )
(36)
d x(t) ←→ X (f ) j2πf dt Comprobaci´ on: +∞
d x(t) = dt
d dt
=
j2πf t
X (f )e
−∞ +∞
+∞
df =
−∞
d X (f )e j2πf t df dt
(37)
X (f ) j2πf e j2πf t df = F −1 {X (f ) j2πf }
−∞
10. Transformada del producto (enventanamiento): Esta propiedad es la rec´ıproca de la de convoluci´on y nos dice: x(t) ←→ X (f )
(38)
y(t) ←→ Y (f ) x(t) · y(t) ←→ X (f ) ∗ Y (f ) Comprobaci´ on: +∞
F{x(t) y(t)} =
− j2πf t
x(t)y(t)e
−∞ +∞
=
−∞ +∞
=
dt =
−∞
+∞
Y (υ)
−∞ +∞
=
+∞
−∞ +∞
Y (υ)
+∞
x(t)
−∞
x(t)e− j2πf t e j2πυt dt dυ x(t)e− j2π(f −υ)t dt dυ
−∞
Y (υ)X (f − υ)dυ = Y (f ) ∗ X (f )
−∞
67
j2πυt
Y (υ)e
dυ e− j2πf t dt (39)
11. Teorema de Parseval: El teorema de Parseval nos dice que si tenemos las siguientes relaciones, x(t) ←→ X (f )
(40)
y(t) ←→ Y (f ) entonces se cumple que +∞
+∞
∗
x(t) y (t) dt =
−∞
X (f ) Y ∗ (f ) df
(41)
−∞
No obstante, habitualmente se emplea el teorema de Parseval para una misma se˜nal. Es decir, si x(t) = y(t), entonces se cumple que +∞
+∞
2
|x(t)| dt =
−∞
|X (f )|2 df,
(42)
−∞
que es equivalente a decir que la energ´ıa de la se˜nal es la misma en ambos dominios. Esto nos ser´a especialmente u ´ til para tratar la energ´ıa y la potencia de las se˜nales en el siguiente tema. Comprobaci´ on:
+∞
x(t)y∗ (t)dt =
−∞
+∞
+∞
−∞ +∞
=
X (f )e j2πf t df y ∗ (t)dt
−∞
+∞
X (f )
−∞
(43)
y∗ (t)e j2πf t dt df
−∞
Hacemos primero la integral temporal, que es +∞
−∞
∗
j2πf t
y (t)e
+∞
dt =
− j2πf t
y(t)e
−∞
+∞
∗
dt =
−∞
− j2πf t
y(t)e
dt
∗
= Y ∗ (f )
(44)
y sustituyendo en (43) llegamos al resultado anunciado. Nota: en (44) no estamos haciendo F{y ∗ (t)}. Se puede ver que F{y∗ (t)} = Y ∗ (−f ) (para deducir este u ´ ltimo caso seguir´ıamos la misma argumentaci´ on pero, adem´as, haciendo el cambio de variables f ′ = −f ).
68
4.
Limitaci´ on en frecuencia (fen´ omeno de Gibbs) y limitaci´ o n en tiempo (enventanado)
En esta parte del tema vemos qu´e sucede cuando se limita el ancho de banda de la se˜nal y qu´e sucede cuando se limita la duraci´on temporal de la se˜ nal. Aclaraci´ on sobre ancho de banda: Para una se˜ n al en banda base, es decir, que no ha sido modu-
lada (trasladada en frecuencia), consideraremos B x = f x,max − 0 = f x,max , o sea, la m´axima frecuencia positiva. En cambio, si una se˜nal en banda base se traslada en frecuencia, entonces consideramos By = f y,max+ − f y,min+ , o sea, la diferencia entre las frecuencias m´axima y m´ınima (positivas). Por ejemplo: X (f )
Y (f ) !
−f 0
f
Bx
f 0
f
cos 2πf 0 t By
4.1.
Limitaci´ on en frecuencia - fen´ omeno de Gibbs
La limitaci´on en banda de una se˜nal se aprecia sobretodo en las discontinuidades que ´esta pueda presentar y por este motivo ahora nos centramos en el estudio de esta situaci´on. Supongamos que tenemos una se˜ nal x(t) con una sola discontinuidad (de salto finito) en t0 . Dicha se˜ n al se puede descomponer en − x(t) = x c (t) + x(t+ (45) 0 ) − x(t0 ) u(t − t0 )
donde xc (t) es una se˜nal continua a la cual a˜ nadimos un escal´on que empieza en t0 y con amplitud correspondiente al salto de la discontinuidad. Gr´aficamente estamos haciendo: (t
c
−
"
∆x t0
[x(t+ 0 ) − x(t0 )] u( − 0 )
(t !
∆x t
t0
t
t0
t
A partir de ahora, consideraremos por simplicidad y sin p´erdida de generalidad que t 0 = 0. Por lo tanto tenemos: x(t) = x c (t) + ∆x u(t) ←→ X (f ) = X c (f ) + ∆x F {u(t)} (46) Ahora limitamos la se˜ nal en banda, es decir, eliminamos las componentes frecuenciales |f | > B usando un filtro paso-bajo ideal, es decir:
69
H (f )
y (t) = x (t) ∗ h(t)
x(t)
Y (f ) =
X (f ) −B
B
X (f ) · Π
f
2B
f
|Y (f )|
|X (f )|
f
−B
f
B
As´ı pues, obtenemos Y (f ) = X (f ) · Π
f = X c (f ) · Π 2B
f 2B
+ ∆x F{u(t)} Π
f 2B
(47)
Para simplificar el an´alisis, supondremos que X c (f ) tiene un ancho de banda inferior a B , con lo que nos queda f f Y (f ) = X (f ) · Π = X c (f ) + ∆x F{u(t)} Π (48) 2B 2B
y desde el punto de vista temporal tenemos
y(t) = F −1 {Y (f )} = x c (t) + ∆x [u(t) ∗ 2Bsinc(2Bt)]
(49)
Aqu´ı vemos que la se˜ nal x(t), una vez limitada en frecuencia, se puede descomponer en x c (t) y y d (t) = ∆x [u(t) ∗ 2Bsinc(2Bt)], es decir, la parte correspondiente al pulso que ha generado la discontinuidad pero limitado en banda. Veamos lo que vale esta parte de la se˜nal: +∞
yd (t) = ∆x [u(t) ∗ 2Bsinc(2Bt)] = ∆x
t
2Bsinc(2Bτ )u(t − τ )dτ = ∆x
−∞
2Bsinc(2Bτ )dτ (50)
−∞
Dicha integral se puede calcular num´ ericamente, obteniendo el siguiente resultado: yd (t)
∆x 2B sinc(2B τ )
∆x 2B
t
−∞
∆x
()dτ
∆x 2
t
τ
t
1
2
1
2
2B
2B
2B
2B
En otras palabras, la transici´on abrupta del pulso se suaviza y aparece un rizado adicional. A continuaci´on resumimos las conclusiones que se extraen de este estudio.
70
Efectos de la limitaci´ o n en banda cuando la se˜ nal presenta discontinuidades finitas. Fen´ omeno de Gibbs.
1. Aparece un rizado alrededor de la discontinuidad que se suaviza a medida que nos alejamos de ´esta. Los m´aximos y m´ınimos se alternan en los m´ultiplos de 1/2B, encontrado el m´aximo absoluto en 1/2B y el m´ınimo absoluto en −1/2B. 2. El flanco de subida se suaviza, siendo el tiempo de subida t s ≈
1 2B .
3. En el punto de discontinuidad se observa el valor medio del salto, es decir, yd (0) = ∆x/2. 4. Si aumentamos el ancho de banda B observamos: a ) La amplitud m´ axima y m´ınima del rizado no cambian, aunque se den m´a s cerca de la
discontinuidad. b ) S´ olo en el caso l´ımite con ancho de banda infinito (no se da en la pr´actica) la sinc degenerar´ıa
en una delta y no habr´ıa distorsi´on de la se˜ nal. Ya por u ´ltimo, comentar que si la limitaci´on en frecuencia se hiciera con un filtro de forma triangular como el de la figura, un an´alisis parecido nos llevar´ıa a las siguientes conclusiones: 1. El rizado desaparece. 2. El valor en el punto de la discontinuidad se mantiene a y d (0) = ∆x/2. 3. El tiempo de subida aumenta a t s ≈
1 B.
yd t H (f ) ∆x ∆x 2
−B
B
f
t
4.2.
1
2
2B
2B
Limitaci´ on en tiempo - enventanado
Ahora nos encontramos ante la situaci´on dual a la anterior. Supondremos que tenemos una se˜nal x(t) y la limitamos en tiempo, es decir, cogemos los valores correspondientes a |t| ≤ T /2. N´otese que en la pr´actica siempre existir´a alg´ un tipo de enventanado. Entonces, a partir de la se˜nal x(t) expresaremos la se˜ nal enventanada en tiempo como: xT (t) = x(t) · Π
71
t T
(51)
Desde el punto de vista frecuencial, esto se traduce en: X T (f ) = F{xT (t)} = X (f ) ∗ T sinc(T f )
(52)
Vemos entonces que el enventanado provoca una distorsi´on de la se˜ nal original, que ser´a tanto menor como mayor sea T ya que la sinc tiende entonces a convertirse en una delta. Para ver los efectos de la limitaci´on en tiempo, apliquemos el resultado anterior a se˜nales de tipo coseno. Empecemos con x(t) = A0 cos (2πf 0 t) por su sencillez en el dominio frecuencial: se trata de dos deltas, una a f 0 y otra a − f 0 . Su versi´on enventanada es
1 1 A0 T A 0 T X T (f ) = A0 δ (f − f 0 ) + δ (f + f 0 ) ∗ T sinc(f T ) = sinc(T (f − f 0 )) + sinc(T (f + f 0 )) 2 2 2 2 (53) es decir, dos sincs centradas a f 0 y − f 0 . Consideremos ahora dos cosenos distintos, es decir, x(t) = A 0 cos (2πf 0 t) + A1 cos (2πf 1 t). Esta se˜nal enventanada y vista desde el dominio frecuencial es A0 T A 1 T A 0 T A 1 T sinc(T (f − f 0 )) + sinc(T (f − f 1 )) + sinc(T (f + f 0 )) + sinc(T (f + f 1 )) 2 2 2 2 (54) Gr´ aficamente tenemos: X T (f ) =
A1 T 2
A0 T 2
−f 1 −f 0
f 2
−f 2
f 0 f 1
N´ otese que se han dibujado las 4 sincs sin sumar y que el resultado final ser´ıa la suma de todo. No obstante, esta representaci´on nos es u ´ til para extraer las siguientes conclusiones: 1. Aparece un l´obulo principal y una serie de l´obulos secundarios relacionados con cada una de las deltas, o sea, cada frecuencia singular. Esto es as´ı para la ventana rectangular y tambi´en para otras alternativas, aunque la forma ser´a distinta. 2. El ancho del l´obulo principal determinar´ a la resoluci´ on del sistema, es decir, cu´al es la capacidad de distinguir el coseno a f 0 del que est´a a f 1 . N´otese que, dado un ancho de l´obulo principal, existe una separaci´on m´ınima de las frecuencias a partir de la cual es imposible distinguir los dos tonos ya que veremos un solo pico. 3. El nivel de los l´obulos secundarios determinar´ a c´ omo el contenido a una frecuencia enmascara el contenido a otras frecuencias. Por ejemplo, si hubiera un coseno con amplitud mucho menor que A 1 en la frecuencia f 2 (ver figura), se ver´ıa enmascarado por el l´ obulo secundario del coseno a f 1 . 72
Alternativamente, tambi´ en podemos hacer uso de los resultados obtenidos en la parte de limitaci´ on en banda (se trata de la situaci´on dual). En otras palabras, si quisi´eramos sintetizar una se˜ nal en el dominio frecuencial con discontinuidades y busc´aramos hacerlo a trav´es de un sistema con respuesta impulsional finita en el tiempo, entonces lo dicho anteriormente valdr´ıa aqu´ı tambi´ en. Por ejemplo, supongamos que queremos sintetizar un pulso rectangular en frecuencia y tuvi´eramos dos opciones: ventana rectangular o triangular en tiempo (la primera tiene el l´obulo principal m´as estrecho pero un nivel de l´obulos secundarios mayor). Entonces, con ventana rectangular generar´ıamos una respuesta con transiciones m´a s r´apidas pero con rizado. En cambio, con la venta triangular eliminar´ıamos el rizado pero las transiciones ser´ıan m´as lentas. on de la aplicaci´on nos interesar´a una u otra ventana ya que siempre hay un comNota: En funci´ promiso en sus par´ametros. N´ otese que si mantenemos la energ´ıa de la ventana a nivel temporal, +∞ 2 definida como −∞ |x(t)| dt, ´esta debe ser la misma en el dominio frecuencial por Parseval y por lo tanto, si bajamos los l´obulos secundarios (les quitamos energ´ıa) es l´ogico que aumente el grosor del l´ obulo principal.
Finalmente, la siguiente tabla contiene los par´ametros de 3 ventanas de uso habitual: Par´ ametro Ancho l´obulo principal Ancho de banda a -3dB Relaci´ on l´o bulo principal a secundarios
5.
Rectangular 2/T 0, 85/T 13dB
Triangular 4/T 1, 25/T 26dB
Hamming 4/T 1, 3/T 43dB
Transformada de Fourier de se˜ nales peri´ odicas
Antes de estudiar la transformada de Fourier de una se˜nal peri´odica, buscaremos un resultado intermedio necesario para ello, la transformada de Fourier de un tren de deltas.
5.1.
Transformada de un tren de deltas
Consideremos el siguiente tren de deltas en tiempo, P δ (t) = P δ (t)
−3T −2T −T
T
2T
Dado que P δ (t) se puede expresar como P δ (t) = l´ımN →+∞ en calcular la transformada del tren de deltas “finito”.
73
+∞ n=−∞ δ (t
3T
+N n=−N δ (t −nT ),
− nT ).
t
nos concentramos primero
+N
F
+N
δ (t − nT )
n=−N
=
e− j2πfnT =
n=−N T
e− j2πf T (N +1) − e− j2πf T (−N ) e− j2πf T − 1 1
− j2πf T 2
e
1
1
e− j2πf T 2 − e+ j2πf T ( 2 )
etrica que hemos hecho resulta de Nota: La suma de la serie geom´ N
2N
n
r =
sin 2πf T [N + 21 ] = sin(πf T )
2N
r
n−N
= r
−N
n=0
n=−N
(55)
1
e− j2πf 2 e− j2πf T (N + 2 ) − e− j2πf T (−N − 2 ) =
1 − r 2N +1 r N +1 − r −N r n = r −N = 1−r r−1 n=0
(56)
Veamos ahora como es la funci´on que hemos obtenido. En concreto, nos damos cuenta de que: Los zeros en el denominador deben cumplir πf T = nπ y por lo tanto, se encuentran a m´ultiples de 1/T , es decir, para f = n/T con n ∈ Z. 1 2
Los zeros en el numerador deben cumplir 2πf T N + k f = T (2N con k ∈ Z. +1)
= kπ y por lo tanto, se encuentran para
Adem´ as, vemos que cuando hay un cero en el denominador, el numerador tambi´en vale cero. Si resolvemos esta indeterminaci´on, por ejemplo usando la regla de Hˆopital, vemos que el valor en f = n/T es +N
F
n=−N
δ (t − nT )
=
1 2
1 2
2πT N +
f =n/T
cos 2πf T N + πT cos(πf T )
1 2
2πT N + = πT f =n/T
= 2N + 1 (57)
Dibujemos la funci´on (cogemos T = 1 y N = 9): 20
15
10
5
0
−5 −1.5
−1
−0.5
0
0.5
1
1.5
¿Qu´e sucede cuando N −→ ∞? De entrada, vemos que los m´aximos de la funci´on crecen hacia infinito y que el rizado a su alrededor se compacta (n´otese que los “ceros” se encuentran a m´ultiplos 74
de 1/(2N + 1)). As´ı pues, llegamos a un tren de deltas en frecuencia que est´an separadas 1/T . No obstante, para poder caracterizar bien las deltas nos falta un detalle, que es saber cu´anto vale su integral. Cojamos pues (55) e integremos en un periodo, sin 2πf T [N + 21 ] df = sin(πf T ) −1/2T 1/2T
N
1/2T
N
e− j2πnTf df =
−1/2T n=−N N
=
−1 e− jπ n − e jπ n = j2πnT
N
n=−N
−1 − j2πnTf 1/2T e (58) j2πnT −1/2T
n=−N
N
n=−N
=
n=−N
sin(πn) πnT
1 1 sinc(n) = T T
y vemos que el resultado es independiente de N . Esto nos lleva al siguiente resultado final, +∞
F
N
δ (t − nT ) = F l´ım
N →∞
n=−∞
n=−N
+∞
1 m δ (t − nT ) = δ f − T m=−∞ T
(59)
es decir, un tren de deltas separadas T en tiempo se corresponde a un tren de deltas separadas 1/T en frecuencia. Con este resultado ya podemos estudiar la transformada de Fourier de una se˜nal peri´odica.
5.2.
Transformada de una se˜ nal peri´ odica
Consideremos una se˜ nal peri´odica cualquiera x(t) con periodo de repetici´on T como la de la figura:
x(t) xb t
t T
Vemos que x(t) se puede interpretar como la repetici´on de una se˜ nal b´asica xb (t), la cual tiene duraci´on T , o sea, el periodo de repetici´on. Matem´aticamente: x(t) =
+∞
+∞
n=−∞
xb (t − nT ) =
xb (t) ∗ δ (t − nT ) =
n=−∞
prop. distrib. convoluci´on
Pasando al dominio transformado obtenemos +∞
+∞
= x b (t) ∗
n=−∞
+∞
1 m 1 m m X (f ) = X b (f ) δ f − = X b δ f − T m=−∞ T T m=−∞ T T
75
δ (t − nT ) (60)
(61)
donde X b (f ) = F{xb (t)}. Aunque nos resultar´a mucha m´as u ´ til esta transformaci´ on y es la que emplearemos habitualmente, tambi´en es cierto que podr´ıamos haber hecho la transformaci´ on como +∞
X (f ) =
X b (f )e− j2πfnT
(62)
n=−∞
Volviendo al primer caso, observamos que:
1. La transformada de Fourier de una se˜ nal peri´odica tiene la forma de un tren de deltas. 2. Depende esencialmente de la transformada de la se˜nal b´asica X b (f ) y del periodo T . Ejemplo: calcular la transformada de Fourier de x(t) =
+∞ n=−∞ Π
t−nT T/2
.
En primer lugar nos dibujamos la se˜nal: Luego representamos x(t) a partir de la se˜n al b´asica, que x(t)
xb (t)
T /2 T
en este caso es x b (t) = Π al dominio transformado:
t T/2
, obteniendo x(t) = Π
t T /2
∗
+∞ n=−∞ δ (t − nT ).
Finalmente, pasamos
+∞
T T 1 m X (f ) = sinc(f ) δ f − 2 2 T m=−∞ T
(63)
Vemos que nos queda una sinc con ceros a m´ultiples de 2/T multiplicando al tren de deltas, es decir: X (f
f 2/T 4/T
Fij´ emonos que, en este caso en particular, las deltas situadas a las m´ultiplos pares de 1/T desaparecen ya que son anuladas por la ceros de la sinc. Si hici´ eramos el pulso cuadrado m´as estrecho, por ejemplo de duraci´on T /4, entonces la sinc se ensanchar´ıa (el primer cero estar´ıa en 4/T ) y el l´obulo principal pasar´ıa de contener 3 deltas a 7, as´ı como cada uno de los l´obulos secundarios pasar´ıan de contener 1 delta a 3. 76
5.3.
Series de Fourier
La series de Fourier nos permiten aproximar se˜nales peri´odicas en el dominio del tiempo como combinaci´ on lineal de exponenciales complejas o, alternativamente, de senos y cosenos. Los coeficientes que acompa˜ nan a estas funciones “base” son los denominados coeficientes de Fourier y para que una se˜ nal se pueda aproximar con series de Fourier se deben cumplir una serie de condiciones. En particular, son condiciones suficientes pero no necesarias para que exista serie de Fourier las mismas que aplican para la transformada de Fourier sobre la se˜nal b´asica x b(t) y que ya hemos visto. A continuaci´on se obtiene la serie de Fourier de una se˜nal peri´odica como antitransformada de X (f ). Esto es: +∞
−1
−1
F { X (f )} = F
+∞
1 m m X b δ f − T m=−∞ T T
n T
X b
=
T
n=−∞
n j2πt T
e
+∞
=
n
cn e j2πt T (64)
n=−∞
X ( n ) donde identificamos cn = bT T con el n-´esimo coeficiente de Fourier. Como vemos, hemos conseguin do representar la se˜ nal x(t) como suma o serie de exponenciales complejas e j2πt T en el tiempo, de n frecuencia f n = T , y ponderadas por los coeficientes de Fourier. Normalmente llamamos frecuencia fundamental f 0 = 1/T y arm´onicos a las otras frecuencias f n = nf 0. Resumiendo, la serie de Fourier nos permite aproximar la se˜ nal periodica x(t) seg´ un: +∞
x(t) =
n
cn e j2πt T
(65)
n=−∞
Si desarrollamos un poco vemos que los coeficientes de Fourier se calculan: X b
cn =
n T
T
X (f ) = b T
1 = T
f = m T
+∞
− j2πf t
xb (t)e
−∞
dt
1 = T
f = m T
n
x(t)e− j2π T t dt
(66)
Cabe destacar que s´olo hace falta integrar la se˜ nal en un periodo cualquiera y por eso escribimos < T > (no hace falta que sea de − T /2 a T /2). El motivo es que dada la periodicidad de la se˜nal x b (t) y de e− j2πnf 0 t , la integral es la misma empecemos donde empecemos siempre y cuando abarquemos un periodo entero. En otras palabras, si a ∈ [−T /2, T /2], entonces: 1 cn = T Comprobaci´ on: a+T
− j2π n t T
x(t)e
T/2
dt =
a
x(t)e
a+T
n
x(t)e− j2π T t dt
− j2π n t T
a+T
dt +
a
− j2π n t T
x(t)e
dt =
T /2
T/2
=
x(t)e
(67)
a
− j2π n t T
a
dt +
a
n
t′
= t − T dt = dt ′
(68)
′
x(t′ + T )e− j2π T (t +T ) dt′
−T /2 n
n
Ahora, dada la periodicidad tanto de x(t) como de e− j2π T t , es decir, x(t) = x(t ± kT ) y e− j2π T t = n e− j2π T (t±kT ) , obtenemos a+T
a
− j2π n t T
x(t)e
T /2
dt =
a
− j2π n t T
x(t)e
a
dt +
−T/2
77
′
− j2π n (t ) T
x(t )e
′
′
dt =
T /2
−T/2
n
x(t)e− j2π T t dt (69)
Series de Fourier de se˜ nales reales
Las series de Fourier fueron originalmente concebidas para representar se˜nales peri´odicas reales como suma de se˜ nales senoidales. Aqu´ı hemos llegado a la serie de Fourier a trav´es de la transformada X b ( n ) y hemos visto que los coeficientes se pueden hallar como cn = T T = X bT (f ) f = m . Por lo tanto, se T deben cumplir las mismas propiedades que hemos visto para la transformada de Fourier y en particular, si x b (t) es real, entonces debe existir simetr´ıa herm´ıtica tanto en X b (f ) como en los coeficientes. Esto es, si definimos c n = an −2 jb n , entonces c−n = an +2 jb n . Apliquemos este resultado a la serie de Fourier:
+∞
+∞
j2πf 0 nt
cn e
= c0 +
n=−∞
cn e j2πf 0 nt + c−n e− j2πf 0 nt
n=1 +∞
= c0 +
n=1
+
(70)
an − jb n (cos (2πf 0 nt) + j sin (2πf 0 nt)) 2
an + jb n (cos (2πf 0 nt) − j sin (2πf 0 nt)) 2
Teniendo en cuenta que c 0 = c −0 (tomando l´ımites en X b (f ) para f → 0+ y f → 0− , respectivamente) vemos que necesariamente b0 = 0. Si continuamos operando llegamos a: a0 x(t) = + 2 con a0 =
+∞
an cos (2πf 0 nt) + bn sin (2πf 0 nt)
(71)
n=1
2 a+T 2 a+T 2 a+T x(t)dt, a n = T x(t)cos(2πf 0 nt)dt y b n = T x(t)sin(2πf 0 nt)dt. T a a a
Comprobaci´ on:
cn =
1 T 1 T
a+T
− j2π n t T
x(t)e
a
a+T
1 dt = T
a+T
x(t)(cos(2πf 0 nt) − j sin (2πf 0 nt)) dt
a
a+T
1 x(t)cos(2πf 0 nt)dt − j T
Finalmente, identificando (72) con la definici´on c n =
an 2
=
a
Ejemplo: encontrar la serie de Fourier de x(t) =
x(t)sin(2πf 0 nt)dt
a
(72)
− j b2n llegamos a los resultados deseados.
+∞ n=−∞ Π
t−nT T /2
.
En el apartado anterior hemos encontrado la transformada de Fourier de x(t), que era: +∞
+∞
T T X (f ) = sinc f 2 2
1 m δ f − = T m=−∞ T
1 m m sinc δ f − 2 2 T m=−∞
(73)
Antitransformando obtenemos la serie de Fourier, que es: +∞
1 n j2πt n T x(t) = F {X (f )} = sinc e 2 2 n=−∞ −1
78
(74)
Alternativamente, dado que c n = 21 sinc( n2 ) y teniendo en cuenta que c n = an −2 jb n , podemos identificar an = sinc( n2 ) y bn = 0. N´otese que debido a que la se˜nal x(t) es real y par, X (f ) es puramente real (la sinc) y por lo tanto los coeficientes tambi´ en son reales. Esto nos permite escribir la se˜nal tambi´en como: +∞ 1 n x(t) = + sinc cos (2πf 0 nt) (75) 2 2
n=1
Observaciones:
1. El t´ermino a0 nos dice cu´al es la componente de continua de la se˜nal, es decir, su media. En el ejemplo de la se˜nal cuadrada con amplitud 1 y ciclo de trabajo del 50 %, el t´ermino a 0 vale 1/2. Comprobamos, pues, que se corresponde con la media de la se˜nal. 2. Las series de Fourier nos pueden ser ´utiles a la hora de calcular sumatorios. Si en el caso anterior cogemos t = 0, vemos que +∞ n 1 1 sinc = x(0) − = (76) 2 2 2
n=1
Evidentemente, esto nos servir´a b´asicamente para series cuyos elementos tengan la forma de una n transformada conocida. Por ejemplo, si hubi´ esemos querido calcular +∞ n=1 sinc( 2 ) de entrada, el hecho de que la sinc sea la transformada de un pulso nos habr´ıa dado la pista para abordar el sumatorio a trav´ es de la serie de Fourier.
N´ otese que esto es el equivalente de −1
+∞
x(0) = F {X (f )} para se˜ nales no peri´odicas.
6.
t=0
=
j2πf t
X (f )e
−∞
+∞
df
=
t=0
X (f )df
(77)
−∞
Muestreo
Entendemos por muestreo el hecho de coger una se˜nal continua en el tiempo y quedarnos ´unicamente con los valores de la se˜nal a tiempos m´ ultiples de T . Es decir: x t
−T
T 2T
t
El proceso de muestreo est´a ´ıntimamente relacionado con lo que habitualmente entendemos por digitalizar una se˜ nal, que consiste en: i) hacer discreto en tiempo (muestrear) y ii) hacer discreto en amplitud (cuantificar). Aqu´ı analizaremos qu´e sucede u ´ nicamente por el hecho de muestrear una se˜nal x(t) e intentarla regenerar luego a partir de la se˜ nal discretizada en tiempo xd (t). De entrada, la intuici´on nos dice que si muestreamos suficientemente r´apido (T suficientemente peque˜no) podremos recuperar x(t) a partid de x d (t). Veamos, pues, qu´ e hay de verdad en esta afirmaci´on. 79
6.1.
Espectro de una se˜ nal muestreada. Criterio de Nyquist.
Consideremos el siguiente esquema de muestreo ideal con tren de deltas: x(t)
xd (t)
!
−T
T
2T
T
−T
t +
∞
n=−∞
−T
2T
t
δ (t − nT )
2T
t
A nivel temporal tenemos: xd (t) = x(t)
+∞
+∞
δ (t − nT ) =
n=−∞
x(nT )δ (t − nT )
(78)
n=−∞
Esto se traduce al dominio frecuencial como: +∞
+∞
1 m 1 m X d (f ) = X (f ) ∗ δ f − = X f − T m=−∞ T T m=−∞ T
(79)
y por lo tanto se trata de una se˜nal peri´odica en frecuencia. Si asumimos que x(t) tiene un ancho de banda limitado a W , la representaci´on gr´ afica de X d (f ) es: X d (f ) 1
X (f ) T
f
−
− T
− 2T
2T
T
1 Observando la figura vemos que, para que las r´ eplicas de X (f ) no se solapen se debe cumplir W < 2T . 1 Teniendo en cuenta que la frecuencia a la que se ha muestreado la se˜nal es f m = T , reescribimos la condici´ on anterior como f m > 2W (80)
tambi´en conocida como criterio de Nyquist. En otras palabras, para evitar el efecto aliasing (el solapamiento o interferencia entre r´eplicas), es necesario muestrear al doble del ancho de banda de la se˜nal. 80
Equivalentemente, definimos la frecuencia de Nyquist f Nyquist f N on on de f de f m , como el m´aximo aximo ancho N , que es funci´ de banda que puede tener la se˜nal nal para que no sufra aliasing una vez muestreada. En otras palabras, forzando al m´ aximo aximo (80), tenemos f m 2
f m = 2f N N −→ f N N =
6.2. 6.2.
Recu Recuper perac aci´ i´ on o n de x(t) a partir de
xd (t).
(81)
Interpolaci´ on. on.
En caso de que no haya efecto aliasing, est´a claro que limitando el espectro de X d (f ) f ) en [−1/2T , 1/2T ] T ] y escalando por T recuperamos T recuperamos el espectro de la se˜nal nal original. Esta idea es la que usamos para reconstruirla. En concreto, vemos que: X (f ) f ) = X d (f ) f ) T Π Π
f 1/T
Esto se corresponde con el siguiente sistema cuando H ( Π H (f ) f ) = T Π
(82)
f 1/T
:
H (f ) T
X d (f )
X (f ) = X d (f ) H (f )
xd (t)
− 21T
1 2T
f
x(t)
= x d (t) ∗ h(t)
Antitransformando la relaci´ on on anterior obtenemos: −1
f ) T Π Π F {X d (f )
donde hemos usado F −1 {H (f ) f )} = h( h (t) = sinc +∞
f 1 t t = x = xd (t) ∗ sinc } = x d (t) ∗ T sinc 1/T T T T t T
(83)
. Desarrollando un poco m´ as as obtenemos: +∞
t x(t) = x(nT ) nT )δ (t − nT ) nT ) ∗ sinc = T n=−∞
n=−∞
x(nT )sinc nT )sinc
t − nT T
(84)
´ Esta es la f´ormula ormula de interpolaci interpolaci´ o´n con la sinc como funci´on on on de interpolaci´on. on. N´ otese otese que los valores de x(t) en los instantes t = nT son nT son iguales que los de xd (t) en t = nT , nT , lo cual es correcto. Ve´amoslo amoslo en la siguiente figura:
81
x t x(T )
x(2T )
t
Si nos fijamos, por ejemplo, en t = T , T , vemos que la sinc centrada all´ı, ı, es decir x(T )sinc T )sinc t−T T toma el valor deseado x(T ) T ) mientras que el resto de funciones sinc se anulan en ese punto. Esto mismo sucede para cualquier otro punto t = nT . nT . Adem´as, as, en los valores de t intermedios, la suma de sincs nos devolver devol ver´´ıa la se˜ senal n ˜ al original (en trazo discontinuo en la figura).
No obstante, la funci´on on de interpolaci´on o n ideal (la sinc) no se podr´a implementar a la pr´actica actica ya que se trata de un sistema no causal. causal. En todo caso, habr´ habr´ıa que introducirle introducirle un retraso y truncarla truncarla para que h que h((t) = 0 para para t < 0. Otra opci´on on es usar funciones de interpolaci´on on m´ as as sencillas, como por ejemplo:
Interpolaci´ on on de orden cero: h(t) = Π
t−T /2 T
.
t−T /2−nT T
Con esta funci´on on tendremos x(t) ≈ n x(nT )Π nT )Π , es decir, mantenemos el valor de una muestra hasta que llegue la siguiente. La recuperaci´on de la se˜nal nal no es muy buena pero es sencilla. x(t) (T ) T )
Interpolaci´ on on de primer orden: h orden: h((t) = ∆
x(2T )
t T
.
Con esta funci´on on tendremos x tendremos x((t) ≈ n x(nT )∆ nT )∆ t−T nT , es decir, entre dos muestras consecutivas aproximamo aproximamoss la funci´ on on por p or una recta. Resulta tambi´ en en simple de implementar (con un retraso para que sea causal) y funciona mejor que la anterior.
82
x(t) x(T ) T )
6.3. 6.3.
(2T )
Implem Implemen entac taci´ i´ on on pr´ pr´ acti ac tica ca
Finalmente, cabe destacar que en la pr´actica actica se procura evitar el efecto del aliasing a toda costa. Es por ello que en el caso del muestro, si la se˜nal nal de entrada x entrada x((t) no cumple el criterio de Nyquist, se coloca un filtro (llamado antialiasing) que limite el ancho de banda de la se˜nal nal a f m /2. Es preferible distorsionar la se˜ nal nal quit´andole andole les componentes frecuenciales m´as as altas que acarrear luego con el aliasing. As´ As´ı pues, el diagrama de bloques blo ques de un sistema de muestreo debe deb e ser:
x(t)
!"#$%& ()$"(#"(*")+ ,()-.& /0 1()/( 23
450*$%0& f > 2 m
65()$"7-(-"8) ) 1"$*
6&)90%*&% :;<
Si queremos recuperar la se˜nal nal continua a partir de informaci´on on digita digitaliz lizada ada,, usarem usaremos os un bloque bloque conversor digital a anal´ ogico. No obstante, la se˜nal ogico. nal de salida de este bloque (suma de deltas) contendr´ a las r´eplicas eplicas no deseadas en frecuencia, por lo que colocaremos, colo caremos, tal y como hemos visto, un filtro filtr o interpolador interpolador o reconstructo reconstructor. r.
!"#$%&'"& )*+
,-./&" -#/%&0".12"&
Ejemplo: importancia de evitar el aliasing.
Consid Considere eremos mos la se˜ nal nal x(t) = cos(2πf cos(2πf 0 t). Sabemos que si la muestreamos con f m > 2f 0 no vamos a tener problemas. En cambio, supongamos que la muestreamos a una frecuencia menor, es decir, f 0 > f m /2. Si no colocamos el filtro anti-alisaing, la se˜nal nal muestreada en frecuencia ser´a X d (f ) f ) = +∞ 1 m aficamente corresponde corresponde a: − T , que gr´aficamente m=−∞ X f − T
83
X d (f ) 1
T
!"#$%&'(
X (f )
H (f )
f f
−f
f
m
−
m
m
2
2
f
m
Si ahora pretendemos recuperar la se˜nal original con el filtro interpolador ideal (sombreado en la figura), vemos que en realidad estamos recuperando un coseno a frecuencia menor que la original (la sim´etrica de f 0 respecto a f m /2). Esto es precisamente lo que est´a sucediendo cuando en televisi´o n vemos las ruedas de un f´ormula 1 girando al rev´es, tambi´en llamado efecto estrobosc´opico. Supongamos que tenemos un c´ırculo como el de la figura girando a velocidad constante con periodo T 0 . Tambi´en tenemos una l´ampara estrobosc´ opica que ilumina el c´ırculo durante un breve instante de tiempo (se ve el c´ırculo quieto) cada T m segundos. Seg´ un Nyquist, la frecuencia de muestreo de este sistema, que es 1 /T m , debe ser mayor que dos veces la frecuencia de rotaci´on 1/T 0 para capturar el movimiento correctamente, o sea, T m < T 0 /2. 0 ¿Qu´e sucede si fijamos T m = 3T amoslo en la figura: 4 ? Ve´ t=0
T 0
T
m
}
= 2T m
Nos parecer´ıa que gira a la izquierda con un periodo T 0 = T m /4.
84
t = T m
= 3T m
Tema 5: Correlaci´ o n y Espectro de Se˜ nales Deterministas Antoni Morell y Rosana Rodr´ıguez 13 de mayo de 2013
1.
Energ´ıa y potencia
De electr´onica sabemos que la potencia instant´anea disipada en una resistencia de valor R es P R (t) = |v(t)| ıda de tensi´on en sus bornes. A partir de ahora asumiremos una R , donde v(t) indica la ca´ resistencia de valor R = 1Ω y calcularemos la potencia instant´anea de una se˜nal cualquiera x(t) como 2
P i (t) = | x(t)|2
(1)
En caso de que la se˜nal x(t) corresponda a una tensi´on y la resistencia no sea 1Ω, habr´a que dividir por el valor que toque para encontrar la potencia tal y como la entendemos en electr´onica. Definiremos la energ´ıa de la se˜ nal como la integral (suma) de la potencia instant´a nea para todo instante de tiempo, es decir +∞
E x =
|x(t)|2 dt
(2)
−∞
y la potencia media de la se˜nal como el promedio temporal de P i (t) o, lo que es lo mismo, como la energ´ıa de x(t) por unidad de tiempo calculada seg´un 1 P x = l´ım T →∞ T
+T/2
|x(t)|2 dt
(3)
−T/2
Clasificaci´ o n de las se˜ nales en t´ erminos energ´ eticos
En funci´on de los valores que tomen tanto E x como P x , la se˜ nal x(t) ser´a: 1. Se˜ nal de energ´ıa finita: 0 < E x < + ∞. 2. Se˜ nal de potencia media finita: 0 < P x < + ∞. 3. Se˜ nal que no es ni de energ´ıa finita ni de potencia finita. Los tipos 1 y 2 son excluyentes, es decir, si una se˜nal es de energ´ıa finita no puede ser de potencia α media finita y viceversa. Como ejemplo del grupo 3, podemos considerar x(t) = t u(t − 1) con 0 < α < 1. En este caso, E x → + ∞ y P x = 0. −
2
85
1.1.
Se˜ nales de energ´ıa finita
Son todas las se˜ nales finitas de duraci´on finita m´as algunas se˜ nales de duraci´on infinita. Como ejem+∞ −at plo de este segundo caso tomemos x(t) = e u(t) con a > 0, cuya energ´ıa vale E x = −∞ |x(t)|2 dt = +∞ −at +∞ 1 u(t)|2 dt = 0 e−2at dt = 2a y es, por tanto, finita. −∞ |e
Aprovechemos ahora el teorema de Parseval, que nos iguala la energ´ıa de una se˜ nal en el dominio temporal con su energ´ıa en el dominio frecuencial, para definir la densidad espectral de energ´ıa de la se˜nal, S xx (f ), que nos indica cu´al es la distribuci´on de energ´ıa de una se˜nal a lo largo del eje frecuencial. Las unidades de S xx (f ) ser´an, pues, en forma de energ´ıa partido frecuencia, o sea, J/Hz. Del teorema de Parseval vemos que +∞
E x =
+∞
2
|x(t)| dt =
−∞
|X (f )|2 df
(4)
−∞
y por lo tanto |X (f )|2 marca la distribuci´on de energ´ıa en frecuencia del mismo modo que |x(t)|2 marca la distribuci´on de energ´ıa en tiempo (equivalente a potencia instant´ anea si se considera una duraci´on temporal infinitesimal δt entorno a t). Llegamos pues a: S xx (f ) = | X (f )|2
(5)
Propiedades de S xx (f ) = | X (f )|2
Son las siguientes: 1. Se trata de una magnitud real, pues es m´odulo al cuadrado de X (f ). 2. Es no negativa (tambi´ en por ser m´ odulo al cuadrado). 3. Si x(t) es real, entonces S xx (f ) es par. Esto es debido a las propiedades de simetr´ıa de la transformada de Fourier que nos dicen que para x(t) real se cumple que X (f ) = X ∗ (−f ). Dado que para un n´ umero complejo a es cierto que |a| = | a∗ |, resulta f´acil ver que |X (f )| = |X ∗ (−f )| = |X (−f )|. Energ´ıa en un intervalo frecuencial
Supongamos ahora que queremos medir la energ´ıa contenida entre f 1 y f 2 con f 2 > f 1 . Para ello filtramos la se˜nal con un filtro paso banda ideal h(t), obteniendo as´ı y(t) = x(t) ∗ h(t), y luego medimos la energ´ıa de y(t). Dado que en la pr´actica nos encontramos con la se˜nal x(t) y el sistema (filtro) h(t) reales, ambos (X (f ) y H (f )) tienen simetr´ıa herm´ıtica. Esta misma propiedad se cumple tambi´en para la se˜nal que queremos medir Y (f ) = X (f ) · H (f ) ya que ser´a tambi´en real en tiempo (la convoluci´on de dos se˜ nales reales es real). Siguiendo este razonamiento llegamos a +∞
E x (f 1 , f 2 ) = E y =
−∞
2
|y(t)| dt =
+∞
−∞
86
2
|Y (f )| df =
+∞
−∞
|X (f )|2 |H (f )|2 df
(6)
Gr´aficamente tenemos:
|H (f )|2
|X (f )|2
!
−f 2 −f 1
f 1
f
f 2
Recordando que |X (f )|2 y |H (f )|2 son pares si provienen de se˜nales reales en tiempo, obtenemos finalmente −f 1
E x (f 1 , f 2 ) =
2
|X (f )| df +
−f 2
f 2
f 2
2
|X (f )| df = 2
f 1
|X (f )|2 df
f 1
Si f 2 − f 1 = ∆f → 0, entonces E y ≈ |X (f 1 )|2 2∆f , que es lo mismo que decir |X (f 1 )|2 = corroborando de nuevo que | X (f )|2 es densidad espectral de energ´ıa. 1.2.
(7) E y 2∆f ,
Se˜ nales de potencia media finita
Son se˜ nales de potencia media finita: Las se˜ nales peri´odicas (siempre que sean cuadrado integrables en un periodo). Algunas se˜ nales de duraci´on infinita, como por ejemplo el pulso o la rampa. Las se˜ nales aleatorias, es decir, las correspondientes a procesos estoc´asticos. En este tema trataremos s´olo los dos primeros casos, es decir, las se˜nales peri´odicas y las no peri´odicas. Empecemos por el primero. Se˜ nales peri´ odicas
En las se˜nales peri´odicas, la potencia (P x = l´ımT →∞ maneras distintas: 1 T 0
|x(t)|
2. P x = Fourier.
+∞ 2 n=−∞ |cn | ,
1. P x =
2 dt,
1 +T/2 2 T −T/2 |x(t)| dt)
se puede obtener de dos
es decir, como la potencia en un periodo.
es decir, como suma de los m´odulos al cuadrado de sus coeficientes de
Comprobaci´ on de la primera aproximaci´ on: Definimos T = M T 0 con M ∈ N + e impar y calculamos la potencia a trav´ es de la definici´on: 1 P x = l´ım T →∞ T
+T /2
−T /2
1 |x(t)| dt = l´ım MT →∞ M T 0 2
0
87
+M T 0 /2
−M T 0 /2
|x(t)|2 dt
(8)
Fij´emonos que la u ´ ltima integral calcula la potencia en M periodos (ver la figura) y por lo tanto, valdr´a M veces la integral en un periodo. (t) T 0
t M T 0
As´ı pues: 1 P x = l´ım MT →∞ M T 0 0
+M T 0 /2
−M T 0 /2
1 M |x(t)| dt = l´ım M T →∞ M T 0 2
0
+T 0 /2
−T 0 /2
1 |x(t)| dt = T 0 2
+T 0 /2
|x(t)|2 dt (9)
−T 0 /2
Comprobaci´ on de la segunda aproximaci´ on: Partimos del resultado anterior y expresamos x(t) en serie de Fourier como x(t) = Desarrollando obtenemos: P x = =
1 T 0 1 T 0
+
T 0
−
2
T 0
|x(t)|2 dt =
2
+∞
+
cn
n=−∞
−
1 T 0
+
−
T 0 2
T 0
T 0 2
T 0
j2π T n 0
x∗ (t)e
2
x(t) x∗ (t)dt =
2
1 t dt = T 0
1 T 0
+
−
+∞
cn
−
n=−∞
+∞
2
T 0 2
+
Si recordamos la definici´on del n-´esimo coeficiente de Fourier, c n = la expresi´ on entre corchetes es justamente c n T 0 . As´ı pues: 1 P x = T 0
T 0
+∞
j2π T n t 0
cn e
n=−∞
T 0
− j2π T n t 0
x(t)e
dt
2
1 T 0
x∗ (t)dt (10)
∗
T 0 2
j2π T n t +∞ 0 . c e n=−∞ n
− j2π T n t
x(t)e
0
0
dt, vemos que
+∞
cn [c∗n T 0 ]
n=−∞
|cn |2
=
(11)
n=−∞
Densidad espectral de potencia de se˜ nales peri´ odicas: Definimos la densidad espectral de potencia S xx (f ) de x(t) como la distribuci´o n de potencia de la se˜nal a lo largo del eje frecuencial, que debe cumplir, al igual que la densidad espectral de energ´ıa para +∞ se˜nales de energ´ıa finita, P x = −∞ S xx (f )df . En el caso de x(t) peri´odica, ya sabemos del estudio de la transformada de Fourier de una se˜nal peri´odica que existen s´olo componentes frecuenciales a los m´ultiplos de 1/T 0 y que el contenido frecuencial en cada una de las componentes viene determinado u ´nicamente por c n . Teniendo en cuenta lo dicho junto con (11), vemos que necesariamente:
+∞
m S xx (f ) = |cm |2 δ f − T 0 m=−∞
88
(12)
Se˜ nales no peri´ odicas
En se˜ nales no peri´odicas deberemos calcular la potencia usando la definici´on. Por ejemplo, para calcular la potencia de x(t) = u(t) haremos: 1 P x = l´ım T →∞ T
+ T 2
− T 2
+ T 2
1 u (t) dt = l´ım T →∞ T
2
1 T 1 = T →∞ T 2 2
1 dt = l´ım
0
(13)
Densidad espectral de potencia de se˜ nales no peri´ odicas: ¿Y si queremos calcular la potencia desde el dominio frecuencial? Definamos una versi´on enventanada de x(t) a la que llamaremos x T (t) seg´ un: xT (t) = x(t)Π
t T
(14)
Podemos ver que xT (t) y x(t) coinciden cuando hacemos la ventana arbitrariamente grande (T → + ∞). Calculemos ahora P x usando esta definici´on como: 1 P x = l´ım T →∞ T
+ T 2
T
−2
1 |x(t)| dt = l´ım T →∞ T 2
+∞
−∞
|xT (t)|2 dt
(15)
Gracias a la se˜nal enventanada hemos podido llevar los l´ımites de la integral a infinito, lo que nos permite aplicar el teorema de Parseval tal y como hemos hecho para el caso de se˜nales de energ´ıa finita. Entonces tenemos: +∞
1 P x = l´ım T →∞ T
−∞
1 |xT (t)| dt = l´ım T →∞ T 2
+∞
−∞
2
|X T (f )| df =
+∞
−∞
|X T (f )|2 df (16) T →∞ T l´ım
Llegamos, pues, a la conclusi´on que la densidad espectral de potencia para se˜nales de potencia media finita no peri´odicas se puede calcular como:
|X T (f )|2 S xx (f ) = l´ım T →∞ T
Apliquemos este resultado al ejemplo anterior, x(t) = u(t). En este caso xT (t) = Π T
tanto X T (f ) = − e j2πf
4
T T 2 sinc 2 f
. Calculemos su densidad espectral:
1 T 2 sin2 π2 T f 1 sin2 π T |X T (f )|2 2 f S xx (f ) = l´ım = l´ım = l´ ı m T →∞ T →∞ T 4 π 2 T f 2 T →∞ T π 2 f 2 T 2
(17)
t−T/4 T /2
y por lo
(18)
4
Considerando el l´ımite vemos que S xx (f ) =
0 2 2 T
π 4 f 2 T π 2 f 2
=
f =0 T 4
= ∞ f = 0
(19)
donde hemos aproximado el seno por su argumento para f = 0. Llegamos pues a S xx (f ) = Aδ (f ), +∞ pero nos falta determinar el valor de A. Como P x = −∞ S xx (f ) df = A y ya sabemos por otro lado que P x = 21 , concluimos que 1 S xx (f ) = δ (f ) (20) 2
89
2.
Correlaci´ on y espectro de energ´ıa
Hasta ahora hemos tratado la energ´ıa y la potencia de las se˜nales tanto desde el punto de vista temporal como frecuencial. En los siguientes dos apartados nos interesar´a establecer una medida que nos permita comparar dos se˜ nales x(t) e y(t) y veremos que cuando las dos se˜nales a comparar son la misma, existe una clara relaci´on entre la medida de similitud, a la que llamaremos correlaci´on, y los resultados establecidos hasta el momento. Empecemos por encontrar una medida de similitud. Aqu´ı nos serviremos de la idea de distancia de los espacios vectoriales eucl´ıdeos, donde definimos la distancia entre dos vectores x e y como d(x, y ) = ||x − y ||. Como menor sea d m´as semejantes ser´ an los vectores. An´ alogamente, podemos definir la distancia (al cuadrado en este caso) entre dos funciones o se˜nales x(t) e y(t) como +∞ d2 (x, y) = ||x − y ||2 = −∞ |x(t) − y(t)|2 dt. Y si a´un queremos afinar m´as, podemos comprar las se˜nales para cualquier retraso relativo entre ellas τ , es decir
+∞
2
d (x(t + τ ), y(t)) =
|x(t + τ ) − y(t)| dt =
−∞ +∞
=
(x(t + τ ) − y(t)) (x(t + τ ) − y(t))∗ dt (21)
−∞
|x(t + τ )|2 dt +
−∞ +∞
−
+∞
2
+∞
|y(t)|2 dt
−∞
+∞
∗
x(t + τ )y (t)dt −
−∞
= E x + E y − Rxy (τ ) − donde
−∞ ∗ Rxy (τ ) = E x +
+∞
Rxy (τ ) =
x∗ (t + τ )y(t)dt
E y − 2Re{Rxy (τ )}
x(t + τ )y ∗ (t)dt
(22)
−∞
se define como la correlaci´ on o correlaci´ on cruzada entre x(t) e y(t). Aqu´ı vemos que si nuestro ob jetivo es medir cu´anto se parecen dos se˜nales, la distancia entre ellas no es del todo adecuada ya que contiene t´erminos que no nos aportan informaci´ on como son E x y E y . Es por este motivo que de ahora en adelante usaremos como medida de similitud R xy (t). Vemos que la definici´o n de Rxy (τ ) nos recuerda a la integral de convoluci´on. De hecho, podemos expresar R xy (τ ) como +∞
Rxy (τ ) =
−∞ +∞
=
∗
+∞
x(t + τ )y (t)dt = t = t + τ =
−∞
x(t )y ∗ (−(τ − t ))dt = x(τ ) ∗ y ∗ (−τ )
−∞
Propiedades de Rxy (τ )
Son las siguientes: 1. |Rxy (τ )|2 ≤ E x E y
90
x(t )y∗ (t − τ )dt
(23)
Comprobaci´ on: aplicaci´on directa de la desigualdad de Schwarz +∞ +∞ +∞ (| −∞ u(t)v ∗ (t)dt|2 ≤ −∞ |u(t)|2 −∞ |v(t)dt|2 ):
2
|Rxy (τ )| =
+∞
2
+∞
∗
≤
x(t + τ )y (t)dt
−∞
|x(t + τ )|
−∞
2
+∞
−∞
|y(t)dt|2 = E x E y (24)
(Nota: la igualdad se dar´ıa si u(t) = αv(t)). ∗ (−τ ) 2. Rxy (τ ) = R yx ∗ (−τ ) Comprobaci´ on: R yx
=
+∞ −∞ y(t −
∗
τ )x∗ (t)dt
= t = t + τ =
+∞ ∗ −∞ y (t )x(t
+ τ )dt
3. F{Rxy (τ )} = F{x(τ ) ∗ y ∗ (−τ )} = X (f ) · Y ∗ (f ) = S xy (f ), que se conoce como la densidad espectral (de energ´ıa) cruzada entre x e y . De especial inter´es es el caso x(t) = y(t). Entonces la correlaci´on cruzada se convierte en +∞
Rxx (τ ) =
x(t + τ )x∗ (t)dt
(25)
−∞
y se conoce como funci´on de autocorrelaci´on de la se˜nal x(t). En este caso, medimos cu´anto se parece la se˜ nal x(t) a una r´eplica suya desplazada τ , o sea, x(t + τ ). Mediante la transformada de Fourier encontramos
F{Rxx (τ )} = F {x(τ ) ∗ x∗ (−τ )} = X (f )X ∗ (f ) = |X (f )|2 = S xx (f ),
(26)
es decir, la densidad espectral de energ´ıa de la se˜nal como cab´ıa esperar. Propiedades de Rxx (τ )
Son las siguientes: 1. Rxx (0) =
+∞ −∞ S xx (f )df = E x
2. |Rxx (τ )|2 ≤ E x2 ∗ (−τ ). Por lo tanto se trata de una funci´ 3. Rxx (τ ) = Rxx on herm´ıtica. Si x(t) es real, Rxx (τ ) = x(τ ) ∗ x∗ (−τ ) ser´a real y adem´as par.
4. F{Rxx (τ )} = S xx (f ) ≥ 0
Analicemos ahora el caso de una se˜nal z (t) compuesta de otras dos, es decir, z (t) = x(t) + y(t), desde el punto de vista de la funci´on de autocorrelaci´ on: Rzz (τ ) = z(τ ) ∗ z ∗ (−τ ) = [x(τ ) + y(τ )] ∗ [x∗ (−τ ) + y ∗ (−τ )] = x(τ ) ∗ x∗ (−τ ) + y(τ ) ∗ y ∗ (−τ ) + x(τ ) ∗ y∗ (−τ ) + y(τ ) ∗ x∗ (−τ ) = Rxx (τ ) + Ryy (τ ) + Rxy (τ ) + Ryx (τ )
91
(27)
∗ (−τ ) tambi´ Si tenemos en cuenta que R yx (τ ) = R xy en podemos escribir
Rzz (τ ) = R xx (τ ) + Ryy (τ ) + Rxy (τ ) + R∗xy (−τ )
(28)
y la energ´ıa de z (t) como ∗ E z = R zz (0) = R xx (0) + Ryy (0) + Rxy (0) + Rxy (0) = E x + E y + 2Re{Rxy (0)}
(29)
Son de especial inter´ es los siguientes casos: Si Re{Rxy (0)} = 0 decimos que las se˜nales son incoherentes y se cumple E z = E x + E y . Si Rxy (0) = 0 decimos que las se˜nales son ortogonales (su producto escalar anula).
+∞ ∗ −∞ x(t)y (t)dt
se
Si R xy (τ ) = 0 para todo τ , entonces las se˜nales est´an incorreladas y R zz (τ ) = R xx (τ ) + Ryy (τ ). Correlaci´ on y espectro de energ´ıa a trav´ es de sistemas LTI
Para terminar la parte correspondiente a se˜nales de energ´ıa finita, nos preguntamos qu´e sucede con las correlaciones de las se˜nales de entrada x(t) y salida y(t) a un sistema LTI descrito por su respuesta impulsional h(t). t
x t
y t
En este caso tenemos: 1. Rxy (τ ) = x(τ ) ∗ y∗ (−τ ) = x(τ ) ∗ (x∗ (−τ ) ∗ h∗ (−τ )) = R xx (τ ) ∗ h∗ (−τ ) 2. Ryx (τ ) = y(τ ) ∗ x∗ (−τ ) = (x(τ ) ∗ h(τ )) ∗ x∗ (−τ ) = R xx (τ ) ∗ h(τ ) 3. Ryy (τ ) = y(τ ) ∗ y∗ (−τ ) = (x(τ ) ∗ h(τ )) ∗ (x∗ (−τ ) ∗ h∗ (−τ )) = R xx (τ ) ∗ h(τ ) ∗ h∗ (−τ ) = R xx (τ ) ∗ Rhh (τ ) Desde el punto de vista frecuencial esto se traduce en (aplicaci´on directa de la transformada de Fourier): 1. S xy (f ) = S xx (f ) H ∗ (f ) 2. S yx (f ) = S xx (f ) H (f ) 3. S yy (f ) = S xx (f )H (f )H ∗ (f ) = S xx (τ )|H (f )|2
92
3.
Correlaci´ on y espectro de potencia Para el caso de se˜nales de potencia finita, calcularemos la correlaci´o n siguiendo la l´ogica que
hemos usado para calcular la potencia. Es decir, si dec´ıamos que P x =
T 1 +2 l´ımT →∞ T − T 2
la autocorrelaci´ on de se˜ nales de potencia finita vendr´a dada por: 1 Rxx (τ ) = l´ım T →∞ T
+ T 2
T
|x(t)|2 dt, ahora
(30)
x(t + τ )x∗ (t)dt
−2
donde comprobamos f´acilmente que R xx (0) = P x . Adem´as, la correlaci´on cruzada se calcular´a como: 1 Rxy (τ ) = l´ım T →∞ T
+ T 2
− T 2
x(t + τ )y ∗ (t)dt
(31)
Propiedades de Rxx (τ )
Son las mismas (cambiando energ´ıa por potencia) que las de las se˜nales de energ´ıa finita, es decir: 1. Rxx (0) = P x 2. |Rxx (τ )|2 ≤ |Rxx (0)|2 3. Rxx (τ ) = R ∗xx (−τ ) Propiedades de Rxy (τ )
As´ı mismo, las propiedades de R xy (τ ) tambi´en se repiten y son: 1. |Rxx (τ )|2 ≤ P x P y ∗ ( τ ) 2. Rxy (τ ) = R yx −
Densidad espectral de potencia
Tambi´en igual que antes, la densidad espectral de potencia (cruzada o no) se calcula como la transformada de Fourier de la autocorrelaci´on o la correlaci´on cruzada seg´ un sea el caso, es decir:
|X T (f )|2 F{Rxx (τ )} = S xx (f ) = l´ım T →∞ T X T (f )Y T ∗ (f ) F{Rxy (τ )} = S xy (f ) = l´ım T →∞ T
(32)
(33)
Nota: aunque llamemos igual a la densidad espectral de energ´ıa y a la de potencia como S xx (f ), hay que ser conscientes que son distintas y que nos aportan informaci´on semejante pero no igual.
93
Comprobaci´ on: Empezaremos desarrollando por S xx (f ) = l´ım T →∞ ponde con F{Rxx (τ )}. Esto es:
|X T (f )|2 T
para ver que se corres-
1 |X T (f )|2 ∗ S xx (f ) = l´ım = l´ım X T (f )X T (f ) T →∞ T →∞ T T +∞ +∞ 1 − j2πf t = l´ım xT (t)e dt xT (t )e− j2πf t dt T →∞ T −∞ −∞ 1 = l´ım T →∞ T
+ T 2
− T 2
x(t)e− j2πf t dt
+ T 2
− T 2
x∗ (t )e+ j2πf t dt
(34) ∗
donde hemos expresado X T (f ) como F{xT (t)}. Ahora juntamos las integrales y hacemos el cambio de variable t = τ + t (aqu´ı t es s´olo un par´ametro que no interviene en la integral respecto t), con lo que dt = dτ : 1 S xx (f ) = l´ım T →∞ T 1 = l´ım T →∞ T
+ T 2
+ T 2
− T 2
− T 2
+ T 2
x(t)x∗ (t )e− j2πf (t−t ) dtdt
+ T −t 2
− T 2
− T −t 2
(35)
x(τ + t )x∗ (t )e− j2πf τ dτ dt
Ahora aprovechamos el hecho que t es finito (t ∈ [−T /2, T /2]) para aplicar el l´ımite T → ∞ en la primera integral (la de dentro), llegando a 1 S xx (f ) = l´ım T →∞ T
+ T 2
+∞
T
−2
x(t + τ )x∗ (t )e− j2πf τ dτ dt
(36)
−∞
Finalmente, invertimos el orden de integraci´on para llegar al resultado esperado, esto es: +∞
S xx (f ) =
−∞ +∞
=
1 l´ım T →∞ T
+ T 2
T
x(t + τ )x∗ (t )e− j2πf τ dt dτ
(37)
−2
Rxx (τ )e− j2πf τ dτ = F {Rxx (τ )}
−∞
Ejemplo: Obtener R xx (τ ) y S xx (f ) para x(t) = u(t). Aplicamos la definici´ on de R xx (τ ) para obtener 1 Rxx (τ ) = l´ım T →∞ T
+ T 2
− T 2
1 u(t + τ )u(t)dt = l´ım T →∞ T
+ T 2
u(t + τ )dt
(38)
0
Si τ > 0, u(t + τ ) es un escal´on que empieza en alg´un t negativo (t = − τ ) y por lo tanto, Rxx (τ ) se reduce a: T 1 + 1 T 1 Rxx (τ ) = l´ım dt = l´ım = (39) T →∞ T 0 T →∞ T 2 2 Finalmente, como Rxx (τ ) debe ser siempre par para x(t) real, no hace falta estudiar el caso τ < 0 y podemos afirmar que 1 1 Rxx (τ ) = −→ S xx (f ) = F {Rxx (τ )} = δ (t) (40) 2 2
2
94
Densidad espectral a la salida de un sistema LTI
Al igual que en el caso de energ´ıa finita se cumple que la densidad espectral de potencia S yy (f ) a la salida de un sistema LTI caracterizado por H (f ) = F {h(t)} vale S yy (f ) = S xx (f )|H (f )|2
(41)
donde S xx (f ) es la densidad espectral de potencia de la se˜nal x(t) a la entrada del sistema. Correlaci´ o n en se˜ nales peri´ odicas
En cuanto a autocorrelaci´on se refiere, vemos que si comparamos una se˜nal peri´odica con ella misma pero desplazada un n´umero entero de periodos como se ve en la figura, las se˜nales a comparar son id´enticas. Es lo mismo que sucede cuando no hay desplazamiento. (t)
t x t
T 0
t
Por lo tanto intuimos que la autocorrelaci´on de una se˜ nal peri´odica ser´a tambi´en peri´odica, es decir: x(t) = x(t + kT 0 ) −→ R xx (τ ) = R xx (τ + kT 0 ),
k ∈
Z
(42)
Comprobaci´ on: 1 Rxx (τ + kT 0 ) = l´ım T →∞ T 1 = l´ım T →∞ T
+ T 2
T
−2
+ T 2
− T 2
x(t + τ + kT 0 )x∗ (t)dt
(43)
x(t + τ )x∗ (t)dt = R xx (τ )
Adem´as, del mismo modo que para obtener la potencia de la se˜nal, basta con hacer la integral en un periodo (incluso sin necesidad que sea [ −T 0 /2, T 0 /2], lo cual tambi´ en es cierto para la potencia ya que Rxx (0) = P x ): 1 Rxx (τ ) = x(t + τ )x∗ (t)dt (44) T 0
0
95
Correlaci´ on entre dos fasores
Estudiemos ahora la correlaci´ on entre x(t) = a 1 e j2πf t y y(t) = a 2 e j2πf t . Aplicando directamente la definici´on vemos que: 1
1 Rxy (τ ) = l´ım T →∞ T
+ T 2
1 a1 e j2πf (t+τ ) a∗2 e− j2πf t dt = a ∗2 a1 e j2πf τ l´ım T →∞ T 1
T
−2
=
a∗2 a1 e j2πf 1 τ
=
a1 a∗2 e j2πf 1 τ
2
2
1 e j2π(f −f )t l´ım T →∞ T j2π(f 1 − f 2 ) 1
2
T /2
1
e j2π(f −f )t dt (45) 1
T
2
−2
1 sin π(f 1 − f 2 )T T →∞ T π(f 1 − f 2 )T
= a 1 a∗2 e j2πf τ l´ım 1
−T /2
+ T 2
l´ım sinc ((f 1 − f 2 )T )
T →∞
Por lo tanto, cuando f 1 = f 2 evaluaremos la sinc en valores muy grandes y el resultado ser´a 0. S´olo cuando f 1 = f 2 la sinc tomar´a valor 1. Por lo tanto, llegamos al siguiente resultado: Rxy (τ ) =
0 a1 a∗2 e j2πf 1 τ
f 1 = f 2 f 1 = f 2
(46)
Correlaci´ on cruzada entre dos se˜ nales peri´ odicas
El resultado anterior nos sirve para calcular R xy (τ ) con x(t) e y (t) peri´odicas si las desarrollamos en series de Fourier. Esto es: x(t) =
cx,me j2πmf ,x t
(47)
cy,n e j2πnf ,y t
(48)
0
m
y(t) =
0
n
Calculemos, pues, la correlaci´ on cruzada: 1 Rxy (τ ) = l´ım T →∞ T =
m
n
+ T 2
T
−2
cx,m e j2πmf ,x (t+τ ) · 0
m
c∗y,n e− j2πnf ,y t dt 0
n
cx,mc∗y,n e j2πmf 0,xτ
1 l´ım T →∞ T
(49)
T
+2
e j2π(mf ,x −nf ,y )t dt 0
T
0
−2
Vemos que cada elemento del sumatorio se corresponde con la correlaci´on de dos fasores, de la cual ya tenemos el resultado en (46). Sabemos que s´olo cuando mf 0,x = nf 0,y el elemento en cuesti´on contribuir´ a al sumatorio. En caso contrario dicha contribuci´on ser´a 0. La cuesti´o n ahora es: ¿con qu´e periodicidad los fasores de la se˜nal x(t) van a coincidir con los de la se˜nal y (t)? Miremos primero un ejemplo. Supongamos f 0,x = 3 y f 0,y = 4 y dibujemos sus espectros (por comodidad, ya que un fasor en tiempo queda representado en frecuencia por una delta cuya posici´on nos indica la frecuencia).
96