An´ An´ alis alisis is de Se˜ Se nales n ˜ ales Pablo Irarr´ Ira rr´ azaval azaval M. Departa Depa rtamento mento de Ingenie Ing enierr´ıa El´ectrica ectr ica Pontificia Universidad Cat´ olica olica de Chile
An´ An ´ alisi ali siss de Se˜ Se nales n ˜ ales Derechos Reservados Reservados c 1999 McGraw-Hill/Interamericana de Chile Ltda. (primera edici´ on) on) Derechos Reservados Reservados c 2008 Pablo Irarr´ azaval azaval (segunda edici´ on) on)
An´ An ´ alisi ali siss de Se˜ Se nales n ˜ ales Derechos Reservados Reservados c 1999 McGraw-Hill/Interamericana de Chile Ltda. (primera edici´ on) on) Derechos Reservados Reservados c 2008 Pablo Irarr´ azaval azaval (segunda edici´ on) on)
Dedicado a mi familia, Isabel, Isabe l, Isabelita, Isabe lita, Sof´ Sof´ıa, Pablito y Tom´ as as
En memoria de mi abuelo, Alberto Irarr´ azaval azaval L.
Prefacio A pesar que las transformadas de Laplace y Fourier se conocen desde la segunda mitad del siglo 18, s´ olo o lo en los ultimos u´ltimos 50 a˜ nos se han transformado en nos herramientas indispensables en las ´areas areas de control autom´ atico, atico, telecomunicaciones, electr´ onica, procesamiento de im´ onica, agenes, agenes, etc. Es m´ as, as, su aplicabilidad no s´ olo olo se limita a estas areas a´reas que tradicionalmente se consideran parte de la Ingenier´ıa ıa El´ectrica, ectrica, sino tambi´en en incluye campos camp os del conocimiento conoc imiento tan diversos como la econo eco nom m´ıa, ıa , sism si smol olog´ og´ıa ıa o hidr hi drol olog´ og´ıa. ıa . Las transformadas de Laplace o Fourier de una se˜nal nal son una representaci´ on on de la misma se˜ nal en otro dominio. Se puede entender como un cambio de base. nal Evidentemente, la base de Fourier no es una base m´ as, de las muchas que existen, as, es una base que en cierta forma nos es natural. Con un poco de pr´ actica actica y esfuerzo resulta c´ omodo omodo entender las se˜ nales en el dominio de la frecuencia. Es formalizar nales un tipo de an´ alisis alisis que todos to dos los d´ıas ıas empleamos en forma intuitiva. intuitiva. Claramente se ve cuando usamos los sentidos de la audici´ on on y visi´on. on. En el caso del sonido, la frecuencia frecuencia juega un papel preponderan preponderante. te. Algo similar similar ocurre con las im´ agenes en las que quiz´as as igualmente igualmente importan imp ortante te que la intensidad intensidad del color es la textura. textura. Este libro fue escrito para servir de base a un curso de an´alisis alisis de se˜ nales nales de un semestre de duraci´ on. on. La filosof´ filosof´ıa es explicar las materias de lo particular a lo general, es decir, primero se presentan los conceptos en su forma m´ as as simple para luego agregar complejidad. Esta manera de presentar la materia, junto con muchas explicaciones gr´ aficas, apunta a facilitar el aprendizaje del alumno. aficas, Tambi´en en se han h an agregado algunas alguna s rese˜ r ese˜ nas nas hist´ oricas para motivar a los alumnos oricas a investigar investig ar sobre los or´ or´ıgenes del area. a´rea. El primer p rimer cap´ cap´ıtulo es una un a introducci´ intro ducci´ on on al an´ alisis alisis de se˜ nales nales donde se aprovec aprovecha ha de presentar la notaci´ on empleada en el libro. Especialmente relevante es la preon sentaci´on on del s´ımbolo ımbol o para par a el impulso. impuls o. El resto de los cap´ cap´ıtulos ıtulo s se pueden agrupar agrupa r en tres partes: en la primera se estudian las se˜nales nales continuas; en la segunda las se˜ nales discretas; y en la ultima nales u ´ ltima se tratan, tratan, en forma introductor introductoria, ia, algunos algunos temas afines m´ as as avanzados. Tanto para se˜ nales nales continuas (cap´ıtulo ıtulo 2) como discretas discret as (cap ( cap´´ıtulo 5), se prep resenta senta primero primero los sistemas sistemas lineales lineales y respuesta respuesta al impulso. impulso. En el cap´ cap´ıtulo 5 se hace la conexi´ on on de los sistemas discretos con los continuos a trav´ trav´es es del muestreo de se˜ nales. nales. En los cap´ cap´ıtulos 3 y 6 se trata la transformada transformada de Fourier en forma contin continua ua y discreta. discreta. Los cap´ cap´ıtulos 4 y 7 hacen hacen lo propio con la transformad transformadaa de Laplace y transformada Z (versi´ on discreta de la transformada de Laplace). on En el cap´ cap´ıtulo 8 se presentan otras posibles transformadas, tanto continuas continuas como discretas. discretas. Y finalmente finalmente,, en el cap´ cap´ıtulo 9, se extiende extiende la transformada transformada de Fourier a dos dimensiones. v
VI
Este libro no habr´ıa sido posible si no es p or el trabajo de mis ayudantes. Ellos escribieron muchos borradores de los diferentes cap´ıtulos, hicieron figuras, buscaron ejemplos, etc. Les agradezco el entusiasmo y dedicaci´ on con que hicieron el trabajo. Ellos son Eduardo Izquierdo, Francisco Oltra, Mat´ıas Rosenblitt, Fernando Saieh y Cristi´ an Tejos. Tambi´ en agradezco al profesor Bernardo Le´ on de la Barra por sus sugerencias y correcciones. El primer manuscrito de este libro fue posible gracias al apoyo financiero del Fondo de Desarrollo de la Docencia de la Universidad Cat´ olica. Finalmente, le agradezco a mi familia, a mis padres, a mis suegros y a todos los que tuvieron la paciencia para escucharme hablar de este libro y me alentaron a continuar.
Pablo Irarr´ azaval Santiago, Diciembre 1998
Prefacio a segunda edici´ on Esta segunda edici´ on del libro tiene tres tipos de modificaciones respecto de la anterior. La primera es que los derechos de autor fueron traspasados desde la editorial Mac-Graw Hill a mi persona, por lo que estoy en libertad de distribiur el libro en la forma que mejor me parezca. En segundo lugar, fueron arreglados todos los errores que durante estos a˜ nos de uso han sido descubiertos. Y finalmente, he extendido considerablemente el n´ umero de problemas al final de cada cap´ıtulo.
Pablo Irarr´ azaval Santiago, Marzo 2008
´INDICE GENERAL
1. Introducci´ on 1.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . 1.2. Sistemas de entrada-salida . . . . . . . . . . . . . 1.3. Se˜ nales f´ısicas y l´ ogicas . . . . . . . . . . . . . . . 1.4. Se˜ n ales y funciones continuas versus discretas . . 1.5. Modelos, ecuaciones diferenciales y de diferencias 1.6. Causalidad . . . . . . . . . . . . . . . . . . . . . 1.7. ¿C´ omo graficar funciones complejas? . . . . . . . 1.8. Simetr´ıas . . . . . . . . . . . . . . . . . . . . . . 1.9. Algunas funciones importantes . . . . . . . . . . 1.9.1. Sinusoide . . . . . . . . . . . . . . . . . . 1.9.2. Exponencial compleja . . . . . . . . . . . 1.9.3. Gauss . . . . . . . . . . . . . . . . . . . . 1.9.4. Uno . . . . . . . . . . . . . . . . . . . . . 1.9.5. Tri´ angulo . . . . . . . . . . . . . . . . . . 1.9.6. Impulso . . . . . . . . . . . . . . . . . . . 1.9.7. Rect . . . . . . . . . . . . . . . . . . . . . 1.9.8. Sinc . . . . . . . . . . . . . . . . . . . . . 1.9.9. Asinc . . . . . . . . . . . . . . . . . . . . 1.9.10. Escal´ on . . . . . . . . . . . . . . . . . . . 1.9.11. Signo . . . . . . . . . . . . . . . . . . . . 1.9.12. Shah . . . . . . . . . . . . . . . . . . . . . 1.9.13. Horquilla y antihorquilla . . . . . . . . . . vii
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
1 1 2 2 4 5 10 11 16 17 17 18 19 22 22 23 24 25 26 27 27 27 28
´INDICE GENERAL
VIII
1.10. El impulso . . . . . . . . . . . . . 1.10.1. Definici´ on . . . . . . . . . 1.10.2. La propiedad del cedazo . 1.10.3. El impulso de una funci´ on 1.11. Ejercicios . . . . . . . . . . . . . 2. Sistemas lineales y convoluci´ on 2.1. Linealidad e invariancia . . . . 2.1.1. Linealidad . . . . . . . . 2.1.2. Invariancia . . . . . . . 2.2. Convoluci´ on . . . . . . . . . . . 2.3. Respuesta al impulso . . . . . . 2.4. Ejercicios . . . . . . . . . . . .
. . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . . . . . . .
3. Transformada de Fourier 3.1. Series de Fourier . . . . . . . . . . . . . . . . . 3.1.1. Forma trigonom´etrica . . . . . . . . . . 3.1.2. Forma de laboratorio . . . . . . . . . . . 3.1.3. Forma compleja . . . . . . . . . . . . . . 3.1.4. Relaciones de ortogonalidad e integrales 3.2. Transformada de Fourier . . . . . . . . . . . . . 3.3. Ejemplos de la transformada de Fourier . . . . 3.3.1. Transformada del impulso . . . . . . . . 3.3.2. Transformada de un coseno . . . . . . . 3.3.3. Transformada del rect . . . . . . . . . . 3.4. Simetr´ıas de la transformada de Fourier . . . . 3.5. Propiedades de la transformada de Fourier . . . 3.6. Funci´ on de transferencia . . . . . . . . . . . . . 3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
4. Transformada de Laplace 4.1. Transformada de Laplace . . . . . . . . . . . . . . . . 4.2. Relaci´ o n entre las transformadas de Fourier y Laplace 4.3. Ejemplos de la transformada de Laplace . . . . . . . . 4.4. Regi´ on de convergencia . . . . . . . . . . . . . . . . . 4.5. Polos y ceros en el plano S . . . . . . . . . . . . . . . . 4.6. Transformada de Laplace inversa . . . . . . . . . . . . 4.7. Propiedades de la transformada de Laplace . . . . . . 4.8. Funci´ o n de transferencia . . . . . . . . . . . . . . . . . 4.9. Transformada de Laplace unilateral . . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . .
. . . . .
30 30 33 34 37
. . . . . .
41 41 41 42 43 45 47
. . . . . . . . . . . . . .
59 59 59 62 63 65 65 69 69 71 71 73 77 80 81
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . .
91 . . . . . . 92 . . . . . . 93 . . . . . . 94 . . . . . . 97 . . . . . . 103 . . . . . . 108 . . . . . . 109 . . . . . . 110 . . . . . . 115
´INDICE GENERAL
IX
4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 5. Muestreo, sistemas lineales y 5.1. Muestreo . . . . . . . . . . 5.2. Convertidor an´ alogo digital 5.3. Teorema del muestreo . . . 5.4. Convoluci´ on discreta . . . . 5.5. Convoluci´ on c´ıclica . . . . . 5.6. Respuesta al impulso . . . . 5.7. Ejercicios . . . . . . . . . .
convoluci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
6. Transformada de Fourier discreta 6.1. Introducci´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2. Transformada de Fourier de tiempo discreto . . . . . . . . . 6.3. Transformada de Fourier de frecuencia discreta . . . . . . . 6.3.1. Definici´ on . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2. Relaci´ o n con las series de Fourier . . . . . . . . . . . 6.4. Transformada de Fourier discreta . . . . . . . . . . . . . . . 6.4.1. Definici´ on . . . . . . . . . . . . . . . . . . . . . . . . 6.4.2. Interpretaci´ on matricial . . . . . . . . . . . . . . . . 6.4.3. Propiedades de la transformada de Fourier discreta . 6.4.4. Transformada r´ a pida de Fourier . . . . . . . . . . . . 6.5. Convoluci´ o n lineal versus c´ıclica . . . . . . . . . . . . . . . . 6.6. Consideraciones pr´ acticas . . . . . . . . . . . . . . . . . . . 6.6.1. Aliasi´ on . . . . . . . . . . . . . . . . . . . . . . . . . 6.6.2. Interpolaci´ on sinc . . . . . . . . . . . . . . . . . . . . 6.6.3. Apodizaci´ on y derrame . . . . . . . . . . . . . . . . 6.6.4. Aproximaci´ o n a la transformada de Fourier . . . . . 6.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. Transformada Z 7.1. Transformada de Laplace de tiempo discreto . . . . . . . 7.2. Transformadas de Laplace y Fourier de tiempo discreto 7.3. Transformada Z . . . . . . . . . . . . . . . . . . . . . . . 7.3.1. Definici´ on . . . . . . . . . . . . . . . . . . . . . . 7.3.2. Regi´ on de convergencia . . . . . . . . . . . . . . 7.4. Propiedades de la transformada Z . . . . . . . . . . . . . 7.5. Polos y ceros en el plano Z . . . . . . . . . . . . . . . . . 7.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
127 . 128 . 129 . 130 . 131 . 131 . 134 . 136
139 . . . . 139 . . . . 140 . . . . 144 . . . . 144 . . . . 147 . . . . 148 . . . . 148 . . . . 154 . . . . 156 . . . . 159 . . . . 162 . . . . 165 . . . . 165 . . . . 172 . . . . 174 . . . . 177 . . . . 181
. . . . . . . .
. . . . . . . .
. . . . . . . .
195 . 195 . 197 . 198 . 198 . 201 . 203 . 205 . 206
X
´INDICE GENERAL
8. Otras transformadas 8.1. Transformadas continuas . . . . . . . . . . . . . . 8.1.1. Transformada coseno y transformada seno 8.1.2. Transformada de Hankel . . . . . . . . . . 8.1.3. Transformada de Mellin . . . . . . . . . . 8.1.4. Transformada de Abel . . . . . . . . . . . 8.1.5. Transformada de Hilbert . . . . . . . . . . 8.1.6. Transformada de Gabor . . . . . . . . . . 8.2. Transformadas discretas . . . . . . . . . . . . . . 8.2.1. Transformadas seno y coseno discretas . . 8.2.2. Transformada de Walsh-Hadamard . . . . 8.3. Series . . . . . . . . . . . . . . . . . . . . . . . . 8.3.1. Introducci´ on . . . . . . . . . . . . . . . . 8.3.2. Transformada de Hermite . . . . . . . . . 8.3.3. Transformada de Laguerre . . . . . . . . . 8.3.4. Transformada de Legendre . . . . . . . . 8.3.5. Transformada de Chebyshev . . . . . . . . 8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 9. Transformada de Fourier en dos dimensiones 9.1. Funciones . . . . . . . . . . . . . . . . . . . . . 9.1.1. Gauss . . . . . . . . . . . . . . . . . . . 9.1.2. Uno . . . . . . . . . . . . . . . . . . . . 9.1.3. Rect . . . . . . . . . . . . . . . . . . . . 9.1.4. Signo . . . . . . . . . . . . . . . . . . . 9.1.5. Jinc . . . . . . . . . . . . . . . . . . . . 9.1.6. Impulso . . . . . . . . . . . . . . . . . . 9.1.7. Impulsos de l´ınea . . . . . . . . . . . . . 9.1.8. Shah . . . . . . . . . . . . . . . . . . . . 9.2. Respuesta al impulso y convoluci´ on . . . . . . . 9.3. Transformada de Fourier . . . . . . . . . . . . . 9.3.1. Definici´ on . . . . . . . . . . . . . . . . . 9.3.2. Propiedades . . . . . . . . . . . . . . . . 9.3.3. Ejemplos . . . . . . . . . . . . . . . . . 9.4. Transformada de Fourier discreta . . . . . . . . 9.5. Ejercicios . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
213 . 213 . 214 . 214 . 215 . 215 . 216 . 217 . 219 . 219 . 220 . 221 . 221 . 223 . 223 . 224 . 224 . 225
. . . . . . . . . . . . . . . .
227 . 227 . 228 . 228 . 228 . 230 . 230 . 232 . 232 . 233 . 233 . 235 . 235 . 236 . 241 . 242 . 248
A. Contexto hist´ orico de la teor´ıa de Fourier
251
B. Expansi´ on en fracciones parciales
257
´INDICE GENERAL Bibliograf´ıa
XI
259
XII
´INDICE GENERAL
CAP´ ITULO 1 ´ INTRODUCCION
En este cap´ıtulo introductorio se define la idea de sistema y se˜ nal, tanto en forma continua como discreta. Se presenta su modelaci´ on a trav´es de ecuaciones diferenciales o de diferencias. Y se establece la notaci´ on necesaria para el resto del libro.
1.1.
Introducci´ on
Una se˜ nal1 , en forma simplificada, se puede entender como cualquier mecanismo que es empleado para transmitir informaci´ on. Ejemplos de se˜ nales son: una conversaci´on telef´ onica, ondas electromagn´ eticas enviadas por un radar, ondas luminosas del sem´ aforo en una intersecci´ on de avenidas, sonido viajando en el aire, se˜ nales de humo, etc. En este libro nos interesa entender c´omo las se˜ nales son modificadas cuando son procesadas por un sistema. Por ejemplo, nos interesa saber c´omo difiere la m´ usica reproducida por un toca-cinta de audio de la original. Para entender ´esto primero debemos estudiar las propiedades de las se˜ nales y c´ omo modelar los sistemas. Haremos una “disecci´ on” de las se˜ nales por medio 2 del an´ alisis matem´ atico de las mismas y de los sistemas. 1 2
del lat´ın sign(um): signo, marca, se˜ nal, imagen La palabra an´ alisis deriva del griego anal´ y(ein): soltar, escarmenar
1
2
1.2.
Introducci´ on
Sistemas de entrada-salida
Un sistema es un conjunto de objetos dise˜ nados para realizar una tarea. Por ejemplo, un sistema amplificador de sonido est´ a formado por un micr´ ofono, un amplificador y un parlante. La tarea para la cual fue dise˜ nado el amplificador es convertir un sonido de poco volumen como la voz humana en un sonido de alto volumen como la que se necesita para que los j´ ovenes en un concierto escuchen mejor — por lo menos en el corto plazo, ya que en el largo plazo se hacen cada vez m´as sordos — a su cantante preferido. Aunque describir un sistema puede ser tan simple o tan complejo como se quiera, todos se pueden describir definiendo una variable o se˜ nal de entrada, una de salida, y especificando c´omo se puede obtener la se˜ nal de salida si se conoce la de entrada. Para el ejemplo del amplificador la se˜ nal de entrada es la voz del cantante, la de salida el sonido en el parlante y la correspondencia entre entrada y salida, en una primera aproximaci´ on, es que la salida es igual a la entrada pero con mayor volumen. En la pr´actica es claro que eso no es as´ı y que habr´ a diferencias, no s´ olo de volumen, entre la entrada y la salida, por lo que la descripci´ on del sistema debe ser m´as compleja. Por ejemplo se puede suponer que las componentes de alta frecuencia del sonido se ven menos amplificadas que las de baja frecuencia — el sistema no es capaz de reproducir fidedignamente los sonidos agudos. La descripci´on exacta del sistema, indudablemente requerir´ a conocer el funcionamiento preciso de cada componente y subcomponente. Sin embargo, en la mayor´ıa de los casos es posible tratar al sistema como una caja negra en que s´ olo basta conocer la dependencia matem´ atica entre la se˜ nal de entrada y la de salida. Al emplear una modelaci´ on matem´ atica es posible independizarse de las variables f´ısicas para s´ olo tratar con la se˜ nal l´ ogica o matem´ atica.
1.3.
Se˜ nales f´ısicas y l´ ogicas
Las se˜ nales, tanto de entrada como de salida, de un sistema pueden ser de distinta naturaleza. Por ejemplo, pueden ser se˜ nales de sonido (ondas de presi´ on) como en el ejemplo anterior. Si se considera solamente el micr´ ofono, tenemos que la entrada es de tipo sonido y la salida de tipo el´ectrico. En el sistema amplificador, la entrada es el´ ectrica y la salida es el´ ectrica. Finalmente, en el parlante la entrada es el´ ectrica y la salida es de sonido. En otros sistemas las se˜nales pueden ser de im´agenes de televisi´ on, luz, ondas de radio, incluso se puede tener se˜ nales econ´ omicas, como por ejemplo el ´ındice de actividad burs´ atil. Una se˜nal es una variable de una o m´as dimensiones, y por definici´ on de variable ´esta puede tomar distintos valores. En muchos casos toma diferentes valores a medida
1.3 Se˜ nales f´ısicas y l´ ogicas x s cm d´ıas m
3 u Hz = 1/s 1/cm 1/d´ıas 1/m
ω = 2πu rad/s rad/cm rad/d´ıas rad/m
Tabla 1.1: Unidades para espacio y frecuencia
que el tiempo transcurre, es decir, como en el ejemplo, es funci´on del tiempo. El sonido puede ser descrito como la presi´ on en el aire, en un lugar espec´ıfico, como funci´ on del tiempo. Pero tambi´ en puede ser descrito como la presi´ on del aire en un momento espec´ıfico, como funci´ on del lugar. En general, las se˜ nales son funciones del tiempo y del espacio, pero es com´ un s´olo preocuparse de una dependencia a la vez. Para describir el sistema amplificador, la se˜ nal de entrada ser´ a el sonido en el micr´ ofono y la salida, el sonido en el parlante como funci´ on del tiempo. Existen otros sistemas en los que es mucho m´ as importante preocuparse de la dependencia espacial. Ese es el caso de la fotograf´ıa. La se˜ nal de entrada es la luz que llega al lente de la c´ amara, y aqu´ı lo importante es a qu´e lugar del lente lleg´ o, es decir, la luz como funci´ on de la posici´ on. Algo similar ocurre con la salida, la fotograf´ıa revelada, donde lo importante es la distribuci´ on espacial del color y no el tiempo que tom´o el revelado. Desde el punto de vista matem´ atico, evidentemente, que la dependencia sea espacial o temporal es indiferente, es decir, da lo mismo que la se˜ nal sea f (x) o f (t). En este libro, al tratar las transformadas de Fourier, continua o discreta, en general se usar´ a x como la variable independiente en vez del tiempo t. La raz´ on de esto es que el tiempo tiene unas propiedades peculiares, como por ejemplo, que la salida no puede ocurrir antes que la entrada (causalidad), lo que normalmente no es cierto en el espacio. Otra ventaja de usar x en vez de t es que obliga al alumno a pensar en un concepto m´as general de frecuencia, que ya no es medida en ciclos por segundo, sino que en ciclos p or cent´ımetro, por ejemplo. Para las transformadas de Laplace, como es com´ un, se usar´ a el tiempo como variable independiente ya que ´estas son casi exclusivamente empleadas en ese dominio. Consistentemente con emplear x se usar´a la variable u para denotar la frecuencia, rec´ıproco de x, en vez de f u ω. No usaremos la variable f para evitar la tentaci´ on de pensar que se mide en Hertz y por un aspecto pr´actico, para no confundirla con las funciones f ( ). La variable ω tendr´a la interpretaci´ on de frecuencia angular, es decir ω = 2πu. Algunos ejemplos de unidades se muestran en la tabla 1.1.
·
4
Introducci´ on f(t)
t
Figura 1.1: Se˜ nales continuas (el tiempo es continuo)
1.4.
Se˜ nales y funciones continuas versus discretas
Una primera clasificaci´ on que se puede hacer de las se˜nales es en continuas o discretas. Una se˜ nal continua, del tiempo por ejemplo, tiene un valor para cualquier instante, mientras que una se˜ nal discreta del tiempo, s´ olo est´ a definida para algunos instantes de tiempo. Una se˜ nal continua puede ser representada matem´ aticamente por una funci´ on, de las que se usan en c´ alculo, no es as´ı para una se˜ nal discreta, en las que la funci´on estar´ıa indefinida para la mayor´ıa del dominio. Que una se˜ nal sea discreta o continua no hace referencia a los posibles valores que pueda tomar, ´estos pueden o no tener limitaciones. Por ejemplo, la luminosidad roja de un sem´ aforo es una se˜ nal continua, a pesar de que s´ olo puede tomar dos valores (rojo o negro). En realidad, la clasificaci´ on de continuas o discretas hace referencia al dominio de la se˜ nal, es decir, a la variable independiente. Por ejemplo, una se˜ nal continua del tiempo significa que el tiempo es continuo y que la se˜ nal tiene un valor para todo tiempo, por otro lado, una se˜ nal discreta del tiempo significa que el tiempo es discreto y que la se˜nal s´ olo puede tomar valores (¡Cualquier valor!) para los valores discretos del tiempo. En resumen, no se debe confundir la definici´ on matem´ atica de una funci´ on continua con una se˜ nal continua. Es la variable independiente de la se˜ nal la que satisface la definici´ on de continuidad matem´ atica y no los valores de la se˜ nal (ver figuras 1.1 y 1.2). Las se˜ nales continuas las representaremos con f (x) y las discretas con f [x]. Los par´entesis cuadrados indican que x s´olo puede tomar valores enteros.
1.5 Modelos, ecuaciones diferenciales y de diferencias
5
f[t]
t
Figura 1.2: Se˜ nal discreta El an´ alisis de se˜ nales continuas y el de las discretas difieren considerablemente. En este libro los cap´ıtulos 2, 3 y 4 tratan las se˜ nales continuas y los cap´ıtulos 5, 6 y 7 son para las se˜ nales discretas. La gran mayor´ıa de las se˜ nales f´ısicas son continuas, por lo menos a escalas naturales en las que la mec´ anica cu´ antica y cl´ asica coinciden. La presi´ on del aire que forma el sonido tiene un valor para cualquier instante de tiempo. En teor´ıa esa presi´ on se puede medir a las 9:00 y tambi´en un nanosegundo despu´es de las 9:00. Un ´ındice burs´atil como el IPSA es una se˜ nal discreta, ya que s´ olo tiene valores para instantes discretos de tiempo (uno por d´ıa, sin incluir los festivos). Que el IPSA sea discreto no hace referencia a que su c´alculo haya involucrado toda una ma˜ nana de actividad burs´ atil que se podr´ıa considerar continua a una escala de minutos. Lo importante, para efectos de su clasificaci´ on, es cu´ando toma un valor y no lo que ese valor representa. De hecho, la mayor´ıa de las se˜ nales discretas provienen de se˜ nales continuas que han sido muestreadas, por ejemplo, el audio digital de los discos compactos. Cada muestra (tiempo discreto) representa una media de un intervalo peque˜ no de tiempo del audio continuo.
1.5.
Modelos, ecuaciones diferenciales y de diferencias
En nuestra vida cotidiana abundan sistemas que dependen simult´ aneamente de una variable y sus derivadas. En la mec´anica cl´ asica, t´ıpicamente se encuentran sistemas continuos que dependen de la longitud, de su primera derivada
6
Introducci´ on
temporal (la velocidad) y de su segunda derivada temporal (la aceleraci´ on). Del mismo modo, en circuitos el´ ectricos que incluyen resistencias, inductancias y condensadores, las tensiones en las inductancias dependen de la derivada temporal de la corriente y en los condensadores, de la integral en el tiempo de la corriente. La relaci´ on entre la entrada y salida de estos sistemas continuos se describe con ecuaciones diferenciales. Las ecuaciones diferenciales pueden ser clasificadas en diferentes categor´ıas. La clasificaci´ o n m´ as inmediata consiste en identificar la naturaleza de las derivadas que aparecen en la ecuaci´on. Aquellas en que existen derivadas de funciones de una sola variable, se denominan ecuaciones diferenciales ordinarias , mientras que aquellas en que aparecen derivadas parciales se denominan ecuaciones diferenciales parciales . T´ıpicamente cuando se habla simplemente de ecuaciones diferenciales se est´a refiriendo a las ordinarias. Una segunda clasificaci´ on est´ a dada por el orden de la ecuaci´ on diferencial (ordinaria o parcial). Se define orden como la derivada de mayor grado que aparece en la ecuaci´ on diferencial. Por ejemplo, y (t) = a(t)y(t) + b(t) es una ecuaci´ on diferencial de primer orden, y y (t) + a(t)y (t) + b(t)y(t) = c(t), es de segundo orden, donde a(t), b(t) o c(t) pueden depender de la entrada al sistema, x(t). Una tercera clasificaci´ on consiste en identificar si la ecuaci´ on es o no lineal. Ecuaciones lineales son aquellas que cumplen con f (ax + by) = af (x) + bf (y), donde a y b son constantes (ver secci´ on 2.1.1). En esta secci´on revisitaremos algunas herramientas para la resoluci´ on de ecuaciones diferenciales lineales de primer y segundo orden. En general no necesitaremos resolver ecuaciones diferenciales no lineales ni parciales. Tampoco veremos ecuaciones diferenciales lineales de orden n > 2, ya que ´estas se pueden expresar como un sistema de n ecuaciones lineales de primer orden, que puede ser resuelto en forma matricial. Es u ´til expresar las ecuaciones diferenciales en t´erminos de un operador p que d denota la operaci´ on de derivada dt y 1/p, la operaci´ on integral dt (ver rese˜ na hist´ orica en p´agina 32). Esta notaci´ o n es c´ omoda porque permite manipular la ecuaci´ on en forma algebraica. De este modo podemos reescribir los ejemplos anteriores como py(t) = a(t)y(t) + b(t)
1.5 Modelos, ecuaciones diferenciales y de diferencias
7
y p2 y(t) + a(t) py(t) + b(t)y(t) = c(t). Las soluciones de estas ecuaciones son la suma de la soluci´on homog´enea, yh (t), y la soluci´ on particular, y p (t): y(t) = y h (t) + y p (t). La soluci´ on homog´enea es la soluci´ on del sistema donde se han eliminado los t´ erminos que no dependen de y (t), en el ejemplo esto corresponde a pyh (t) = a(t)yh (t) y p2 yh (t) + a(t) pyh (t) + b(t)yh (t) = 0. La soluci´ on particular es una soluci´ on del sistema completo. La soluci´ on homog´enea del primer sistema es yh (t) = ce
a(t) dt
donde c es una constante de integraci´on (depende de las condiciones iniciales del sistema). La soluci´ on particular es
y (t) = e
a(t) dt
p
b(t)e−
a(t) dt
dt.
Por lo que la soluci´ on completa al sistema de primer orden es
y(t) = y (t) + y (t) = e h
a(t) dt
p
b(t)e−
a(t) dt
dt + c .
Debido a la com´ un ocurrencia de sistemas de segundo orden, recordaremos tambi´en la soluci´on homog´ enea del siguiente sistema de segundo orden: p2 y(t) + apy(t) + by(t) = 0. Al resolver la ecuaci´ on cuadr´ atica en p, se tiene dos ra´ıces p1 y p 2 . Dependiendo de si estas ra´ıces son reales o complejas y diferentes o iguales, se tienen tres casos: Si p1 = p2 , se tiene yh (t) = c1 e p1 t + c2 e p2 t ,
donde c 1 y c 2 , al igual que en los otros casos, son constantes que dependen de las condiciones iniciales. Si p1 y p 2 son complejos conjugados se puede escribir a
yh (t) = e− 2 t (c1 eiωn t + c2 e−iωn t )
8
Introducci´ on
b(t)
-
+
1 a(t)
y(t)
p = d/dt
Figura 1.3: Diagrama de flujo de una ecuaci´ on diferencial de primer orden b(t)
+ -
1 b(t)
+ -
y(t)
a(t) p = d/dt
p = d/dt
Figura 1.4: Diagrama de flujo de una ecuaci´ on diferencial de segundo orden
√ −
donde ω n = 12 4b a2 . A este caso se le denomina sub-amortiguado. Si p 1 y p 2 son reales, se llama sobre-amortiguado. Si p 1 = p 2 (ambos reales) se tiene yh (t) = c 1 e p1 t + c2 te p1 t. Este es el caso cr´ıticamente amortiguado. La soluci´ on particular para la ecuaci´ on diferencial lineal de segundo orden puede ser obtenida a trav´es de distintos m´etodos, como por ejemplo, el m´etodo de los coeficientes indeterminados. M´ as adelante veremos que la transformada de Laplace es una buena herramienta para la soluci´ on de ecuaciones diferenciales lineales. Los sistemas descritos por estas ecuaciones diferenciales pueden representarse por diagramas de flujo. Las figuras 1.3 y 1.4 muestran los diagramas de flujos para los dos ejemplos vistos. De manera similar, los sistemas discretos, modelados por funciones que dependen de variables discretas (toman valores s´olo en algunos instantes de tiempo) son modelados por ecuaciones de diferencias es las que se especifican cambios que ocurren en dichos sistemas cada ciertos intervalos regulares de tiempo. Por ejemplo, y[n] = a[n]y[n 1] + b[n]
−
y[n] = a[n]y[n
− 2] + b[n]y[n − 1] + c[n].
1.5 Modelos, ecuaciones diferenciales y de diferencias b[n]
+ +
9
y[n]
a[n] z
-1
Figura 1.5: Diagrama de flujo de una ecuaci´ on de diferencias de primer orden c[n]
+ +
+ +
a[n]
b[n] z
-1
y[n]
z
-1
Figura 1.6: Diagrama de flujo de una ecuaci´ on de diferencias de segundo orden En el primer caso el valor de y para un instante de tiempo depende del valor en el instante anterior. Para el segundo caso, no s´ olo depende del valor en el instante anterior, sino tambi´ en del anterior al anterior. La primera es una ecuaci´ on de diferencias de primer orden y la segunda, de segundo orden. Similarmente a lo que sucede en el caso continuo con el operador p, aqu´ı tambi´en se puede recurrir a un op erador, z definido de manera que z −1 y[n] = y[n 1] y zy[n] = y[n+1]. De este modo se puede reformular las ecuaciones de la siguiente manera:
−
y[n] = a[n]z−1 y[n] + b[n] y[n] = a[n]z −2 y[n] + b[n]z −1 y[n] + c[n] Por lo general para resolver este tipo de sistemas de ecuaciones se utiliza la Transformada Z, que puede entenderse a priori como una versi´on discreta de la Transformada de Laplace. Por u ´ltimo, como se puede ver en las figuras 1.5 y 1.6, tambi´ en es posible obtener una representaci´ on gr´ afica del sistema a trav´es de diagramas de flujo.
10
Introducci´ on x(t)
y(t)
Sistema Causal
T
t
T
t
Figura 1.7: Entrada y salida de un sistema causal
1.6.
Causalidad
Un sistema se dice que es causal si para un valor de la variable independiente, x0 , las salidas de ´este s´ olo dependen de los valores de las entradas en x < x0 . Este sistema, cuando es funci´ on del tiempo, tambi´en es conocido como no anticipativo, ya que las salidas del sistema no anticipan valores futuros de la entrada. Los sistemas f´ısicos son no anticipativos, ya que en la naturaleza los efectos nunca preceden a las causas. Si la entrada f (x) a un sistema lineal se aplica en el instante cero, es decir, f (x) toma valores distintos de cero s´ olo para x mayor que cero. El sistema es causal si la salida g(x), en respuesta a la entrada f (x), cumple g(x) = 0 x < 0. No puede haber una respuesta para valores de x menores al valor en que se produce la entrada. Es com´ un suponer que x = 0 en la posici´ on o instante en que la entrada deja de ser cero, de ser as´ı, llamaremos funci´ on causal (salida de un sistema causal) a g(x), si dn g(x) = 0 y g(x) = 0, para x < 0. dx
∀
La figura 1.7 muestra un sistema causal con una entrada x(t) y una salida y(t). El sistema empieza a responder despu´ es del instante T , en el que se presenta la entrada. Los sistemas f´ısicos son siempre causales si la variable independiente es el tiempo, pero t´ıpicamente no lo son en funci´ on de la posici´ on. Ejemplo 1.6.1 Un ejemplo de un sistema no causal son los suavizadores de imagen. El sistema entrega una imagen de salida a partir de una imagen de entrada. Cada pixel de la imagen de salida, es un promedio del mismo pixel en la imagen de entrada con sus vecinos (tanto los anteriores como los siguientes) lo que claramente lo hace no causal (fig. 1.8). La salida de este sistema est´ a dada
1.7 ¿C´ omo graficar funciones complejas?
(a) Imagen entrada
11
(b) Imagen salida (suavizada)
Figura 1.8: Sistema no causal en el espacio por (1.1), donde R es una vecindad con N 2 elementos, en torno al pixel x[m, n]. y[m, n] =
( j,k)
1.7.
∈R
x[ j, k] N 2
(1.1)
¿C´ omo graficar funciones complejas?
Se tiene la funci´on y = f (x). Graficar esta funci´ on cuando x e y son reales, es decir, una funci´ on real de argumento real — de esas que se ven en los primeros cursos de c´alculo — es sencillo. Los valores del argumento son asociados al eje de abscisas y para cada uno de ellos la funci´on tiene un valor que es asociado al eje de ordenadas (fig. 1.9). No es tan sencillo cuando la funci´on real tiene el argumento complejo. Una forma de graficar esta funci´on se muestra en la figura 1.10 (a) en la que dos ejes coordenados son empleados para representar el argumento, la parte real y la parte imaginaria y el tercer eje se emplea para el valor de la funci´ on. Como para cada valor complejo del argumento s´ olo existe un valor de la funci´ on, el gr´ afico resultante es una superficie (un manto). En algunos casos, no es importante conocer el valor de la funci´ on, sino s´ olo saber si la funci´on vale cero o infinito. Para esto, se puede emplear un gr´ afico bi-dimensional, como el de la figura 1.10 (b) en el que se emplea un c´ırculo para indicar el argumento para el cual la funci´ on vale cero, y una cruz para el cual vale infinito (positivo o negativo). Este tipo de gr´ afico se conoce como diagrama de polos y ceros donde polos son los argumentos donde la funci´on diverge.
12
Introducci´ on
y
x
Figura 1.9: Gr´ afico de una funci´ on real de argumento real
Im x polos
cero
y
Re x
Im x Re x
(a) Manto
(b) Diagrama de polos y ceros
Figura 1.10: Gr´ afico de una funci´ on real de argumento complejo
1.7 ¿C´ omo graficar funciones complejas?
Re y
13
Im y
x
(a) Parte real
x
(b) Parte imaginaria
Mag y
y
x
(c) Magnitud
x
(d) Fase
Re y (Im y)
Mag y (
y)
x
(e) Partes real e imaginaria
x
(f) Magnitud y fase
Figura 1.11: Gr´ afico de una funci´ on compleja de argumento real
14
Introducci´ on
Re f(x)
Re f(x)
Im f(x)
Im f(x)
x
(a) Partes real e imaginarias combinadas
x
(b) Partes real e imaginarias separadas
Figura 1.12: Gr´ afico tridimensional de una funci´ on compleja de argumento real Las se˜ nales, t´ıpicamente son mejor representadas por funciones complejas de argumentos reales. En este caso se pueden emplear dos gr´ aficos bi-dimensionales, uno para la parte real de la funci´on (fig. 1.11 a) y otro para la parte imaginaria (fig. 1.11 b). Estos gr´ aficos se pueden superponer en los mismos ejes coordenados y es convencional emplear l´ınea continua para la parte real, y segmentada para la imaginaria (fig. 1.11 e). De la misma forma, en vez de parte real e imaginaria de la funci´ on, se puede graficar el m´ odulo (fig. 1.11 c) y fase o a´ngulo del complejo (fig. 1.11 d). Otra alternativa es emplear un gr´ afico tridimensional, como el de la figura 1.12. En ´este se emplea un eje para el argumento y los otros dos para las partes real e imaginaria de la funci´ on. Ya que para cada argumento existe s´ olo un valor de la funci´ on, el gr´ afico resultante es una l´ınea. La proyecci´ on de esta l´ınea en los planos x Re y y x Im y corresponde a las partes real e imaginaria de la funci´on (fig 1.12 b). El m´ odulo es la distancia recta desde el eje x a la l´ınea y la fase, el a´ngulo formado por la recta que define el m´ odulo. Este tipo de gr´ aficos es de gran ayuda para comprender los conceptos de frecuencia, fase lineal y muchos otros. Finalmente, s´ olo nos queda ver que se puede hacer para funciones complejas de argumentos complejos. La posibilidad m´ as obvia es emplear dos gr´ aficos tridimensionales, en el que dos ejes son las parte real e imaginaria del argumento y el tercer eje es la parte real (fig. 1.13 a) o imaginaria (fig. 1.13 b) de la funci´ on. Para el tercer eje tambi´ en se puede emplear el m´ odulo (fig. 1.13 c) o fase (fig. 1.13 d) de la funci´ on. Al igual que para funciones reales de argumento complejo, se puede emplear un diagrama de polos y ceros (fig. 1.13 e). Indudablemente, las posibilidades de representaciones gr´ aficas discutidas en esta secci´ o n no est´ an agotadas. La representaci´ on a emplear depende en gran
− {}
− {}
1.7 ¿C´ omo graficar funciones complejas?
15
Re y
Im y
Im x
Im x
Re x
Re x
(a) Parte real
(b) Parte imaginaria
Mag y
y
Im x
Im x
Re x
Re x
(c) Magnitud
(d) Fase Im x
Re x
(e) Diagrama de polos y ceros
Figura 1.13: Gr´ aficos de una funci´ on compleja de argumento complejo
16
Introducci´ on f(x)
f(x)
x
x
(a) Funci´ on par
(b) Funci´ on impar
Re f(x)
Re f(x)
Im f(x)
Im f(x)
x
x
(c) Funci´ on hermitiana
(d) Funci´ on anti-hermitiana
Figura 1.14: Simetr´ıas medida de la caracter´ıstica de la funci´ on que se desee resaltar y en menor medida del gusto personal.
1.8.
Simetr´ıas
La existencia de simetr´ıas facilita el an´ alisis de se˜ nales y t´ıpicamente sirven para comprobar resultados. Veamos algunos conceptos de simetr´ıas. Se define como funci´ on par aquella que cumple con: f (x) = f ( x) x
− ∀
Gr´ aficamente, en un espacio de dos dimensiones, las funciones pares son sim´etricas con respecto al eje de las ordenadas (fig. 1.14 a). Se define como funci´ on impar aquella que cumple con: f ( x) =
−
−f (x) ∀x
1.9 Algunas funciones importantes
17 cos π x (sen π x)
1
1 x
Figura 1.15: Sinusoide Para funciones complejas, se debe tener en consideraci´ on la existencia de una parte real y una imaginaria. Una funci´ on compleja es hermitiana cuando su parte real es par y su parte imaginaria es impar(fig. 1.14 c). Una funci´ on es antihermitiana cuando su parte real es impar y su parte imaginaria es par(fig. 1.14 d). Cuando una funci´ on no cumple ninguna de estas caracter´ısticas, decimos que se trata de una funci´ on asim´etrica. A menudo es conveniente descomponer una funci´ on en la suma de sus partes par e impar, es decir, si f (x) es asim´ etrica, queremos reescribirla como f (x) = on impar. F´ acilP (x) + I (x), donde P (x) es una funci´on par e I (x) es una funci´ mente se puede comprobar que esta descomposici´ o n se puede conseguir de la siguiente manera: 1 1 P (x) = (f (x) + f ( x)) e I (x) = (f (x) 2 2
−
1.9.
− f (−x))
Algunas funciones importantes
En esta secci´ on vamos a revisar algunas funciones o se˜ nales que son importantes y se usan corrientemente. El objetivo es resaltar las propiedades m´ as importantes y al mismo tiempo establecer una notaci´ on, que en su mayor parte es la misma empleada por Bracewell [3]. Excepciones son los s´ımbolos utilizados para el escal´ on, la horquilla y la anti-horquilla. 1.9.1.
Sinusoide
La sinusoide es probablemente la funci´ on m´ as conocida. La funci´ on seno y la funci´on coseno, graficadas en la figura 1.15 provienen de las funciones trigonom´etricas del mismo nombre.
18
Introducci´ on
Originalmente el nombre seno se empleaba para la perpendicular dibujada de un punto de la semi-circunferencia al di´ametro. En t´erminos marinos todav´ıa se habla, por ejemplo, del “seno de la esp´ıa” (cuerda para atarse al muelle). La palabra seno proviene del lat´ın sin(us) que significa curva, doblez o bolsillo, y que a su vez es sin´onimo del ar´ abico jaib que significa cuerda de un arco (de esos que tiran flechas). Coseno, por supuesto, es el complemento del seno. Al referirnos a la funci´on seno (o coseno) sin indicar los par´ ametros, emplearemos las siguientes definiciones: f (x) = sen πx
o
f (x) = cos πx
Es evidente que la funci´on seno es peri´ odica y en esta definici´on el periodo es 2, es decir la frecuencia de oscilaci´ o n es 1/2 (se eligi´ o el argumento πx en vez de x para evitar tener el factor π en la frecuencia). Un coseno es igual a un seno que ha sido desplazado en 1/2, es decir cos πx = sen π(x + 1/2). El valor en el origen de la funci´ on seno es sen π0 = 0 y de la funci´on coseno, cos π0 = 1. La funci´ on seno es impar y la funci´on coseno, par. Sus derivadas e integrales indefinidas son
−
d sen πx = π cos πx dx
sen πxdx =
y d cos πx = dx
−π sen πx
− π1 cos πx
cos πxdx =
1 sen πx π
El a´rea bajo la curva para estas funciones, es decir, la integral definida de a + , no existe, sin embargo sabemos que est´a acotada en el rango 1 a 1. Convendremos en que el valor de esta integral es cero. Esta decisi´on es motivada por el a´rea debajo de la curva e(x)sen πx, donde e(x) es una envolvente par, por 2 ejemplo, e(x) = e−πx o e(x) = (x) (ver definici´ on en secci´on 1.9.7). Como se ver´ a m´ as adelante, el considerar el a´rea bajo el seno (y el coseno) como cero tiene algunas ventajas desde el punto de vista operativo.
−∞
∞
−
∞
!
sen πxdx =
−∞
1.9.2.
∞
!
cos πxdx = 0
−∞
Exponencial compleja
La exponencial compleja, definida por f (x) = e i2πx
1.9 Algunas funciones importantes
19
real
imag
x
Figura 1.16: Exponencial compleja
√ −
con i = 1, es una generalizaci´ on de las funciones sinusoidales. De hecho, por Euler, se tiene que ei2πx = cos 2πx + i sen2πx. La importancia de esta funci´ on radica en que es la base para la transformada de Fourier, y es una forma de incluir senos (funci´ on impar) y cosenos (funci´ on par) en la misma funci´ on. Las figuras 1.16 y 1.17 grafican la exponencial compleja. N´ otese que el sentido de giro es contrario a los punteros del reloj al avanzar en el sentido +x. Para cambiar el sentido de giro se debe cambiar el signo del exponente ( i2πx). La amplitud se mantiene constante en 1 y la fase var´ıa linealmente con x.
−
1.9.3.
Gauss
Definiremos la funci´ on Gauss como Gauss(x) = e −πx
2
Como se muestra en la figura 1.18, la funci´ on Gauss tiene algunas propiedades que la hacen interesante. Es una funci´on continua y suave ( C (∞) ) que decae a cero para x tendiendo a o . N´ otese que esta funci´on es equivalente a la distribuci´ on de probabilidades normal con media cero y desviaci´ on est´ andar σ = 1/ 2π.
∈
∞ −∞
Normal(x) =
√
1 √ e−x /2σ . σ 2π 2
2
20
Introducci´ on
real 1
imag
1
1 x
Figura 1.17: Exponencial compleja
Gauss(x)
1
1 x
Figura 1.18: La funci´ on Gauss
1.9 Algunas funciones importantes
Rese˜ na hist´ orica
21
Johann Carl Friederich Gauss
Johann Gauss naci´o en Brunswick el 30 de Abril de 1777 y muri´o en Gottingen el 23 de Febrero de 1855. Gauss es considerado uno de los matem´aticos m´ as grandes que han existido y quiz´ a s el genio m´ as bien dotado del cual se tenga recuerdo. Las areas entre las cuales realiz´o sus trabajos m´as im´ portantes est´ an la teor´ıa de n´ umeros, geometr´ıa diferencial, estad´ıstica, geodesia, magnetismo, astronom´ıa y ´optica. Su primer gran aporte fue en 1798 cuando describe como construir un pol´ıgono de 17 lados con regla y comp´as. De ese momento en adelante proJohann Carl Friederich Gauss dujo un resultado importante tras otro. Su tesis doctoral fue, de hecho, un hito para las matem´aticas puras cuando demostr´o, en forma satisfactoria, el teorema fundamental del algebra (toda funci´on polinomial de orden n, tiene n raices reales y/o complejas). Su principal pasi´on fue la teor´ıa de los n´umeros. Tambien se dedic´o a la astronom´ıa, trabaj´ o como director del observatorio de Gottingen donde realiz´o muchos aportes a la astronom´ıa y la estad´ıstica, como fue el m´etodo de aproximaci´on de los m´ınimos cuadrados y teor´ıas sobre los movimientos de cuerpos celestes. M´as tarde en su vida se dedic´o al campo de la geodesia donde sus m´ ultiples investigaciones lo llevaron a presentar m´as de 70 publicaciones en 10 a˜nos. A partir de 1832 Gauss, junto a W. Weber, comienza a investigar en el campo del magnetismo. Demostr´o que la Tierra s´olo puede tener 2 polos; determin´o la posici´on del polo sur; y public´o un atlas geomagn´etico de la Tierra. Descubri´o las leyes de Kirchhoff e invent´o un tel´egrafo primitivo. Al final de su vida se dedic´o a poner en orden el fondo para viudas de la universidad donde aprendi´o mucho sobre materias financieras, logrando hacer una fortuna invirtiendo su dinero en bonos. A todos sus avances, publicados en vida, se agregan muchos otros que quedaron en sus libros sin publicar. Se destaca su diario de anotaciones personal (publicado en 1898), de s´olo 19 p´aginas que contienen nada menos que 146 conclusiones de estudios en los que estuvo ocupado desde 1796 a 1814.
22
Introducci´ on
La funci´on Gauss es una funci´on par. Su valor en el origen es uno, y el ´area bajo la curva tambi´en es uno 2
e−π0 =
∞ − e
πx 2
dx = 1
−∞
La derivada de Gauss es d Gauss(x) = dx y su integral
x
0
−2πxe−πx
2
√
1 2 e−πt dt = erf πx 2
donde erf es la funci´ on de error estad´ıstica definida como 1 erf x = π
x
√
2
e−t dt
0
La funci´on Gauss es importante en el an´ alisis de se˜ nales por al menos dos razones, descontando su naturalidad como funci´ on de probabilidades: es una buena funci´on para apodizar (ver sec. 6.6.3), seleccionar parte de otra funci´on en forma suave; y la transformada de Fourier de ella es tambi´en una funci´ on Gauss (ver sec. 3.3). 1.9.4.
Uno
La funci´on uno, 1(x) es una funci´on constante que vale uno para cualquier valor de la variable independiente. Se define como 1(x) = 1. La diferencia entre el valor 1 y la funci´ on 1(x) es muy sutil y t´ıpicamente son intercambiables. S´ olo cuando queramos recalcar la idea de funci´ on le colocaremos argumento al 1. 1.9.5.
Tri´ angulo
La funci´on tri´ angulo, que se muestra en la figura 1.19 se define como
∧(x) =
1 0
− |x|
si x < 1 si x 1
| | | | ≥
1.9 Algunas funciones importantes
23 Triang(x)
1
1 x
Figura 1.19: La funci´ on tri´ angulo y su derivada delta(x)
1
1 x
Figura 1.20: El impulso La funci´on tri´ angulo es par, su valor en el origen es uno y el a´rea bajo la curva tambi´en lo es. La derivada del tri´ angulo (en l´ınea segmentada en la figura) es d dx
∧ (x) =
− 1 0
1
si 1 < x < 0 si 0 < x < 1 en otros casos
−
Para los valores en las discontinuidades ver la discusi´ on acerca de la funci´ on rect, que sigue. 1.9.6.
Impulso
El impulso δ (x) no es, en estricto rigor, una funci´ on matem´ atica, pero si se observan algunas precauciones se puede emplear como si lo fuera.
24
Introducci´ on rect(x)
1
1 x
Figura 1.21: La funci´ on rect y una aproximaci´ on a ella El impulso juega un papel important´ısimo en este libro, por lo que le dedicaremos una secci´on especial. Por ahora, s´ olo mencionaremos que cumple con las siguientes dos condiciones δ (x) = 0 si x = 0
y
∞
δ (x) dx = 1
−∞
y que lo representaremos como una flecha, ver figura 1.20. La flecha nos indica que el valor en el origen est´ a muy arriba (en el infinito) y que es cero en todos los otros lugares. El ´area del impulso, que se conoce como la magnitud del impulso, la graficaremos como la altura de la flecha. Es decir, la flecha tiene una altura de 2 para 2δ (x). Mucho cuidado se debe tener de no confundir la altura de la flecha con la amplitud del impulso. 1.9.7.
Rect
La funci´on Rect es una funci´on discontinua definida como
(x) =
1 0
si x < 1/2 si x > 1/2
| | | |
La figura 1.21 muestra su gr´ afica. ¿Qu´e pasa en x = 1/2? En realidad no es muy importante, despu´es de todo, ¿Qu´e es un simple punto? Por simetr´ıa se puede suponer que la funci´on rect vale 1/2 en la discontinuidad. Otra manera de ver el rect y no complicarse con la discontinuidad es suponer que hay una transici´ on suave entre el cero y el uno, as´ı el rect se obtiene tomando el l´ımite de la funci´ on suave cuando la derivada en x = 1/2 y x = 1/2 tiende a . A
−
∞
1.9 Algunas funciones importantes
25 sinc(x)
1
1 x
Figura 1.22: La funci´ on de interpolaci´ on sinc esta funci´ on la llamaremos la funci´ on aproximante. Por ejemplo se puede usar la funci´on que aparece con l´ınea de segmentos en la figura 1.21, es decir
1
α(x) = y se define
1 α
0
1+α 2
− | | x
si x < 1−2 α si 1−2 α < x < 1+α 2 si x < 1+α 2
| | || | |
(x) = αl´ı→m0 α(x). De esta manera se puede calcular la derivada de la funci´on rect, primero calcul´ andola en la funci´ on aproximante y luego tomando el l´ımite. Como veremos m´ as adelante la derivada del rect es d dx
(x) = δ (x + 1/2) − δ (x − 1/2)
La funci´on α nos da una herramienta para trabajar con el rect como funci´ on continua, sin embargo, su derivada no es continua. Si quisi´eramos obtener derivadas de mayor orden es conveniente emplear una funci´on aproximante m´ as suave.
1.9.8.
Sinc
La funci´on sinc (fig. 1.22), o funci´ on de filtraje o interpolaci´ on, se define como sinc x =
sen πx πx
La importancia de esta funci´ on proviene del hecho que es la transformada de Fourier del rect (la transformada de Fourier se trata en el cap´ıtulo 3). Esto implica, entre otras cosas, que: una se˜ nal que tiene forma de sinc es de ancho de banda limitado; la respuesta al impulso de un filtro pasa bajos perfecto es un
26
Introducci´ on asinc(x)
x
Figura 1.23: La funci´ on asinc sinc; y que la mejor interpolaci´ on que se puede hacer para obtener una muestra donde no la hay es con un sinc. La funci´on sinc cruza por cero en x = 1, 2, 3..., su valor en el origen es uno y el ´area total bajo la curva es tambi´ en uno.
| |
sen πα π cos πα = l´ım =1 α→0 πα α→0 π
sinc 0 = l´ım
∞
sinc x dx = 1
−∞
El m´ aximo en el l´ obulo central es 1, el m´ınimo en el segundo l´ obulo es aproximadamente -0,21 y el m´ aximo en el tercero es aproximadamente 0,13. Es bueno tener una idea de estos valores. Por lo menos sirven para dibujar el sinc correctamente. 1.9.9.
Asinc
La funci´on asinc (fig. 1.23) se define como asincN (x) =
sen πx(2N + 1) sen πx
y corresponde a una funci´on sinc que ha sido aliada (ver secci´on 6.6.1), es decir, est´ a formada por la suma de funciones sinc, desplazadas en 2N unas de otras. asincN (x) =
∞
j=
−∞
sinc(x
− j2N )
La importancia de esta funci´ on aparece en el dominio de tiempo discreto. Es la transformada de Fourier de tiempo discreto de un rect que ha sido muestreado con 2N muestras. Normalmente s´ olo se emplea un periodo de ella.
1.9 Algunas funciones importantes
27 Escalon(x)
1
1 x
Figura 1.24: La funci´ on escal´ on 1.9.10.
Escal´ on
La funci´on escal´ o n o de Heaviside, (x) =
(x) se define como (fig. 1.24)
1 0
si x > 0 si x < 0
Nuevamente se debe referir a los comentarios acerca de la funci´ on rect para determinar el valor del escal´ on en el origen. La derivada del escal´ on es d (x) = δ (x). dx 1.9.11.
Signo
La funci´on signo, sgn(x) se define como (fig. 1.25) sgn(x) =
1
−1
si x > 0 si x < 0
El signo es una funci´ on impar que puede ser expresada en t´ erminos de la funci´on escal´ on sgn(x) =
(x)
− (−x) = 2
(x)
− 1(x)
Por convenci´ on diremos que sgn(0) = 0. 1.9.12.
Shah
El impulso es un s´ımbolo que facilita mucho la operaci´ on matem´ atica de tomar una muestra. Como es natural que se deseen tomar muchas muestras a intervalos
28
Introducci´ on sgn(x)
1
1 x
Figura 1.25: La funci´ on signo shah(x)
1
1 x
Figura 1.26: Shah regulares, emplearemos un s´ımbolo especial para un impulso replicado, como se muestra en la figura 1.26. Se define la funci´on shah3 , (x) como (x) =
∞
n=
1.9.13.
−∞
δ (x
− n)
Horquilla y antihorquilla
De la misma manera que fue conveniente definir la funci´on shah, es conveniente definir las funciones horquilla, (x), y antihorquilla, (x), que son formadas por dos impulsos de a´rea 1/2 cada uno. La importancia de estas funciones radica en que son proporcionales a la transformada de Fourier de las funciones coseno y seno, respectivamente. Se define la funci´ on horquilla como (fig. 1.27)
↑↑
↑↑ (x) = 21 [δ (x + 1/2) + δ (x − 1/2)] 3
letra del alfabeto cir´ılico, ver [3]
↑↓
1.9 Algunas funciones importantes
29
horq(x) 1
1 x
Figura 1.27: La funci´ on horquilla
anti−horq(x) 1
1 x
Figura 1.28: La funci´ on anti-horquilla
30
Introducci´ on
y la funci´on antihorquilla como (fig 1.28)
↑↓ (x) = 21 [δ (x + 1/2) − δ (x − 1/2)] N´ otese que el a´rea total bajo la curva es uno para la horquilla y cero para la antihorquilla.
1.10.
El impulso
1.10.1.
Definici´ on
Es muy com´ un encontrarse con cantidades f´ısicas que concentran mucha energ´ıa en un instante de tiempo muy breve o en un espacio muy reducido, as´ı es como sucede con las masas puntuales, cargas puntuales, fuentes de luz puntuales, fuerzas concentradas, cargas superficiales, etc. Resulta u ´til contar con un s´ımbolo que sea apropiado para representar estas cantidades y a la vez provea una operatoria matem´ a tica. Se define un pulso de a´rea unitaria muy breve e intenso llamado impulso. Este impulso concentrado e infinitamente fuerte, δ (x) satisface las siguientes dos condiciones: δ (x) = 0 para x = 0
y
∞
δ (x) dx = 1.
(1.2)
−∞
Hay que hacer notar que el s´ımbolo δ (x) (empleado por Dirac en vez de p1 empleado por Heaviside) no es una funci´ on matem´ atica en estricto rigor, no obstante, la usaremos como tal; y que la integral (1.2) no es una cantidad con significado a menos que se establezcan algunas convenciones que nos permitan su interpretaci´ on. Por ejemplo, lo que la integral (1.2) puede representar es: 1 l´ım τ →0 τ
∞ −∞
x dx. τ
La funci´on τ 1 ( xτ ) es un pulso rectangular de alto τ 1 y ancho τ , por lo que tiene a´rea igual a uno. A medida que τ tiende a cero se genera una secuencia de pulsos de a´rea uno, que van incrementando su amplitud (fig. 1.29). En el l´ımite, se tiene un pulso muy breve y de amplitud muy grande, cuya integral es igual a la unidad.
1.10 El impulso
31
1/ τ
τ /2
x
Figura 1.29: Aproximaci´ on de un impulso con la funci´ on rect La forma del impulso no es relevante, en esta aproximaci´ on utilizamos un 1 x pulso rectangular de a´rea uno, τ ( τ ), pero bien pudo ser un pulso triangular de 2 ´area uno, τ 1 ( xτ ), o un perfil de gauss de la forma τ 1 exp( −τ πx 2 ), u otro.
∧
Rese˜ na hist´ orica
Paul Dirac
Paul Adrien Maurice Dirac naci´ o en Bristol, Gloucestershire, Inglaterra el 8 de agosto de 1902 y muri´ o en Tallahassee, Florida, Estados Unidos el 20 de octubre de 1984. Dirac recibi´o el premio Nobel de f´ısica en 1933 por su trabajo en f´ısica cu´antica descrito en The principles of Quantum Mechanics (1930). La funci´ on impulso, definida por Heaviside, se conoce tambi´ en como el delta de Dirac, ya que fue este ´ultimo quien defini´ o la notaci´on δ (t). Adem´ as es un reconocimiento a su inter´es en la relaci´ on entre las matem´aticas y la f´ısica. Paul Dirac
32
Introducci´ on
Esta forma de presentar el impulso, trae una consecuencia importante desde el punto de vista computacional: uno puede siempre remplazar δ (x) por τ 1 ( xτ ), o por otra forma de pulso, y tomar l´ımite, haciendo τ tender a cero. La siguiente es una receta para operar con impulsos. Sup´ongase que se desea realizar la operaci´ on O sobre un problema que involucra impulsos.
{·}
1. Reemplazar los impulsos por una funci´ on aproximante. 2. Realizar la operaci´ on O
{·}.
3. Tomar l´ımite del resultado para que la funci´ on aproximante tienda al impulso.
Rese˜ na hist´ orica
Oliver Heaviside
Oliver Heaviside naci´o en Camden Town, Londres, Inglaterra el 18 de mayo de 1850 y muri´o en Torquay, Devon, Inglaterra el 3 de febrero de 1925. Heaviside contribuy´o enormemente al desarrollo de la electricidad. Despu´ es de leer Treatise on Electricity and Magnetism de Maxwell (1873), simplific´ o las 20 ecuaciones con 20 inc´ognitas encontradas por Maxwell para describir el comportamiento de los campos el´ectrico y magn´etico a 2 ecuaciones en 2 variables. Las “ecuaciones de Maxwell” son, en realidad, las “ecuaciones de Heaviside”. A pesar de lo impresionante de los resultados que Heaviside obtuvo en electromagnetismo, es m´as conocido por Oliver Heaviside el c´ alculo operacional que desarroll´o entre 1880 y ´ reemplaz´ 1887 como herramienta en sus investigaciones. El o el operador diferencial d/dt por p para transformar las ecuaciones diferenciales en ecuaciones algebraicas. No era claro la validez de la metodolog´ıa hasta que fue demostrada por Bromwich cerca de la muerte de Heaviside. La funci´on impulso era denotada por Heaviside como p1, significando la derivada de la funci´on escal´on (conocida como el escal´on de Heaviside hoy).
Los impulsos se representan gr´aficamente como una flecha de altura igual a su integral de a´rea, es decir, altura uno para δ (x).
1.10 El impulso
33 f(x)
f(0)/ τ
−τ /2
τ /2
x
Figura 1.30: Propiedad del cedazo Una relaci´ on v´ alida entre el impulso y escal´ on unitario, se deriva de la propiedad x de que la integral −∞ δ (ξ )dξ es igual a la unidad cuando x es positivo e igual a cero cuando x es negativo. Entonces, siendo (x) la funci´ on escal´ on unitario, o de Heaviside, se tiene:
x
δ (ξ )dξ =
(x)
−∞
o
δ (x) = 1.10.2.
d (x) dx
La propiedad del cedazo
Analicemos, ahora, el significado de la expresi´ on:
∞
δ (x)f (x) dx
−∞
Para aplicar la receta de la secci´ on anterior, substituimos la integral y luego, tomando l´ımite, tenemos:
∞
−∞
δ (x)f (x) dx = l´ım
τ 0
∞
→ −∞
1 τ
( xτ ) por δ (x) en
1 τ
( xτ )f (x) dx.
En la figura 1.30 el integrando se muestra con l´ınea punteada. Su area ´ es 1 aproximadamente τ veces el ´area sombreada τ f (0), cuando τ 0. Es decir
→
34
Introducci´ on
tenemos
∞ −∞ ∞ −∞ ∞
o tambi´en
δ (x)f (x) dx = f (0),
δ (x
y
− a)f (x) dx = f (a)
δ (x)f (x
−∞
− a) dx = f (−a).
La importancia de esta propiedad es que permite extraer el valor de una funci´on en un punto en particular. De ah´ı su nombre: propiedad del cedazo4 . 1.10.3.
El impulso de una funci´ on
Es v´alido preguntarse qu´e significa δ (f (x)), despu´es de todo, la definici´ on del impulso depende de un l´ımite en el que el rango de la variable independiente juega un papel importante. Est´ a claro que δ (f (x)) vale cero para todos los valores de x en que f (x) sea distinto de cero. No es tan claro cu´ al es la magnitud, es decir, el a´rea bajo la curva, del impulso. Considerando al impulso como el l´ımite de una funci´ on rect, se tiene 1 T →0 T
( T x )
δ (x) = l´ım
La figura 1.31 muestra el rango (en el eje X ) donde la funci´ on rect vale 1. De la misma manera el rango para la funci´ on rect es mostrado en la figura 1.32 para δ (y) = δ (f (x)). En la figura, por simplicidad hemos considerado que olo un cruce por cero. N´otese que la funci´on delta es ahora funci´ on f (0) = 0 y s´ de y, por lo que lo relevante es el rango en y para que la funci´ on rect valga 1 ( 1/2T < y < 1/2T ). Con la ayuda de la figura se desprende que el rango para x se ve aumentado por el factor 1/f (0), donde se ha reemplazado la funci´ on por una recta en torno a cero (lo que es muy v´ alido ya que tomaremos el l´ımite cuando el rango tiende a cero). Obviamente no importa si la pendiente es positiva o negativa, por lo que debemos considerar el valor absoluto de la derivada, f (x) . Si el rango, es decir, la base de la funci´ on rect es distinta de 1/T , el ´area del rect deja de ser 1 y por lo tanto el ´area del impulso tambi´en. En definitiva para el caso en que f (x) sea monot´ onica y f (0) = 0 se tiene
−
|
δ (f (x)) = 4
En ingl´es, sifting
δ (x) . f (0)
|
|
|
1.10 El impulso
35
y
−1/2T
1/2T
x
Figura 1.31: Rango para el impulso
y
1/2T
x
−1/2T
Figura 1.32: Rango para el impulso de una funci´ on
36
Introducci´ on
Generalizar este resultado para cualquier f (x) (derivable en torno a las ra´ıces) es trivial: δ (x xn ) δ (f (x)) = f (xn ) n donde x n son las ra´ıces de f (x).
|
−
|
1.11 Ejercicios
1.11.
37
Ejercicios
1. Encuentre la parte par e impar de las siguientes funciones (t y x son reales): a ) f (t) = cos πt b) f (t) = sen πt c ) f (t) = t d ) f (t) = 12 log(2i) (i =
√ x √ f ) f (x) = x √ g ) f (x) = −x e ) f (x) =
3
√ −1)
h ) f (t) = e t
i ) f (x) = log x j ) f (t) = 42π k ) f (x) = (x)
l ) f (x) = (x) (derivada con respecto a x)
m ) f (x) = δ (x)
n ) f (x) = δ (x) 2. Cambie el origen de x para que f (x) sea impar. f (x) =
d −π(x−2)2 e dx
3. ¿Es impar una funci´ on impar de una funci´ on impar? ¿Qu´e se puede decir de funciones impares de funciones pares? ¿Y de funciones pares de funciones impares? 4. Demuestre que
∞
sinc x dx = 1
−∞
5. Grafique las partes par e impar de 1 1 + (t 1)2
−
38
Introducci´ on 6. Escriba la ecuaci´ on diferencial que describe el sistema de suspensi´ on de un autom´ ovil en que el resorte tiene una constante K [N/cm] y el amortiguador una constante C [Ns/cm]. Considere que la entrada del sistema es la cota del camino (en funci´ on del desplazamiento) y la salida la cota del autom´ ovil. 7. Intente graficar y comente la funci´ on l´ım τ sen τ x
τ
→∞
8. Defina δ (x) de dos maneras distintas (como l´ımite de dos funciones diferentes) y pruebe que son equivalentes. ¿Qu´e significa equivalencia en este caso? 9. Grafique una secuencia de funciones que defina δ (x). 10. Sea gθ (x) =
3(θ
− |x|)2 ( x ).
2θ 3 2θ Emplee g θ (x) como funci´ on aproximante de δ (x) para calcular
∞
δ (x) dx.
−∞
11. Calcule
∞
δ (x) dx
−∞
12. Demuestre que
−∞∞
− ξ )f (ξ ) dξ = f (x) b) δ (−x) = −δ (x) c ) xδ (x) = −δ (x) d ) δ (x) = (1 − ex )δ (x) e ) f (x)δ (x) = f (0)δ (x) − f (0)δ (x) a )
13. Calcule
δ (x
∞ ∧ −∞
(x
− 1)
(100x) dx
14. ¿Puede encontrar una soluci´ on general para f [f (x)] = f (x)? Note que f (x) = sgn(x) es una soluci´ on.
X
´INDICE GENERAL
8. Otras transformadas 8.1. Transformadas continuas . . . . . . . . . . . . . . 8.1.1. Transformada coseno y transformada seno 8.1.2. Transformada de Hankel . . . . . . . . . . 8.1.3. Transformada de Mellin . . . . . . . . . . 8.1.4. Transformada de Abel . . . . . . . . . . . 8.1.5. Transformada de Hilbert . . . . . . . . . . 8.1.6. Transformada de Gabor . . . . . . . . . . 8.2. Transformadas discretas . . . . . . . . . . . . . . 8.2.1. Transformadas seno y coseno discretas . . 8.2.2. Transformada de Walsh-Hadamard . . . . 8.3. Series . . . . . . . . . . . . . . . . . . . . . . . . 8.3.1. Introducci´ on . . . . . . . . . . . . . . . . 8.3.2. Transformada de Hermite . . . . . . . . . 8.3.3. Transformada de Laguerre . . . . . . . . . 8.3.4. Transformada de Legendre . . . . . . . . 8.3.5. Transformada de Chebyshev . . . . . . . . 8.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 9. Transformada de Fourier en dos dimensiones 9.1. Funciones . . . . . . . . . . . . . . . . . . . . . 9.1.1. Gauss . . . . . . . . . . . . . . . . . . . 9.1.2. Uno . . . . . . . . . . . . . . . . . . . . 9.1.3. Rect . . . . . . . . . . . . . . . . . . . . 9.1.4. Signo . . . . . . . . . . . . . . . . . . . 9.1.5. Jinc . . . . . . . . . . . . . . . . . . . . 9.1.6. Impulso . . . . . . . . . . . . . . . . . . 9.1.7. Impulsos de l´ınea . . . . . . . . . . . . . 9.1.8. Shah . . . . . . . . . . . . . . . . . . . . 9.2. Respuesta al impulso y convoluci´ on . . . . . . . 9.3. Transformada de Fourier . . . . . . . . . . . . . 9.3.1. Definici´ on . . . . . . . . . . . . . . . . . 9.3.2. Propiedades . . . . . . . . . . . . . . . . 9.3.3. Ejemplos . . . . . . . . . . . . . . . . . 9.4. Transformada de Fourier discreta . . . . . . . . 9.5. Ejercicios . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . .
213 . 213 . 214 . 214 . 215 . 215 . 216 . 217 . 219 . 219 . 220 . 221 . 221 . 223 . 223 . 224 . 224 . 225
. . . . . . . . . . . . . . . .
227 . 227 . 228 . 228 . 228 . 230 . 230 . 232 . 232 . 233 . 233 . 235 . 235 . 236 . 241 . 242 . 248
A. Contexto hist´ orico de la teor´ıa de Fourier
251
B. Expansi´ on en fracciones parciales
257