Introdução à Análise de Sinais e Sistemas
Edmar Candeia Gurjão e João Marques de Carvalho Professores DEE/CEEI/UFCG
Texto didático complementar para apoio ao ensino da disciplina Análise de Sinais e Sistemas do Curso de Engenharia Elétrica do CCT/UFPb.
Campina Grande, Paraíba, Brasil c João Marques de Carvalho, Janeiro de 2011
Este texto foi elaborado com o objetivo de apoiar o ensino da disciplina Análise de Sinais e Sistemas do Curso de Engenharia Elétrica do CCT/UFPb, visando complementar o livro texto adotado adotado na mesma. mesma. A matéria matéria aqui apres apresent entada ada,, corre correspond spondee ao prime primeiro iro terço terço do conteúdo conteúdo da disciplina, objeto do primeiro estágio de avaliação. A presente edição representa uma versão preliminar do texto, ainda sujeita a correções e modificações. Quaisquer comentários, críticas e sugestões que tenham por objetivo melhorar este documento, tanto na sua forma quanto no seu conteúdo, são bem-vindos. Por favor encaminhá-los ao autor pelo e-mail
[email protected] .
1
Conteúdo 1 Introdução
5
1.1 Sinais e sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Classificação de sinais e sistemas . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Apresentação do Texto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Sinais
6 7 9 11
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Operações com sinais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Soma e multiplicação de sinais . . . . . . . . . . . . . . . . . . . . . . 2.2. 2.2.22 Mult ultipli plicação ção e div divisão por por um escalar . . . . . . . . . . . . . . . . . . 2.2.3 Translação ou desloca ocamento . . . . . . . . . . . . . . . . . . . . . . . . 2.2. 2.2.44 Rebat batimento nto em torno do eixo vertical . . . . . . . . . . . . . . . . . . 2.2.5 Compressão e expansão . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Sinais pares e sinais ímpares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. 2.3.11 Deco Decomp mpos osiç içãão em comp compon onen enttes pare paress e ímpa mpares res . . . . . . . . . . . . . 2.4 Sinais periódi ódicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Alguns guns sinais básicos cos e suas propr opriedad dades . . . . . . . . . . . . . . . . . . . . . 2.5. 2.5.11 Sina Sinall degr degrau au uni unitári tárioo cont contín ínuo uo e dis discret cretoo . . . . . . . . . . . . . . . . . 2.5. 2.5.22 Sina Sinall impu impuls lsoo unit unitáário rio no temp tempoo cont contín ínuo uo . . . . . . . . . . . . . . . . . 2.5. 2.5.33 Sinal impul pulso uni unitário no tempo dis discreto eto . . . . . . . . . . . . . . . . . 2.5. 2.5.44 Rep Represe resent ntaç ação ão de sina sinais is atra atravé véss de impu impuls lsos os e degr degrau auss . . . . . . . . . . 2.5. 2.5.55 A expo expone nenc ncia iall comp comple lexa xa no temp tempoo cont contíínuo nuo . . . . . . . . . . . . . . . . 2.5. 2.5.66 Expo Expone nenc ncia iais is harm harmôn ônic icas as no temp tempoo cont contíínuo nuo . . . . . . . . . . . . . . . 2.5. 2.5.77 Sinais senoi noidai dais no tempo cont ontínuo . . . . . . . . . . . . . . . . . . . . 2.5. 2.5.88 A expo expone nenc ncia iall comp comple lexa xa no temp tempoo disc discre reto to . . . . . . . . . . . . . . . . 2.5. 2.5.99 Period eriodic icid idad adee da expon exponen enci cial al comp comple lexa xa disc discre reta ta . . . . . . . . . . . . . . 2.5. 2.5.10 10 Rela Relaçã çãoo ha harmôni rmônica ca entre entre exponen exponenci ciai aiss com comple plexa xass ddis iscr cret etas as . . . . . . . . 2
12 12 12 13 15 16 17 19 19 21 25 25 25 27 28 31 33 33 35 37 38
2.6 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3 Sistemas
42
3.1 Introdução . . . . . . . . . . . . . . . 3.2 Tipos de Sistemas . . . . . . . . . . . 3.2.1 Sistemas Lineares . . . . . . . 3.2.2 Sistemas Estacionários . . . . . 3.2.3 Sistemas Causais . . . . . . . . 3.2.4 Sistemas Estáveis . . . . . . . 3.2.5 Sistemas Inversíveis . . . . . . 3.2.6 Sistemas com ou sem Memória 3.3 Conclusão . . . . . . . . . . . . . . . 3.4 Exercícios . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .. . . . .
. . . . . . . . . . . . . . .. . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . . . .
. . . . . . . . . . . . . . .. . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .. . . . . . . .
. . . . . . . . . .
. . . . . . . . . . . . . . .. . . . .
. . . . . . . . . . . . . . .. . . . .
4 Sistemas Lineares Invariantes ao Deslocamento
4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Convolução Discreta e Resposta ao Impulso . . . . . . . . . . . . . . . . . . . . 4.3 Análise Gráfica da Convolução . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Propriedades da Convolução Discreta . . . . . . . . . . . . . . . . . . . 4.4 Propriedades de Sistemas LID . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Causalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Estabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 Memória . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.4 Inversão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Equações de Diferença com Coeficientes Constantes . . . . . . . . . . . . . . . 4.5.1 Sistemas com Resposta ao Impulso Finita . . . . . . . . . . . . . . . . . 4.5.2 Sistemas com Resposta ao Impulso Infinita . . . . . . . . . . . . . . . . 4.6 Implementação de Sistemas a Partir da Equação de Diferença . . . . . . . . . . 4.7 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Sistemas Lineares Invariantes no Tempo
43 45 45 47 48 49 50 51 51 52 54
55 55 57 61 63 64 64 65 66 67 67 69 71 77 78 80
5.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 5.2 A Integral da Convolução e Resposta ao Impulso . . . . . . . . . . . . . . . . . 81 5.2.1 Propriedades da Integral da Convolução . . . . . . . . . . . . . . . . . . 83 3
5.3 Análise Gráfica da Convolução . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.4 Propriedades de Sistemas LIT . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.4.1 Estabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.4.2 Inversão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.4.3 Memória . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.5 Equações Diferenciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.6 Implementação de Sistemas Descritos por Equações Diferenciais . . . . . . . . . 94 5.7 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 5.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 6 Análise de Fourier
102
6.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 6.2 A Série de Fourier Para Sinais Periódicos . . . . . . . . . . . . . . . . . . . . . 107 6.2.1 A Série Trigonométrica de Fourier . . . . . . . . . . . . . . . . . . . . . 112 6.2.2 A Convergência da Série de Fourier . . . . . . . . . . . . . . . . . . . . 114 6.3 A Transformada de Fourier para Sinais Não-Periódicos . . . . . . . . . . . . . . 117 6.3.1 A Convergência da Transformada de Fourier . . . . . . . . . . . . . . . 119 6.3.2 A Transformada de Fourier para Sinais Periódicos . . . . . . . . . . . . 123 6.3.3 Propriedades da Transformada de Fourier . . . . . . . . . . . . . . . . . 125 6.3.4 Cálculo da Transformada Inversa de Fourier . . . . . . . . . . . . . . . . 131 6.3.5 Análise de Sistemas representados por equações diferenciais lineares com coeficientes constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 6.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 7 Amostragem
136
7.1 Amostragem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 7.2 Modulação por Codificação de Pulsos . . . . . . . . . . . . . . . . . . . . . . . 143 7.2.1 Quantização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4
Capítulo 1 Introdução
5
1.1
Sinais e sistemas
Em geral, um sinal pode ser entendido como uma função de uma ou mais variáveis independentes, cuja variação representa o comportamento de algum fenômeno. Se nos restringirmos mais específicamente à Engenharia Elétrica, podemos, em geral, entender um sinal como uma grandeza cuja variação em função do tempo é usada para representar o comportamento de algum fenômeno elétrico. Deste modo, exemplos de sinais podem ser encontrados nas mais diversas áreas, como Telefonia, Automação e Controle, Geração e Transmissão de Energia, Processamento de Áudio, Voz e Imagens, dentre outras no domínio da Engenharia Elétrica. Em todos estes casos, dispositivos conhecidos como transdutores são usados para converter variações de fenômenos físicos, como a voz humana, o som de um instrumento musical, a imagem de uma cena, ou a temperatura de um processo químico, em variações de tensão ou corrente elétrica, ou seja, em um sinal elétrico. Um sistema é um dispositivo que produz transformações em sinais, como ilustrado na Figura 1.1. Um sistema é caracterizado por sua relação entrada/saída, ou seja, pela transformação que opera em um sinal aplicado à sua entrada para produzir um outro sinal em sua saída. Entrada
Transformação
Saída
Figura 1.1: Visão geral de um sistema Sinais e sistemas estão presentes em todos os ramos da Engenharia Elétrica e estudá-los, bem como à interação entre eles, é o objetivo da Análise de Sinais e Sistemas, intrroduzida neste livro. Sistemas são responsáveis pelo processamento de sinais , operação que consiste na aplicação de transformações sobre sinais visando, em geral, extrair informações ou realçar características que sejam de interesse para uma aplicação específica. Com o advento da eletrônica digital, o conjunto de técnicas e métodos usados para processamento de sinais, foi dividido em dois ramos. O mais tradicional destes ramos, conhecido como Processamento Analógico de Sinais, é responsável pelo tratamento de sinais que são funções da variável tempo contínuo. Mais recente, o outro ramo é conhecido como Processamento Digital de Sinais, tendo resultado da junção de técnicas analógicas adaptadas com outras técnicas inerentemente digitais, para tratar sinais que são discretos no tempo, ou seja, sinais para os quais a variável independente tempo assume uma forma discreta. Estes sinais também são conhecidos na prática como Sinais Digitais.
6
1.2
Classificação de sinais e sistemas
Para os propósitos deste livro, sinais são categorizados nas duas grandes classes já mencionadas, ou seja: 1. Sinais no Tempo Contínuo (STC) , ou simplesmente Sinais Contínuos: São funções da variável independente contínua tempo, geralmente denotada pela letra t . Estes sinais são definidos para qualquer valor de t , sendo representados pela notação x(t), y(t), v(t), etc. Os sistemas utilizados para transformar ou processar sinais contínuos são denominados, de forma análoga, Sistemas no Tempo Contínuo ou Sistemas Contínuos. 2. Sinais no Tempo Discreto (STD) , ou simplesmente Sinais Discretos: Para estes sinais, a variável independente, geralmente denotada por n, é definida somente para um conjunto discreto de valores, no caso o conjunto dos números inteiros. Analogamente, os sistemas utilizados para transformar ou processar sinais discretos são denominados Sistemas no Tempo Discreto, ou Sistemas Discretos. No caso de sinais discretos, considera-se que a variável tempo foi discretizada e que o sinal resultante consiste de uma sequência de números, ou amostras, ocorrendo para valores inteiros de n. Para valores não inteiros, a variável independente e consequentemente o sinal, simplesmente não são definidos. Figuras 1.2 e 1.3 ilustram como sinais contínuos e discretos, respectivamente, podem ser representados graficamente. Pode-se observar que, no caso contínuo, o comportamento do sinal é descrito por uma curva contínua, indicando que o mesmo está definido para qualquer valor de t . No caso discreto, o sinal só existe para valores inteiros da variável n, como indicado pela seqüência de pontos no gráfico da Figura 1.3. Para os demais valores de n , o sinal não deve ser interpretado como tendo valor zero. Simplesmente ele não é definido. Sinais no tempo contínuo são comumente usados para representar fenômenos na forma como eles aparecem na natureza. Como exemplo, podemos citar a curva de variação da temperatura de um ambiente ao longo do tempo ou o sinal sonoro produzido por um pássaro. Também existem vários dispositivos criados pelo homem que produzem sinais contínuos, seja na forma elétrica, como a tensão na saída de um gerador, seja na forma acústica, como os vários instrumentos musicais. Por outro lado, um sinal na forma discreta não aparece normalmente na natureza, sendo na maioria das vezes resultante de um processo chamado amostragem no tempo . Através deste processo, um sinal contínuo é observado ao longo do tempo, mas seu valor é registrado, ou amostrado, apenas a intervalos fixos desta variável. Desta forma, sinais discretos podem ser 7
s(t)
s(t) = 2 + sen(t) t
Figura 1.2: Representação gráfica de um SCT
s(n)
3 2 s(n) = 2 + sin n
1 -4
-3
-2
-1
0
1
2
3
4
n
Figura 1.3: Representação gráfica de um SDT
8
vistos como uma representação alternativa e mais compacta de sinais contínuos, a qual viabiliza o uso de técnicas e sistemas digitais no seu processamento. Como será visto no Capítulo 4, o intervalo de amostragem pode ser escolhido de modo a garantir que toda a informação contida no sinal é preservada e que o mesmo pode ser restaurado à sua forma original analógica quando necessário. É bastante comum a utilização da expressão Sinais Digitais para designar sinais no tempo discreto. Estritamente falando, sinais digitais constituem uma sub-classe dos sinais discretos, a qual assume valores em um conjunto também discreto. Portanto, sinais digitais são funções cujos domínio e contra domínio são ambos conjuntos discretos. Na prática, sempre lidamos com sinais digitais, já que as amostras resultantes do processo de amostragem tem que ser representadas e armazenadas através de palavras binárias e registros de tamanho finito, o que implica em uma quantidade finita e contável de valores que as mesmas podem assumir. Por este motivo, os sinais discretos assim obtidos são, corretamente, chamados de sinais digitais e os sistemas responsáveis pelo seu processamento de sistemas de processamento digital de sinais. Neste livro estudaremos sinais no tempo discreto no seu sentido mais amplo, ou seja, sem impor restrições aos valores que os mesmos podem assumir. Maiores detalhes sobre Processamento Digital de Sinais podem ser encontrados em vários livros já publicados sobre esta matéria.
1.3
Apresentação do Texto
A organização deste texto segue o padrão adotado pela maioria dos livros da área. No Capítulo 2 são apresentados os conceitos básicos relativos a sinais e sistemas para ambos os casos, tempo contínuo e tempo discreto. Inicialmente são examinadas as operações fundamentais que podem ser aplicadas aos sinais: soma, multiplicação, translação, rotação e compressão. Em seguida são definidas as categorias de sinais pares e sinais ímpares, sendo examinada a decomposição de um sinal em suas componentes pares e ímpares. A propriedade da periodicidade também é definida, analisada e exemplificada para as duas classes básicas de sinais. Para finalizar o Capítulo, são apresentados alguns sinais fundamentais que serão largamente utilizados ao longo do texto, bem como algumas de suas propriedades. Estes sinais são o impulso unitário, o degrau unitário, a exponencial complexa e o sinal senoidal. O Capítulo 3 é dedicado à apresentação das propriedades de sistemas, válidas tanto para o caso contínuo como para o caso discreto. Deste modo, são examinadas as definições de sistemas causais, com memória, inversíveis, estáveis, estácionários e lineares. No Capítulo 4, é estudada a classe dos sistemas discretos no tempo que possuem simultaneamente as propriedades da linearidade e da estacionaridade, conhecidos como Sistemas Lineares 9
Invariantes ao Deslocamento (LID). Sistemas LID permitem que sua saída seja expressa através da operação conhecida como convolução, realizada entre a entrada e uma função característica do sistema, denominada de resposta ao impulso. Neste capítulo uma expressão analítica para a convolução entre sinais discretos é derivada a partir das propriedades de um sistema LID, bem como é realizada uma análise gráfica desta operação. Também são examinadas as propriedades da convolução e a implicação das mesmas na interconexão de sistemas. Dentre outros aspectos e propriedades de sistemas LID ainda discutidos no Capítulo 4, destaca-se a representação dos mesmos por equações de diferença com coeficientes constantes, que leva à classificação de sistemas LID em recursivos, ou com resposta ao impulso de duração infinita (RII), e não-recursivos, ou sistemas com resposta ao impulso de duração finita (RIF). Para finalizar o Capítulo 4, são derivadas estruturas para implementação de sistemas LID a partir de sua equação de diferença. O Capítulo 5 analisa a classe dos sistemas contínuos no tempo lineares e estacionários, ou invariantes no tempo, conhecidos como sistemas LIT. Para estes sistemas é realisado um estudo equivalente ao apresentado no Capítulo 4 para sistemas LID. Inicialmente é derivada e analisada a integral da convolução contínua, que relaciona a entrada e a saída de sistemas LIT através da resposta ao impulso. Propriedades de sistemas LIT e a correspondente forma assumida pela resposta ao impulso destes sistemas são também descritas. Finalmente, neste capítulo é discutida a representação de sistemas LIT por equações diferenciais e integrais, levando à derivação de estruturas para a implementação dos mesmos.
10
Capítulo 2 Sinais
11
2.1
Introdução
Neste capítulo examinaremos algumas definições básicas relativas à sinais, para os dois domínios descritos no Capítulo 1: o do tempo contínuo e o do tempo discreto. Serão apresentadas várias operações possíveis de serem realizadas com e entre sinais e definidas algumas propriedades que podem ser usadas para caracterizar classes de sinais. Também serão definidos alguns sinais que desempenham um papel fundamental no estudo de sistemas lineares, os quais serão largamente utilizados no restante deste livro.
2.2 2.2.1
Operações com sinais Soma e multiplicação de sinais
As operações de soma e multiplicação consistem em adicionar ou multiplicar, os sinais envolvidos, ou seja, soma-se ou multiplica-se os respectivos valores dos sinais, para cada valor da variável independente. Os dois exemplos a seguir ilustram a soma e a multiplicação para ambos as classes de sinais, no tempo contínuo e no tempo discreto: Exemplo 2.2.1 Considere dois sinais contínuos, ou seja: x(t) = 2t y(t) = 3t
• Adição: g(t) = x(t) + y(t) = 2t + 3t = 5t • Multiplicação: z (t) = x(t) × y(t) = 2t × 3t = 6t2
A Figura 2.1 ilustra os sinais deste exemplo. Exemplo 2.2.2 Sejam dois sinais no tempo discreto: x(n) = 2n + 1 y(n) = n
• Adição: g(n) = x(n) + y(n) = (2n + 1) + (n) = 3n + 1 • Multiplicação: z (n) = x(n) × y(n) = (2n + 1) × (n) = 2n2 + 1
Estes sinais estão ilustrados na Figura 2.2.
12
g(t)
y(t) y(t) = 3t
g(t) = 5t
x(t) x(t) = 5t t t t
(a)
(b)
z (t)
(c)
z (t) = 6t2
t
(d)
Figura 2.1: Sinais contínuos, sua soma e multiplicação. 2.2.2
Multiplicação e divisão por um escalar
Para efetuar estas operações, multiplica-se ou divide-se, respectivamente, todos os valores do sinal pelo escalar, como exemplificado a seguir: Exemplo 2.2.3 Sejam os sinais z (t) e z (n) derivados nos exemplos 2.2.1 e 2.2.2, respectiva-
mente. A partir deles podemos definir os sinais v(t) e v(n), respectivamente, como descrito a seguir:
13
x(n)
y(n)
5
5
x(n) = 2n + 1
4
4
3
3
2
2
1
1
-1
0
1
2
n
-1
y(n) = n
0
1
(a)
2
n
(b)
g(n)
5
z (n)
4
-1
5
g(n) = 3n + 1
3
4
2
3
1
2 0
1
2
z (n) = 2n2 + 1
1
n
-1
0
(c)
1
2
n
(d)
Figura 2.2: Sinais discretos, sua soma e multiplicação. • Caso contínuo: z (t) = 6t2 1 1 v(t) = z (t) = t2 12 2
14
(2.1) (2.2)
• Caso discreto: z (n) = 2n2 + 7n + 3 1 1 2 7 3 v(n) = z (n) = (2n2 + 7n + 3) = n2 + n + 5 5 5 5 5
(2.3)
(2.4)
Os sinais obtidos neste exemplo, estão ilustrados na Figura 2.3. v(t)
v(n)
5
5
2
v(t) = t /2
-3
-2
-1
4
4
3
3
2
2
1
1 0
1
2
3
t
-3
-2
-1
(a)
0
1
2
3
n
(b)
Figura 2.3: Sinais multiplicados por um escalar.
Exemplo 2.2.4 Sejam g(t) = sin2t e Π(t) =
1, | t |≤ π/2 0,
c.c
(2.5)
o sinal g(t) = Π(t)f (t) consiste em um período da senóide representada por f (t).
2.2.3
Translação ou deslocamento
Esta operação consiste em adicionar uma constante, positiva ou negativa, à variável independente, portanto deslocando o sinal em relação à origem do sistema de coordenadas. Para o caso contínuo, esta operação é expressa como: • Sinal original: v(t) • Sinal transladado ou deslocado: v(t − t0 )
15
Similarmente, para o caso discreto (SDT): • Sinal original: v(n) • Sinal transladado ou deslocado: v(n − n0 )
Se o deslocamento é positivo, considera-se que o sinal sofreu um atraso, caso contrário o mesmo é dito estar adiantado. Exemplo 2.2.5 Para exemplificar a operação de deslocamento, considere os sinais v(t) e v(n)
obtidos no Exemplo 2.2.3: • Deslocar v(t) de t0 = −2 equivale a adiantar v(t) de 2: 1 v(t) = t2, g(t) = v(t − t0 ) = v[t − (−2)] = v(t + 2) 2 1 1 1 ⇒ g(t) = (t + 2)2 = (t2 + 8t + 4) = t2 + 4t + 2 2 2 2
(2.6) (2.7)
• Deslocar v(n) de n 0 = +2 equivale a atrasar v(n) de 2: 1 v(n) = (2n2 + 7n + 3), g(n) = v(n − n0 ) = v(n − 2) 5 1 1 ⇒ g(n) = [2(n − 2)2 + 7(n − 2) + 3] = (2n2 − n − 3) 5 5
(2.8) (2.9)
Os sinais deslocados v(t + 2) e v(n − 2), estão ilustrados na Figura 2.4.
2.2.4
Rebatimento em torno do eixo vertical
Esta operação equivale a inverter o sinal da variável independente, o que implica em ter o sinal rebatido em torno do eixo vertical. Exemplo 2.2.6 Considerando os sinais obtidos no exemplo 2.2.5, temos:
• Caso contínuo: 1 g(t) = t2 + 4t + 2 2 1 1 g(−t) = (−t)2 + 4(−t) + 2 = t2 − 4t + 2 2 2
(2.10)
(2.11)
• Caso discreto: 1 2 1 3 g(n) = (2n2 − n − 3) = n2 − n − 5 5 5 5 2 1 3 2 1 3 g(−n) = (−n)2 − (−n) − = n2 + n − 5 5 5 5 5 5
Os sinais rebatidos g(−t) e g(−n) podem ser vistos na Figura 2.8.
16
(2.12)
(2.13)
-4
-3
-2
-1
v(t)
v(n)
5
5
4
4
3
3
2
2
1
1 0
1
2
t
-3
-2
-1
0
(a)
1
2
3
n
(b)
Figura 2.4: (a) sinal adiantado g(t) = v(t + 2) , (b) sinal atrasado g(n) = v(n − 2).
-1
v(t)
v(n)
5
5
4
4
3
3
2
2
1
1 0
1
2
3
4
t
-3
(a)
-2
-1
0
1
2
3
n
(b)
Figura 2.5: Exemplo 2.2.6: (a) g(−t) = v(−t + 2), (b) g (−n) = v(−n − 2).
2.2.5
Compressão e expansão
Equivale a fazer uma mudança de escala, através da multiplicação da variável independente por uma constante α . Para α > 1 ocorre uma compressão, enquanto para α < 1 o sinal é expandido. Exemplo 2.2.7 Temos o seguinte exemplo de compressão e expansão para um sinal contínuo
17
no tempo: x(t) =
2 − |t|, |t| ≤ 2
(2.14)
0, c. c.
Considerando α = 2, a versão comprimida deste sinal é: g(t) = x(2t) =
2 − |2t|, |t| ≤ 1
(2.15)
0, c. c.
Enquanto para α = 21 , teremos uma versão expandida do sinal, dada por: v(t) = x
t = 2
2 − | 2t |, |t| ≤ 4
(2.16)
0, c. c.
Os sinais analisados neste exemplo estão ilustrados na Figura 2.6.
-3
-2
x(t)
g(t)
2
2
1
1
-1
0
1
2
3
t
-2
-1
0
(a)
1
2
t
(b)
v(t)
2 1 -4
-3
-2
-1
0
1
2
3
4
t
(c)
Figura 2.6: Exemplo de compressão e expansão: (a) sinal original, (b) sinal comprimido, (c) sinal expandido
18
2.3
Sinais pares e sinais ímpares
Um sinal par é insensível a um rebatimento em torno do eixo vertical, ou seja, é um sinal que obedece à condição: x(t) = x(−t)
(2.17)
x(n) = x(−n)
(2.18)
para o caso contínuo, ou
para o caso discreto. Contrariamente, um sinal é dito ser ímpar, quando sofre uma inversão de sinal (positivo ou negativo) como resultado do rebatimento em torno do eixo vertical. Portanto para um sinal ímpar é obedecida a condição: x(t) = −x (−t)
(2.19)
x(n) = −x(−n)
(2.20)
ou
conforme o sinal seja contínuo ou discreto, respectivamente. Os sinais seno e cosseno, que serão bastante utilizados ao longo deste livro, constituem exemplos bem conhecidos de sinal par e ímpar, respectivamente. 2.3.1
Decomposição em componentes pares e ímpares
É possível demonstrar que qualquer sinal pode ser expresso como a soma de dois sinais componentes, um par e o outro ímpar. Portanto, para um sinal contínuo qualquer x(t) temos: x(t) = x p (t) + xi (t),
(2.21)
em que as componentes par e ímpar são dadas, respectivamente, por: 1 x p (t) = [x(t) + x(−t)] 2
(2.22)
1 xi (t) = [x(t) − x(−t)] . 2
(2.23)
Similarmente, para um sinal discreto qualquer, x(n), temos: x(n) = x p (n) + xi (n),
19
(2.24)
com componentes par e ímpar, respectivamente, dadas por: 1 x p (n) = [x(n) + x(−n)] 2
(2.25)
1 xi (n) = [x(n) − x(−n)] 2
(2.26)
Os seguintes exemplos, ilustram a decomposição de sinais contínuos e discretos em componentes pares e ímpares. Exemplo 2.3.1 Considere o sinal no tempo contínuo: x(t) =
t, t ≥ 0
(2.27)
0, c.c.
Utilizando equações 2.22 e 2.23 para determinar suas componentes par e ímpar, respectivamente, obtemos os sinais ilustrados na Figura 2.7, ou seja: xi (t) x(t)
x p (t)
2
2
1
1
2 1 -2
-2
-1
0 (a)
1
2
t
-2
-1
0
1
2
-1
0
1
2
t
t
(b)
(c)
Figura 2.7: Decomposição do sinal x(t): (a) sinal original, (b) componente par e (c) componente ímpar
1 x p (t) = |t| = 2
1 t, t ≥ 0 2 1 t, t < 0 2
(2.28)
−
e 1 xi (t) = t 2
20
(2.29)
Exemplo 2.3.2 Considere o sinal no tempo discreto: x(n) =
1, 0 ≤ n ≤ 4
(2.30)
0, c.c.
As componentes par e ímpar deste sinal são obtidas a partir das equações 2.25 e 2.26, respectivamente, como ilustrado na Figura 2.9, resultando em:
1 , 2
x p (n) =
e
xi (n) =
2.4
1 ≤ |n| ≤ 4
(2.31)
1, n = 0 0, c.c.
1 , 2
1≤n≤4
−1 , −4 ≤ n ≤ −1 2
(2.32)
0, n = 0 0, c.c.
Sinais periódicos
Um sinal contínuo no tempo, x(t), é dito ser periódico se existe um valor positivo T para o qual a relação x(t) = x(t + T )
(2.33)
é válida para qualquer valor da variável t. O parametro T que satisfaz esta relação para qualquer valor de t é chamado de período do sinal. Similarmente, um sinal discreto no tempo, x(n), para o qual existe um valor inteiro positivo N tal que a relação x(n) = x(n + N )
(2.34)
é satisfeita para todo valor de n , é dito ser periódico com período N. A Figura 2.10 ilustra dois exemplos de sinais periódicos. No caso da Figura 2.10.a, podese observar que a relação de periodicidade dada por equação 2.33 será satisfeita por qualquer múltiplo inteiro de T 0. Portanto, o sinal pode ser considerado periódico para qualquer valor de período da forma T = mT 0 , para m inteiro. Uma situação semelhante pode ser observada na Figura 2.10.b, ou seja, para qualquer N = kN 0, k inteiro, a condição de periodicidade dada por equação 2.34 é satisfeita. 21
5 4 3 2 x(n) 1 -1
0
1
2
3
n
4 (a)
v(n)
5 4 3 2 1 -3
-2
-1
0
1
2
3
n
(b)
Figura 2.8: Exemplo 2.2.6: (a) g(−t) = v(−t + 2), (b) g (−n) = v(−n − 2). T 0 representa, portanto, o menor valor que o período do sinal x(t) na Figura 2.10.a pode
assumir, e é chamado de período fundamental de x(t). Analogamente, N 0 representa, para o sinal x(n) da Figura 2.10.b, o menor valor de N para o qual a equação 2.34 permanece válida, sendo assim denominado de período fundamental de x(n). Deste modo, equações 2.33 e 2.34 podem ser generalizadas para expressar a periodicidade de sinais contínuos e discretos, respectvamente, como: x(t) = x(t + mT ) ∀t,
22
m inteiro
(2.35)
x (n)
x p(n)
1
1 1/2
...
...
... 0
-1
1
2
3
4
5
6
7
8
...
-6
t n
-5
-4
-3
-2
-1
(a)
0
1
2
3
4
5
8
n
(b)
x i (n) 1 1/2 ...
-4 -6
-3
-2
...
-1 0
-5
1
2
3
4
5
6
n
-1/2 -1
(c)
Figura 2.9: Decomposição do sinal x(n): (a) sinal original, (b) componente par e (c) componente ímpar
x (n)
x(t) -1
(a)
-3
T0
-2 T0
-T0
0
T0
2T0
3T0
t
-2N 0
(a)
-N 0
0
N0
2N0
(b)
Figura 2.10: Exemplos de sinais periódicos: (a) SCT, (b) SDT
23
n
e x(n) = x(n + kN ) ∀n, k inteiro.
24
(2.36)
2.5
Alguns sinais básicos e suas propriedades
Examinaremos nesta seção alguns sinais básicos, ou seja, sinais que são utilizados para a representação de outros sinais e como base para o desenvolvimento da teoria de Transformadas e de Sistemas Lineares. Estes sinais serão extensivamente utilizados ao longo de todo este livro. 2.5.1
Sinal degrau unitário contínuo e discreto
O degrau unitário no tempo contínuo é um sinal designado pelo nome u(t) e definido por u(t) =
1, t ≥ 0
(2.37)
0, t < 0
Para o tempo discreto, o sinal degrau unitário é, analogamente, chamado de u(n) e definido como u(n) =
1, n ≥ 0
(2.38)
0, n < 0
Na figura 2.11 é ilustrada a representação gráfica do sinal degrau unitário, para ambos os casos descritos acima. u(t)
u(n)
1
1
... -3
-2
-1
0
1
2
3
4
t
-3
-2
(a)
-1
0
1
2
3
4
n
(b)
Figura 2.11: Sinal Degrau Unitário: (a) u(t), (b) u(n)
2.5.2
Sinal impulso unitário no tempo contínuo
Para o domínio do tempo contínuo, o sinal impulso unitário também é chamado de Delta de Dirac e identificado pela notação δ (t). A definição deste sinal é dada por δ (t) =
∞, t = 0
(2.39)
0, t =0
com a propriedade que
∞
−∞
ǫ
δ (t) dt =
−ǫ
25
δ (t) dt = 1,
(2.40)
para um parametro ǫ arbitrariamente pequeno. Ou seja, a área sob a curva do sinal possui valor unitário concentrado na origem. Analisando as equações 2.37, 2.39 e 2.40, é fácil concluir que δ (t) e u(t) estão relacionados pela expressão t
u (t) =
δ (λ) dλ
(2.41)
−∞
O sinal δ (t) é uma abstração matemática, não sendo fisicamente realizável. A sua definição pode ser melhor entendida quando vista como o caso limite de outros sinais, mais fácilmente visualizados. Por exemplo, considere a função g∆(t), ilustrada na figura 2.12.a e definida como g (t)
1/∆
− ∆/2
0
G (t)
∆
∆
1/∆
t
∆/2
0
−∆
(a)
∆
t
(b)
Figura 2.12: Sinais geradores do impulso: (a) g∆(t), (b) G δ (t)
g∆ (t) =
1 , ∆
|t| ≤
0, |t| >
∆ 2 ∆ 2
(2.42)
Claramente a área sob a curva de g∆ (t) é unitária, para qualquer valor de ∆. À medida que ∆ tende para 0, a amplitude do sinal, dada por ∆1 , tende para ∞, sempre com área igual a 1. Portanto, lim g∆ (t) = δ (t)
∆
→∞
(2.43)
Uma derivação semelhante de δ (t) pode ser feita utilizando o sinal G∆ (t), ilustrado na Figura 2.12.b. A representação gráfica de δ (t) é mostrada na Figura 2.13.a. O número ao lado da seta não indica o valor da função, mas sim a área da mesma, concentrada na origem. A seta indica que naquele ponto, t = 0, a amplitude do sinal é infinita. Impulsos, como qualquer outro sinal, podem ser escalonados e/ou deslocados, como ilustrado na figura 2.13.b. Neste caso, temos t +ǫ ∞ Kδ (t − t0) dt = K δ (t − t0) dt = K (2.44) t −ǫ −∞
0
26
0
δ (t)
K δ (t- t0 ) K
1
-2
-1
0
1
2
-1
t
0
(a)
1
2
t 0
t
(b)
Figura 2.13: Sinal Impulso Unitário: (a) δ (t), (b) Kδ (t − t0) para um número ǫ arbitráriamente pequeno. Como o impulso deslocado, δ (t − t0 ), é não nulo apenas em t = t0 , o produto deste por um sinal x(t) qualquer também será não nulo apenas no instante t0 , resultando em um impulso multiplicado pelo valor de x(t) em t = t0 . Portanto, temos:
x (t) δ (t − t0) = x (t0 ) δ (t − t0)
Integrando a equação 2.45 para todo t, obtemos: ∞
x (t0 ) δ (t − t0) dt = x (t0 )
−∞
∞
δ (t − t0) dt = x (t0 )
(2.45)
(2.46)
−∞
Equação 2.46 indica que o valor de um sinal x(t) qualquer em um dado instante t0 , pode ser extraído através da multiplicação do sinal por um impulso posicionado em t0 , seguida da integração do produto obtido. Esta propriedade, conhecida como propriedade da extração . 2.5.3
Sinal impulso unitário no tempo discreto
O impulso unitário discreto , ou simplesmente impulso discreto , também é chamado de sinal amostra unitária, sendo definido como δ (n) =
1, n = 0
(2.47)
0, n =0
Esta função é, portanto, conceitualmente mais simples e de mais fácil análise do que sua equivalente no domínio do tempo contínuo. A relação entre δ (n) e u(n) é dada, como pode ser fácilmente verificado, pela expressão n
u (n) =
k=
−∞
27
δ (k)
(2.48)
Na figura 2.14 estão ilustrados o impulso unitário posicionado na origem e o mesmo sinal multiplicado por uma constante K e deslocado de n 0 , ou seja, o sinal Kδ (n − n0 ). Neste caso, K representa efetivamente o valor assumido pelo impulso no ponto para o qual foi deslocado. δ (n)
K δ (n- n 0 )
K
1
-2
-1
0
1
n
2
-1
0
(a)
1
n0
2
n
(b)
Figura 2.14: Sinal Impulso Unitário Discreto: (a) δ (n), (b) Kδ (n − n0 ) Para δ (n), a propriedade da extração é expressa como
∞
x(n) δ (n − n0 ) = x(n0 )
(2.49)
k=
−∞
Veremos a seguir alguma aplicações de impulsos e degraus unitários na representação de sinais. 2.5.4
Representação de sinais através de impulsos e degraus
Frequentemente nos deparamos com sinais (contínuos e discretos) que só começam a assumir valores diferentes de zero a partir de um certo valor da variável independente. Também são bastante comuns os sinais de duração finita, ou limitada no tempo, os quais são não nulos apenas em intervalos finitos da variável independente ( t ou n). Nos exemplos a seguir veremos como o degrau unitário pode ser utilizado para fornecer uma representação analítica para estas classes de sinais. Exemplo 2.5.1 Como exemplo, consideremos os sinais: x (t) =
x (n) =
2 (t − t0 ) , t ≥ t0 0, t < t0
(2.50)
e 1 n n0 2
−
, n ≥ n0
0, n < n0
28
(2.51)
Os sinais exemplificados acima, estão ilustrados nas figuras 2.15.a e 2.15.b, respectivamente. Pode-se pensar nestes sinais como começando a existir a partir de um valor bem definido, t 0 ou n0 da variável independente. São, portanto, parcialmente limitados no tempo. x(t) x(n) 5
1
4 3 2 1
0
t 0
t 0 +2
0
t
n
0
n +1 0
n0 +2
n +3
n0 +4
0
n
(b)
(a)
Figura 2.15: Sinais do exemplo 2.5.1: (a) x(t), (b) x(n) Embora a especificação dos sinais dada por equações 2.50 e 2.51 seja bastante precisa, nem sempre é conveniente. Uma expressão analítica compacta para estes sinais muitas vezes é desejável e pode ser obtida através do degrau unitário, resultando em, respectivamente:
x (t) = [3 (t − t0 )] u (t − t0)
(2.52)
e x (n) =
1 2
n n0
−
u (n − n0 )
(2.53)
É fácil verificar que as equações 2.52 e 2.53 são exatamente equivalentes à equações 2.50 e 2.51, respectivamente. Exemplo 2.5.2 Considere agora os seguintes sinais de duração finita, ilustrados na figura 2.16. x (t) =
x (n) =
t, 0 ≤ t ≤ 2 0,
c.c.
n , 2
n≤n≤4
0,
c.c
(2.54)
e
(2.55)
A limitação no tempo destes sinais pode ser expressa analiticamente através da subtração de dois degraus unitários, resultando, respectivamente, em: x (t) = t [u(t) − u (t − 2)]
29
(2.56)
x(t)
x(n)
5
5
4
4
3
3
2
2
1
1
0
1
2
1
t
2
n
(b)
(a)
Figura 2.16: Sinais do exemplo 2.5.2: (a) x(t), (b) x(n) e x (n) =
n [u(n) − u (n − 5)] 2
(2.57)
Estas expressões, embora equivalentes, são mais compactas que as anteriores e mais adequadas para exprimir operações que envolvam os sinais. É interessante observar que no caso contínuo, equação 2.56, o degrau subtraído é deslocado para t0 = 2, que representa o limite à direita de x(t). Já no caso discreto, equação 2.57, o deslocamento é para n0 = 5, ou seja, uma unidade a mais do que o limite do sinal x(n). A explicação para esta observação é deixada a cargo do leitor.
Uma outra situação também encontrada com frequência quando lidamos com sinais discretos no tempo, é aquela em que um certo sinal x(n) é fornecido apenas como uma sequência de números, sem uma expressão matemática que descreva seu comportamento. Uma forma analítica para x(n) frequentemente é desejável e pode ser obtida através do impulso discreto δ (n). Para tanto, basta observar que cada um dos valores da sequência x(n) pode ser visto isoladamente como um impulso deslocado e escalonado. Esta situação é ilustrada na Figura 2.17 para uma sequência de duração finita, ou limitada no tempo. Deste modo, x(n) pode ser expresso como uma soma de impulsos deslocados de k e escalonados pelos valores x k = x(k), isto é: x (n) =x−2 δ (n + 2) + x−1δ (n + 1) + x0 δ (n) + x1 δ (n − 1) +
(2.58)
x2 δ (n − 2) + x3 δ (n − 3)
ou, equivalentemente: 3
x (n) =
xk δ (n − k)
k= 2
−
30
(2.59)
x(n)
x-1 x0 x-2
x1
2 -2
-1
0
3
1
n x-3 x2
Figura 2.17: Sequencia de impulsos deslocados e escalonados Claramente, esta equação pode ser generalizada para representar um sinal dado por uma sequência qualquer de valores. Portanto, para qualquer sinal discreto no tempo x( p odemos escrever: escrever: x(n), podemos ∞ (2.60) x (n) = x(k) δ ( δ (n − k) k=−∞
2.5.5 2.5.5
A exponen exponencia ciall compl complexa exa no tempo tempo cont contínu ínuo o
Para o domínio do tempo contínuo, o sinal exponencial complexa é uma função da forma: jω )t x (t) = e st = e (σ+ jω)
(2.61)
= σ + + j jω ω. em que s é um parâmetro complexo dado por s = σ Um caso particular de x(t) ocorre quando s é real, real, resultando resultando na exponenci exponencial al real. Neste Neste caso, o sinal assume a forma x(t) = c t em que c = eσ . Este sinal é ilustrado na Figura 2.18.a para σ > 0 ( c > 1, exponencial crescente) e na Figura 2.18.b para σ < 0 (c < 1, exponencial decrescente). Uma outra situação extremamente extremamente relevante relevante no estudo de sinais e sistemas, sistemas, é aquela em que s é um número imaginário puro dado por s = j = jω ω0, resultando em x (t) = e jω
0
t
(2.62)
Através da relação de Euler, este sinal pode ser expresso como:
x (t) = (cos ω0 t + jsen jsen ω0 t)
(2.63)
É fácil verificar verificar se a exponencial complexa dada por equação 2.62 é um sinal periódico. Para Para x (t + T + T )) para algum período T . Verificando, temos: tanto, deve satisfazer satisfazer a condição condição x(t) = x( x (t + T ) T ) = e jω
0
(t+T ) T )
= e jω t e jω 0
31
0
T
= e jω T x (t) . 0
(2.64)
x(t)
-4
-3
-2
-1
x(t)
5
5
4
4
3
3
2
2
1
1
0
1
2
3
4
-1
-4
t
-3
-2
-1 0
1 -1
2
3
4
t
-2
-2
(a)
(b)
Figura 2.18: Exponenciais contínuas reais: (a) crescente, (b) decrescente. Este resultado significa que a condição de periodicidade será satisfeita se e jω e jω
0
T
0
= cos ω0T + jsen jsen ω0T = 1
T
= 1, ou seja,
(2.65)
Equação 2.65 é verdadeira se ω0T = 2πm, para m inteiro. Isto implica em que o sinal será periódico para valores de T que sejam múltiplos inteiros de ω2π , ou seja, 0
T =
2π m , m inteiro. ω0
(2.66)
O menor valor que T pode assumir assumir é chamado de período fundamental T 0 e é obtido fazendo m = 1: T 0 =
2π (segs) segs) . ω0
(2.67)
A constante ω0 , que é inversamente proporcional a T 0, é definida definida como sendo a frequên frequência cia fundamental do sinal, ou seja, 2π ω0 = T 0
rad r ad . segs
32
(2.68)
2.5.6 2.5.6
Exponen Exponencia ciais is harmô harmôni nicas cas no no tempo tempo contín contínuo uo
Considere o conjunto I k (t) de sinais exponenciais complexas da forma: I k (t (t) = e jk ω t, k = 0, ±1, ±2. · · ·
0
(2.69)
Deixemos de lado por enquanto o caso k = 0, que corresponde a um sinal constante. Podemos verificar que o sinal com maior período fundamental deste conjunto e consequentemente com a menor frequência fundamental, é obtido para k = 1, ou seja: I 1 (t (t) = e jω
0
t
(2.70)
com período e frequência fundamentais T 0 e ω 0, respectivamente. respectivamente. Para Para todos os demais valores valores de k, o sinal correspondente possui frequência fundamental ω0k = kω 0 e período fundamental 2π T 0k = kω = T k . Esta caracter característica ística faz com que as exponenciais que compõem o conjunto I k (t) sejam chamadas exponenciais harmônicas, ou exponenciais harmonicamente relacionadas. Todos os sinais membros deste conjunto possuem frequência fundamental múltipla de uma frequência ω0 , chamada de frequência fundamental do conjunto. Também pode ser observado que todos estes sinais são periódicos com período T 0 = ω2π , já que T 0 é um múltiplo inteiro de T 0k , o período fundamental do sinal. Estas propriedades estão ilustradas na Figura 2.19 para um sinal senoidal, para k = 1, 2, 3. Como a exponencial complexa é a soma de dois sinais senoidais, um real e um imaginário, as conclusões acima valem igualmente para senos e cossenos. É interessante interessante notar notar que estas conclusões conclusões também são válidas válidas para k = k = 0. O sinal constante qualquer valor de período, podendo p odendo porta p ortanto nto I 0 (t) = 1 satisfaz a definição de periodicidade para qualquer ser considerado como pertencente ao conjunto. Exponenciais harmônicas desempenham um papel relevante ná análise de sinais e sistemas contínuos no tempo, como será visto no decorrer deste livro. 0
0
0
2.5.7 2.5.7
Sinai Sinaiss senoi senoidai daiss no no tempo tempo contí contínuo nuo
A partir da exponencial complexa, podemos usar a relação de Euler na sua forma inversa para definir os sinais senoidais seno e cosseno, respectivamente, como: cos ω0 t =
1 jω t e + e− jω 2
sen ω0t =
1 jω t − e− jω e 2 j
33
0
0
0
t
0
t
(2.71)
(2.72)
(a)
k=1
(b)
k=2
(c)
k=3
0
T0 /3
T0 /2
2T0 /3
Figura 2.19: Senóides harmonicas: (a) senω0 t, (b) sen2ω0 t, (c) sen3ω0 t
34
T0
Os sinais senoidais, definidos por equações 2.71 e 2.72, podem ser unificados na forma: x (t) = cos (ω0 t + φ)
(2.73)
O parametro φ é chamado de fase do sinal senoidal. Para φ = 0, equação 2.73 se torna a função cosseno da equação 2.71. Para φ = π2 , obtem-se a função seno, dada por equação 2.72. Sinais senoidais, ou senóides, e exponenciais complexas estão intimamente relacionadas, como pode ser visto por equações 2.63, 2.72 e 2.71. Conceitos como o de frequência fundamental, período fundamental e relação harmônica, dentre outros, podem ser facilmente extendidos de uma destas classes de sinais para a outra. Por este motivo, devido à facilidade de sua representação gráfica, senóides serão frequentemente usadas ao longo deste livro para ilustrar conceitos e propriedades relativas à exponenciais complexas, como no caso das exponenciais harmônicas descritas na seção anterior. 2.5.8
A exponencial complexa no tempo discreto
Considerando o parâmetro complexo z = re jΩ , o sinal exponencial complexa discreta é definido como: x (n) = z n = r n e jΩn.
(2.74)
No caso em que z possue componente imaginária nula (ou seja, para Ω = 0), assumindo portanto a forma de um número real, o sinal x(n) será uma exponencial real, expressa por: x (n) = r n
(2.75)
A forma de x(n), portanto, depende do valor da constante r. Para |r| > 1 , teremos uma exponencial crescente, enquanto para |r| < 1 a exponencial será decrescente. Estas duas situações são ilustradas na figura 2.20. De particular interesse, é o caso em que z é uma grandeza complexa da forma z = e jΩ (ou seja, r = 1), o que resulta em: 0
x (n) = e jΩ
0
n
(2.76)
Através da relação de Euler, esta forma de x(n) nos leva ao sinal senoidal complexo no tempo discreto: x (n) = e jΩ
0
n
= (cosΩ0 n + jsen Ω0 n)
35
(2.77)
x(n)
x(n)
8
8
7
7
6
6
5
5
-4
-3
-2
...
...
4
4
3
3
2
2
1
1
-1
0
1
2
3
-3
n
-2
-1
(a)
0 1
2
3
4
n
(b)
Figura 2.20: Exponenciais discretas reais: (a) crescente, (b) decrescente em que: cosΩ0 n =
1 jΩ e 2
sen Ω0 n =
1 jΩ e 2 j
e
n
0
0
+ e− jΩ
n
n
0
− e− jΩ
0
(2.78)
n
(2.79)
Os sinais cos Ω0 n e sen Ω0 n são conhecidos como seno e cosseno discretos, respectivamente. Como no caso contínuo, estes sinais podem ser unificados na forma geral:
x (n) = cos (Ω0 n + Φ)
(2.80)
O parametro Φ representa a fase do sinal senoidal discreto no tempo. Para Φ = 0, temos x(n) = cosΩ0 n. Quando Φ = π2 , obtemos x(n) = sen Ω0 n. A Figura 2.21 ilustra um período de um sinal seno discreto, com N = 12. x(n)
7
0
1
2
3
4
6
5
8
9
10
11
n
Figura 2.21: Sinal senoidal discreto e periódico x(n) = sen ( π6 n)
36
2.5.9
Periodicidade da exponencial complexa discreta
A propriedade da periodicidade pode ser verificada para a exponencial complexa discreta. Supondo a existência de um período N , tal que x(n) = x(n + N ), temos: x (n + N ) = e jΩ
0
(n+N )
= e jΩ
0
n
· e jΩ
0
N
= e jΩ
0
n
= x(n)
(2.81)
Deste modo, para que o sinal seja periódico, o período N tem que satisfazer e jΩ N = 1. Esta igualdade é satisfeita quando Ω 0 N for um múltiplo inteiro de 2π, i.e., deve existir um inteiro m tal que Ω 0 N = 2πm e neste caso o período fundamental do sinal será dado por: 0
N =
2π m. Ω0
(2.82)
Este resultado significa que uma exponencial complexa discreta (e por extensão um sinal senoidal discreto) não é periódica, como acontece no caso contínuo, para qualquer valor da frequência Ω0 . Reescrevendo a equação 2.82, temos que a condição de periodicidade pode ser expressa como: Ω0 m = 2π N
(2.83)
Este resultado significa que periodicidade para este tipo de sinal ocorre apenas se for possível exprimir Ω2π como uma razão entre dois números inteiros, ou seja, como um número racional. A Figura 2.22 ilustra um sinal senoidal não periódico, x(n) = cos( 23 n). Para este sinal, Ω 0 = 32 , o que significa que a condição expressa por equação 2.83 não é satisfeita, pois Ω2π = 3π1 não é um número racional. A frequência fundamental é definida como a grandeza inversamente proporcional ao período fundamental, sendo 2π o fator de proporcionalidade. Portanto, a partir da equação 2.82 podemos obter a frequência fundamental do sinal como: 0
0
Ω0 =
2π m. N
(2.84)
Equações 2.82 e 2.84 assumem que m e N não possuem fatores comuns. Quando isto ocorre, o período fundamental do sinal será dado por: N 0 =
N , m.d.c. (m, N )
onde m.d.c. (m, N ) representa o máximo divisor comum de m e N .
37
(2.85)
x(n) 1
...
...
3 -1
0
1
4
5
6
7
8
2
9
10
11
n
-1
Figura 2.22: Sinal senoidal não-periódico x(n) = cos( 23 n) 2.5.10
Relação harmônica entre exponenciais complexas discretas
Um conjunto de exponenciais complexas discretas é dito ser harmônico quando todas suas componentes possuem um período comum N . Isto equivale a dizer, que todos os sinais deste conjunto possuem frequência múltipla da frequência Ω0 chamada de frequência fundamental do conjunto. É fácil verificar que estas restrições são satisfeitas por sinais da forma: 2 π
I k (n) = e j N kn , k = 0, ±1, ±2. · · · .
(2.86)
Embora a definição acima seja exatamente igual àquela usada para o caso de exponenciais harmonicas contínuas, uma diferença fundamental existe no caso discreto. Esta diferença pode ser constatada se observarmos que um sinal da forma dada por equação 2.86 é periódico em relação ao índice k , com período N . Deste modo, temos:
I 0 (n) = I N (n) = I 2N (n) = · · · = 1 2π
I 1 (n) = I N +1 (n) = I 2N +1 (n) = · · · = e j N n
···· ···· ···· 2 π
2 π
I N −1 (n) = I 2N −1 (n) = I 2N −2 (n) = · · · = e j N n(N −1) = e − j N n
38
2π
As igualdades acima significam que só existem N sinais distintos da forma I k (n) = e jk N n . Portanto, o conjunto destes sinais só precisa ser especificado para N valores consecutivos de k. Esta é uma propriedade intrínsica de exponenciais discretas, para a qual não existe paralelo no caso contínuo. Como vimos anteriormente, o conjunto de exponenciais harmônicas contínuas da forma I k (t) = e jkω t , é um conjunto composto por infinitos sinais distintos. À medida que k aumenta, cresce a taxa de oscilação, ou frequência do sinal, como ilustrado na Figura 2.19. Deste modo, para cada valor de k, um sinal distinto é obtido. Para sinais discretos no tempo, entretanto, somente N exponenciais distintas são obtidas com o aumento de k . O conjunto de exponenciais harmonicamente relacionadas é, portanto, um conjunto finito com N componentes. Esta propriedade é de extrema relevância na representação de sinais periódicos discretos por séries de Fourier, como será visto no Capítulo ??. 0
2.6
Conclusões
Neste Capítulo vários conceitos fundamentais sobre sinais foram apresentados e analisados, considerando a classificação de sinais em contínuos e discretos no tempo. Deste modo, quando cabível, estabeleceram-se paralelos entre estas classes aproveitando semelhanças de conceitos e propriedades, bem como foram realçadas diferenças entre elas e particularidades de cada uma, sempre que necessário. No próximo Capítulo um procedimento semelhante será seguido, no estudo das propriedades e conceitos de sistemas.
39
2.7
Exercícios
Exercício 2.1 Sejam os sinais x(t) = t + 1 e y(t) = t − 1. Esboce os sinais g (t) = x(t) + y(t)
e h(t) = x(t)y(t) para −2 ≤ t ≤ 2. Exercício 2.2 Sendo g(t) = cos ω1 t e h(t) = cos(ω1 t + φ), determine a expressão de s(t) = g(t)h(t). Escolha três valores para φ e esboce o sinal resultante. Exercício 2.3 Mostre que o produto de dois sinais pares sempre é par. Exercício 2.4 Usando algum software esboce um sinal periódico. Exercício 2.5 Seja z (t) = e j2π100t , esboce x(t) = Re(z (t)), y(t) = Im(z (t)) e um gráfico x(t) × y(t) × t. Exercício 2.6 Determine se cada um dos sinais abaixo é periódico. Em caso afirmativo deter-
mine o seu período fundamental. Justifique suas respostas. 1. x(t) = Ímpar {[cos (2πt)] u(t)} (componente ímpar) 2. x(n) = 2cos(πn/4) − 2cos(πn/2 + π/6) + sen(πn/8) 3. x(n) = cos
8πn 7
π 6
+
4. x(t) =Par sen 2πt + π4
(componente par)
u(t)
Exercício 2.7 Determine se cada um dos sinais abaixo é periódico. Em caso afirmativo deter-
mine o seu período fundamental. Justifique suas respostas. 1. x(t) = Ímpar sin 2πt +
2. x(n) = cos( 8πn + 3π ) 7 4
π 4
u(t)
(componente ímpar)
Exercício 2.8 Indique as propriedades do sinal abaixo f (t) =
sin(2πt)/t t ≥ 1 0
t < 1
Exercício 2.9 Mostre que é possível utilizar a função Π(t) (Equação 2.5) e seus deslocamentos
para extrair períodos de um sinal g(t) periódico. Exercício 2.10 Seja x(t) = cos 2πf 1t, utilize as funções degrau para obter um sinal p(t) que
ao ser multiplicado por x(t) gera um sinal y(t) composto apenas pelo primeiro período de x(t).
40
Exercício 2.11 Modifique a expressão de p(t) do exercício anterior para que se possa obter um
sinal y(t) composto por qualquer dos períodos de x(t). Exercício 2.12 Modifique novamente a expressão de p(t) do Exercício 2.10, para que se possa
obter um conjunto qualquer de períodos consecutivos de x(t). Exercício 2.13 Seja y(t) = e(σ+ jω)t+ jθ , esboce as partes real e imaginária de y(t) para a) σ < 0 , b) σ > 0 e c) σ = 0. Exercício 2.14 Seja y[n] = e(σ+ jω)n+ jθ , esboce as partes real e imaginária de y[n] para a) σ < 0 , b) σ > 0 e c) σ = 0.
41
Capítulo 3 Sistemas
42
3.1
Introdução
Na Engenharia Elétrica, um sistema pode ser definido como uma transformação que é aplicada em um sinal, chamado de sinal de entrada, para produzir outro sinal, chamado de sinal de saída. Portanto, a utilização de sistemas tem por objetivo transformar sinais, visando torná-los mais adequados para as aplicações desejadas. Para os sinais no tempo contínuo, a operação de um sistema é representada por y (t) = T [x (t)]
(3.1)
Similarmente, no tempo discreto a transformação produzida por um sistema sobre um sinal x(n) é expressa por: y (n) = T [x (n)]
(3.2)
Gráficamente, esta definição pode ser ilustrada como na Figura 3.1, em que o sistema é representado por uma caixa, T [ ] representa a transformação, x(t) e x(n) são os sinais de entrada e y(t) e y(n) os respectivos sinais de saída. x(t)
y(t) T[ ]
(a) x(n)
y(n) T[ ]
(b)
Figura 3.1: Representação de sistemas: (a) no tempo contínuo, (b) no tempo discreto É fácil verificar que a definição de sistema apresentada acima é ampla o suficiente para representar qualquer fenômeno, natural ou não, que produza alterações em sinais. A transformação T [ ] caracteriza o sistema, fornecendo a relação sinal de entrada/sinal de saída para o mesmo. Exemplo 3.1.1 Um sistema prático, bastante conhecido, é o retificador de onda completa,
utilizado na construção de fontes de alimentação de circuitos eletrônicos. A transformação que
43
caracteriza este sistema é expressa como: y (t) = T [x (t)] =
x (t) , x (t) ≥ 0
(3.3)
−x (t) , x (t) < 0
ou y (t) = T [x (t)] = |x (t)|
(3.4)
A Figura 3.2 ilustra a operação deste sistema para uma entrada senoidal, i.e., x(t) = cosω0 t. Pode ser observado que o sinal de saída y(t) também é periódico, com período T 1 igual à metade do período T 0 de x(t).
(a)
(b) T1 T0
Figura 3.2: Efeito do retificador de onda completa: (a) sinal de entrada com período T 0, (b) sinal retificado com período T 1 = T 2 0
Exemplo 3.1.2 Um exemplo de sistema discreto, também bastante utilizado na prática é o
sistema acumulador. Este sistema acumula, ou soma, os valores de x(n) para produzir y(n), ou seja: n
y (n) = T [x (n)] =
x (k)
(3.5)
k=
−∞
A operação do sistema acumulador é ilustrada na Figura 3.3, para um sinal degrau unitário aplicado na entrada, i.e., x(n) = u(n).
A definição de sistema fornecida por equações 3.1 e 3.2, é muito geral para ser de utilidade prática. Algumas restrições precisam ser impostas sobre a transformação característica T [ ], de modo a viabilizar sua utilização. Destas restrições resultam diversos tipos ou classes de sistema, como veremos a seguir. 44
4 3 x(n)
y(n)
2 1
1 ... -3
-2
-1
0
1
2
3
... -3
n
(a)
-2
-1
0
1
2
3
n
(b)
Figura 3.3: Efeito do acumulador: (a) sinal degrau unitário, (b) sinal de saída do acumulador
3.2
Tipos de Sistemas
Sistemas são classificados de acordo com as propriedades apresentadas por sua transformação característica. Os tipos analisados nesta seção correspondem às propriedades mais comumente encontradas, ou desejadas, na modelagem de sistemas reais. 3.2.1
Sistemas Lineares
Um sistema é dito linear, quando a sua relação entrada/saída, ou seja, sua transformação característica T [ ], obedece ao princípio da superposição. Isto significa dizer que T [ ] deve satisfazer simultaneamente a propriedade da homogeneidade , ou seja, T [ax (t)] = aT [x (t)]
(3.6)
e a propriedade da aditividade , isto é, T [x1 (t) + x2 (t)] = T [x1 (t)] + T [x2 (t)] ,
(3.7)
para dois sinais quaisquer x1 (t) e x2 (t) e uma dada constante a. A combinação das equações 3.6 e 3.7 resulta na propriedade, ou princípio, da superposição, que pode ser expressa como: T [ax1 (t) + bx2 (t)] = aT [x1 (t)] + bT [x2 (t)] .
(3.8)
para um dado par de constantes a e b. Embora as equações acima considerem sinais no tempo contínuo, as mesmas podem ser fácilmente aplicadas para o caso discreto. Deste modo, um sistema no tempo discreto é linear quando sua transformação característica obedece ao princípio da superposição para sinais 45
discretos, ou seja:
T [ax1 (n) + bx2 (n)] = aT [x1 (n)] + bT [x2 (n)]
(3.9)
para duas constantes a e b e dois sinais quaisquer x1 (n) e x2(n). Em um sistema linear, a superposição é verificada para qualquer combinação linear de sinais na entrada. Portanto, a equação 3.8 pode ser generalizada como: ∞ ∞ ∞ (3.10) T ai xi (t) = T [ai xi (t)] = ai yi (t) i=−∞ i=−∞ i=−∞ em que
yi (t) = T [xi (t)] .
Similarmente, a generalização da equação 3.9 resulta em: ∞ ∞ ∞ T
i=
em que
−∞
bi xi (n) =
T [bi xi (n)] =
i=
−∞
yi (n) = T [xi (n)] .
bi yi (n)
(3.11)
(3.12)
i=
−∞
(3.13)
Os parametros ai e bi são os coeficientes da combinação linear e xi (t) e xi (n) são os sinais aplicados na entrada dos sistemas contínuos e discretos no tempo, respectivamente. A noção básica que deve ser extraída da definição de sistema linear, é que se um sinal de entrada pode ser expresso como uma combinação linear de vários outros sinais, isto é: ∞ (3.14) x (t) = ai xi (t) i=−∞ ou ∞ x (n) = bi xi (n) (3.15) i=−∞ então o sinal de saída pode ser determinado como a combinação linear das saídas produzidas pelo sistema para cada uma das componentes da entrada, ou seja, ∞ y (t) = ai yi (t) (3.16) i=−∞ ou ∞ y (n) = bi yi (n) , (3.17) i=−∞ respectivamente. Esta constatação é a base de toda a teoria de análise de sinais e sistemas lineares através de transformadas, como será visto nos capítulos subsequentes.
46
3.2.2
Sistemas Estacionários
Sistemas Estacionários também são conhecidos como Sistemas Invariantes no Tempo , no caso contínuo, ou Sistemas Invariantes ao Deslocamento , no caso discreto. Um sistema é estacionário, quando sua transformação característica é tal que o único efeito resultante da aplicação de um deslocamento no sinal de entrada é um deslocamento de igual valor no sinal de saída correspondente. Portanto, considerando y(t) = T [x(t)] e y(n) = T [x(n)], esta propriedade, no caso contínuo, pode ser expressa como: T [x (t − t0 )] = y (t − t0 )
(3.18)
e no caso discreto como:
T [x (n − n0 )] = y (n − n0 ) .
(3.19)
Estacionaridade, ou invariância, significa que o sinal de saída do sistema não depende do instante particular de tempo em que a entrada é aplicada. Em outras palavras, a tranformação característica do sistema não é função da variável independente ( t ou n). Exemplo 3.2.1 Um exemplo de sistema contínuo invariante no tempo, é o retificador de onda
completa descrito no exemplo 3.1. Esta propriedade pode ser constatada pela aplicação da equação 3.18 sobre a equação 3.3. Exemplo 3.2.2 Um exemplo de sistema contínuo não estacionário, ou variante no tempo, é
dado por: y (t) = T [x (t)] = tx (t)
(3.20)
que corresponde a um sistema amplificador com fator de amplificação, ou ganho, variável (função do tempo). Para este sistema, temos: T [x (t − t0 )] = t x (t − t0)
(3.21)
e y (t − t0 ) = (t − t0 ) x (t − t0 ) .
(3.22)
Equações 3.21 e 3.22 são claramente distintas, resultando em variância no tempo, ou não estacionaridade.
47
Exemplo 3.2.3 Para o caso discreto, o sistema acumulador descrito no Exemplo 3.2, é um
exemplo de sistema estacionário, ou invariante ao deslocamento. Verificando esta propriedade em equação 3.5, temos: n n0
−
T [x (n − n0 )] =
x (k) = y (n − n0 )
(3.23)
k=
−∞
Exemplo 3.2.4 Como exemplo de sistema variante com o deslocamento (não estacionário),
podemos considerar um amplificador discreto de ganho variável, dado por: y (n) = n 2 x (n) + b.
3.2.3
(3.24)
Sistemas Causais
Sistema Causal , contínuo ou discreto, é aquele cuja saída em um dado instante de tempo só depende de valores passados e do valor presente da entrada x(n)(não depende de valores futuros), podendo depender também de valores passados da saída. Em outras palavras, sistemas pertencentes a esta classe obedecem ao princípio de causa/efeito, segundo o qual para toda ocorrência na saída deve haver uma causa (no passado ou no presente) ocorrida na entrada do mesmo. Sistemas causais, portanto, também são conhecidos como Sistemas Não-Antecipativos , já que os mesmos não levam em conta o comportamento futuro do sinal de entrada na determinação do sinal de saída no instante presente. É fácil concluir que todo sistema físicamente implementável é causal, já que o contrário implicaria em ter um sistema capaz de antecipar valores futuros do sinal de entrada. Por este motivo, os sistemas desta classe também são, por vezes, chamados de sistemas realizáveis . Exemplo 3.2.5 Exemplos de sistemas não-causais contínuos e discretos, respectivamente, são
dados pelas equações seguintes: n+2
y (n) =
x (k)
(3.25)
(3.26)
k=
−∞
t+1
y (t) =
x (τ ) dτ
−∞
Observa-se nestes exemplos que o cálculo da saída envolve valores futuros, em relação ao instante presente ( t ou n), do sinal de entrada x(t) ou x(n).
48
Exemplo 3.2.6 Dois exemplos de sistemas causais, para os casos contínuo e discreto, respec-
tivamente, são: t
y (t) =
x (τ ) dτ
(3.27)
−∞
y (n) = x (n) − x (n − 1)
(3.28)
Observa-se agora que sómente valores passados e o valor presente do sinal de entrada são considerados no cálculo da saída presente.
3.2.4
Sistemas Estáveis
Um sistema é estável quando, para sinais de entrada com amplitude finita, o sinal de saída também possui amplitude finita. Formalmente, para o caso no tempo contínuo, esta propriedade é expressa como: |x (t)| ≤ B ⇒ |y (t)| ≤ L · B
(3.29)
|x (n)| ≤ B ⇒ |y (n)| ≤ L · B
(3.30)
e para o caso no tempo discreto:
para L e B finitos. Exemplo 3.2.7 Considerando os exemplos anteriores, temos que os sistemas descritos por equa-
ções 3.5, 3.25, 3.26 e 3.27 são não-estáveis, ou instáveis, enquanto os sistemas dados por equações 3.3 e 3.28 são estáveis. Outros exemplos de sistemas estáveis, são: M
y (n) =
x (k)
(3.31)
x (τ ) dτ
(3.32)
k= M
−
e
t
y (t) =
−t
Os sistemas amplificadores de ganho variável, dados por equações 3.20 e 3.24, também são instáveis, já que a saída cresce sem limites quando a variável de entrada ( t ou n) tende para infinito, independente do sinal de entrada.
Portanto, um sistema estável é aquele cuja saída é limitada em amplitude, para entradas também limitadas em amplitude. 49
3.2.5
Sistemas Inversíveis
Sistema inversível, é aquele que permite a recuperação do sinal de entrada a partir do sinal de saída. Isto implica que, para esta classe de sistemas, pode sempre ser determinado um sistema inverso, caracterizado por uma transformação G[ ] tal que: G [y (t)] = T −1 [y (t)] = x (t)
(3.33)
G [y (n)] = T −1 [y (n)] = x (n)
(3.34)
ou
para sistemas contínuos e discretos, respectivamente. Exemplo 3.2.8 O sistema acumulador dado por equação 3.5 é um sistema discreto inversível,
cujo sistema inverso é dado por:
w (n) = G [z (n)] = z (n) − z (n − 1) ,
(3.35)
para um sinal de entrada z (n) e sinal de saída w(n). Aplicando esta transformação G[ ] à saída do acumulador, obtemos:
G [y (n)] = y (n) − y (n − 1)
(3.36)
e, portanto, G [y (n)] =
n
n 1
x (k) −
k=
−
x (k) = x (n) .
(3.37)
k=
−∞
−∞
Exemplo 3.2.9 O amplificador de ganho variável da equação 3.20 é inversível, com sistema
inverso dado por: G [z (t)] = w (t) =
z (t) . t
(3.38)
Pode-se observar destes exemplos, que um sistema será inversível sempre que entradas distintas produzirem saídas distintas. Caso um mesmo sinal de saída resulte da aplicação de dois ou mais sinais distintos na entrada, a determinação de uma transformação inversa não será possível, resultando portanto em um sistema não inversível. Exemplo 3.2.10 O sistema retificador de onda completa descrito no Exemplo 3.1 é um bom
exemplo de sistema não inversível. Um exame da equação 3.3 leva facilmente à observação que o mesmo sinal de saída |x(t)| é produzido tanto por x(t) quanto por −x(t) aplicados na entrada.
50
3.2.6
Sistemas com ou sem Memória
Sistema com memória, é aquele que considera valores passados e/ou valores futuros da entrada para determinar a saída presente. Caso contrário ele será sem memória. Portanto, o sistema sem memória é aquele cuja saída em um dado instante depende apenas do valor da entrada no mesmo instante. Ou seja, o sistema sem memória não é capaz de armazenar informações sobre o comportamento passado (ou futuro) do sinal de entrada, para produzir a saída no instante presente. Exemplo 3.2.11 Exemplos de sistemas sem memória, são dados por equações 3.3, 3.20, e
3.24, enquanto os sistemas descritos por equações 3.5, 3.26, 3.27 e 3.28 claramente possuem memória.
3.3
Conclusão
Até este ponto, sistemas têm sido caracterizados pela transformação T [ ], que os mesmos produzem sobre o sinal de entrada para gerar um determinado sinal de saída. A transformação T [ ], portanto, caracteriza a relação entrada/saída do sistema. Neste capítulo, vários exemplos de transformações, com suas respectivas propriedades, foram analisadas. No próximos capítulos, nos concentraremos na análise de uma classe de sistemas cuja transformação característica obedece simultaneamente duas das propriedades descritas, a da linearidade e a da estacionariedade .
51
3.4
Exercícios
Exercício 3.1 Determine se cada um dos sistemas abaixo é sem memória, causal, invariante
no tempo, estável e linear. Justifique suas respostas. 2t x(τ )dτ 1. y(t) = −∞
2. y(n) = e nx(n) Exercício 3.2 Considere um sistema discreto no tempo, causal, para o qual a entrada x(n) e a
saída y (n), estão relacionadas pela seguinte equação de diferença com coeficientes constantes: y(n) − by(n − 1) = cx(n);
y(−1) = a.
1. Utilizando um procedimento recursivo, determine a transformação característica do sistema. 2. A partir da da solução do item anterior, determine a resposta ao impulso h(n) para este sistema. 3. Determine que condições são necessárias para que este sistema seja linear e estável. Justifique suas respostas. Exercício 3.3 Considere os sistemas discretos representados pela seguintes equações de dife-
rença com coeficientes constantes: 1.
3 k=0
ak y(n − k) =
2. y(n) =
5 k=0 hk x(n
2 k=0 bk x(n
− k).
− k).
• Desenhe a forma canônica de implementação destes sistemas. • Classifique estes sistemas como: FIR ou IIR, recursivo ou não-recursivo, causal ou não-
causal, estável ou instável. Justifique suas respostas. • Determine a condição de repouso inicial para o sistema do item a. Que propriedades possui
o sistema quando esta condição é satisfeita? Exercício 3.4 Considere um sistema discreto no tempo, linear e invariante ao deslocamento
(LID), em repouso inicial, para o qual a entrada x(n) e a saída y(n), estão relacionadas pela equação de diferença: y(n) − (0.5)y(n − 1) = x(n) + x(n − 1)
52
Exercício 3.5 Determine se cada um dos sistemas abaixo é sem memória, causal, invariante
no tempo, estável e linear. Justifique suas respostas. 1. y(n) = P ar{x(n − 1)} (componente par de x(n − 1)) 2t 2. y(t) = −∞ x(τ )dτ
Exercício 3.6 Para cada um dos sistemas abaixo, determine se ele é sem memória, causal,
invariante no tempo, estável e linear. Justifique suas respostas. 1. y(n) = e nx(n) 2. y(t) = |x(t) − x(t − 1)| Exercício 3.7 Determine se cada um dos sistemas abaixo é sem memória, causal, invariante
no tempo, estável e linear. Justifique suas respostas. 1. y(n) = e nx(n) 2. y(t) = |x(t) − x(t − 1)| 3. y(n) = P ar{x(n − 1)} (componente par de x(n − 1)) 2t 4. y(t) = −∞ x(τ )dτ
53
Capítulo 4 Sistemas Lineares Invariantes ao Deslocamento
54
4.1
Introdução
No caso discreto, sistemas lineares estacionários, ou sistemas LE, também são conhecidos como sistemas Lineares Invariantes ao Deslocamento (ou LID). Com a crescente popularização das técnicas digitais para processamento de sinais e controle de processos, esta classe de sistemas tornou-se extremamente relevante, pois pode ser usada para modelar um grande número de sistemas prticos (filtros e controladores digitais, por exemplo) para as mais diversas aplicações. Como descrito no capítulo anterior, sistemas são caracterizados pela transformação que os mesmos produzem sobre o sinal de entrada para gerar o sinal de saída. No caso específico de sistemas LID, uma outra caracterização para a relação entrada/saída é possível, através do sinal denominado resposta ao impulso do sistema e da operação conhecida como convolução. Esta caracterização fornece uma maneira prática para se determinar a saída de um sistema LID, para qualquer sinal aplicado em sua entrada, como será descrito neste capítulo.
4.2
Convolução Discreta e Resposta ao Impulso
Considere um sistema discreto qualquer, caracterizado pela transformação T [ ], isto é, y (n) = T [x (n)]
(4.1)
Considere, adicionalmente, que um impulso unitário δ (n) é aplicado no instante n = 0 na entrada deste sistema, para produzir um sinal de saída, chamado de h(n). Portanto, como ilustrado na Figura 4.1, temos: h(n) = T [δ (n)] . δ( n)
(4.2)
h(n) = T[ δ( n ) ] T[ ]
1
0
n
Figura 4.1: Resposta de um sistema ao impulso unitário posicionado na origem. No Capítulo 2 (seção 2.4.3) foi demonstrado que um sinal discreto x(n) pode ser representado como uma combinação linear de impulsos deslocados, ou seja, para qualquer x(n): ∞ (4.3) x(n) = x(k)δ (n − k). k=−∞
55
Substituindo esta expressão na equação 4.1, obtemos o sinal de saída do sistema: y(n) = T
∞
x(k)δ (n − k)
k=
−∞
(4.4)
Façamos agora, a hipótese de que o sistema em análise é linear e estacionário, ou Linear Invariante ao Deslocamento (LID). Aplicando a propriedade da superposição sobre a equação 4.4, obtemos: y(n) =
∞
T [x(k)δ (n − k)] =
k=
∞
x(k)T [δ (n − k)]
(4.5)
k=
−∞
−∞
Pela propriedade da invariância ao deslocamento, temos que T [δ (n − k)] = h(n − k), o que resulta em: ∞ y(n) = x(k)h(n − k). (4.6) k=−∞
Equação 4.6 é extremamente relevante, pois permite a determinação da saída y(n) do sistema, para qualquer sinal x(n) aplicado em sua entrada. Para tanto é necessário apenas que seja conhecida a resposta deste sistema a um impulso unitário, ou seja, o sinal h(n). Este sinal é, por este motivo, denominado de resposta ao impulso do sistema. A operação expressa por equação 4.6, relaciona a entrada e a saída de um sistema LID através de h(n). Esta operação, conhecida como convolução discreta ou somatória da convolução, é denotada pelo símbolo ∗, ou seja: ∞ y(n) = x(k)h(n − k) = x(n) ∗ h(n) (4.7) k=−∞
A resposta ao impulso h(n) é uma identidade do sistema. Uma vez conhecida, podemos dizer que o sistema está identificado ou determinado. Isto porque, através da convolução (equação 4.7), h(n) permite a determinação da saída y(n) para qualquer x(n) aplicado na entrada do sistema. Deste modo, h(n) caracteriza a transformação produzida pelo sistema, podendo portanto ser utilizada para representar o sistema LID, como ilustrado na Figura 4.2. x(n)
y(n) h(n)
Figura 4.2: Sistema LID representado por sua resposta ao impulso.
56
4.3
Análise Gráfica da Convolução
A operação de convolução pode ser efetuada gráficamente, isto é, através de operações entre os gráficos dos sinais envolvidos. Embora nem sempre seja viável utilizá-la na prática, a interpretação gráfica da convolução permite um melhor entendimento desta operação e facilita o cálculo analítico da mesma. Por este motivo, será analisado a seguir um exemplo de cálculo da convolução gráfica de dois sinais discretos no tempo. Exemplo 4.3.1 Considere os sinais x(n) e h(n), ilustrados nas Figuras 4.3.a e 4.3.b, respec-
tivamente. Como descrito na seção anterior, a convolução entre os dois é calculada através da somatória: ∞ y(n) = x(n) ∗ h(n) = x(k)h(n − k). (4.8) k=−∞
Para obter um melhor entendimento desta operação e do que ela representa em termos dos sinais envolvidos, examinemos os sinais no interior da somatória, cuja variavél é k. O sinal x(k) pode ser fácilmente obtido apenas com a troca da variável independente, sendo portanto identico a x(n), como ilustrado na Figura 4.3.c. Para o sinal h(k), entretanto, a troca de variável é seguida por uma rotação em torno do eixo vertical, que produz h(−k) (Figura 4.3.d) e de um deslocamento por um valor n, que resulta em h(n − k). Este deslocamento será para a direita ou para a esquerda, conforme n seja positivo ou negativo, respectivamente, resultando nos sinais mostrados nas Figuras 4.3.e e 4.3.f. Portanto, equação 4.8 nos diz que, para calcularmos a convolução para um dado valor de n, temos que multiplicar x(k) por h(n − k), isto é, por h (−k) deslocado de n e em seguida somarmos todos os termos do produto obtido. Examinando as Figuras 4.3.d e 4.3.e, verificamos que para valores negativos do deslocamento n, não há superposição entre as regiões do eixo k para as quais os dois sinais são não nulos. Consequentemente, o produto entre eles, bem como o resultado da convolução, será nulo, ou seja: y(n) = 0, n < 0.
(4.9)
Na Figura 4.4 estão representados o sinal x(k) (Figura 4.4.a), que permanece fixo, bem como o sinal que se desloca, h(n − k), para os seis valores iniciais de deslocamento positivo n (Figuras 4.4.b a 4.4.h). A partir do valor n = 0, começa a haver superposição entre as regiões de ocorrência de valores não-nulos de x(k) e h(n − k). Esta superposição inicialmente aumenta, à medida que n
57
x(n)
h(n)
2
1
1
0
1
2
3
0
n
1
2
3
n
(b)
(a) x(k)
h(-k)
2
1
1
0
1
2
3
k
-3
-2
0
-1
(d)
(c) h(n-k)
h(n-k)
n<0
n>0
1
1 ....
n-3
n-2
n-1
k
n
.... 0
k
(e)
0
n-3
n-2
n-1
n
k
(f)
Figura 4.3: Ilustração dos sinais envolvidos na convolução do exemplo 4.3.1: a) x(n), b) h(n), c) x(k), d) h(−k), e) h(n − k); n < 0 , f) h(n − k); n > 0 .
58
cresce (Figura 4.4.b, 4.4.c e 4.4.d), produzindo uma saída que pode ser expressa como: n
y(n) =
x(k)h(n − k)
(4.10)
k=0
Equação 4.10 permanece válida até que n alcança o valor 3, quando a superposição das sequiências atinge seu ponto máximo (Figura 4.4.d). A partir deste ponto, a superposição irá diminuir à medida que n aumenta de valor, caracterizando uma nova situação que é ilustrada nas Figuras 4.4.e a 4.4.g. A saída (convolução) neste caso é expressa como: 3
y(n) =
x(k)h(n − k).
(4.11)
k=n 3
− Esta situação somente será alterada quando o valor de n ultrapassar 6 (Figura 4.4.g). A partir de n = 7 cessa a superposição entre as regiões não-nulas das duas sequências (Figura 4.4.h), resultando em uma saída nula, ou seja: y(n) = 0, n ≥ 7.
(4.12)
As equações obtidas para as quatro situações descritas podem, portanto, ser reunidas para descrever o comportamento geral do sinal y(n). 1a Situação: y(n) = 0, n < 0
(4.13)
2 a Situação: n
y(n) =
x(k)h(n − k), 0 ≤ n ≤ 3
(4.14)
(4.15)
k=0
3 a Situação: 3
y(n) =
x(k)h(n − k), 3 ≤ n ≤ 6
k=n 3
−
4 a Situação: y(n) = 0, n ≥ 7.
(4.16)
Calcular os valores de y(n) a partir destas equações é uma tarefa simples, que deixamos como exercício para o leitor. O sinal resultante é mostrado na Figura 4.5.
O procedimento descrito acima é bastante genérico podendo ser, em princípio, aplicado para quaisquer sinais. A idéia central é caracterizar as diversas situações que ocorrem no posicionamento relativo dos sinais, à medida que n varia de −∞ a ∞. Para cada uma dessas situações, os limites efetivos da somatória são identificados, viabilizando o cálculo da mesma. 59
x(k)
h(1-k)
2 1
1 -
0
1
2
3
k
-2
-1
0
1
k
2
3
k
2
3
4
5
k
2
3
4
5
6
(d)
(a)
h(2-k)
h(3-k)
1
1
0
-1
1
2
0
k
1
(d)
(c)
h(5-k)
h(4-k) 1 -
1 -
0
1
2
3
4
0
k
(e)
1 (f)
h(6-k)
h(7-k)
1 -
1 -
0
1
2
3
4
5
6
0
k
1
7
k
(h)
(g)
Figura 4.4: Sinais envolvidos na convolução do exemplo 4.3.1: a) x(k), b) h(1 − k), c) h(2 − k), d) h(3 − k), e) h(4 − k), f) h(5 − k), g) h(6 − k) e h) h(7 − k).
60
y(n)
6 5 4 3 2 1 -
-3
-2
-1
0
1
2
3
5
4
6
7
n
8
Figura 4.5: Resultado final da convolução dos sinais do exemplo 4.3.1 4.3.1
Propriedades da Convolução Discreta
Embora tenha sido definida em termos da relação entrada/saída de um sistema LID, a convolução discreta é uma operação que pode ser efetuada entre dois sinais discretos quaisquer, sempre denotada pelo símbolo ∗. Deste modo, para dois sinais g(n) e v(n) quaisquer, temos: ∞ (4.17) g(n) ∗ v(n) = g(k)v(n − k). k=−∞
A convolução é uma operação comutativa, ou seja: ∞ g(n) ∗ v(n) = v(n) ∗ g(n) =
v(k)g(n − k).
(4.18)
k=
−∞
É associativa, isto é: g(n) ∗ [v(n) ∗ z (n)] = [g(n) ∗ v(n)] ∗ z (n).
(4.19)
Também é distributiva em relação à soma: g(n) ∗ [v(n) + z (n)] = [g(n) ∗ v(n)] + [g(n) ∗ z (n)] .
(4.20)
A demonstração destas propriedades é bastante direta e será omitida aqui. Recomendamos ao leitor que as realizem como exercício. 61
x(n)
(a)
h1 (n)
h2 (n)
h2 (n)
h1 (n)
y(n)
x(n)
(b)
x(n)
(c)
y(n)
y(n) h (n) = h1 (n) *h2 (n)
Figura 4.6: Conexões equivalentes de sistemas: a) em série, ordem inicial; b) em série, ordem invertida; e c) sistema equivalente às conexões a e b. É interessante observar a implicação das propriedades acima em termos da interligação de sistemas. Consideremos inicialmente a situação ilustrada na Figura 4.6.a, onde dois sistemas, com respostas ao impulso h1(n) e h2(n), estão conectados em série. A saída, y(n) neste caso é dada por: y(n) = [x(n) ∗ h1 (n)] ∗ h2 (n).
(4.21)
Pelas propriedades da associatividade e da comutatividade da convolução temos, respectivamente:
y(n) = x(n) ∗ [h1 (n) ∗ h2 (n)] = x(n) ∗ [h2 (n) ∗ h1(n)] ,
(4.22)
e finalmente, utilizando mais uma vez a propriedade da associatividade: y(n) = [x(n) ∗ h2 (n)] ∗ h1 (n).
(4.23)
Equação 4.23, corresponde à situação ilustrada na Figura 4.6.b, onde a ordem dos sistemas conectados em série foi invertida. Concluímos, portanto, que a inversão da ordem dos sistemas é irrelevante, ou seja, não altera o sinal de saída y(n). Adicionalmente, equação 4.22 permite concluir que esta combinação em série de sistemas é equivalente a um sistema único, cuja resposta ao impulso seja igual a h2(n) ∗ h1 (n), como ilustrado na Figura 4.6.c. Considere agora a interligação de dois sistemas em paralelo apresentada na Figura 4.7.a. Neste caso, o sinal x(n) é aplicado simultaneamente à entrada dos dois sistemas. Para o sinal 62
h1(n)
(a)
x(n)
y(n)
+ h2 (n)
(b)
x(n)
y(n) h (n) = h (n) + h2 (n) 1
Figura 4.7: Conexões equivalentes de sistemas: a) em paralelo e b) sistema equivalente à conexão paralela. de saída, temos:
y(n) = [x(n) ∗ h1 (n)] + [x(n) ∗ h2(n)] .
(4.24)
Fazendo uso da propriedade da distributividade, podemos concluir que:
y(n) = x(n) ∗ [h1 (n) + h2 (n)] .
(4.25)
Portanto, o esquema da Figura 4.7.a é equivalente a um único sistema com resposta ao impulso h(n) = h 1(n) + h2(n), como ilustrado na Figura 4.7.b. A convolução possui tambm um elemento neutro, ou elemento identidade, que é o impulso unitário. Isto significa que a convolução de um impulso com qualquer sinal x(n), produz como resultado o próprio x(n), ou seja: x(n) ∗ δ (n) = x(n)
(4.26)
Caso o impulso esteja deslocado da origem por um valor n0 , o sinal x(n) ser deslocado do mesmo valor, ou seja: x(n) ∗ δ (n − n0 ) = x(n − n0).
4.4
(4.27)
Propriedades de Sistemas LID
No Capítulo anterior, foram descritas algumas propriedades de sistemas, como causalidade, estabilidade, e memria. Um sistema LID pode ou não possuir uma ou mais destas propriedades. 63
Em cada caso, é possível estabelecer uma relação entre a propriedade e o tipo de resposta ao impulso apresentada pelo sistema. Dizendo de outra forma, o fato de um sistema LID ser também causal, estável e/ou com memória, impoe restrições sobre a forma assumida por h(n). Isto significa que as propriedades do sistema podem ser inferidas a partir das características de h(n), como veremos a seguir. Também para sistemas inversíveis, uma condição pode ser estabelecida para h(n), a partir da somatória da convolução. 4.4.1
Causalidade
Sistema causal é aquele que obedece a uma relação causa-efeito, ou seja, não pode ser produzida uma saída sem que na entrada tenha ocorrido uma causa para a mesma, seja no passado ou no instante presente. Como h(n) é a saída produzida pela entrada δ (n), que é nula para n < 0, pode-se concluir que h (n) também deve ser nula para valores negativos de n. Portanto, para um sistema causal, temos necessariamente que: h(n) = 0, n < 0.
(4.28)
A violação desta equação significa que o sistema produz saída antes do aparecimento de um valor não-nulo na entrada, ou seja, em resposta a uma excitação que irá ocorrer no futuro. Este comportamento caracteriza um sistema antecipativo, anti-causal, ou não-causal. Uma outra maneira de analisar esta propriedade para sistemas LID, é analisando a convolução discreta, dada por equação 4.6. Assumindo que o sistema é causal, ou seja, nenhum valor futuro de x(n) pode ser incluído no cálculo de y(n), aquela equação pode ser escrita como: n
y(n) =
x(k)h(n − k).
(4.29)
k=
−∞
Fazendo m = n − k (portanto k = n − m) e substituindo na somatória acima, obtemos: y(n) =
∞
x(n − m)h(m).
(4.30)
m=0
Este resultado (equação 4.30) mostra que, quando o sistema é causal, a resposta ao impulso é não nula apenas para valores positivos de seu argumento, como antecipado por equação 4.28. 4.4.2
Estabilidade
Como descrito na seção 3.1, um sistema é estável quando produz uma saída com magnitude limitada em resposta a uma entrada também com magnitude limitada. Portanto, para um 64
sistema estável temos a seguinte condição: |x(n)| ≤ B =⇒ |y(n)| ≤ L · B; L,B < ∞
Considerando a somatória da convolução, equação 4.6, temos: ∞ |y(n)| =
(4.31)
(4.32)
h(k)x(n − k)
k=
−∞ O limite superior para a magnitude do sinal de saída pode então ser obtido considerando que a magnitude de uma soma é menor ou igual à soma das magnitudes dos termos e que a magnitude de um produto é igual ao produto das magnitudes dos fatores: ∞ |y(n)| ≤ |h(k)x(n − k)| (4.33) k=−∞ e portanto: ∞ |y(n)| ≤ |h(k)| |x(n − k)| . (4.34) k=−∞ Como x(n) é limitado em B , ou seja, |x(n)| ≤ B , temos: ∞ ∞ ∞ B |h(k)| = B |h(k)| |x(n − k)| ≤ |h(k)| (4.35) k=−∞ k=−∞ k=−∞ O que nos leva a concluir que: ∞ |y(n)| ≤ B |h(k)| (4.36) k=−∞ Portanto, para que y(n) seja também limitado, é necessário que a soma da magnitude dos termos da sua resposta ao impulso seja igual a um número finito L, de modo a satisfazer a condição de estabilidade dada por equação 4.31. Neste caso, diz-se que h(n) é um sinal absolutamente somável , significando que: ∞ |h(n)| = L < ∞ (4.37) n=−∞
4.4.3
Memória
Em um sistema sem memória, a saída para um dado valor de n só depende do valor da entrada para o mesmo n. Aplicando esta restrição na expressão da convolução temos que a somatória, neste caso, se resume únicamente ao termo k = n , ou seja: ∞ (4.38) y(n) = x(k)h(n − k) = x(n)h(0). k=−∞
65
Portanto, fazendo h(0) = K , temos:
y(n) = h(n) ∗ x(n) = K x(n).
(4.39)
Observando que δ (n) é o elemento identidade da convolução, equação 4.39 significa que, para um sistema discreto LID sem memória, a resposta ao impulso h(n) é necessariamente da forma impulsiva, isto é:
h(n) = K δ (n).
(4.40)
No caso em que K = 1, temos h(n) = δ (n), o que representa o sistema identidade. É fácil verificar, a partir da equação 4.40, que um sistema sem memória é sempre causal, estável e 1 δ (n). inversível, com resposta ao impulso do sistema inverso dada por h(n) = K 4.4.4
Inversão
Considere a conexão em série de dois sistemas LID, com respostas ao impulso h(n) e g(n), respectivamente. De acordo com a propriedade associativa da convolução, expressa na equação 4.19, a saída y(n) é dada por:
y(n) = [x(n) ∗ h(n)] ∗ g(n) = x(n) ∗ [g(n) ∗ h(n)].
(4.41)
Se g(n) representa o sistema inverso de h(n), temos que g(n) = h−1 (n), implicando que y(n) = x(n). Isto significa que g(n) deve satisfazer
h(n) ∗ g(n) = δ (n)
(4.42)
A conexão em série de um sistema LID e seu inverso, como descrito acima, estão ilustrados na Figura 4.8. δ (n) x(n) h(n)
g(n) =[h(n)]
-1
y(n)=x(n)
Figura 4.8: Conexão em série de um sistema LID e seu inverso.
66
4.5
Equações de Diferença com Coeficientes Constantes
Equações de diferença lineares com coeficientes constantes, são usadas para relacionar N valores passados e o valor presente do sinal de entrada de um sistema discreto, com M valores passados e o valor presente do sinal de saída do mesmo sistema. A forma geral para uma equação deste tipo é: N
M
ak y(n − k) =
k=0
bk x(n − k).
(4.43)
k=0
A ordem da equação e portanto do sistema por ela representado, é dada pelo número de valores passados da saída envolvidos no cálculo da saída presente. Para a equação 4.43, a ordem do sistema é N . A representação de sistemas discretos através de equações de diferença, é por vezes bastante conveniente. A partir de uma dada condição inicial, esta equação pode ser recursivamente resolvida de modo a fornecer a saída do sistema para uma entrada x(n) qualquer. Para tanto, reordenando equação 4.43, a saída do sistema pode ser expressa como: y(n) =
1 a0
M
N
bk x(n − k) −
k=0
ak y(n − k) .
k=1
(4.44)
Dois casos podem ser considerados nesta análise, N = 0 e N ≥ 1, os quais serão examinados a seguir. 4.5.1
Sistemas com Resposta ao Impulso Finita
Para N = 0, equação 4.44 se resume a: y(n) =
1 a0
M
k=0
bk x(n − k) .
(4.45)
Neste caso, y(n) é expresso como uma combinação linear dos M + 1 mais recentes valores do sinal de entrada. A resposta ao impulso do sistema, h(n), pode ser obtida relembrando a expressão da convolução discreta: ∞ y(n) = h(k)x(n − k). (4.46) k=−∞
67
Como ambas, equações 4.45 e 4.46, expressam y(n), são portanto iguais entre si, ou seja: 1 a0
M
∞
bk x(n − k) =
k=0
h(k)x(n − k).
(4.47)
k=
−∞
Comparando os dois lados da equação 4.47, é fácil concluir que: h(n) =
bn , a0
0 ≤ n ≤ M
(4.48)
0, caso contr´ario.
Este resultado significa que a resposta ao impulso do sistema, é dada pela sequência de coeficientes da equação de diferença. Como esta sequência é sempre de duração finita, esta classe de sistemas é conhecida como sistemas com Resposta ao Impulso Finita , ou simplesmente sistemas RIF (ou ainda sistemas FIR, da expressão em inglês Finite Impulse Response ). Sistemas RIF são também chamados de sistemas não-recursivos, refletindo o fato de que equação 4.45 é uma equação não-recursiva. Isto significa que o sistema não possui realimentação, ou seja, não há influência de valores passados da saída no cálculo do valor presente desta mesma saída. Somente os valores passados e presente do sinal de entrada são considerados neste cálculo. Uma outra característica de sistemas RIF é que os mesmos são sempre estáveis. Isto deve-se ao fato de h(n), para esta classe de sistemas, ser uma sequência finita e portanto absolutamente somável. Exemplo 4.5.1 Considere o sistema representado pela seguinte equação de diferença: 3 1 1 y(n) = x(n) + x(n − 1) + x(n − 2) + x(n − 3). 4 2 4
(4.49)
Por inspeção, pode-se obter a resposta ao impulso deste sistema:
h(n) =
ou, equivalentemente: h(n) =
1, n = 0 3 , 4 1 , 2 1 , 4
n = 1
(4.50)
n = 2 n = 3
0, c.c.
4−n [u(n) − u(n − 4)] . 4
(4.51)
Neste exemplo, pode-se observar que além de estável o sistema também é causal, pois h(n) = 0 para n < 0.
68
4.5.2
Sistemas com Resposta ao Impulso Infinita
Para o caso em que N ≥ 1 a saída será dada por equação 4.44, portanto levando em conta valores passados da própria saída, além dos valores da entrada x(n). A equação é dita ser recursiva, pois permite a determinação de y(n) através de um procedimento recursivo, a partir de um conjunto de condições auxiliares. Um sistema discreto recursivo, portanto, é aquele em que existe realimentação de valores passados da saída para o cálculo do valor presente desta mesma saída. Para os sistemas desta classe, a resposta ao impulso h(n) é sempre uma sequência de duração infinita, sendo por isto conhecidos como sistemas com Resposta ao Impulso Infinita ou, simplesmente, sistemas RII (ou ainda sistemas IIR, do inglês Infinite Impulse Response ). O exemplo a seguir, ilustra a resolução de uma equação de diferença recursiva para determinação de y (n). Este procedimento requer que N condições auxiliares sejam fornecidas, ou seja, um número igual à ordem da equação. Exemplo 4.5.2 Seja o sistema de 1a ordem, descrito pela equação de diferença: y(n) − by(n − 1) = x(n)
(4.52)
com condição auxiliar y(−1) = a. Consideremos inicialmente a solução para valores positivos de n. Rearrumando a equação, obtemos: y(n) = x(n) + by(n − 1).
(4.53)
A partir da condição auxiliar, esta equação pode ser resolvida recursivamente para sucessivos valores positivos de n, até que seja possível deduzir uma lei de formação para o termo genérico y(n) : y(−1) = a y(0) = x(0) + by(−1) = x(0) + ab y(1) = x(1) + by(0) = x(1) + bx(0) + ab2 y(2) = x(2) + by(1) = x(2) + bx(1) + b2 x(0) + ab3 y(3) = x(3) + by(2) = x(3) + bx(2) + b2 x(1) + b3 x(0) + ab4
······························· ······························· y(n) = x(n) + bx(n − 1) + b2 x(n − 2) + · · · + bn−1 x(1) + bn x(0) + abn+1
69
ou seja, n
y(n) =
x(k)bn−k + abn+1 , n ≥ 0.
(4.54)
k=0
Para valores negativos de n, a resolução recursiva requer que a equação de diferença seja reescrita como: y(n − 1) = b −1 [y(n) − x(n)]
(4.55)
Novamente, a partir da condição auxiliar y(−1) = a , esta equação pode ser resolvida para valores decrescentes de n, até que uma nova lei de formação seja encontrada: y(−1) = a y(−2) = b −1 [y(−1) − x(−1)] = ab−1 − b−1x(−1) y(−3) = b −1 [y(−2) − x(−2)] = ab−2 − b−2x(−1) − b−1 x(−2) y(−4) = b −1 [y(−3) − x(−3)] = ab−3 − b−3x(−1) − b−2 x(−2) − b−1 x(−3)
······························· ······························· y(n) = abn+1 − bn+1 x(−1) − bn+2 x(−2) − · · · − b−2 x(n + 2) − b−1 x(n + 1)
ou seja: n+1
y(n) = ab
n+1
−
x(k)bn−k , n ≤ −2.
(4.56)
k= 1
−
Combinando equações 4.54 e 4.56, a solução geral para o sistema pode ser escrita como: n
y(n) = abn+1 +
k=0
n+1
x(k)bn−k u(n) −
k= 1
−
x(k)bn−k u(−n − 2).
(4.57)
A resposta ao impulso h(n) pode ser facilmente obtida, fazendo x(n) = δ (n) na equação 4.57, resultando em: h(n) = ab n+1 + bnu(n).
(4.58)
Como esperado, esta resposta ao impulso caracteriza claramente um sistema RII, pelo fato de ser uma sequência de duração infinita.
Uma análise da equação 4.57 indica que o sistema é não-linear, devido à presença do termo abn+1 . Para que o sistema fosse linear, seria necessário que a condição auxiliar fosse nula, 70
isto é, a = 0. Isto resultaria no desaparecimento do termo abn+1 e faria com que o princípio da superposição fosse obedecido, garantindo assim a linearidade do sistema. Este requisito é chamado de condição do repouso inicial , significando que o sistema deve estar em repouso, ou seja, sua saída deve ser nula, antes do aparecimento de um sinal na entrada, para que o mesmo tenha um comportamento linear. Portanto, considerando n0 o instante em que o sinal x(n) é aplicado na entrada, temos a seguinte implicação: x(n) = 0, n ≤ n0 =⇒ y(n) = 0, n ≤ n0 .
(4.59)
Quando esta condição é obedecida, diz-se que o sistema está em repouso inicial e a condição auxiliar para resolução da equação de diferença passa a ser a condição inicial nula y(n0) = 0. Na prática, considera-se em geral n0 = 0. Fica como um exercício para o leitor demonstrar que a condição de repouso inicial garante que o sistema, além de linear, também é causal e invariante ao deslocamento.
4.6
Implementação de Sistemas a Partir da Equação de Diferença
Uma das vantagens da representação de sistemas discretos LID por equações de diferença com coeficientes constantes torna-se evidente quando se analisa a implementação dos mesmos. Como será visto nesta seção, a equação de diferença fornece de uma forma imediata a estrutura necessária à realização de um sistema discreto, seja ele RIF ou RII. Analisando a forma genérica de uma equação de diferença, dada por equação 4.43, vemos que apenas três operações são realizadas sobre os sinais x(n) e y(n) envolvidos. Estas operações são: 1) o deslocamento por um valor k , para obter x(n − k) ou y(n − k); 2) a multiplicação por constantes, ak ou b k , e 3) a soma para todos os valores de k , dos sinais produzidos nos itens 1 e 2. Estas operações, são suficientes para implementar qualquer sistema discreto LID a partir de sua equação de diferença. Se pensarmos em termos de uma estrutura ou arquitetura que realize esta implementação necessitaremos, portanto, definir três operadores básicos, ou seja: um somador, um multiplicador e um elemento de atraso responsável pelo deslocamento. Estes operadores são apresentados na forma de blocos na Figura 4.9. O seguinte exemplo, ilustra a utilização destes operadores na implementação de sistemas lineares invariantes ao deslocamento.
71
x(n)
+
y(n) = x(n) + v(n)
x(n)
y(n) = k.x(n) k
v(n)
b)
a)
x(n)
D
x(n-1)
c)
Figura 4.9: Operadores básicos para implementação de sistemas dsicretos: a) somador, b) multiplicador por constante e c) elemento de atraso. Exemplo 4.6.1 Considere um sistema de primeira ordem, descrito pela equação de diferença: a0 y(n) + a1 y(n − 1) = b 0 x(n) + b1 x(n − 1)
(4.60)
(4.61)
O valor da saída y(n) do sistema, é dado por: y(n) =
1 [b0 x(n) + b1 x(n − 1) − a1y(n − 1)] a0
ou ainda, y(n) =
1 [w(n) − a1 y(n − 1)] a0
(4.62)
(4.63)
para a qual, w(n) = b 0 x(n) + b1 x(n − 1)
Equação 4.62 pode ser facilmente implementada utilizando os operadores descritos, como ilustrado na Figura 4.10.a. Pode-se observar que o sistema obtido é formado pela conexão em série de dois sistemas: um sistema RIF (Sistema 1), cuja relação entrada/saída é dada por Equação 4.63; seguido por um sistema RII (Sistema 2), caracterizado pela relação entrada/saída descrita por Equação 4.62. Esta forma de realização do sistema é chamada de Forma Direta I. Formas alternativas de implementação podem ser obtidas, a partir da Forma Direta, utilizando a propriedade da comutatividade. Como descrito por Equação 4.23, a ordem de dois sistemas conectados em série pode ser invertida sem que a saída total seja alterada. Para este exemplo,
72
b0
x(n)
w(n)
+
1/a0
+
y(n)
D
D x(n-1) -a 1
b1
Sistema 2
Sistema 1
a) x(n)
+
b0
1/a0
D
y(n)
+
D
-a 1
b1
Sistema 2
Sistema 1
b) x(n)
+
b0
1/a0
+
y(n)
D
-a 1
b1
c)
Figura 4.10: Formas de implementação do sistema do exemplo 4.6.1: a) Forma Direta, b) Forma Inversa e c) Forma Canônica.
73
invertendo a ordem dos sistemas 1 e 2, obtemos a implementação mostrada na Figura 4.10.b, chamada de Forma Inversa. As formas Direta e Inversa de implementação consomem exatamente a mesma quantidade de recursos, ou seja, dois somadores, quatro multiplicadores e duas unidades de atraso. Contudo, examinando a Figura 4.10.b, observamos que uma das unidades de atraso é redundante, já que ambas estão ligadas á mesma entrada e portanto produzem a mesma saída. A eliminação de uma destas unidades resulta na estrutura mostrada na Figura 4.10.c. Esta forma de implementação consome metade das unidades de atraso requeridas pelas Formas Direta e Inversa, sendo por isso chamada de Forma Canônica.
A estrutura canônica derivada neste exemplo, pode ser facilmente generalizada para um sistema de ordem N qualquer, como descrito por equação 4.43. Esta generalização é mostrada na Figura 4.11, na qual, por simplicidade, é considerado o caso em que N = M . Através desta estrutura geral, a economia de recursos proporcionada pela Forma Canonica torna-se evidente, quando consideramos a implementação de sistemas de ordem elevada, como comumente ocorre na área de Processamento Digital de Sinais. Para grandes valores de N , a redução de 2N para N no número de registradores (ou células de memória), necessários para implementar as unidades de atraso, significa não apenas uma economia no custo de componentes utilizados, mas também uma redução do espaço físico, ou da área, ocupado pelo circuito resultante. Esta redução na área do circuito é por vezes fundamental, sobretudo quando se pretende uma implementação por circuitos integrados. A estrutura mostrada na Figura 4.11, é adequada para a implementação de sistemas RII. Para o caso de sistemas RIF, cuja relação entradasaída é dada por equação 4.45, uma estrutura mais simplificada pode ser obtida. Esta simplificação deve-se ao fato de que em um sistema RIF, os coeficientes ak , 1 ≥ k ≥ N , são nulos, de modo a garantir que nenhum valor passado da saída é utilizado no cálculo da saída presente, ou seja, não ocorre recursividade. Isto implica na eliminação de todo o lado esquerdo da estrutura canonica, devido às multiplicações por coeficientes nulos. Apenas a multiplicação por a1 0 é mantida. Considerando o caso geral de um sistema RIF com resposta ao impulso h(n) dada por equação 4.48, a estrutura resultante da simplificação descrita acima, ilustrada na Figura 4.12, é conhecida como uma linha de atraso , ou pela expressão em inglês tapped delay line . Pode-se observar pela Figura 4.12, que a operação da linha de atraso consiste em manter fixo o sinal h(n), enquanto as N amostras mais recentes do sinal x(n) são armazenadas pelos operadores D. A cada instante n, os dois sinais são multiplicados e os produtos são somados para fornecer a saída y(n). Após a multiplicação, todas as amostras armazenadas são deslocadas para a direita, deixando o sistema pronto para receber um novo valor na entrada. É fácil concluir que esta operação corresponde 74
x(n)
b0
1/a0
+
y(n)
+
D
+
-a 1
b1
+
D -a
b2
2
+
+
D -a
+
b3
3
+
D -a N
b N
Figura 4.11: Forma canonica para um sistema de ordem N.
75
a uma implementação direta da equação da convolução entre os sinais x(n) e h(n). x(n)
D h0
D h1
D
D h M-2
h2
D
h M-1
h M y(n)
+
+
+
+
+
Figura 4.12: Linha de atraso para implementação de sistema RIF. As estruturas descritas nesta seção, podem ser utilizadas tanto para implementações por hardware quanto por software, de sistemas discretos. No caso de hardware, existem várias opções para realizar os operadores. A mais simples seria através da utilização de blocos lógicos somadores, multiplicadores e registradores (atrasos), existentes comercialmente na forma de circuitos integrados digitais. Uma solução mais eficiente, capaz de atingir maiores velocidades de operação e ocupando bem menos espaço, pode ser obtida com circuitos do tipo FPGA (Field Programmable Gate Array ), que consistem de matrizes de operadores programáveis integradas em um único circuito. Finalmente, o melhor desempenho possível pode ser atingido através da implementação por um circuito integrado específicamente projetado, ou ASIC (Application Specific Integrated Circuit ), que também corresponde à solução de maior custo. Implementações por hardware, em geral, são procuradas quando um alto desempenho (velocidade de operação) é requerido do sistema. Este é o caso, por exemplo, de sistemas para processamento de sinais em áreas de telecomunicações, como telefonia móvel e televisão digital. No caso de uma implementação por software, as estruturas das Figuras 4.11 e 4.12 assumem a forma de um algoritmo, ou sequencia de operações, que são programadas em um computador. Dependendo dos requisitos de desempenho da aplicação desejada, este computador pode assumir a forma de um microprocessador de propósito geral (lento e barato), um microcontrolador (mais rápido e mais caro) ou um processador de sinais, que em geral oferece o melhor desempenho pelo mais alto preço. Soluções com processadores de uso geral e microcontroladores, em geral são utilizadas quando não se exige do sistema uma alta velocidade de operação. Este é o caso, frequentemente, de sistemas para controle de processos industriais em que as mudanças ocorrem lentamente ao longo do tempo. Alguns processadores de sinais são capazes de atingir altas taxas de operação, podendo ser utilizados em sistemas que realizem, por exemplo, processamento de imagens ou de sinais de voz em tempo real. Nestas aplicações, o volume de dados a ser processado é muito grande, exigindo do sistema de processamento um alto desempenho. 76
4.7
Conclusões
A classe dos Sistemas Lineares Invariantes ao Deslocamento (LID) é formada pelos sistemas discretos no tempo que obedecem simultaneamente as propriedades da linearidade e da estacionaridade. Sistemas desta classe são caracterizados por sua resposta ao impulso h(n) ou seja, pela saída que produzem em resposta a um impulso unitário aplicado em sua entrada. Adicionalmente, possuem a propriedade de que a sua saída pode ser determinada, para qualquer sinal de entrada, através da operação conhecida como convolução discreta, calculada entre a entrada e h(n). Neste capítulo esta classe de sistemas e suas propriedades foi analisada. O cálculo da convolução foi examinado, tanto na forma analítica quanto na forma gráfica e as propriedades desta operação foram derivadas. Também foi apresentada a representação de sistemas LID por equa cões de diferença com coeficientes constantes e verificou-se que, a partir desta representação, duas sub-classes de sistemas LID podem ser definidas: a) sistemas com resposta ao impulso de duração finita, ou sistemas RIF, e b) sistemas com resposta ao impulso de duração infinita, ou sistemas RII. Estruturas para implementação destas sub-classes a partir de operadores básicos foram também derivadas. No próximo capítulo um estudo similar será realizado para os sistemas contínuos no tempo lineares e estácionários, que constituem a classe dos sistemas Lineares Invariantes no Tempo, ou sistemas LIT.
77
4.8
Exercícios
Exercício 4.1 Para cada um dos casos abaixo, calcule a convolução para determinar a saída, y(n) ou y (t), do sistema linear estável (LIT ou LID), com entrada x(n) ou x(t) e com resposta
ao impulso h(n) ou h(t), respectivamente: 1. h(n) =
1 n 3
u(n), x(n) = u(n) − u(−n) + δ (n)
e−3t , 0 ≤ t < 2
2. h(t) =
e−2t , t ≥ 2
,
x(t) = u(t) − u(t − 2)
0, t < 0
Exercício 4.2 Calcule as convoluções entre os sinais fornecidos abaixo:
1. h(n) = δ (n) − 2δ (n − 1) + 3δ (n − 2);
x(n) = u(n + 1) − u(n − 3)
2. x(t) = e −t u(t + 1) ; h(t) = u(t − 1) − u(t − 5) Exercício 4.3 Considerando os sinais da questão anterior, responda os itens abaixo:
1. Sejam N x , N h e N y os tamanhos de x(n), h(n) e y (n), respectivamente. Determine uma expressão para N y em função de N x e N h. 2. Sejam T x , T h e T y a duração no tempo de x(t), h(t) e y(t), respectivamente. Determine T y em função de T x e T h . Exercício 4.4 Considere um sistema discreto no tempo, linear e invariante ao deslocamento
(LID), em repouso inicial, para o qual a entrada x(n) e a saída y(n), estão relacionadas pela equação de diferença: y(n) + 2y(n − 1) = x(n) + 2x(n − 2)
1. Utilizando um procedimento recursivo, determine a resposta ao impulso h(n) para este sistema. 2. Classifique este sistema quanto à estabilidade, memória e causalidade. Justifique suas respostas. 3. Obtenha e desenhe a forma direta e a forma canônica de implementação deste sistema. Exercício 4.5 Calcule as convoluções entre os sinais fornecidos abaixo:
78
1. h(n) =
1 n 2
u(n − 1); x(n) = u(n − 1)
2. x(t) = e −|t| [u(t + 1) − u(t − 1)]; h(t) = u(t − 1) Exercício 4.6 Esboce todos os sinais listados abaixo e calcule, para cada item, a convolução y() entre x() e h().
1. h(n) =
1 n 2 n
, n≥0
2 , n < 0
,
x(n) = u(n) − u(n − 10)
2. x(t) = e −5t u(t), h(t) = e−2t [u(t) − u(t − 3)]
79
Capítulo 5 Sistemas Lineares Invariantes no Tempo
80
5.1
Introdução
Sistemas lineares estacionários (LE) contínuos no tempo, também são conhecidos como sistemas Lineares Invariantes no Tempo, ou simplesmente como sistemas LIT. Esta classe de sistemas é extremamente relevante, pois pode ser usada para modelar, dentro de certas limitações, fenômenos e sistemas físicos reais, particularmente aqueles que são de interesse no campo da Engenharia Elétrica. Como no caso dos sistemas discretos LID analisados no Capítulo 4, sistemas contínuos LIT também podem ser caracterizados pelo sinal de saída que produzem em resposta à aplicação de um impulso unitário em sua entrada, conhecido como resposta ao impulso do sistema. Através da integral da convolução, ou convolução contínua, e da resposta ao impulso, é possível determinar a saída de um sistema LIT, para qualquer sinal aplicado em sua entrada. Esta propriedade dos sistemas LIT permite a sua utilização em um grande número de situações práticas. Como exemplo, podemos citar o uso de sistemas analógicos para filtragem de sinais de áudio e para controle de processos. Estes e outros aspectos dos sistemas LIT serão examinados ao longo do presente capítulo.
5.2
A Integral da Convolução e Resposta ao Impulso
Considere um sistema genérico contínuo no tempo, cuja relação entrada/saída é dada pela transformação T [ ], ou seja, y(t) = T [x(t)] . Como descrito no Capítulo 2, equação 2.46, a Propriedade da Extração do impulso unitário pode ser usada para fornecer o valor de um sinal em um dado instante de tempo. Baseado nesta propriedade, um sinal qualquer x(t) pode ser expresso como: ∞ x(t) = x(τ )δ (τ − t)dτ (5.1) −∞
Lembrando que o impulso unitário é uma função par, isto é, δ (t) = δ (−t), temos que δ (τ − t) = δ (t − τ ) e portanto equação 5.1 pode ser expressa como: ∞ x(t) = x(τ )δ (t − τ )dτ (5.2) −∞
Deste modo, para o sinal de saída y(t) obtemos: y(t) = T [x(t)] = T
∞
−∞
81
x(τ )δ (t − τ )dτ
(5.3)
Supondo que o sistema em análise é linear, a ordem de integração e transformação pode ser invertida, resultando em: ∞ ∞ y(t) = T [x(τ )δ (t − τ )] dτ = x(τ )T [δ (t − τ )] dτ (5.4) −∞ −∞
ou ainda: y(t) =
∞
x(τ )hτ (t)dτ,
(5.5)
−∞
em que
hτ (t) = T [δ (t − τ )]
(5.6)
Portanto, a função hτ (t) representa a resposta do sistema ao impulso deslocado δ (t − τ ), ou seja, o resultado da transformação produzida pelo sistema neste sinal. A saída total y(t) é, portanto, a “soma ponderada ” de todas as respostas da forma hτ (t), sendo mantidos os mesmos fatores de ponderação x(τ )dτ presentes na entrada. Suponhamos agora que o sistema analisado, além de linear, também é invariante no tempo. Esta propriedade implica em que hτ (t) = h0 (t − τ ), onde h0 (t) é a resposta do sistema a um impulso posicionado na origem (deslocamento τ = 0). Substituindo este resultado na equação 5.5, observamos que o índice da resposta ao impulso agora passa a ser redundante e portanto pode ser abandonado, ou seja, h0 (t) = h(t) resultando em: ∞ ∞ (5.7) y(t) = x(τ )h0 (t − τ )dτ = x(τ )h(t − τ )dτ. −∞ −∞
A operação expressa por equação 5.7 é conhecida como integral da convolução , convolução linear contínua ou, simplesmente, convolução. Esta operação é representada pelo símbolo ∗. Portanto, a convolução entre dois sinais contínuos no tempo quaisquer, v(t) e g (t), é calculada como: ∞ (5.8) v(t) ∗ g(t) = v(τ )g(t − τ )dτ −∞
O que equação 5.7 nos diz, é que a saída de um sistema LIT qualquer pode ser expressa como a convolução entre o sinal de entrada x(t) e h(t), a resposta deste sistema a um impulso unitário. Ou seja: ∞ y(t) = x(t) ∗ h(t) = x(τ )h(t − τ )dτ (5.9) −∞
O sinal h(t) é, adequadamente, chamado de resposta ao impulso do sistema LIT . Este sinal constitue uma identidade do sistema, pois permite que a saída do mesmo seja determinada para 82
qualquer sinal de entrada, através do cálculo da convolução. Portanto, uma vez conhecido h(t), dizemos que o sistema está identificado, ou seja, um sistema LIT pode ser representado por sua resposta ao impulso tanto quanto por sua transformação característica T [ ], como ilustrad0 na Figura 5.1. x(t)
y(t) h(t)
Figura 5.1: Sistema LIT representado por sua resposta ao impulso.
5.2.1
Propriedades da Integral da Convolução
A convolução contínua apresenta as mesmas propriedades descritas no capítulo 4 para a convolução discreta, ou seja, é uma operação: 1. comutativa: v(t) ∗ g(t) = g(t) ∗ v(t) =
∞
g(τ )v(t − τ )dτ
(5.10)
−∞
2. associativa:
v(t) ∗ [g(t) ∗ z (t)] = [v(t) ∗ g(t)] ∗ z (t)
(5.11)
3. distributiva:
v(t) ∗ [g(t) + z (t)] = v(t) ∗ g(t) + v(t) ∗ z (t)
(5.12)
As Figuras 5.2 e 5.3 ilustram as implicações das propriedades da integral da convolução, em termos de interconexão de sistemas. Devido ao fato da convolução ser comutativa e associativa, as situações mostradas nas Figuras 5.2.a, 5.2.b e 5.2.c são exatamente equivalentes. A ordem pela qual dois ou mais sistemas LIT são conectados em série é irrelevante na determinação do sinal na saída final. Esta conexão em série pode também ser substituída por um uníco sistema, cuja resposta ao impulso h(t) seja igual à convolução das respostas ao impulso dos demais sistemas. Considerando uma conexão em série de N sistemas caracterizados pelas respostas ao impulso hi(t), i = 1, 2,...,N , respectivamente, temos, portanto: h(t) = h 1(t) ∗ h2 (t) ∗ h3 (t) ∗ · · · ∗ hN (t),
83
(5.13)
x(t)
(a)
y(t)
h2 (t)
h1 (t)
y(t)
x(t)
(b)
h1 (t)
h2 (t)
x(t)
(c)
y(t) h (t) = h1 (t) * h2 (t)
Figura 5.2: Conexões equivalentes de sistemas: a) em série, ordem inicial; b) em série, ordem invertida; e c) sistema equivalente às conexões a e b.
h1 (t)
(a)
x(t)
+
y(t)
h2 (t)
(b)
x(t)
y(t) h (t) = h1 (t) + h2 (t)
Figura 5.3: Conexões equivalentes de sistemas: a) em paralelo e b) sistema equivalente à conexão paralela.
84
em que h(t) é a resposta ao impulso do sistema total equivalente. Figura 5.3 ilustra o efeito da distributividade, através de uma combinação em paralelo de dois ou mais sistemas LIT, cujas saídas são somadas (Figura 5.3.a). Esta estrutura, é equivalente a um único sistema cuja resposta ao impulso corresponde à soma das respostas ao impulso individuais dos sistemas que a compoem. Portanto, para uma combinação em paralelo de N sistemas caracterizados pelas respostas ao impulso hi(t), i = 1, 2,...,N , respectivamente, temos: h(t) = h1 (t) + h2(t) + h3 (t) + · · · + hN (t),
em que h(t) é a resposta ao impulso do sistema equivalente.
85
(5.14)
x(t)
h(t)
1
1
0
t
T
0
t
T
1
2
(a)
(b) x( τ)
h(−τ)
1
1
τ
T
0
0
-T
2
1
(d)
(c) h(t −τ)
h(t −τ)
t<0
t>0
1
1 ....
t -T
t
2
τ
0
τ
.... 0
(e)
t -T
2
t
τ
(f)
Figura 5.4: Ilustração dos sinais envolvidos na convolução do exemplo 5.3.1: a) x(t), b) h(t), c) x(τ ), d) h(−τ ), e) h(t − τ ); t < 0 , f) h(t − τ ); t > 0 .
5.3
Análise Gráfica da Convolução
A análise gráfica da convolução é uma ferramenta extremamente útil no aprendizado dos mecanismos de cálculo desta operação. Mesmo em situações onde uma resolução analítica é requerida, uma boa visualização do comportamento relativo dos sinais, à medida que um deles é deslocado, é fundamental na determinação dos limites efetivos de cálculo da integral da convolução. A maneira mais eficiente de desenvolver esta capacidade de visualização é através da análise gráfica da convolução. Examinaremos agora um exemplo de determinação gráfica da convolução contínua entre dois sinais. Exemplo 5.3.1 Considere os sinais x(t) e h(t), ilustrados nas Figuras 5.4.a e 5.4.b, respecti-
vamente. Como descrito na seção anterior, a convolução entre os dois é calculada através da
86
integral: y(t) = x(t) ∗ h(t) =
∞
x(τ )h(t − τ )dτ
(5.15)
−∞
O primeiro passo para um claro entendimento desta operação e do que ela representa em termos dos sinais envolvidos, é examinar o que se passa no interior da integral, onde a variavél é τ . O sinal x(τ ) é identico a x(t), sendo obtido pela simples troca de nome da variável independente, como ilustrado na Figura 5.4.c. Para obter o sinal h(t − τ ), devemos submeter h(t) inicialmente a uma troca de variável, resultando em h(τ ), seguida por uma rotação em torno do eixo vertical que passa pela origem, a qual produz h(−τ ) (Figura 5.4.d) e finalmente a um deslocamento por um valor t, que produz h(t − τ ). Conforme t seja positivo ou negativo, o deslocamento será para a direita ou para a esquerda, respectivamente, resultando nos sinais mostrados nas Figuras 5.4.e e 5.4.f. O valor da convolução, y(t), é obtido multiplicando o sinal x(τ ) por h(t − τ ) e em seguida integrando este produto de −∞ a ∞, como expresso na equação 5.15. A convolução, portanto, corresponde à area sob a curva do produto de x(τ ) por h(t − τ ). Para os sinais aqui considerados, um exame das Figuras 5.4.c e 5.4.e nos leva à concluir que, para valores negativos de t, este produto é nulo, pois os sinais x(τ ) e h(t − τ ) são não nulos em regiões distintas do eixo τ , como ilustrado na Figura 5.5.a. Portanto, nesta situação temos:
y(t) = 0, t < 0.
(5.16)
A partir do deslocamento t = 0, ocorre superposição entre as regiões de valores não-nulos de x(τ ) e h(t − τ ), resultando em um produto também não-nulo entre estes sinais. Esta situação é ilustrada na Figura 5.5.b, na qual pode ser observado que a superposição aumenta à medida que t cresce. O valor da convolução corresponde à área tracejada na figura, que pode ser expressa como: t
y(t) =
t
x(τ )h(t − τ )dτ =
0
1dτ = t.
(5.17)
0
Equação 5.17 permanece válida até que t supera o valor T 1 . A partir deste ponto, x(τ ) passa a estar totalmente contido na região onde h(t − τ ) é não nulo ( t − T 2 ≤ τ ≤ t) e portanto, o valor da convolução é o valor da área sob a curva de x(τ ), ou seja y(t) = T 1 . Como T 2 é maior que T 1, y(t) permanece constante à medida que t continua a crescer, já que x(τ ) segue totalmente contido no intervalo t − T 2 ≤ τ ≤ t, e deste modo a área sob a curva do produto dos dois sinais não é alterada. Uma nova situação é assim caracterizada, a qual é ilustrada na
87
0 < t
t<0
1
h(t −τ)
x( τ)
h(t −τ)
1
0
t
t -T
2
T
1
τ
x( τ)
1
0
t -T
t
2
T
1
τ
(b)
(a)
T < t
T < t
t -T
2
x(τ)
x(τ)
1
h(t −τ)
2
0
t T
1
t -T
0
τ
2
2
h(t −τ)
1
T
1
T
2
1
T
2
t
τ
(d)
(c)
t > T + T 1
1
0
2
x(τ)
h(t −τ)
t -T
T
2
1
T + T 1
2
t
τ
(e)
Figura 5.5: Convolução gráfica entre os sinais do exemplo 5.3.1: a) y(t) = 0, b) y(t) = t, c) y(t) = T 1 , d) y (t) = (T 1 + T 2 ) − t, e) y(t) = 0.
88
Figura 5.5.c, para a qual a convolução (área tracejada) é expressa como: T 1
y(t) =
T 1
x(τ )h(t − τ )dτ =
0
1dτ = T 1
(5.18)
0
A situação descrita por Equação 5.18 somente será alterada quando o deslocamento t ultrapassar o valor T 2 , a partir do qual começa a diminuir a superposição entre as regiões não-nulas dos dois sinais. Esta nova situação, ilustrada na Figura 5.5.d, é caracterizada pelo decaimento do valor da convolução (área tracejada), sendo expressa como: T 1
y(t) =
T 1
x(τ )h(t − τ )dτ =
t T 2
1dτ = T 1 + T 2 − t
(5.19)
t T 2
−
−
Finalmente, a superposição entre as regiões não nulas dos dois sinais cessa de existir quando t ultrapassa o valor T 1 + T 2 , consequentemente anulando o produto do mesmos. Nesta situação a convolução é nula e permanecerá nula enquanto t continuar a crescer, como ilustrado na Figura 5.5.e, ou seja: y(t) = 0, t ≥ T 2
(5.20)
O comportamento geral do sinal y(t) é , portanto, fornecido pelo conjunto das cinco situações descritas acima. O valor da convolução para qualquer instante t , pode ser obtido da equação da situação correspondente, ou seja: 1a Situação: y(t) = 0, t < 0
(5.21)
2 a Situação: y(t) = t, 0 ≤ t ≤ T 1
(5.22)
3 a Situação: y(t) = T 1 , T 1 ≤ t ≤ T 2
(5.23)
4 a Situação:
y(t) = (T 1 + T 2 ) − t, T 2 ≤ t ≤ T 1 + T 2
(5.24)
5 a Situação: y(t) = 0, t ≥ T 1 + T 2
89
(5.25)
y(t) = x(t)* h(t) T
1
0
T
1
T
2
T + T 1
2
t
Figura 5.6: Resultado da convolução gráfica entre os sinais do exemplo 5.3.1 O sinal y(t), obtido das Equações 5.21 a 5.25, é mostrado na Figura 5.6.
A análise gráfica da convolução é, em geral, um procedimento simples e de bastante utilidade no cálculo desta operação. A idéia básica é caracterizar as variações que ocorrem no produto dos dois sinais, à medida que um deles é deslocado de −∞ a ∞, enquanto o outro é mantido fixo. Para cada situação caracterizada, novos limites que permitirão o cálculo efetivo da integral da convolução são determinados.
90
5.4
Propriedades de Sistemas LIT
A integral da convolução torna possível a caracterização de um sistema LIT através de sua reposta ao impulso h(t), como ilustrado na Figura 5.1. Para que este sistema satisfaça, adicionalmente, as demais propriedades analisadas no Capítulo 3.1, algumas restrições devem ser impostas sobre h(t), como será examinado a seguir. Um sistema é causal quando não possui a capacidade de responder ao comportamento futuro do sinal de entrada. Por esta razão, sistemas causais também são conhecidos como sistemas não-antecipativos. Para esta classe de sistemas, a saída y (t) produzida por um sinal de entrada x(t) que é nulo antes de um determinado instante t 0 , também será nula antes do mesmo instante t0 , ou seja:
x(t) = 0, t < t0 =⇒ y(t) = 0, t < t0
(5.26)
Como o impulso unitário, δ (t), é nulo para t < 0 , podemos concluir que a resposta h(t) a este sinal produzida por um sistema LIT causal é necessáriamente nula para valores negativos de t, isto é:
h(t) = 0, t < 0
(5.27)
A violação da equação 5.27 significa que a saída é produzida antes que uma causa para a mesma ocorra na entrada do sistema. Neste caso, o sistema não obedece a uma relação causa-efeito para gerar a saída, o que caracteriza um sistema não causal,também chamado de anti-causal ou antecipativo. 5.4.1
Estabilidade
Sistema estável, como definido no Capítulo 3.1, é aquele que produz saídas limitadas em amplitude, em resposta a entradas também limitadas em amplitude, ou seja, é aquele sistema que obedece à restrição: |x(t)| ≤ B =⇒ |y(t)| ≤ L · B; L,B < ∞.
(5.28)
Para o caso de sistemas LIT, a implicação desta propriedade sobre a resposta ao impulso h(t) do sistema, pode ser obtida a partir da integral da convolução, expressa por equação 5.9. Deste modo, temos: ∞ |y(t)| = (5.29) x(τ )h(t − τ )dτ . −∞
91
A partir da equação 5.29, o limite superior para a magnitude do sinal de saída pode ser obtido pela desigualdade ∞ ∞ |x(τ )h(t − τ )| dτ, x(τ )h(t − τ )dτ ≤ (5.30) −∞ −∞ que implica em: ∞ ∞ |y(t)| ≤ |x(τ )h(t − τ )| dτ = |x(τ )| |h(t − τ )| dτ. (5.31) −∞ −∞ Por hipótese, x(t) é limitado em B , portanto: ∞ ∞ ∞ B |h(t − τ )| dτ = B |x(τ )| |h(t − τ )| dτ ≤ |h(t − τ )| dτ. (5.32) −∞ −∞ −∞ Deste modo, o limite superior da magnitude do sinal de saída será dado por ∞ |y(t)| ≤ B |h(t)| dt. (5.33) −∞ É evidente, que este limite será finito se a integral da magnitude de h(t) for finita. Portanto, podemos concluir que a condição de estabilidade para um sistema LIT pode ser expressa em termos de sua resposta ao impulso, como: ∞ |h(t)| dt < ∞. (5.34) −∞ O sinal h(t) que obedece a condição acima é dito ser absolutamente integrável.
5.4.2
Inversão
Um sistema LIT com resposta ao impulso h(t) é inversível, se existir um sistema com resposta ao impulso hI (t), tal que
h(t) ∗ hI (t) = δ (t).
O sistema representado por hI (t) é chamado de sistema inverso de h(t), ou seja, hI (t) = [h(t)]−1 . 5.4.3
(5.35)
(5.36)
Memória
A saída de um sistema sem memória em um dado instante t, depende somente do valor da entrada, x(t), naquele mesmo instante. Para um sistema LIT, esta propriedade pode ser considerada no cálculo da integral da convolução, expressa por equação 5.9, resultando em: ∞ (5.37) y(t) = x(τ )h(t − τ )dτ . −∞ τ =t
92
É fácil concluir que o impulso unitário é a única forma que h(t) pode assumir que produz a saída desejada, ou seja, para h(t) = Kδ (t) temos: ∞ y(t) = x(t)Kδ (t)dt = K x(t). (5.38) −∞ Deste modo, a saída do sistema é o próprio sinal de entrada x(t) multiplicado por uma constante K . y(t) é, portanto, uma versão amplificada ou atenuada de x(t), conforme K seja maior ou menor do que a unidade, respectivamente. No caso em que K = 1, temos h(t) = δ (t), o que representa o sistema identidade. Um sistema sem memória é sempre causal, estável e inversível, com resposta ao impulso do sistema 1 δ (t). inverso dada por h I (t) = [h(t)]−1 = K
5.5
Equações Diferenciais
Sistemas LIT podem ter sua relação entrada-saída expressa por uma equação diferencial com coeficientes constantes. A forma geral de uma equação diferencial linear de ordem N com coeficientes constantes, é dada por: N
k=0
d(k) y(t) ak = dtk
M
k=0
d(k) x(t) bk . dtk
(5.39)
A ordem da equação e, consequentemente, do sistema contínuo no tempo por ela representado, corresponde à ordem da maior derivada do sinal de saída presente na equação. Simlarmente ao papel desempenhado por equações de diferença no caso de sistemas discretos, equações diferenciais relacionam os comportamentos passado e presente dos sinais de entrada e de saída de um sistema contínuo. A solução geral para uma equação deste tipo é dada por:
y(t) = y h (t) + y p(t),
(5.40)
em que o sinal yh (t), chamado de solução homogenea da equação diferencial, corresponde à saída produzida pelo sistema para uma entrada nula. Portanto yh(t) é o sinal que satisfaz a equação homogênea: N
k=0
d(k) y(t) =0 dtk
(5.41)
Por sua vez, y p (t) é chamado de solução particular da equação geral 5.39, ou seja, é a solução obtida para um sinal x p (t) específico. Em geral, a solução particular é obtida para sinais de entrada do tipo exponencial, devido ao fato de que sinais desta classe se reproduzem quando diferenciados. 93
Para resolver uma equação diferencial de ordem N , como a da equação 5.39, é necessário que um conjunto de condições auxiliares seja especificado. Estas condições correspondem a valores do sinal y(t) e de suas N − 1 primeiras derivadas em algum instante t 0 . Como no caso de sistemas discretos, o sistema contínuo no tempo representado pela equação diferencial será linear se e sómente se todas as condições auxiliares forem nulas. Adicionalmente, para garantir que o sistema também será causal e invariante no tempo, é necessário que o mesmo esteja em repouso inicial, o que significa que as condições auxiliares nulas devem ser especificadas em relação ao instante de aplicação da entrada no sistema. Portanto, se a entrada x(t) de um sistema LIT causal é nula antes de um dado instante t 0 , a saída também será nula antes de t 0 e as condições auxiliares que permitem a resolução de equação 5.39 são dadas por: d y(t) d(2) y(t) d(N −1) y(t) y(t0) = = = ... = = 0. (5.42) dt dt2 dtN −1
t=t0
t=t0
t=t0
Em geral, escolhe-se t0 = 0, como o instante de aplicação da entrada no sistema. A metodologia de solução de equações diferenciais é um assunto amplamente estudado em disciplinas específicas dos cursos de Engenharia, razão pela qual não será abordada neste texto. Maiores detalhes sobre este assunto podem ser encontrados nas referencias bibliográficas listadas no final do texto.
5.6
Implementação de Sistemas Descritos por Equações Diferenciais
Uma análise da equação diferencial de ordem N (equação 5.39), mostra que três operações são realizadas sobre os sinais x(t) e y(t): 1) diferenciação de ordem k, 2) multiplicação por constantes ak e b k , respectivamente, e 3) soma dos sinais resultantes das operações 1 e 2, para todos os valores de k. Podemos então definir tres operadores básicos, um diferenciador, um multiplicador e um somador, que permitem a implementação de um sistema a partir da equação diferencial que o descreve. Estes operadores estão ilustrados na Figura 5.7. Claramente, as implementações obtidas para equação 5.39 utilizando os operadores acima descritos, terão configurações idênticas às das implementações derivadas no Capítulo 4 para equação 4.43. A única diferença é que naquele caso o bloco D representa o operador deslocamento (ou atraso), enquanto no caso presente o bloco D representa a operação de diferenciação. Exemplo 5.6.1 Como exemplo, considere a seguinte equação diferencial de primeira ordem: a0 y(t) + a1
d y(t) d x(t) = b 0 x(t) + b1 d dt
94
(5.43)
x(t)
+
y(t) = x(t) + v(t)
x(t)
y(t) = k.x(t) k
v(t)
b)
a)
x(t)
d x(t) d t
D c)
Figura 5.7: Operadores básicos para implementação de sistemas contínuos: a) somador, b) multiplicador por constante e c) diferenciador.
Seguindo o mesmo raciocínio desenvolvido no Capítulo 4 para o exemplo da equação 4.60, podemos chegar a três formas de formas de implementação da equação 5.43 utilizando os operadores da Figura 5.7: a Forma Direta, a Forma Inversa e a Forma Canônica, ilustradas nas Figuras 5.8.a, 5.8.b e 5.8.c, respectivamente.
A implementação canônica para a equação 5.39, é mostrada na Figura 5.9, para o caso N = M . Podemos observar que, em todos os casos, a estrutura obtida é identica á estrutura correspondente obtida no Capítulo 4. A realização de um circuito analógico diferenciador não é uma tarefa viável, pelo fato do mesmo ser um sistema não-causal. Uma opção prática é o uso de circuitos integradores, que podem ser fácilmente implementados com amplificadores operacionais. Para tal, entretanto, é necessário converter a equação diferencial em uma equação integral, o que é feito pelo operador integral, definido como: (1)
I [y(t)] = I
t
[y(t)] =
y(τ )dτ
(5.44)
−∞
Este operador, ilustrado na Figura 5.10, pode ser aplicado recursivamente, para produzir integrais
95
b0
x(t)
1/a0
+
+
y(t)
D
D
-a 1
b1
Sistema 2
Sistema 1
a) x(t)
+
b0
1/a0
D
y(t)
+
D
-a 1
b1
Sistema 2
Sistema 1
b) x(t)
+
b0
1/a0
+
y(t)
D
-a 1
b1
c)
Figura 5.8: Formas de implementação do sistema do exemplo 5.6.1: a) Forma Direta, b) Forma Inversa e c) Forma Canonica.
96
x(t)
b0
1/a0
+
y(t)
+
D -a 1
+
b1
+
D -a 2
b2
+
+
D -a 3
+
b3
+
D -a N
b N
Figura 5.9: Forma canonica para implementação de uma equação diferencial de ordem N.
t
x(t) y(t) =
Ι
x ( τ) d τ
−οο
Figura 5.10: Bloco representativo do operador integrador
97
de ordem crescente de y(t): (2)
(1)
t
(1)
I [y(t)] = I [I [y(t)]] =
I (1) [y(τ )]dτ
−∞
(3)
(1)
t
(2)
I [y(t)] = I [I [y(t)]] =
I (2) [y(τ )]dτ
−∞
······························· ······························· t
(k)
(1)
(k 1)
I [y(t)] = I [I − [y(t)]] =
I (k−1) [y(τ )]dτ
−∞
(5.45)
e, óbviamente, a integral de ordem zero corresponde ao próprio sinal, isto é: I (0)[y(t)] = y(t)
(5.46)
Exemplo 5.6.2 Considere a equação diferencial de ordem N , dada em 5.39, para o caso em
que N = M : N
k=0
d(k) y(t) = ak dtk
N
k=0
d(k) x(t) bk dtk
(5.47)
Aplicando o operador integral definido em 5.44, sucessivamente, em ambos os lados de 5.47 e assumindo condições de repouso inicial, obtemos a equação integral: N
N (N k)
ak I − [y(t)] =
k=0
bk I (N −k) [x(t)]
(5.48)
k=0
A implementação desta equação requer a utilização do bloco integrador I , ilustrado na Figura 5.10, além do somador e do multiplicador mostrados na Figura 4.9. Com estes elementos, estruturas equivalentes às obtidas para equações diferenciais podem ser derivadas. Figura 5.11 mostra a Forma Canônica de implementação da equação 5.48.
A hipótese de repouso inicial, quando transformando uma equação diferencial em integral, é necessária para garantir condições iniciais nulas na integração. Isto significa, que esta transformação sempre pode ser aplicada para o caso de sistemas LIT causais representados por equações diferenciais. A implementação de tais sistemas por circuito eletrônicos analógicos, torna-se então uma tarefa bastante simples, através do uso de circuitos integradores realizados por amplificadores operacionais. 98
x(t)
+
b0
1/a0
y(t)
+
Ι
+
-a 1
b1
+
Ι -a 2
b2
+
+
I
+
-a 3
b3
+
I -a N
b N
Figura 5.11: Forma canônica para implementação de uma equação integral de ordem N.
99
5.7
Conclusõe usõess
Neste capítulo a classe dos Sistemas Lineares Invariantes no tempo foi analisada em detalhes. Para tanto foi inicialmente derivada a expressão para a convolução contínua, operação que relaciona relaciona a entrada e a saída para para esta classe de sistemas sistemas através de sua resposta ao impulso. O cálculo da convolução foi examinado em ambas as formas, analítica e gráfica e as propriedades desta operação foram discutidas, bem como as propriedades dos sistemas LIT. Finalmente foi introduzida a representação de sistemas LIT por equações diferenciais, a partir da qual são derivadas derivadas estruturas estruturas para implementaçã implementaçãoo desta classe de sistemas. sistemas. Nos capítulos ?? e ?? , serão apresenta apresentados dos métodos baseados baseados no uso de Transformadas ransformadas de Fourier e de Laplace, que facilitam facilitam enormemente a resolução de equações diferenciais e a análise dos sistemas por elas representados.
100
5.8
Exer Exercí cíci cios os
Exercício 5.1 Determine se cada um dos sistemas abaixo é sem memória, causal, invariante
no tempo, estável e linear. linear. Justifique Justifique suas respostas. respostas. nx(n) 1. y (n) = e nx(
2. y (t) = |x(t) − x(t − 1)| 3. y (n) = P ar{x(n − 1)} (componente par de x(n − 1)) 2t 4. y (t) = −∞ x(τ ) τ )dτ
Exercício 5.2 Para cada um dos casos abaixo, calcule a convolução para determinar a saída, y (n) ou y y (t), do sistema linear estável (LIT ou LID), com entrada x(n) ou x( x (t) e com resposta
ao impulso h(n) ou h( h (t), respectivamente: 1. h(n) =
1 n 2 n
, n≥0
2 , n < 0
,
x(n) = u( u (n) − u(n − 10)
2. x(t) = e −5t u(t), h(t) = e−2t [u(t) − u(t − 3)]
101
Capítulo 6 Análise de Fourier
102
6.1
Intr ntrod oduç uçã ão
No capítulo 5 foi demonstrado que a relação entrada/saída para um sistema linear e invariante no tempo contínuo (LIT) é dada pela convolução entre o sinal de entrada x(t) e a resposta ao impulso impulso do sistema, sistema, h(t). Esta operação é expressa por: ∞ y (t) = x( x (t) ∗ h(t) = h(τ ) τ )x(t − τ ) τ )dτ. (6.1) −∞ A convolução, portanto, permite determinar a saída de um sistema LIT para qualquer sinal de entrada, desde que sua resposta ao impulso seja conhecida. Entretanto, dependendo dos sinais envolvidos, nem sempre o cálculo da integral da convoluçã voluçãoo é algo algo trivia triviall ou poss p ossíve ívell de ser realiz realizado ado.. Esta Esta constat constataçã açãoo levou levou à busca busca de uma representa representação ção alternativa para sinais sinais e sistemas que facilitasse facilitasse a análise análise dos mesmos, mesmos, bem como da interação entre eles. Como veremos neste e nos capítulos subsequentes, a solução para este problema problema é fornecida fornecida pelas p elas Transfo Transformadas rmadas de Fourier Fourier e de Laplace. Laplace. O objetivo das Transformadas utilizadas no estudo de sinais e sistemas, é o de representar sinais sinais como uma combinação combinação linear linear de um conjunt conjuntoo de funções básicas básicas do tempo. tempo. Atrav Através és da aplicação da propriedade da superposição, a saída de um sistema LIT a estes sinais pode ser expressa como uma combinação linear das saídas produzidas por cada uma das funções componentes do conjunto. Portanto, Portanto, considerando considerando o sinal x( x (t) expresso como uma combinação linear dos elementos do conjunto de funções básicas {Φk (t), k = 0, ±1, ±2, · · · }, temos: ∞ x(t) = ak Φk (t). (6.2) k=−∞ Desta forma, a resposta y (t) de um sistema LIT com resposta ao impulso h(t) ao sinal x(t) dado por equação 6.2, é: ∞ y (t) = h( h (t) ∗ x(t) = h( h (t) ∗ ak Φk (t). (6.3) k=−∞ Aplicando o princípio da superposição à equação 6.3, temos: ∞ ∞ y (t) = ak [h [h(t) ∗ Φk (t)] = ak yk (t), (6.4) k =−∞ k=−∞ em que
yk (t) = h( h (t) ∗ Φk (t), k = 0, ±1, ±2, · · · .
(6.5)
Este resultado mostra que a saída y (t) produzida pelo sinal x(t) dado por equação 6.2, corresponde à combinação combinação linear das saídas y k (t), produzidas por cada elemento elemento do conjunto {Φk (t)}, respectivamente. Os coeficients ak da combinação linear não são alterados pela convolução. 103
O problema, portanto, consiste em encontrar o conjunto de sinais Φk (t), para os quais a resposta do sistema LIT pode ser facilmente determinada. Para tanto, considere que o sinal exponencial x(t) = e st , em que s é um parametro complexo da forma s = σ + jω , é aplicado na entrada do sistema LIT. Utilizando a convolução, conforme equação 6.1, obtemos a saída y(t) do sistema: ∞ ∞ y(t) = h(τ )x(t − τ )dτ = h(τ )es(t−τ ) dτ, (6.6) −∞ −∞ que resulta em ∞ st (6.7) y(t) = e h(τ )e−sτ dτ. −∞
Portanto, y(t) pode ser expresso como: y(t) = e st H (s)
em que a grandeza complexa H (s) é dada por: ∞ H (s) =
(6.8)
h(t)e−st dt.
(6.9)
−∞
Deste modo, observamos que a resposta do sistema a uma exponencial complexa x(t) = e st é a própria exponencial complexa, multiplicada por H (s). A grandeza complexa H (s) fornecida por equação 6.9 é conhecida como Função de Transferência do sistema LIT. H (s) é calculada a partir de h(t), a resposta ao impulso do sistema, representando, portanto, uma identidade do sistema. A Função de Transferência descreve como o sistema altera a magnitude e a fase de uma exponencial complexa aplicada na sua entrada, para produzir a exponencial complexa de saída. A frequência da exponencial complexa, caracterizada pelo parametro s, não é alterada pelo sistema. A afirmativa acima pode ser melhor entendida reescrevendo equação 6.8 com H (s) na forma polar, ou seja, H (s) = |H (s)|e jΘ(s), resultando em: y(t) = e st |H (s)|e jΘ(s) = |H (s)|est+ jΘ(s),
(6.10)
em que Θ(s) = Arg[H (s)].
(6.11)
Para cada valor de s , valores específicos para a magnitude e a fase de H (s) são obtidos. Por exemplo, para uma dada exponencial x 1 (t) = es t, caracterizada por s1 = σ1 + jω1 , temos: 1
H (s1) = |H (s1)|e jΘ(s ) . 1
104
(6.12)
A resposta y1 (t) do sistema ao sinal x 1 (t) é fornecida por equação 6.10, ou seja, y1 (t) = |H (s1)|es
1
t+ jΘ(s1 )
= |H (s1)|eσ t .e jω 1
1
t+Θ(s1 )
.
(6.13)
Portanto, o sinal y 1 (t) é uma exponencial complexa de mesma frequência ω 1 que x 1 (t). Processamento por um sistema LIT produz modificações apenas na magnitude, que é multiplicada por |H (s1)|, e na fase, que é acrescida de Θ(s1), da exponencial complexa. O resultado acima justifica a utilização de exponenciais complexas para formar o conjunto base {Φk (t)} desejado para a representação de outros sinais. Assim, podemos considerar o seguinte conjunto base: Φk (t) = e sk t , k = 0, ±1, ±2, · · ·
(6.14)
em que sk = σ k + jωk .
Equação 6.2 pode, portanto, ser reescrita como: ∞
x(t) =
ak esk t ,
(6.15)
(6.16)
k=
−∞
o que implica em um sinal de saída da forma: ∞ y(t) =
∞
sk t
ak e H (sk ) =
k=
ak |H (sk )|esk t+ jΘ(sk ) ,
(6.17)
k=
−∞
−∞
ou ainda: y(t) =
∞
bk esk t ,
(6.18)
k=
−∞
em que
bk = ak H (sk ).
(6.19)
A conclusão final a que podemos chegar é óbvia: a resposta de um sistema LIT a um sinal x(t) qualquer pode ser facilmente determinada através da Função de Transferencia H (s) do sistema, desde que o sinal x(t) possa ser expresso como uma combinação linear de exponenciais complexas. Esta saída consiste em uma combinação linear das mesmas exponenciais complexas, com coeficientes determinados de acordo com equação 6.19. Neste e nos capítulos subsequentes serão descritas ferramentas que possibilitam expressar sinais como combinações lineares de exponenciais complexas. No caso de sinais contínuos no 105
tempo, estas ferramentas são a Série de Fourier, a Transformada de Fourier e a Transformada de Laplace. A Transformada de Laplace é obtida considerando a forma complexa completa do parametro s, ou seja s = σ + jω . A Transformada e a Série de Fourier resultam quando s assume a forma imaginária pura, considerando a componente real σ igual a zero, ou seja s = jω . Como será demonstrado aos longo destes capítulos, estas ferramentas possibilitam uma análise bem mais abrangente, comparada à que se pode realizar no domínio do tempo, de sinais, sistemas e da interação entre eles.
106
6.2
A Série de Fourier Para Sinais Periódicos
A representação de sinais periódicos através da Série de Fourier constitue a forma mais direta de aplicação da idéia introduzida na seção anterior, ou seja, a de exprimir sinais como combinações lineares de exponenciais complexas. Como conjunto base para a representação de um sinal por Série de Fourier, é utilizado o conjunto de exponenciais harmônicas, ou exponenciais harmonicamente relacionadas, descrito no Capítulo 2. Estes sinais são definidos na equação 2.69, a qual é reintroduzida a seguir por conveniência: I l (t) = e jlω t , l = 0, ±1, ±2. · · ·
0
(6.20)
Como descrito no Capítulo 2, todos os sinais membros do conjunto I l (t) possuem frequência fundamental múltipla inteira da frequência ω 0 , chamada de frequência fundamental do conjunto. Também pode ser observado que todos estes sinais são periódicos com período T 0 = ω2π . A partir desta constatação é fácil concluir que uma soma ponderada destes sinais, ou seja, ∞ x p (t) = al e jlω t , (6.21) l=−∞ também é necessáriamente periódica com período e frequência fundamentais T 0 e ω0 , respectivamente. Isto significa que x p (t) = x p (t + T 0 ), conforme a definição de periodicidade vista no Capítulo 2. Considerando que um sinal pode ser expresso na forma da equação 6.21, resta determinar como calcular os coeficientes al . Para tanto podemos multiplicar ambos os lados da equação por e− jkω t e integrar estes produtos de 0 a T 0 , resultando em: ∞ T T jkω t − x p (t)e dt = al e jlω te− jkω tdt (6.22) 0 0 l=−∞ 0
0
0
0
0
0
0
0
Invertendo a ordem da somatória e da integral e multiplicando as exponenciais no lado direito desta equação, temos: ∞ T T jkω t − x p (t)e dt = al e j(l−k)ω t dt (6.23) 0 0 l=−∞ A integral na expressão acima pode ser facilmente resolvida expandindo a exponencial pela fórmula de Euler. Esta resolução é deixada como um exercício para o leitor. A solução final da mesma é:
0
0
T 0
e j(l−k)ω t dt = 0
0
107
0
T 0, l = k 0, l = k.
0
(6.24)
Este resultado pode ser substituído na equação 6.23, reduzindo a somatória a um único termo e resultando em: T 0
x p (t)e− jkω t dt = a k T 0 0
(6.25)
(6.26)
0
e finalmente em: 1 ak = T 0
T 0
x p (t)e− jkω t dt. 0
0
É fácil demonstrar que o intervalo de integração na equação 6.26 pode ser generalizado para qualquer intervalo de tamanho T 0 , independente de sua localização, sem alterar o resultado final. Deste modo temos: 1 ak = T 0
x p (t)e− jkω t dt.
0
(6.27)
A notação < T 0 > indica um intervalo de integração igual ao período fundamental T 0 do sinal x p (t). Como exemplo de intervalos que podem ser utilizados, temos [− T 2 , T 2 ] , [− T 4 , 3T ] e 4 [0, T 0] . Portanto, a representação de um sinal periódico x p (t) com período fundamental T 0 = ω2π por Série de Fourier é expressa como: ∞ x p (t) = ak e jkω t , (6.28) k=−∞ 0
0
0
0
0
0
para a qual os coeficientes ak são calculados através da equação: 1 ak = T 0
x p (t)e− jkω t dt.
0
(6.29)
Equações 6.28 e 6.29 são conhecidas, respectivamente, como equação de síntese e equação de análise da Série de Fourier. A razão para esta denominação é óbvia: os coeficientes ak calculados por equação 6.29 fornecem os pesos com que cada uma das exponenciais complexas do conjunto base contribui para a composição de x p (t). Esta equação, portanto, permite analisar a composição do sinal periódico. Por sua vez, equação 6.28 realiza a síntese do sinal x p (t), a partir dos coeficientes ak . Portanto, através das equações 6.28 e 6.29, o sinal periódico x p (t) com período fundamental T 0 = ω2π pode ser expresso como uma soma de componentes harmônicas ou, simplesmente, uma soma de harmônicas. A k-ésima destas harmônicas possui frequência kω0 . Para k = 0 temos: 0
1 a0 = T 0
108
x p (t)dt,
(6.30)
que corresponde ao valor médio do sinal em um período, também conhecido como componente d.c. (discret current ) ou componente constante do sinal. Para k = ±1, equação 6.29 fornece os coeficientes a±1 , que ponderam a 1a harmônica, também conhecida como componente fundamental do sinal por possuir frequência fundamental ω0 . Para k = ±2 obtemos a±2 , ou seja, os coeficientes da 2 a harmônica que é a componente de frequência 2ω0, e assim sucessivamente. Portanto, fazendo k = ±m na equação 6.29 obtemos os coeficientes a±m da m-ésima harmônica, ou harmônica de ordem m. Observe que a harmônica de ordem m, para qualquer valor de m, é dada pela soma dos termos obtidos com k = +m e k = −m, ou seja, ame jmω t e a−m e− jmω t , respectivamente. 0
0
Exemplo 6.2.1 Considere os sinais senoidais senω0 t e cosω0 t. Para determinar os coeficientes
das respectivas Séries de Fourier podemos utilizar a fórmula de Euler, que expressa estes sinais como uma soma de exponenciais complexas. Desta forma temos para o seno: 1 jω t − e− jω e 2 j
senω0 t =
e para o cosseno:
0
1 jω t cosω0t = e + e− jω 2
0
0
0
t
t
(6.31)
(6.32)
Comparando as equações 6.28 e 6.31, é fácil concluir que os coeficientes ak para o seno são dados por:
ak =
1 , 2 j − 21 j ,
k = 1
(6.33)
k = −1
0, c.c.
Similarmente, os coeficientes da Série de Fourier para o cosseno podem ser obtidos a partir da equação 6.32, resultando em: ak =
1 , 2
k = ±1
(6.34)
0, c.c.
Exemplo 6.2.2 A Figura 6.1 ilustra o sinal periódico conhecido como onda quadrada, com
período T 0 , para o qual desejamos determinar os coeficientes da Série de Fourier. Inicialmente, podemos determinar o coeficiente a0 , ou valor médio do sinal. A partir da equação 6.29, para k = 0, temos: 1 a0 = T 0
T 0
x p (t)dt = 0.
0
109
(6.35)
Para os demais valores de k ,obtemos: 1 ak = T 0
T 0
x p (t)e− jkω
0
1 t dt = x p (t) [coskω0t + senkω0 t] dt, T 0 − T
2
0 2
ou ainda: T 0
T 0
1 1 ak = x p (t)coskω0 tdt + x p (t)senkω0 tdt, T 0 − T T 0 − T
2
0 2
2
(6.36)
0 2
Observando que o sinal x p (t) neste exemplo é um sinal par, podemos concluir que o produto x p (t)coskω0t (produto de dois sinais pares) também corresponde a um sinal par, enquanto o produto x p (t)senkω0t (produto de um sinal par por um sinal ímpar) resulta em um sinal ímpar. Como o intervalo de integração − T 2 , T 2 é simétrico em relação à origem, temos que a segunda integral na equação 6.36 é nula e que a primeira integral pode ser expressa como:
0
0
2 ak = T 0
T 0
2
x p (t)coskω0tdt.
(6.37)
0
p(t)
1
t −1
T
0
Figura 6.1: Onda quadrada. A onda quadrada é igual a 1 no intervalo 0, T 4 e igual a −1 no intervalo em:
0
ak =
2 T 0
T 0
T 0
4
coskω0tdt −
0
2
T 0 4
T 0 T 0 , 2 4
coskω0 tdt .
, resultando
(6.38)
Estas integrais uma vez resolvidas e simplificadas, levando em conta que ω0T 0 = 2π , produzem como resultado final: 2 π ak = sen k kπ 2
110
(6.39)
ou, equivalentemente: ak =
0, k par 2 ± kπ , k = ±1, ±5, ±9, · · · = ±(4l − 3), l = 1, 2, 3, . . .
(6.40)
2 ∓ kπ , k = ±3, ±7, ±11, · · · = ±(4l − 1), l = 1, 2, 3, . . .
Na Figura 6.2 estão representados os coeficientes ak para a da onda quadrada. Pode ser observado que a magnitude dos mesmos decresce rápidamente com o aumento de k, indicando um maior peso das componentes de menor ordem na composição do sinal. Este resultado mostra que a energia do sinal está concentrada sobretudo nas harmônicas de baixa frequência de ordem ímpar, uma vez que todas as harmônicas de ordem par são nulas. a
k
3
−3 −5
−4
−1
1
2
4
−2
5
k
Figura 6.2: Coeficiente da sèrie de Fourier para a onda quadrada.
Exemplo 6.2.3 Um outro exemplo de sinal periódico é o trem de impulsos com período T ,
ilustrado na Figura 6.3 e expresso como: x p (t) =
∞
δ (t − lT ).
(6.41)
l=
−∞
Utilizando equação 6.29, os coeficientes ak podem ser determinados: T ∞ 1 ak = δ (t − lT ) e− jkω tdt. T − T l=−∞
2
2
0
(6.42)
No intervalo de integração − T 2 , T 2 , o sinal x p (t) se resume a um impulso na origem, correspondendo ao termo l = 0 na somatória. Assim, a equação acima simplifica para: T
1 1 ak = δ (t)e− jkω t dt = . T − T T 2
0
(6.43)
2
Fica a cargo do leitor verificar que qualquer outra escolha de intervalo de integração de tamanho T produziria o mesmo resultado acima.
111
−5
−4
−3
−2
−1
0
1
2
3
4
5
n
Figura 6.3: Trem de impulsos. Portanto, os coeficientes da da Série de Fourier para o trem de impulsos com período T são constantes e igual a T 1 , para todo k . Isto significa que todas as harmônicas estão presentes neste sinal, com igual peso.
6.2.1
A Série Trigonométrica de Fourier
Na forma dada por equações 6.28 e 6.29, a Série de Fourier é também conhecida como Série Exponencial de Fourier, em referência ao fato de que o sinal é expresso como uma combinação linear de exponenciais complexas. Uma forma alternativa pode ser obtida para o caso de sinais reais, que exprime x p (t) como uma combinação linear de senos e cossenos. Para um sinal real, temos que x p (t) = x p∗ (t), em que ∗ indica o conjugado complexo. Examinando equação 6.29 é fácil concluir que, neste caso, a∗k = a −k ,
(6.44)
o que faz com que equação 6.28 possa ser reescrita como: ∞ ∞ jkω t ∗ ∗ − (6.45) x p (t) = x p (t) = ak e = a−k e− jkω t . k=−∞ k=−∞ Esta somatória pode ser rearranjada, levando em conta a simetria dos termos, resultando em: ∞ x p (t) = a 0 + ak e jkω t + a−k e− jkω t , (6.46)
0
0
0
0
k=1
ou ainda, considerando equação 6.44,
x p (t) = a 0 +
∞
ak e jkω t + a∗k e− jkω 0
0
k=1
t
.
(6.47)
O termo ak e jkω t é o conjugado complexo de a∗k e− jkω t , o que leva equação 6.47 a ser reescrita como: ∞ ∞ jkω t ∗ x p (t) = a0 + 2Re a e = a 0 + 2Re A∗ e j(kω t+Θk ) , (6.48) 0
0
k=1
0
k
112
k=1
0
k
em que a forma polar ak = A k e jΘk foi utilizada para os coeficientes da Série de Fourier. Após alguma simplificação, chega-se finalmente a: ∞ x p (t) = a 0 + 2 Ak cos(kω 0t + Θk ). (6.49)
k=1
Caso os coeficientes sejam expressos na forma retangular, isto é, ak = Bk + jC k , pode-se, a partir da equação 6.48, chegar à forma alternativa: ∞ [Bk cos(kω 0t) − C k sen(kω0 t)] . (6.50) x p (t) = a 0 + 2
k=1
Equaçoes 6.49 e 6.50 são equivalentes e são comumente referenciadas como a Série Trigonométrica de Fourier, devido ao fato de expressarem o sinal periódico real como combinações lineares de funções trigonométricas. Entretanto, por ser uma forma mais geral, no decorrer deste texto usaremos principalmente a forma exponencial da Série de Fourier, dada por equações 6.28 e 6.29.
113
6.2.2
A Convergência da Série de Fourier
Nesta seção serão apresentados os critérios que um sinal periódico deve satisfazer para que o mesmo possa ser representado por uma Série de Fourier. Esses critérios são satisfeitos por um grande número de classes de sinais, inclusive pela maioria dos sinais de interesse para este livro. Por exemplo, todos os sinais periódicos contínuos possuem Série de Fourier, o mesmo acontecendo com vários sinais discontínuos, como, por exemplo, a onda quadrada do exemplo 6.2.2. Inicialmente, considere a aproximação de um sinal x p (t), periódico com período T 0 , por 2L + 1 termos da sua Série de Fourier, ou seja: L
x pL (t) =
ak e jkω t .
0
(6.51)
k= L
−
Em relação à Série de Fourier, convergência significa que, para um dado instante t0 , a série expressa na equação 6.51 converge para o valor x p (t0 ), à medida que o número de termos na aproximação tende para infinito, ou seja:
lim x pL (t) = x p (t).
L
→∞
(6.52)
A convergência expressa por equação 6.52 não é garantida para qualquer sinal periódico. É suficiente que um dos coeficientes ak seja infinito para que ocorra divergencia da siérie. Mesmo que todos os a k sejam finitos, a convergência não está assegurada, pois o número de termos na soma tende a infinito. Não convergência da equação 6.51 significa impossibilidade de representar por Série de Fourier o sinal periódico x p (t). O sinal erro eL (t) gerado pela aproximação dada por equação 6.51, é expresso por: eL (t) = x p (t) − x pL (t) =
L
∞
jkω 0 t
ak e
−
k=
−∞
ak e jkω t , 0
(6.53)
k= L
−
o qual também é um sinal periódico com período T 0 . A energia média em um período do sinal erro, ou erro médio quadrático em um período, é expressa como: 1 E L = T 0
|eL (t)|2 dt.
(6.54)
Equacão 6.54 fornece um parâmetro de medida da qualidade da aproximação obtida com o truncamento da Série de Fourier em 2L + 1 termos. Pode ser demonstrado que os coeficientes ak , calculados por equação 6.29, minimizam o erro médio quadrático para um dado valor de L. Isto significa que a aproximação obtida pelo truncamento da Série de Fourier é ótima, sob o critério do mínimo erro médio quadrático. 114
É esperado que E L diminua à medida que L cresça, ou seja, à medida que um maior número de termos é incluído na aproximação. Isto efetivamente acontece para todos os sinais possíveis de serem representados por Série de Fourier. A convergência da Série de Fourier pode então ser definida em termos de E L . Deste modo, um sinal periódico x p (t) com período fundamental T 0 pode ser representado por uma Série de Fourier, de acordo com equações 6.28 e 6.29, se e somente se: lim E L = 0.
L
→∞
(6.55)
Esta condição não significa que no limite, quando L tende para infinito, o sinal erro eL(t) vai ser nulo para todo valor de t . Isto acontece somente para os sinais contínuos. Equação 6.55 significa que, no limite, a energia média do sinal erro será nula. Para alguns sinais discontínuos, o erro nos instantes de discontinuidade permanece constante e igual ao valor médio da discontinuidade, independente do número L de termos usados na aproximação. Este fenômeno pode ser observado, por exemplo, com a onda quadrada do exemplo 6.2.2. Pode ser demonstrado que a equação 6.55 é satisfeita para todo sinal periódico com energia finita em um período. Portanto, todo sinal x p (t) para o qual
|x p (t)|2 dt < ∞
(6.56)
possui representação por Série de Fourier. Esta condição garante que os coeficientes ak calculados por equação 6.29 são todos finitos e que x pL (t) → x p (t) quando L → ∞, exceto nas descontinuidades, em que x pL tende para o valor médio das mesmas. Um critério alternativo de existência da Série de Fourier para um sinal periódico x p (t) é fornecido pelo conjunto de trs condições conhecidas como condições de Dirichlet, listadas a seguir: • 1a Condição: O sinal x p (t) é absolutamente integrável em um período, ou seja:
|x p (t)|dt < ∞
(6.57)
T 0
• 2a Condição: Em um período, x p (t) possui um número finito de máximos e mínimos,
todos eles finitos. • 3a Condição: Em um período, x p (t) possui um número finito de discontinuidades, todas
elas finitas. De modo semelhante ao critério da energia finita expresso por equação 6.56, a 1a Condição de Dirichlet garante que todos os coeficientes a k são finitos. Isto, somado à 2 a e à 3 a condições, 115
garante que a Série Infinita de Fourier será igual a x p (t), exceto nos valores de t para os quais x p (t) apresenta descontinuidades. Nestes instantes, a série será igual ao valor médio da discontinuidade. As 2a e 3 a condições de Dirichlet são satisfeitas por todos os sinais de interesse para o estudo de sinais e sistemas, abordados nesta disciplina. É possível definir sinais periódicos que violem uma ou ambas destas condições de Dirichlet, entretanto, estes são sinais que não possuem utilidade prática na representação de fenômenos elétricos e portanto não serão objeto de nossa atenção. Deste modo, no restante deste texto, a verificao da 1a condição de Dirichlet, dada por equação 6.57, será considerada suficiente para garantir a exisência da Série de Fourier para qualquer sinal periódico.
116
6.3
A Transformada de Fourier para Sinais Não-Periódicos
Para o caso de sinais não-periódicos, uma representação alternativa à Série de Fourier é necessária, pois uma soma de harmônicas não é suficiente para expressar a variedade de comportamento que pode ser encontrada nesta classe de sinais. A idéia básica de expressar sinais como combinações lineares de exponenciais complexas ainda permanece válida, pórem a restrição de que estas exponenciais tenham frequências múltiplas inteiras de uma frequência fundamental tem de ser retirada. Para um sinal não-periódico, a frequência ω de suas exponenciais componentes assume valores em um domínio contínuo no intervalo [−∞, +∞]. Um sinal não-periódico pode ser visto como o limite de um sinal periódico quando o período tende para infinito. Quanto maior for o período T 0, menor será a frequência fundamental ω0 deste sinal e portanto, menor será o espaçamento entre as componentes harmonicas de x p (t). No limite, este espaçamento será nulo, significando que a composição do sinal passa a ser definida em um continuum ilimitado de frequências. Nesta situação a combinação linear de exponenciais complexas tem de ser expressa por uma integral em ω , de modo a poder incorporar as infinitas contribuições que definem x(t). Do mesmo modo, no limite, quando T 0 → ∞, a ponderação das exponenciais complexas que compõem o sinal passa a ser feita não mais por um conjunto discreto de coeficientes, como acontece na Série de Fourier, mas por uma função contínua de ω , definida no intervalo [−∞, ∞]. Esta função de ponderação pode ser derivada como o limite da equação 6.29 quando T 0 tende para infnito, ou quando ω0 tende para zero, resultando na equação de análise: ∞ X (ω) = x(t)e− jωt dt, (6.58) −∞
Seguindo o mesmo raciocínio, uma equação de síntese para o sinal não-periódico pode ser derivada como o limite da equação 6.28 quando T 0 tende para infnito, resultando em: ∞ 1 x(t) = X (ω)e jωtdω, (6.59) 2π −∞
A equação de análise (equação 6.58) define a Transformada de Fourier X (ω) do sinal x(t), que descreve a composição do sinal no domínio da frequência ω . A função complexa X (ω) também é chamada de espectro de frequências de x(t), constituindo uma identidade do sinal. A equação de síntese (equação 6.59) permite recuperar o sinal a partir de X (w), através da combinação linear de exponenciais complexas expressa pela integral em ω . Observe que X (w) desempenha nesta combinação linear o mesmo papel dos coeficientes ak na equação 6.29. Portanto, para um dado valor ω 1 da variável ω , X (ω1 ) representa o peso com o qual a exponencial e jω t entra na composição do sinal x(t), de acordo com equação 6.59. 1
117
Equações 6.58 e 6.59, são conhecidas como a Transformada Direta e a Transformada Inversa de Fourier , respectivamente, ou como o Par de Fourier para o sinal x(t). A relação entre estas representações do sinal no domínio do tempo e da frequência, pode ser expressa como: X (ω) = F [x(t)] ,
x(t) = F −1 [X (ω)] ,
(6.60)
ou ainda x(t) ⇐⇒ X (ω)
(6.61)
na qual F [.] e F −1 [.] representam os operadores Transformada Direta e Transformada Inversa de Fourier, respectivamente.
118
6.3.1
A Convergência da Transformada de Fourier
Convergência da Transformada de Fourier significa convergência da integral na equação de análise, expressa por equação 6.58. Entretanto esta convergência não ocorre para qualquer sinal x(t), o que significa que existem sinais que não podem ser representados através da equação de síntese, expressa por equação 6.59. Felizmente, a maior parte dos sinais de interesse prático Engenharia Elétrica satisfaz as condições necessárias para a existência da Transformada de Fourier e portanto permite a utilização destas equações. Similarmente ao que foi visto para a Série de Fourier, a condição mais abrangente para a existência, ou convergência, da Transformada de Fourier é que o sinal x(t) possua energia finita. Esta condição pode ser expressa como: ∞ |x(t)|2 dt < ∞ (6.62) −∞
Qualquer sinal que possua energia finita, também possui Transformada de Fourier. Como na Série de Fourier, um critério alternativo para verificar a existência da Transformada de Fourier para um sinal x(t) é fornecido pelas condições de Dirichlet, listadas a seguir: • 1a Condição: O sinal x(t) é absolutamente integrável, ou seja:
∞
|x(t)|dt < ∞
(6.63)
−∞
• 2a Condição: Em qualquer intervalo finito, o sinal x p (t) possui um número finito de
pontos de máximo e mínimo, todos eles finitos. • 3a Condição: Em qualquer intervalo finito, x p (t) possui um número finito de disconti-
nuidades, todas elas finitas. Também neste caso, as 2a e 3a condições de Dirichlet são satisfeitas por todos os sinais de interesse prático no domínio da Engenharia Elétrica. Portanto, para o estudo de sinais e sistemas abordado nesta disciplina, a verificação da 1a condição de Dirichlet, dada por equação 6.63, é considerada sufuciente para garantir a exisência da Transformada de Fourier X (ω) para qualquer sinal x(t). Exemplo 6.3.1 Considere o sinal x(t) = e −at u(t). Como ilustrado na Figura 6.4, temos duas
possibilidades para o comportamento desta exponencial, dependendo do valor de a . Para a < 0 , Figura 6.4(a), temos uma exponencial crescente que claramente viola 6.62, ou seja, não possui energia finita, bem como não é absolutamente integrável, portanto violando a 1a condição de Dirichlet. Por outro lado, para a > 0 , Figura 6.4(b), a exponencial é decrescente, ou convergente,
119
possuindo energia finita e obedecendo às condições de Dirichlet. Portanto, para a > 0 , o sinal x(t) = e−at u(t) possui Transformada de Fourier, que pode ser calculada por equação 6.58. Temos assim: X (ω) =
que resulta em:
∞
x(t)e− jωt dt =
∞
e−at e− jωtdt =
0
−∞ X (ω) =
∞
e−(a+ jω)t dt
0
1 . a + jω
a > 0
(6.64)
Como equação 6.64 é uma função complexa de ω , podemos calcular sua magnitude e fase, obtendo: |X (ω)| =
1 (a2 + ω 2)
(6.65)
1 2
e ω ΘX (ω) = −arctan . a x(t)
x(t)
t (a)
(6.66)
t (b)
a < 0
a > 0
Figura 6.4: Função Exponencial x(t) = e −at u(t). A função magnitude de X (ω) está ilustrada na Figura 6.5(a). Podemos ver que esta é uma 1 função par de ω , que atinge valor máximo igual a a1 em ω = 0, cai para a√ (aproximadamente 2 70% do valor máximo) em ω = a e ω = −a e tende para 0 à medida que ω tende para ∞ e para −∞. Por outro lado, a função fase de X (ω), plotada na Figura 6.5(b), é uma função ímpar de ω . ΘX (ω) é nula em ω = 0, tem um comportamento aproximadamente linear em torno da origem (para pequenos valores de ω ) e tende assimtóticamente para − π2 e π2 , quando ω tende para ∞ e −∞, respectivamente. Lembrando que X (ω) é a função de ponderação que especifica o peso com que cada exponencial complexa entra na composição do sinal e observando a curva na Figura 6.5.a, podemos constatar que as componentes com maior peso na composição de x(t) estão concentradas em torno da origem, sobretudo na faixa de frequências −a ≤ ω ≤ a. Isto significa que x(t) é um sinal cujo comportamento é regido pelas componentes exponenciais de baixa frequência, sendo portanto um sinal que varia lentamente ao longo do tempo.
120
Θx (ω)
| X (ω) | ω ω (a)
(b)
Figura 6.5: Módulo e Fase de X (ω). Exemplo 6.3.2 Considere o sinal conhecido como sinal ”porta”, dado por x(t) =
1 |t| ≤ T
(6.67)
0, c.c.
ilustrado na Figura 6.6.a, que claramente possui energia finita (equação 6.62) e satisfaz a 1a condição de Dirichlet ( equação 6.63). Calculando a Transformada de Fourier para este sinal, temos: T ∞ −1 − jωT jωt − X (ω) = x(t)e dt = e− jωtdt = (e − e jωT ), jω −∞ −T
que resulta em X (ω) =
2 senωT. ω
(6.68)
O gráfico de X (ω) está ilustrado na Figura 6.6.b e tem a forma de uma senóide amortecida, cuja amplitude tende para 0 quando ω tende para + ∞ e −∞ e que possui zeros em ω k = kπ , para k T inteiro. É interessante analisar o comportamento dos dois gráficos, x(t) e X (ω), à medida que T tende para ∞. Podemos observar que, no limte, o sinal x(t) tende para um sinal constante igual a 1 , pois o primeiro zero (ω1 ) tende para ∞. Para X (ω), observamos que, à medida que T cresce, os pontos ω k nos quais a curva intercepta o eixo ω tendem todos para 0 , ou seja, o sinal x(t) é ”achatado” sobre o eixo vertical, enquanto sua amplitude na origem, igual a T 2 , tende para ∞. Portanto, no limite, X (ω) tende para um sinal concentrado na origem ( ω = 0) e com aplitude infinita, ou seja, um impulso em frequência. Este comportamento leva á conclusão que a expansão do sinal no tempo corresponde a uma compressão do seu espectro de frequências. No limite, o sinal maximamente expandido no tempo (sinal constante) corresponde ao espectro maximamente comprimido (sinal impulso) em frequência.
121
X (ω)
x(t)
ω t (a)
(b)
Figura 6.6: Função Porta e sua transformada de Fourier. Exemplo 6.3.3 Vamos analisar agora a Transformada de Fourier do impulso unitário, δ (t).
Aplicando equação 6.58, temos: X (ω) =
∞
δ (t)e− jωtdt = 1.
(6.69)
−∞
É fácil concluir que este exemplo é o dual do caso limite obtido no exemplo anterior. Aqui, o sinal está, simultaneamente, maximamente contraído no tempo e maximamente expandido no domínio da frequência. O significado da equação 6.69, é que a composição do impulso unitário está uniformemente distribuída em todo a gama de frequências, de −∞ a ∞. Ou seja, todas as frequências entram com igual peso na composição de δ (t).
A dualidade tempo×frequência observada nos dois exemplos anteriores voltará a ser analisada na Seção 6.3.3, quando do estudo das propriedades da Transformada de Fourier.
122
6.3.2
A Transformada de Fourier para Sinais Periódicos
Na seção 6.2, vimos que sinais periódicos podem ser representados por uma Série de Fourier, ou seja, como uma soma ponderada de componentes exponenciais harmonicas. Nesta seção, veremos que esta classe de sinais também pode ser respresentada pela Transformada de Fourier, que neste caso assume uma forma particular. Considere, inicialmente a seguinte expressão no domínio da frequência:
X (ω) = 2πδ (ω − ω0 ).
(6.70)
Desejamos determinar o sinal no tempo x(t) que possui a Transformada de Fourier X (ω) como em equação 6.70. Para tanto usamos a Equação de Síntese, equação 6.59, obtendo: ∞ ∞ 1 1 jωt x(t) = X (ω)e dω = 2πδ (ω − ω0)e jωt dω = e jω t (6.71) 2π −∞ 2π −∞
0
O que nos fornece mais um par de Fourier: x(t) = e jω t ⇐⇒ X (ω) = 2πδ (ω − ω0).
0
(6.72)
O resultado acima pode ser utilizado para determinar a Transformada de Fourier X p (ω) de um sinal periódico x p (t) com período fundamental T 0 = ω2π , representado por Série de Fourier (equação 6.28). Aplicando a equação de análise (equação 6.58) temos: 0
X p (ω) = F [x p (t)] = F
∞
jkω0 t
ak e
k=
−∞
∞
=
ak F e jkω
0
t
.
(6.73)
k=
−∞
A inversão da ordem da somatória e do operador F [ ] na equação acima, é justificada pelo fato que a Transformada de Fourier é definida por uma integral, sendo portanto uma operação linear. Considerando o par de Fourier dado em 6.72, obtemos: F e jkω
t
0
= 2πδ (ω − kω 0),
o que, substituído na equação 6.73, produz: ∞ X p (ω) =
2πa k δ (ω − kω 0).
(6.74)
(6.75)
k=
−∞
Este resultado significa que a Transformada de Fourier X p (ω) do sinal periódico x p (t), corresponde a um trem de impulsos no domínio da frequência, posicionados nos múltiplos inteiros da frequência fundamental ω0, e multiplicados por 2πak , respectivamente, em que ak são os coeficientes da Série de Fourier do sinal. O exemplo a seguir ilustra este resultado. 123
Exemplo 6.3.4 No exemplo 6.3.4 foi derivada uma expressão para os coeficientes da Série de
Fourier de uma onda quadrada com período T 0 , resultando em equação 6.39, que repetimos abaixo: ak =
2 π senk kπ 2
(6.76)
Aplicando esta expressão de ak na equação 6.75, podemos obter a Transformada de Fourier da onda quadrada: ∞ ∞ 2 4 π π X p (ω) = 2π senk δ (ω − kω 0) = senk δ (ω − kω0 ). (6.77) kπ 2 kπ 2 k=−∞ k=−∞ ou ainda
∞
4 π 2π X p (ω) = senk δ ω − k kπ 2 T 0 k=−∞
.
(6.78)
A representação gráfica de X p (ω) é mostrada na Figura ?? . Podemos observar que somente os impulsos correspondentes a valores ímpares de k estão presentes, já que a onda quadrada possui harmonicas pares nulas. Exemplo 6.3.5 No exemplo 6.2.1 derivamos os coeficientes da Série de Fourier dos sinais se-
noidais, senω0t e cosenω0 t, que são dados nas equações 6.33 e 6.34, respectivamente. Podemos agora obter a Transformada de Fourier destes sinais. Para o seno, substituindo os coeficentes na equação 6.75, obtemos: x(t) = senω0 t ⇐⇒ X (ω) =
π [δ (ω − ω0 ) − δ (ω + ω0)] . j
(6.79)
(6.80)
Para o coseno, o mesmo procedimento resulta em: x(t) = cosenω0 t ⇐⇒ X (ω) = π [δ (ω − ω0 ) + δ (ω + ω0)] .
Estas transformadas estão ilustradas na Figura ??. Exemplo 6.3.6 Os coeficientes ak da Série de Fourier do trem de impulsos com período T ,
foram derivados no exemplo 6.2.3, tendo sido determinado que os mesmos são iguais a T 1 , para qualquer valor de k , conforme equação 6.43. Para determinar a Transformada de Fourier do trem de impulsos, é suficiente substituir este valor na equação 6.75 e considerar que ω0 = 2π , T para obter: ∞ ∞ 2π 2π (6.81) x(t) = δ (t − lT ) ⇐⇒ X (ω) = δ (ω − k ). T T l=−∞ k=−∞
Este par de Fourier está ilustrado na Figura 6.81
124
6.3.3
Propriedades da Transformada de Fourier
Nesta seção serão apresentadas as principais propriedades da Transformada de Fourier. Estas propriedades são muito importantes, pois facilitam o cálculo e a utilização desta transformada em um grande número de problemas práticos. O bom uso das propriedades combinado com uma tabela, permite a determinação da Transformada de Fourier de uma grande quantidade de sinais, sem que seja necessário o cálculo explícito da integral da equação de análise. Em geral, a demonstração das propriedades será omitida, ficando como sugestão ao leitor realizá-las. 1. Propriedade da Linearidade A Transformada de Fourier é uma operação linear, ou seja é uma operação que obedece ao princípio da superposição. Resumindo, isto significa que a transformada de uma soma ponderada de sinais é igual à soma ponderada das transformadas dos sinais individuais, preservando os coeficientes de ponderação. Exemplificando para dois sinais x1 (t) e x2 (t), com transformadas X 1(ω) e X 2 (ω), respectivamente, e temos:
F [ax1 (t) + bx2 (t)] = aF [x1 (t)] + bF [x2 (t)] ,
(6.82)
ou seja,
ax1 (t) + bx2 (t) ⇐⇒ aX 1 (ω) + bX 2 (ω),
(6.83)
em que a e b são coeficientes constantes. Esta propriedade pode ser fácilmente demonstrada, considerando que a Transformada de Fourier é definida por uma integral, equação 6.58, e que a integral é uma operação linear. 2. Propriedade da Simetria Esta propriedade garante que para o par x(t) ⇐⇒ X (ω),
(6.84)
temos que x∗ (t) ⇐⇒ X (−ω).
(6.85)
A partir deste resultado pode ser demonstrado que para x(t) real, ou seja, para x(t) = x∗ (t), a Transformada de Fourier X (ω) apresenta simetria do conjugado complexo, ou seja: X ∗ (ω) ⇐⇒ X (−ω).
125
(6.86)
Como consequência da equação 6.86 e considerando que X (ω) = Re[X (ω)]+ jI m[X (ω)], temos, para x(t) real:
Re [X (ω)] = Re[X (−ω)]
(6.87)
e
Im[X (ω)] = −Im[X (−ω)].
(6.88)
Portanto, a componente real da Transformada de Fourier é uma função par e a componente imaginária é uma função ímpar da frequência ω , para todo x(t) real. Se X (ω) é expresso na forma polar, ou seja: X (ω) = |X (ω)| e jArg[X (ω)] ,
(6.89)
resulta que
|X (ω)| = |X (−ω)|
(6.90)
e
Arg[X (ω)] = −Arg[X (−ω)].
(6.91)
Este resultado significa que, para x(t) real, a magnitude da Transformada de Fourier é uma função par e a fase da Transformada de Fourier é uma função ímpar da frequência ω . Sugerimos ao aluno que verifique estes resultados para as transformadas já calculadas nos exemplos deste Capítulo. 3. Propriedade do Deslocamento no Tempo Para o par
x(t) ⇐⇒ X (ω),
(6.92)
temos que x(t − t0 ) ⇐⇒ X (ω)e− jωt . 0
(6.93)
A demonstração desta propriedade pode ser feita pelo cálculo direto da Transformada de Fourier do sinal deslocado no tempo: ∞ F [x(t − t0 )] = x(t − t0 )e− jωtdt. (6.94) −∞
126
Fazendo t − t0 = v , temos t = v + t0 e dt = dv . Substituindo em 6.94, obtemos: ∞ ∞ jω(v+t ) − F [x(t − t0 )] = x(v)e dv = x(v)e− jωv e− jωt dv. (6.95) −∞ −∞ Como a variável de integração é v, o termo e− jωt pode sair do integrando,concluindo a
0
0
0
demonstração: F [x(t − t0 )] = e − jωt
0
∞
x(v)e− jωv dv = X (ω)e− jωt .
0
(6.96)
−∞
A partir desta propriedade, é interessante observar como o deslocamento no tempo do sinal x(t) afeta a magnitude e a fase de X (ω). Expressando X (ω) na forma polar (equação 6.89) e considerando que |e− jωt | = 1 e Arg[e− jωt ] = −ωt 0 , temos: 0
0
X (ω)e− jωt = |X (ω)| e j[ΘX (ω)−ωt ] , 0
0
(6.97)
em que ΘX (ω) = Arg[X (ω)].
(6.98)
Portanto, podemos concluir que a magnitude de X (ω) não é alterada pelo deslocamento no tempo, enquanto sua fase é acrescida, ou deslocada, de um termo −ωt 0 , que é uma função linear de ω . Esta conclusão reflete o fato que o deslocamento de um sinal no tempo apenas resulta em atrasar ou adiantar o sinal, não alterando a forma do mesmo. A forma do sinal está relacionada à magnitude de X (ω), que determina o peso com que cada exponencial complexa em ω contribui para a composição do sinal, enquanto o deslocamento do sinal no tempo decorre da fase de X (ω). 4. Propriedade da Convolução Dados os sinais g(t) e r(t) com transformadas G(ω) e R(ω), respectivamente, a Propriedade da Convolução estabelece que: g(t) ∗ r(t) ⇐⇒ G(ω)R(ω),
(6.99)
Portanto, esta relação afirma que uma convolução no tempo equivale a uma multiplicação no domínio da frequência. A demonstração é deixada a cargo do aluno. Esta propriedade é de extrema relevância no estudo de sistemas LIT, pelo fato do sinal de saída y(t), para esta classe de sistemas, ser dado pela convolução entre o sinal de entrada x(t) e a resposta ao impulso h(t), ou seja, y(t) = x(t) ∗ h(t). Considerando os pares: y(t) ⇐⇒ Y (ω), x(t) ⇐⇒ X (ω), h(t) ↔ H (ω)
127
a Propriedade da Convolução nos garante que: Y (ω) = X (ω)H (ω).
(6.100)
Este resultado indica que a saída para um sistema LIT pode ser determinada por uma multiplicação no domínio da frequência, ao invés de uma convolução no tempo. A função complexa H (ω) é denominada de resposta em frequ˜encia do sistema. Do mesmo modo que a resposta ao impulso, a resposta em frequ˜encia também é uma identidade do sistema LIT, ou seja, se H (ω) é conhecido, o sistema é dito estar identificado. O conhecimento de H (ω) permite que a saída do sistema seja determinada para qualquer sinal de entrada, através da equação 6.100. É importante observar que a resposta em frequ˜encia não é definida para qualquer sistema LIT. Como H (ω) é a transformada de Fourier de h(t), a mesma só existe para sistemas cuja resposta ao impulso satisfaça a 1a Condição de Dirichlet, dada por ∞ |h(t)|dt < ∞, (6.101) −∞
assumindo que as 2a e 3a condições de Dirichlet também são satisfeitas por h(t), o que efetivamente ocorre para todos os sinais de interesse prático. Na seção ?? foi visto que esta condição (h(t) absolutamente integrável) é a condição que garante a estabilidade de um sistema LIT. Portanto, concluímos que somente sistemas LIT estáveis possuem resposta em frequência H (ω) e podem ser objeto de análise através da Transformada de Fourier. Para analisar sistemas instáveis, será apresentada no Capítulo ?? a Transformada de Laplace, que corresponde a uma generalização da Transformada de Fourier. A Propriedade da Convolução fornece a base para teoria de processamento de sinais no domínio da frequência por sistemas LIT conhecidos como Filtros Seletivos em Frequeência, os quais são analisados no Capítulo ??. 5. Propriedade da Multiplicação Dados p(t) ⇐⇒ P (ω),
s(t) ⇐⇒ S (ω),
pode ser demonstrado que p(t)s(t) ⇐⇒
1 [P (ω) ∗ S (ω)] 2π
(6.102)
Esta propriedade estabelece que uma multiplicação no tempo equivale a uma convolução no domínio da frequência, sendo portanto, a dual da propriedade da convolução. Duas 128
aplicações extremamente importantes desta propriedade são a amostragem de sinais no tempo contínuo e o sistema de modulação em amplitude (AM), que serão analisados no Capítulo ??. 6. Propriedades da Diferenciação e da Integração Para o sinal x(t) com Transformada de Fourier X (ω), temos que: dx(t) ⇐⇒ jω X (ω). dt
(6.103)
Esta propriedade pode ser fácilmente demonstrada derivando os dois lados da equação 6.58. A generalização da mesma para derivadas de ordem superior pode ser obtida aplicando recursivamente a diferenciação, obtendo: dk x(t) ⇐⇒ ( jω)k X (ω). k dt
(6.104)
Para a integração, temos a seguinte propriedade: t
x(τ )dτ ⇐⇒
1 X (ω) + πX (0)δ (ω). jω
(6.105)
−∞ A demonstração decorre da propriedade da convolução e do fato que t
x(τ )dτ = u(t) ∗ x(t),
(6.106)
−∞
implicando em t
F
−∞
x(τ )dτ = F [u(t) ∗ x(t)] = U (ω)X (ω).
(6.107)
A propriedade da integração (relação 6.105) segue da transformada do degrau unitário: u(t) ⇐⇒ U (ω) =
1 + πδ (ω). jω
(6.108)
A obtenção de U (ω) é deixada como exercício para o leitor. 7. Propriedade do Escalonamento no Tempo e na Frequência Para
x(t) ⇐⇒ X (ω),
(6.109)
temos que
1 ω x(at) ⇐⇒ X |a| |a|
129
.
(6.110)
O escalonamento da variável independente t pode corresponder a uma expansão (para |a| < 1 ) ou a uma contração (para |a| > 1) do sinal no tempo. A relação 6.110 mostra que a operação inversa ocorre no domínio da frequência, ou seja, uma contração no tempo corresponde à uma expansão em frequência, enquanto uma expansão no tempo corresponde à uma contração em frequência. Esta dualidade tempo×frequência tem como caso extremo o sinal impulso unitário e sua transformada:
δ (t) ⇐⇒ 1.
(6.111)
O impulso é maximamente concentrado no tempo e maximamente espalhado em frequência. Possue o que se chama de espectro plano, significando que todas as frequências do espectro contribuem com igual peso na composição do sinal. Inversamente, temos um sinal constante no tempo e sua transformada: 1 ⇐⇒ 2πδ (ω),
(6.112)
ou seja, espalhamento máximo no tempo corresponde a concentração máxima em frequência. 8. Propriedade da Preservação da Energia (Relação de Parseval) Para o sinal x(t) e sua Transformada de Forurier X (ω), temos que: ∞ ∞ 1
2
|x(t)| dt =
−∞
2π −∞
|X (ω)|2dω
(6.113)
Esta equação é conhecida como Relação de Parseval e estabelece que a energia total de um sinal pode ser calculada tanto no domínio do tempo, através da integração de |x(t)|2, quanto no domínio da frequência, pela integração de |X (ω)|2. A função |X (ω)|2 é conhecida como o espectro de densidade de energia do sinal x(t), pois fornece a distribuição da energia em ω , ou a energia por unidade de frequência. O cálculo da energia total do sinal no domínio da frequência é, em muitas situações reais, mais conveniente e fácil de realizar do que o mesmo cálculo no tempo, principalmente quando lidamos com sinais limitados em frequência.
130
6.3.4
Cálculo da Transformada Inversa de Fourier
A forma mais direta de cálculo da Transformada Inversa de Fourier de um sinal x(t) é através da equação de síntese (equação 6.59) ou seja: ∞ 1 x(t) = X (ω)e jωt dω. (6.114) 2π −∞ Entretanto, esta forma nem sempre é a mais conveniente. Para grande parte dos sinais de interesse prático, X (ω) pode ser expressa como uma razão entre dois polinômios em jω , ou seja:
X (ω) = X ( jω) =
N ( jω) . D( jω)
(6.115)
Nestes casos, a forma mais prática de cálculo da transformada inversa é através da utilização da técnica de expansão em frações parciais, como veremos no exemplo a seguir. Exemplo 6.3.7 Considere a Transformada de Fourier dada por: X ( jω) =
jω + 2 ( jω)2 + 4 jω + 3
(6.116)
(6.117)
(6.118)
Extraindo as raízes e fatorando o polinômio do denominador, obtemos: X ( jω) =
jω + 2 ( jω + 1)( jω + 3)
A expansão em frações parciais de X ( jω) é do tipo: X ( jω) =
A1 A2 + jω + 1 jω + 3
Em que os coeficientes A1 e A2 são calculados como: A1 = X ( jω)( jω + 1) |j ω=−1 =
jω + 2 1 |j ω=−1 = jω + 3 2
(6.119)
A2 = X ( jω)( jω + 3) |j ω=−3 =
jω + 2 1 |j ω=−3 = jω + 1 2
(6.120)
Portanto, X ( jω) pode ser escrito como: X ( jω) =
1 2
jω + 1
+
1 2
jω + 3
(6.121)
(6.122)
(6.123)
No exemplo 6.3.1 foi deduzido o par de Fourier: e−at u(t) ⇔
1 , a + jω
a > 0
Utilizando este resultado na equação 6.121, obtemos para x(t): 1 1 x(t) = e−t u(t) + e−3t u(t) 2 2
131
Uma revisão da técnica de expansão em frações parciais é recomendada para aqueles que não estão familiarizados com o assunto. Esta técnica é bastante utilizada na determinação da transformada inversa, para as diversas transformadas que são analizadas neste livro. O livro de Oppenheim e Willsky [?], em seu Apendice A, descreve detalhadamente um método geral e eficiente para o cálculo da expansão de sinais em frações parciais, também adotado neste texto. 6.3.5
Análise de Sistemas representados por equações diferenciais lineares com coeficientes constantes
Uma parcela significativa de sistemas LIT de interesse prático, tem a sua relação entrada/saída expressa por uma equação diferencial linear de ordem N com coeficientes constantes, do tipo: N
k=0
dk y(t) ak = dtk
M
dk x(t) bk dtk
k=0
(6.124)
Aplicando o operador Transformada de Fourier em ambos os lados desta equação, resulta em: N
F
k
ak
k=0
M
d y(t) = F dtk
k=0
k
bk
d x(t) . dtk
(6.125)
(6.126)
(6.127)
Utilizando a propriedade da linearidade da Transformada de Fourier, temos: N
dk y(t) ak F = k dt k=0
M
dk x(t) bk F . k dt k=0
Aplicando agora a propriedade da diferenciação na equação acima, obtemos: N
M k
ak ( jω) Y ( jω) =
k=0
bk ( jω)k X ( jω)
k=0
ou ainda, N
Y ( jω)
M k
ak ( jω) = X ( jω)
k=0
bk ( jω)k
(6.128)
k=0
e finalmente, usando a propriedade da convolução: Y ( jω) = H ( jω) = X ( jω)
M k k=0 bk ( jω) . N k k=0 ak ( jω)
(6.129)
Equação 6.129 nos diz que, neste caso, a resposta em frequência do sistema LIT é expressa como uma razão entre dois polinômios na variável jω , ou seja, corresponde à uma função racional de jω . Os coeficientes do polinômio do numerador são os mesmos coeficientes bk do 132
lado direito da equação 6.124 e os coeficientes do polinômio do denominador são os coeficientes ak do lado esquerdo da equação 6.124. Esta análise leva à conclusão que H ( jω), como expressa por equação 6.129, pode ser obtida diretamente da equação diferencial (equação 6.124) que representa sistema. Exemplo 6.3.8 Considere o sistema LIT descrito pela seguinte equação diferencial: d2 y(t) dy(t) dy(t) + 5 + 6y(t) = + 4x(t) dt2 dt dt
(6.130)
Para este sistema temos N = 2 e M = 1. Substituindo os coeficientes da equação diferencial na equação 6.129, obtemos a resposta em frequência H ( jω) do sistema: H ( jω) =
jω + 4 ( jω)2 + 5 jω + 6
(6.131)
(6.132)
(6.133)
Fatorando o polinômio do denominador, temos: H ( jω) =
jω + 4 ( jω + 2)( jω + 3)
A expansão em frações parciais de H ( jω) assume a forma: H ( jω) =
A1 A2 + jω + 2 jω + 3
Em que os coeficientes A1 e A2 são calculados como: jω + 4 | ω=−2 = 2 jω + 3 j
(6.134)
jω + 4 | ω=−3 = −1 jω + 2 j
(6.135)
A1 = H ( jω)( jω + 2) |j ω=−2 =
A2 = H ( jω)( jω + 3) |j ω=−3 =
Resultando em: H ( jω) =
−1 2 + jω + 2 jω + 3
(6.136)
Utilizando o par de Fourier dado pela relação 6.122, obtemos a resposta ao impulso h(t) do sistema: x(t) = 2e−2t u(t) − e−3t u(t)
(6.137)
Consideremos agora que o seguinte sinal x(t) é aplicado na entrada do sistema: x(t) = 3e−tu(t)
133
(6.138)
Para o qual temos a Transformada de Fourier X ( jω): X ( jω) =
3 jω + 1
(6.139)
A saída do sistema é expressa pelo par de Fourier y(t) ⇔ Y ( jω), que pode ser obtido no domínio da frequência através da propriedade da convolução: Y ( jω) = H ( jω)X ( jω) =
3( jω + 4) . ( jω + 2)( jω + 3)( jω + 1)
(6.140)
Para a determinação do sinal de saída, inicialmente expandimos Y ( jω) em frações parciais: A1 A2 A3 + + , jω + 2 jω + 3 jω + 1
(6.141)
A1 =
3( jω + 4) | ω=−2 = −6 ( jω + 3)( jω + 1) j
(6.142)
A2 =
3( jω + 4) 3 |j ω=−3 = ( jω + 2)( jω + 1) 2
(6.143)
A3 =
3( jω + 4) 9 |j ω=−1 = ( jω + 2)( jω + 3) 2
(6.144)
Y ( jω) =
em que os coeficientes são dados por:
Portanto, 3 9 −6 2 2 Y ( jω) = + + . jω + 2 jω + 3 jω + 1
(6.145)
O sinal y(t), consequentemente, é dado por: 3 9 x(t) = −2e−2t u(t) + e−3t u(t) + e−t u(t). 2 2
(6.146)
Este exemplo mostra como a representação por equação diferencial combinada com a análise no domínio da frequência facilita o trabalho com sistemas LIT.
134
6.4
Exercícios
e y(t) = sen 13 πt . Expresse o sinal z (t) = x(t).y(t) como uma combinação linear de exponenciais complexas harmônicas. Determine o período e a frequˆ ncia fundamentais de z (t). Expresse z (t) como uma soma de senos e cossenos. Exercício 6.1 Considere os sinais x(t) = sen
3 πt 2
5 πt 2
135
+ cos
Capítulo 7 Amostragem
136
7.1
Amostragem
Neste capítulo será mostrado que um sinal g(t) limitado em banda em B Hz pode ser reconstruído exatamente de suas amostras se eles foram tomadas uniformemente a uma taxa de R > 2 BH z . Além disso, será mostrado que uma taxa de amostragem menor que 2B produz um efeito conhecido como aliasing, que é a sobreposição dos espectros das amostras o que impossibilita a recuperação do sinal original. Considere novamente um sinal g(t) cujo espectro é limitado em banda em B Hz . Para amostrar esse sinal a uma taxa f s Hz pode-se multiplicar g(t) por um trem de impulsos δ Ts (t), que consiste em um impulso unitário repetido periodicamente a cada T s segundos (T s = 1/f s ), ou seja gs (t) = g(t)δ Ts (t − nT s ).
Como um trem de impulsos é um sinal periódico ele pode ser expresso por uma série de Fourier. A série de Fourier trigonométrica do trem de impulsos é dada por δ Ts (t) =
1 2π [1 + 2 cosωs t + 2 cos2ωs t + 2cos 3ωs t + ...], ωs = = 2πf s T s T s
dessa forma gs (t) = g(t)δ T s (t) =
1 [g(t) + 2g(t)cos2ωs t + 2g(t)cos3ωs t + ...] T s
(7.1)
Para encontrar Gs (ω) podemos aplicar a transformada de Fourier em cada termo da Equação acima. Observe que o primeiro termo é G(ω), o segundo termo é G(ω −ωs )+G(ω+ωs), o terceiro termo é G(ω − 2ωs ) + G(ω + 2ωs ) e assim por diante, e que esses termos são o deslocamento do espectro de G(ω) para ±nωs , o mesmo que é feito na modulação AM. Isso significa que o espectro de Gs (ω) consiste de G(ω) repetido periodicamente com período ω s = 2π/T s , ou ∞ 1 Gs (ω) = (7.2) G(ω − nωs ). T s n=−∞
como está representado na Figura 7.1 Para reconstruir g(t) a partir de gs (t) devemos conseguir recuperar G(ω) de Gs(ω), isso só será possível se não houver sobreposição dos espectros de Gs (ω), o que implica em f s > 2B ou T s <
1 2B
o valor f s = 2B é conhecido como taxa de Nyquist. A reconstrução do sinal pode ser feita passando g s (t) por um filtro passa baixas de largura de banda B Hz , pois observando a Equação 7.2 pode-se ver que o sinal G s (ω) aplicado a um filtro 137
g(t)
G( ω )
t −2π B
2 πB
ω
t G (ω ) s
g (t) s
t
−ω
−2π B
s
−2
2 πB
ω
s
ω
B
Figura 7.1: Representação do sinal g(t), seu espectro G(ω), do trem de impulsos δ Ts (t) e do sinal gs (t) com o seu espectro. = 0, passando somente G(ω). O passa baixas eliminaria as componentes deslocadas de nωs , n filtro com essa característica tem função de transferência H (ω) = T s rect
ω . 4πB
(7.3)
Vamos analisar como a reconstrução do sinal ocorre no domínio do tempo. A resposta ao impulso h(t), cuja função de transferência é dada pela Equação 7.3 é h(t) = 2BT s sinc(2πBt)
e assumindo a taxa de amostragem de Nyquist, isto é, 2BT s = 1 temos h(t) = sinc(2πBt).
Observe que h(t) é zero para todos os instantes de amostragem ( t = ±n/2B ) exceto em t = 0. Quando gs (t) é aplicado a esse filtro a saída é g(t) pois como cada amostra em gs (t) é um impulso na saída do filtro tem-se um pulso sinc cuja amplitude é proporcional a amostra, como está representado na Figura 7.2. De uma forma geral g(t) =
g(kT s )h(t − kT s )
k
=
g(kT s )sinc[2πB(t − kT s )]
k
=
g(kT s )sinc(2πBt − kπ)
(7.4)
k
que é conhecida como fórmula de interpolação que aproxima os valores de g(t) a partir das amostas. 138
H( ω) h(t)
1
Ts
−2π B
2π B
−1 / 2Β
ω
1 / 2Β
t
h(t)
1
Figura 7.2: Representação do sinal g(t), seu espectro G(ω) e, do trem de impulsos δ Ts (t) e do sinal gs (t) com o seu espectro. Se um sinal é amostrado na frequência de Nyquist f s = 1/T s o espectro de Gs (ω) consiste de repetições do espectro de G(ω) sem intervalos entre eles, e para recuperar g(t) é necessário = 0. utilizar um filtro passa baixas ideal que elimine todas as componentes G(ω + nωs ) sendo n Como a realização de um filtro ideal é impossível, ao utilizar um filtro realizável na saída teremos G(ω) mais uma parte de outras componentes espectrais, fazendo com que o sinal recuparado não seja exatamente g(t). Uma solução para isso é aumentar a frequência de amostragem pois com isso as cópias do espectro de G(ω) ficarão mais espaçadas e pode-se utilizar filtros mais suaves. Mesmo assim, nem sempre pode-se obter um filtro que elimine somente G(ω) ou realizar uma amostragem em taxas mais altas, logo conclui-se que a recuperação exata de g(t) a partir de suas amostras é muito difícil. O teorema da amostragem foi demonstrado considerando que o sinal g(t) é limitado em banda, porém os sinais práticos são naturalmente ilimitados em banda, dessa forma, o espectro Gs (ω) do sinal amostrado consisistirá de ciclos de G(ω) que se sobrepõem a cada f s H z . Devido a essa sobreposição Gs (ω) não tem a informação completa sobre G(ω), logo teoricamente não seria possível recuperar g(t) de gs (t). Este problema é conhecido como aliasing . Uma possibilidade para solucionar o problema do aliasing é filtrar o sinal g(t) antes que ele seja amostrado. Essa filtragem conhecida como anti-aliasing deve eliminar as componentes de frequências mais altas do sinal. Outra dificuldade é que o teorema foi demonstrado utilizando uma sequência de impulsos para amostrar o sinal g(t), e como é sabido os impulsos também são fisicamente irrealizáveis. Entretanto, pode-se utilizar um trem de pulsos para obter as amostras de g(t), desde que a frequência de Nyquist seja preservada. Para tanto, observe que um trem de pulsos sendo um
139
sinal periódico pode ser expresso como pT s (t) = C 0 +
∞
C n cos(nωs t + θn ), ωs =
n=1
e
gs(t) = g(t) pT s (t) = g(t) C 0 +
∞
C n cos(nωs t + θn )
n=1
= C 0 g(t) +
∞
2π T s
C n g(t) cos(nωs t + θn )
(7.5)
n=1
e o sinal amostrado g s (t) consiste de C 0 g(t), C 1g(t) cos(ωs t + θ1 ), C 2 g(t) cos(2ωs t + θ1 ) e assim por diante. O termo desejado é c0g(t) e os demais estão deslocados de nωs logo podem ser eliminados pelo filtro. Aplicações
O teorema da amostragem é muito importante na análise, processamento e transmissão de sinais pois permite substituir um sinal contínuo no tempo por uma sequência de nà meros discretos. Esse fato abre a possibilidade de realizar o processamento digital do sinal e de construir novas técnicas para comunicar sinais contínuos no tempo por trem de pulsos. Nesse à ltimo caso, as amostras do sinal são utilizadas para modificar certos parâmetros de um trem de pulsos periódicos. Pode-se variar a amplitude dos pulsos, obtendo a modulação conhecida como modulação por amplitude de pulsos (PAM - pulse-amplitude modulation , a largura dos pulsos obtendo-se a modulação por largura de pulso (PWM - pulse-width modulation ) ou a posição do pulso obtendo a modulação por posição do pulso (PPM - pulse-position modulation ) ou ainda a modulação por codificação do pulso (PCM - pulse-code modulation ). As três primeiras estão representadas na Figura 7.3 e a à ltima será tratada na próxima seção. Como exemplo vamos analisar o PAM. Nessa modulação, as amplitudes dos pulsos regularmente espaçados variam proporcionalmente aos valores das amostras de um sinal mensagem contínuo, os pulsos podem ter formato retangular, como está representado na Figura 7.3 c) ou alguma outra forma apropriada. Na Figura 7.3 pode-se observar o sinal mensagem m(t) e a sequência de pulsos retangulares s(t). A geração do sinal PAM envolve duas operações: o
o
o
1. Amostragem do sinal m(t) a cada T s (período de amostragem) segundos. 2. Prolongamento da duração de cada amostra até um valor constante T . 140
g(t) a)
t
b) t
c)
d)
e)
Figura 7.3: Representação das modulações por pulso a) Sinail g(t), b) Portadora de Pulsos, c) PAM, d) PWM e e) PPM. Na terminologia de circuitos as operações acima são conhecidas como sample and hold e a relação T /T s como ciclo de trabalho. A razão para prolongar a duração de cada amostra é evitar o uso de uma largura de banda excessiva, uma vez que a largura de banda é inversamente proporcional à duração do pulso. m(t) s(t)
T Ts
Figura 7.4: Sinal m(t) modulando em amplitude um pulso quadrado de duração T. Um sinal PAM s(t) pode ser definido como s(t) =
∞
m(nT s )h(t − nT s )
n=
−∞
sendo T s o período de amostragem, m(nT s ) o valor da amostra de m(t) obtido no tempo t = nT s
141
e h(t) um pulso retangular de amplitude unitária e duração T , definido da seguinte maneira:
h(t) =
1,
0 < t < T
1 , 2
t = 0, t = T
0,
c.c.
Por definição, a versão amostrada instantaneamente de m(t) é dada por
∞
mδ =
m(nT s )δ (t − nT s )
(7.6)
n=
−∞
sendo δ (t − nT s ) uma função delta deslocada no tempo. Portanto, convoluindo m δ com o pulso h(t), tem-se ∞ mδ (t) ∗ h(t) = = =
mδ (τ )h(t − τ )dτ
−∞ ∞ ∞
mδ (nT s )δ (τ − nT s )h(t − τ )dτ
−∞ n=−∞ ∞
mδ (nT s )
∞
δ (τ − nT s )h(t − τ )dτ
−∞
n=
−∞
(7.7)
(7.8) (7.9)
usando a propriedade da função delta temos
∞
mδ (t) ∗ h(t) =
m(nT s )h(t − nT s )
n=
−∞
Portanto tem-se que o sinal s(t) é matematicamente equivalente à convolução de mδ (t) com o pulso h(t), e pelas propriedades da transformada de Fourier tem-se S (ω) = M δ (ω)H (ω)
e como
∞
M δ (ω) = f s
M (ω − kω s)
k=
−∞
tem-se S (ω) = f s
∞
M (ω − kω s )H (ω)
(7.10)
k=
−∞
Exercício 7.1 Analise a influência da largura do pulso T no espectro S (ω) na Equação 7.10
142
7.2
Modulação por Codificação de Pulsos
Conhecida como PCM, do inglês Pulse-Code Modulation é a modulação em pulso mais utilizada. Basicamente, PCM é um método de converter um sinal analógico em um sinal digital (conversão A/D). Para isso utiliza-se a amostragem e a quantização, isto é, uma aproximação dos valores das amostras para níveis pré-definidos. Considerando que as amplitudes do sinal analógico m(t) variam no intervalo (−m p , m p), esse espaço é particionado em L sub-intervalos, cada um de tamanho ∆v = 2m p /L, em seguida cada amosta é aproximada para um dos L pontos que esteja mais próximo. O sinal obtido é chamado de digital. Como exemplo observe a Figura 7.5, nela uma senóide de fequência f c é amostrada com uma frequência f s ≥ 2f c em seguida são realizadas duas quantizações distintas, um com L = 2 e outra L = 4 níveis. Observe que para L = 2 a senóide é apromimada por um sinal quadrado, e com L = 4 mesmo não sendo uma aproximação exata já tem-se um formato de senóide. s(t)
t
L=4
L=2
t
t
Figura 7.5: Senóide amostrada e em seguida quantizada com L = 2 níveis e com L = 4 níveis. O processo seguinte é associar a cada um do L níveis um conjunto de bits. Se para cada nível for associada a sua representação em binário tem-se o códio natural binário (NBC, do inglês natural bunary code ). Como exemplo um sinal de áudio tem largura de banda de 15KHz, mas mostra-se que a inteligibilidade não é afetada se esse sinal for filtrado em 3400Hz e o sinal resultante é amostrado a 8000 amostras por segundo (8 KHz), maior que a taxa de Nyquist que seria de 6,8KHz, e cada amostra é quantizada em 256 níveis (L = 256) que necessitam de um grupo de oito bits para cada amostra, assim um sistema telefônico necessita de 8 × 8000 = 64000 pulsos binários por segundo. O CD (compact disk ) o sinal de som não é filtrado e é utilizada uma taxa de amostragem de 44.1KHz, maior que o 30KHz necessários, e o sinal é quantizado em L = 65.536 níveis para 143
reduzir o erro de quantização. No DVD a taxa de amostragem pode chegar a 192KHz e cada amostra pode usar 24 bits podendo o sinal ser quantizado a L = 16.777.216 níveis. 7.2.1
Quantização
A quantização consiste em aproximar os valores das amostras para níveis pré-definidos. Para isso vamos limitar a amplitude do sinal mensagem m(t) para o intervalo ( −m p , m p ), caso o pico de amplitide de m(t) seja maior que m p os valores acima serão fixados em m p . Assim m p não é um parâmetro do sinal mais do quantizador, em seguida divide-se o intervalo ( −m p , m p ) em L subintervalos, cada um com ∆v = 2m p /L e os valores amostrados são aproximados para o valor do intervalo que ele pertence. As amostras quantizadas são codificadas e em seguida transmitidas por pulsos binários. No receptor tenta-se recuperar o sinal transmitido a partir das amostras. ˆ Se m(kT s ) é a k -ésima amostra do sinal m(t), e m(kT s ) é a amostra quantizada correspondente, então da fórmula de interpolação tem-se que m(t) =
m(kT s )sinc(2πBt − kπ)
m(kT ˆ s )sinc(2πBt − kπ)
k
e m(t) ˆ =
k
ˆ o sinal reconstruído das amostras quantizadas. A componente de distorção no sinal sendo m(t) reconstruído é dada por q (t) = m(t) ˆ − m(t) =
[m(kT ˆ s ) − m(kT s)]sinc(2πBt − kπ)
k
=
q (kT s )sinc(2πBt − kπ)
(7.11)
k
sendo q (kT s ) o erro de quantização na k -ésima amostra. O sinal q (t) é indesejado logo é chamado de erro de quantização . Uma medida importante é a potência do erro de quantização, ou seja 1 T/2 2 2 q (t) = lim q (t)dt T ←∞ T −T/2
T/2
1 = lim T ←∞ T −T/2
q (kT s )sinc(2πB − kπ)
k
144
2
dt
(7.12)