Giacinto Gelli e Francesco Verde
Segnali e sistemi per i corsi di laurea triennale di Teoria dei Segnali
NAPOLI 2008
c 2007–2008 Giacinto Gelli (
[email protected]) & Francesco Verde (
[email protected]) Gli autori consentono la riproduzione anche parziale del testo agli studenti del corso. Non è consentito modificare il testo, diffonderlo, pubblicarlo anche con mezzi telematici senza il consenso scritto degli autori. Prima versione: marzo 2007. Seconda versione: marzo 2008.
Principali notazioni A, B,C 0/ a∈A a ∈ A A⊆B A⊂B A ∪ B, A + B A ∩ B, AB A−B A×B
insiemi insieme vuoto x appartiene ad A x non appartiene ad A A è un sottoinsieme di B A è un sottoinsieme proprio di B unione di A e B intersezione di A e B differenza tra A e B prodotto cartesiano di A e B
= N N0 = N ∪ {0} Z R R+ =]0, ∞[ R− =] − ∞, 0[ R = R ∪ {−∞, ∞} [a, b] [a, b[ ]a, b] ]a, b[ ] − ∞, b[ ] − ∞, b] ]a, ∞[ [a, ∞[ (a, b) x, y, z A, B, C det(A) A−1 AT repT0 [xg (t)] repN0 [xg (n)] sinc(x) DM (x) u(x) sgn(x) δ (x) δ (n) rect(x) RM (n) Λ(x) ∗
uguale per definizione insieme dei numeri naturali {1, 2, . . . , } insieme dei numeri naturali, zero incluso {0, 1, 2, . . .} insieme dei numeri interi relativi {. . . , −2, −1, 0, 1, 2, . . .} insieme dei numeri reali insieme dei numeri reali positivi (zero escluso) insieme dei numeri reali negativi (zero escluso) insieme ampliato dei numeri reali intervallo a ≤ x ≤ b intervallo a ≤ x < b intervallo a < x ≤ b intervallo a < x < b intervallo x < b intervallo x ≤ b intervallo x > a intervallo x ≥ a indica indifferentemente un qualunque intervallo di estremi a e b vettori matrici determinante della matrice A inversa della matrice A trasposta della matrice A replicazione di xg (t) con passo T0 [cfr. eq. (2.18)] replicazione di xg (n) con passo N0 [cfr. eq. (2.19)] funzione sinc [cfr. eq. (5.14)] funzione di Dirichlet [cfr. eq. (5.31)] funzione gradino funzione signum funzione delta di Dirac funzione delta discreta funzione rettangolo funzione rettangolo discreto funzione triangolo convoluzione tra due segnali
Indice
1 Segnali e sistemi: introduzione 1.1 Definizione di segnale . . . . . . . . . . . . . 1.2 Definizione di sistema . . . . . . . . . . . . . 1.3 Segnali deterministici ed aleatori . . . . . . . 1.4 Classificazione elementare dei segnali . . . . 1.4.1 Proprietà della variabile indipendente 1.4.2 Proprietà della variabile dipendente . 1.4.3 Segnali analogici e digitali . . . . . . 1.5 Classificazione elementare dei sistemi . . . . 1.6 Esercizi proposti . . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
1 1 4 7 9 9 14 17 18 23
2 Proprietà dei segnali 2.1 Operazioni elementari sui segnali . . . . . . . . . . . . . . . 2.1.1 Trasformazioni della variabile dipendente . . . . . . 2.1.2 Trasformazioni della variabile indipendente . . . . . 2.1.3 Combinazione di operazioni elementari . . . . . . . 2.1.4 Derivazione, integrazione, differenza prima e somma 2.2 Caratterizzazione sintetica dei segnali . . . . . . . . . . . . 2.3 Estensione e durata temporale di un segnale . . . . . . . . . 2.3.1 Segnali di durata rigorosamente limitata . . . . . . . 2.3.2 Segnali di durata praticamente limitata . . . . . . . . 2.3.3 Segnali di durata non limitata e segnali periodici . . 2.4 Area e media temporale di un segnale . . . . . . . . . . . . 2.4.1 Componente continua e alternata di un segnale . . . 2.5 Energia di un segnale . . . . . . . . . . . . . . . . . . . . . 2.5.1 Segnali di energia . . . . . . . . . . . . . . . . . . . 2.5.2 Energia mutua . . . . . . . . . . . . . . . . . . . . 2.6 Potenza e valore efficace di un segnale . . . . . . . . . . . . 2.6.1 Segnali di potenza . . . . . . . . . . . . . . . . . . 2.6.2 Relazioni tra segnali di energia e di potenza . . . . . 2.6.3 Potenza mutua . . . . . . . . . . . . . . . . . . . . 2.7 Misura in dB della potenza e dell’energia . . . . . . . . . . 2.8 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
25 25 26 27 34 37 45 45 46 49 54 63 70 71 73 73 75 76 78 78 80 83
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
ii
INDICE
3 Proprietà dei sistemi 3.1 Relazione ingresso-uscita . . 3.2 Interconnessione di sistemi . 3.3 Proprietà dei sistemi . . . . 3.3.1 Non dispersività . . 3.3.2 Causalità . . . . . . 3.3.3 Invertibilità . . . . . 3.3.4 Invarianza temporale 3.3.5 Stabilità . . . . . . . 3.3.6 Linearità . . . . . . 3.4 Esercizi proposti . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
4 Sistemi lineari tempo-invarianti (LTI) 4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Relazione i-u di un sistema LTI e risposta impulsiva . . . . . . . . . . 4.3 Convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Proprietà della convoluzione . . . . . . . . . . . . . . . . . . 4.4 Risposta al gradino . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Proprietà della risposta impulsiva . . . . . . . . . . . . . . . . . . . . 4.5.1 Non dispersività . . . . . . . . . . . . . . . . . . . . . . . . 4.5.2 Causalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.3 Invertibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.4 Stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Esempi di sistemi LTI . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.1 Sistemi descritti da equazioni differenziali . . . . . . . . . . . 4.6.2 Sistemi descritti da equazioni alle differenze (sistemi ARMA) 4.7 Risposta in frequenza di un sistema LTI . . . . . . . . . . . . . . . . 4.7.1 Risposta ad un fasore di un sistema TC LTI . . . . . . . . . . 4.7.2 Risposta ad un fasore di un sistema TD LTI . . . . . . . . . . 4.7.3 Risposta ad una sinusoide di un sistema LTI reale . . . . . . . 4.8 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
91 91 94 97 97 100 103 104 109 111 118
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
127 127 128 134 138 148 157 157 160 164 165 168 168 174 182 182 186 190 193
5 Serie di Fourier 5.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Serie di Fourier per segnali TC . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Condizioni matematiche per la convergenza della serie di Fourier . . . . 5.2.2 Ricostruzione di un segnale periodico con un numero finito di armoniche 5.3 Serie di Fourier per segnali TD (DFS) . . . . . . . . . . . . . . . . . . . . . . . 5.4 Principali proprietà della serie di Fourier e della DFS . . . . . . . . . . . . . . . 5.4.1 Linearità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Simmetria hermitiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.3 Uguaglianza di Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Risposta di un sistema LTI ad un segnale periodico . . . . . . . . . . . . . . . . 5.6 Selettività in frequenza dei sistemi LTI e filtri ideali . . . . . . . . . . . . . . . . 5.7 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
207 207 208 216 220 225 229 229 230 233 237 239 246
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
INDICE
iii
6 Trasformata di Fourier 6.1 Trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Trasformata di Fourier per segnali TC . . . . . . . . . . . . . . . . . . 6.1.2 Trasformata di Fourier per segnali TD . . . . . . . . . . . . . . . . . . 6.1.3 Proprietà elementari della trasformata di Fourier . . . . . . . . . . . . 6.2 Relazione i-u nel dominio della frequenza per i sistemi LTI . . . . . . . . . . . 6.2.1 Proprietà di convoluzione . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Esistenza ed invertibilità della trasformata di Fourier . . . . . . . . . . . . . . 6.3.1 Segnali TC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2 Segnali TD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.3 Segnali TD transitori . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Estensione spettrale e banda di un segnale . . . . . . . . . . . . . . . . . . . . 6.4.1 Segnali a banda rigorosamente limitata . . . . . . . . . . . . . . . . . 6.4.2 Segnali a banda praticamente limitata . . . . . . . . . . . . . . . . . . 6.4.3 Segnali a banda non limitata . . . . . . . . . . . . . . . . . . . . . . . 6.5 Proprietà della trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Trasformazioni della variabile dipendente . . . . . . . . . . . . . . . . 6.5.2 Trasformazioni della variabile indipendente . . . . . . . . . . . . . . . 6.5.3 Derivazione e differenza prima, integrazione e somma . . . . . . . . . 6.6 Trasformata di Fourier dei segnali periodici . . . . . . . . . . . . . . . . . . . 6.6.1 Trasformata di Fourier di un segnale periodico TC . . . . . . . . . . . 6.6.2 Trasformata di Fourier di un segnale periodico TD . . . . . . . . . . . 6.6.3 Estensione spettrale e banda di un segnale periodico . . . . . . . . . . 6.6.4 Relazioni tra serie e trasformata di Fourier . . . . . . . . . . . . . . . . 6.7 Caratterizzazione e proprietà dei sistemi LTI nel dominio della frequenza . . . 6.7.1 Separazione di segnali mediante filtraggio . . . . . . . . . . . . . . . . 6.7.2 Banda passante e banda di un sistema . . . . . . . . . . . . . . . . . . 6.7.3 Studio dell’interconnessione di sistemi LTI nel dominio della frequenza 6.7.4 Proprietà della risposta in frequenza . . . . . . . . . . . . . . . . . . . 6.8 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
255 255 258 260 263 267 270 272 272 285 285 295 298 300 311 312 312 321 336 345 345 347 351 352 357 357 361 365 369 382
7 Campionamento e conversione A/D e D/A 7.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Campionamento ed interpolazione ideale . . . . . . . . . . . . . 7.2.1 Teorema del campionamento . . . . . . . . . . . . . . . 7.2.2 Interpolazione ideale . . . . . . . . . . . . . . . . . . . 7.2.3 Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Campionamento ed interpolazione in pratica . . . . . . . . . . . 7.3.1 Campionamento di segnali a banda praticamente limitata 7.3.2 Interpolazione non ideale . . . . . . . . . . . . . . . . . 7.4 Quantizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
395 395 398 400 405 407 409 409 415 418 427
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
A Richiami sui numeri complessi 433 A.1 Definizione di numero complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . 433 A.2 Forma algebrica dei numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . 434 A.3 Rappresentazione geometrica e forma trigonometrica dei numeri complessi . . . . . 437
iv
INDICE
A.4 Forma esponenziale dei numeri complessi . . . . . . . . . . . . . . . . . . . . . . . 440 A.5 Funzioni complesse di una variabile reale . . . . . . . . . . . . . . . . . . . . . . . 442 B Richiami di analisi matematica B.1 Successioni e serie numeriche . . . . . . . . . B.1.1 Definizione di limite di una successione B.1.2 Serie monolatere . . . . . . . . . . . . B.1.3 Serie bilatere . . . . . . . . . . . . . . B.1.4 Successioni sommabili . . . . . . . . . B.2 Funzioni complesse di una variabile reale . . . B.2.1 Continuità e derivabilità . . . . . . . . B.2.2 Integrazione . . . . . . . . . . . . . . . B.2.3 Sommabilità . . . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
445 445 445 447 448 450 451 451 453 456
C Proprietà matematiche della convoluzione 459 C.1 Integrale di convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459 C.2 Somma di convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461 D Invertibilità di un sistema 463 D.1 Invertibilità di un sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463 D.2 Invertibilità di un sistema LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466 E Proprietà della serie di Fourier E.1 Serie di Fourier a TC . . . . . . . . . . . . . . . . . . E.1.1 Definizioni . . . . . . . . . . . . . . . . . . . E.1.2 Proprietà . . . . . . . . . . . . . . . . . . . . E.2 Serie di Fourier a TD (DFS) . . . . . . . . . . . . . . E.2.1 Definizione . . . . . . . . . . . . . . . . . . . E.2.2 Proprietà . . . . . . . . . . . . . . . . . . . . E.3 Convergenza in media quadratica della serie di Fourier
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
471 471 471 471 473 473 473 474
F Proprietà della trasformata di Fourier F.1 Trasformata di Fourier a TC . . . F.1.1 Definizioni . . . . . . . . F.1.2 Proprietà . . . . . . . . . F.1.3 Trasformate notevoli . . . F.2 Trasformata di Fourier a TD . . . F.2.1 Definizioni . . . . . . . . F.2.2 Proprietà . . . . . . . . . F.2.3 Trasformate notevoli . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
479 479 479 479 482 482 482 483 485
Bibliografia
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
487
Capitolo 1
Segnali e sistemi: introduzione
I
concetti di segnale e di sistema sono diffusamente impiegati in molti campi della conoscenza umana con significati specifici che, in alcuni casi, possono essere radicalmente diversi. Ad esempio, in astronomia, le radiazioni emesse dai corpi celesti sono segnali desiderati che portano informazione circa la struttura dell’universo mentre, nel campo delle telecomunicazioni spaziali, essi rappresentano segnali indesiderati che disturbano le comunicazioni tra la terra e le navicelle spaziali. Allo stesso modo, per un ingegnere delle telecomunicazioni, un sistema può essere una rete telefonica o un ponte radio, per un economista un sistema è invece un insieme di individui che producono e si scambiano beni. Una definizione univoca e non ambigua di segnale e sistema può essere data solo ricorrendo a opportuni modelli matematici, poichè il linguaggio della matematica è unico e preciso. In questo capitolo saranno introdotti i concetti di base necessari per lo studio dei segnali e dei sistemi, partendo dai loro modelli matematici, e proseguendo con alcune definizioni e classificazioni elementari.
1.1 Definizione di segnale La definizione di segnale che segue, sebbene astratta, è del tutto generale: essa risulterà certamente più chiara e concreta dopo aver studiato gli esempi forniti nel seguito. Definizione 1.1 (segnale) Un segnale è un modello matematico che descrive la variazione di una o più grandezze (fisiche) in funzione di altre grandezze (fisiche). Esempi di segnali ricorrono in numerosi campi delle scienze matematiche, fisiche e dell’ingegneria. Esempio 1.1 (moto circolare uniforme) Si consideri un corpo (raffigurato in nero in fig. 1.1) che si muove di moto circolare uniforme, lungo una circonferenza di raggio A. La velocità di rotazione del corpo si può misurare in termini di velocità angolare ω0 , espressa in rad/s (rappresenta l’angolo in radianti percorso nel tempo di 1 s) o equivalentemente in termini di frequenza di rotazione f0 = ω2π0 , espressa in Hertz (Hz) (rappresenta il numero di giri effettuati nel tempo di 1 s). La posizione del corpo all’istante t è individuata da una coppia di coordinate cartesiane (x, y). Concentriamo l’attenzione in particolare sulla posizione lungo l’asse x: poiché
2
Segnali e sistemi: introduzione
y
x(t) ω0
θ(t)
A
A cos (ϕ 0 )
A x(t)
x
t
-A Fig. 1.1. Un corpo (in nero) si muove lungo una circonferenza con velocità angolare ω0 costante. La sua proiezione sull’asse x al variare del tempo t è il segnale sinusoidale x(t) di fig. 1.2.
Fig. 1.2. Il segnale sinusoidale degli es. 1.1 e 1.2 è una funzione del tempo x(t).
l’angolo (misurato rispetto all’asse x) percorso nel tempo t è pari a θ (t) = ω0t + ϕ0 , dove ϕ0 è la posizione angolare del corpo all’istante t = 0, la coordinata x all’istante t è data da: x(t) = A cos[θ (t)] = A cos(ω0t + ϕ0 ) = A cos(2π f0t + ϕ0 ) . Il segnale x(t) prende il nome di segnale sinusoidale1 di ampiezza A, pulsazione ω0 o frequenza f0 , e fase iniziale ϕ0 , ed è raffigurato in fig. 1.2. Si noti che per t = 0 il segnale vale x(0) = A cos(ϕ0 ). Esempio 1.2 (tensione alternata) La tensione alternata della rete di distribuzione dell’energia elettrica può essere descritta anch’essa da un segnale sinusoidale di ampiezza A, frequenza f0 , e fase iniziale ϕ0 : x(t) = A cos(2π f0t + ϕ0 ) . L’espressione analitica del segnale e la sua rappresentazione grafica sono le stesse del segnale dell’es. 1.1, anche se il significato fisico ed i valori dei parametri A, f0 e ϕ0 sono diversi. Esempio 1.3 (successione) In matematica, nello studio delle equazioni per le quali non è possibile determinare analiticamente la soluzione, è possibile applicare metodi per determinare soluzioni approssimate. Un esempio classico è il metodo di Newton o della tangente, che consente di risolvere approssimativamente equazioni del tipo f (x) = 0. Supponiamo che f sia dotata di derivata prima continua e, inoltre, che sia crescente, convessa e tale che f (a) < 0 ed f (b) > 0. Posto x(0) = b, il metodo di Newton (fig. 1.3) consiste inizialmente nel tracciare la tangente alla curva f (x) nel suo punto di coordinate (b, f (b)) e nel ricavare il punto di intersezione x(1) di tale tangente con l’asse delle ascisse. Il secondo passo del metodo consiste nel ripetere il procedimento precedente a partire questa volta da x(1): si traccia la tangente alla curva f (x) nel suo punto di coordinate (x(1), f [x(1)]) e si ricava il punto di intersezione x(2) della retta ottenuta con l’asse delle ascisse. Ripetendo tale procedimento, si ottiene una relazione ricorsiva in cui l’n-esimo elemento è dato da x(n) = x(n − 1) −
f [x(n − 1)] , f [x(n − 1)]
con n = 1, 2, 3, . . . ,
seguito indicheremo indistintamente come “sinusoidale” un segnale del tipo x(t) = A cos(ω0 t + ϕ0 ) oppure x(t) = A sin(ω0 t + ϕ0 ). 1 Nel
1.1 Definizione di segnale
3
y
Studente Carlo Rossi Ugo Bianchi Maria Turchini Franca Neri .... ....
f(x)
a
b
x x(0)
Voto 22 30 25 30 .... ....
Fig. 1.4. Il segnale in forma tabellare dell’es. 1.4.
x(1) x(2)
Fig. 1.3. Il metodo di Newton dell’es. 1.3. dove f (x) denota la derivata prima di f (x). Tale relazione definisce una successione numerica, ovvero un segnale definito nell’insieme N0 dei numeri naturali. Al crescere di n, i valori assunti dal segnale tendono all’unica soluzione dell’equazione f (x) = 0. Esempio 1.4 (tabella) In alcuni casi, un segnale può essere definito mediante una tabella. Ad esempio, consideriamo i risultati dell’esame di Teoria dei Segnali riportati in fig. 1.4. Tale tabella definisce un segnale che ad ogni studente associa il voto del corrispondente compito scritto; in questo caso, l’insieme di definizione del segnale è rappresentato dagli studenti che hanno partecipato alla prova scritta (e che hanno consegnato il compito).
Gli es. 1.1, 1.2 e 1.3 mostrano che un segnale può essere descritto matematicamente da una funzione che istituisce una relazione tra una variabile indipendente (il tempo t negli es. 1.1 e 1.2, l’indice n nell’es. 1.3, lo studente nell’es. 1.4) ed una variabile dipendente x (una lunghezza nell’es. 1.1, una tensione nell’es. 1.2, un’approssimazione della soluzione dell’equazione f (x) = 0 nell’es. 1.3, un voto nell’es. 1.4). Utilizzando la simbologia comunemente impiegata nei corsi di analisi matematica, un segnale di questo tipo può essere indicato come segue: x : T → X,
(1.1)
dove l’insieme T, che prende il nome di insieme di definizione o dominio di x, racchiude l’insieme dei valori ammissibili della variabile indipendente t oppure n, mentre l’insieme X, che prende il nome di immagine di T mediante x o anche codominio di x, racchiude i valori assunti dalla variabile dipendente x. Si osservi che, per gli es. 1.1 e 1.2, il dominio T di x coincide con l’insieme dei numeri reali, cioè T = R; nel caso dell’es. 1.3, il dominio del segnale risulta essere T = N0 = {0, 1, 2, . . .} ⊂ Z e quindi la variabile indipendente n può assumere solo valori interi non negativi; infine, nel caso dell’es. 1.4, il dominio del segnale T = {Carlo Rossi, Ugo Bianchi, Maria Turchini, Franca Neri . . .} è costituito dai nomi degli studenti. Va osservato che la natura fisica delle variabili indipendenti in gioco può essere profondamente diversa; ad esempio per molti segnali la variabile indipendente è proprio il tempo, ma esistono casi significativi di segnali – le immagini, ad esempio – in cui la variabile indipendente è di tipo spaziale (vedi es. 1.10 e 1.14 più avanti). Inoltre, come accade nell’es. 1.3, le variabili indipendenti di un segnale possono non avere un significato fisico o, come nell’es. 1.4, possono rappresentare dati
R1 R2
segnale di uscita
Segnali e sistemi: introduzione
segnale di ingresso
4
segnale di ingresso
sistema
segnale di uscita
Fig. 1.6. Rappresentazione di un sistema mediante schema a blocchi.
Fig. 1.5. Schema elettrico di un partitore resistivo.
di natura più generale (gli studenti). Di norma, comunque, a prescindere dal loro effettivo significato fisico, ci riferiremo alla variabile indipendente t oppure n come al “tempo”, e alla variabile dipendente x come all’“ampiezza” del segnale. Per cui i segnali che considereremo saranno descritti quasi sempre attraverso funzioni del tempo. Tali funzioni potranno essere descritte mediante un’espressione matematica, un grafico o una tabella. Gli es. 1.1 e 1.2 mostrano inoltre che uno stesso segnale – nel caso specifico sinusoidale – può comparire nella descrizione di fenomeni fisici completamente diversi. Concludiamo osservando che, con riferimento ad un segnale funzione del tempo, la notazione x(t) è ambigua: essa può significare il valore assunto dal segnale per un particolare valore di t (cioè l’immagine mediante x di t), oppure può rappresentare la legge di corrispondenza (1.1) (cioè il segnale nel suo complesso per ogni t ∈ T). In molti casi la distinzione è ininfluente oppure si ricava dal contesto; quando tuttavia vorremo enfatizzare la seconda interpretazione, scriveremo {x(t)}t∈T. Considerazioni analoghe valgono ovviamente anche per le notazioni x(n) e {x(n)}n∈T.
1.2 Definizione di sistema Anche per i sistemi forniamo una definizione abbastanza generale ed astratta, rimandando il lettore agli esempi che ne chiariscono meglio il significato. Definizione 1.2 (sistema) Un sistema è un modello matematico che descrive la relazione tra due o più segnali, dei quali alcuni sono identificati come segnali di ingresso (o cause), e gli altri come segnali di uscita (o effetti).
Esempio 1.5 (circuito elettrico) Un circuito elettrico è un primo esempio di sistema in cui alla variazione di tensioni e correnti in certi punti del circuito (individuati come ingressi) corrisponde la variazione di tensioni e correnti in altri punti del circuito (individuati come uscite). Un semplice esempio di sistema con un solo ingresso ed una sola uscita è il partitore resistivo di fig. 1.5, in cui il segnale di ingresso è la tensione ai capi della serie dei resistori R1 ed R2 , mentre l’uscita è la tensione ai capi del resistore R2 .
Uno schema astratto particolarmente conveniente per rappresentare graficamente un sistema ad un ingresso e ad una uscita, quale il partitore resistivo dell’es. 1.5, è lo schema a blocchi di fig. 1.6. Esempio 1.6 (sistema di comunicazione) Un secondo esempio è quello di un sistema di comunicazione, riportato schematicamente in fig. 1.7, capace di trasportare un messaggio dalla sorgente alla destinazione. Esso è composto da tre elementi fondamentali: un trasmettitore, che associa ad ogni messaggio da trasmettere
1.2 Definizione di sistema
messaggio sorgente
5
trasmettitore
canale
ricevitore
messaggio destinazione
Fig. 1.7. Schema semplificato di un sistema di comunicazione. (“messaggio sorgente”) un segnale opportuno (generalmente elettrico o ottico); un canale, che è il mezzo fisico (ad esempio, un cavo telefonico) lungo il quale viaggia il segnale d’informazione; ed, infine, un ricevitore, che ha il compito di estrarre dal segnale ricevuto il messaggio trasmesso e recapitarlo alla destinazione (“messaggio destinazione”).
Gli esempi precedenti mettono in luce alcuni aspetti importanti. Innanzitutto, il concetto di sistema è inscindibilmente legato a quello di segnale: senza alcun segnale in ingresso, un sistema è una mera collezione di componenti elettrici, meccanici, o biochimici; infatti, sono i segnali di ingresso che “forzano” il sistema a “reagire” e, quindi, a “produrre” dei segnali di uscita. Un sistema può essere particolarmente complesso e può essere composto da più entità fisiche distinte, che interagiscono tra di loro; in questo caso, ogni singola entità può essere riguardata come un sottosistema che concorre a definire l’intero sistema. Ad esempio, il sistema di comunicazione in fig. 1.7 può essere suddiviso in tre sottosistemi distinti: il trasmettitore, il canale ed il ricevitore. La decomposizione di un sistema in sottosistemi è particolarmente utile quando occorre studiare sistemi complessi, per i quali l’analisi diretta dell’intero sistema risulta essere troppo complicata. Dato un sistema e assegnati i segnali di ingresso, uno dei problemi fondamentali che si incontra nell’analisi dei sistemi è quello di ricavare analiticamente i corrispondenti segnali di uscita. La possibilità di caratterizzare analiticamente il comportamento di un sistema è importante perchè, in alcuni casi, è più semplice ed economicamente vantaggioso determinare i segnali di uscita analiticamente piuttosto che sperimentalmente. Inoltre, il calcolo analitico della risposta di un sistema è spesso l’unica strada disponibile; si pensi, ad esempio, allo studio di fattibilità di un sistema che è in fase di progetto e che, pertanto, non è stato ancora realizzato fisicamente; oppure, allo studio di un sistema in condizioni operative particolari che sono pericolose da riprodurre in pratica. Da quanto detto si evince che è necessario introdurre una descrizione matematica dei sistemi. A tal fine, soffermiamo l’attenzione su un sistema che ha un solo segnale di ingresso e un solo segnale di uscita (come il partitore resistivo), e indichiamo con I l’insieme dei possibili segnali di ingresso e con U l’insieme dei possibili segnali di uscita. Un sistema può essere descritto matematicamente da un operatore o una trasformazione S, che istituisce una relazione tra l’insieme dei segnali di ingresso I e l’insieme dei segnali di uscita U, simbolicamente: S : I → U.
(1.2) S
I
U y
x insieme dei segnali di uscita insieme dei segnali di ingresso
Fig. 1.8. L’operatore S associa ad ogni segnale x di I un segnale y di U.
6
Segnali e sistemi: introduzione
In fig. 1.8 è riportata una rappresentazione schematica della legge di corrispondenza (1.2). Si osservi che i due insiemi I e U implicitamente definiscono anche il dominio e il codominio dei segnali di ingresso ed uscita del sistema, rispettivamente. Esempio 1.7 (integratore) Un integratore è un sistema che realizza la seguente trasformazione: y(t) =
t −∞
x(u) du ,
dove x(t) denota il segnale di ingresso e y(t) quello di uscita. In tal caso, l’insieme I dei segnali di ingresso è rappresentato da tutte le funzioni x(u) che risultano integrabili in ogni intervallo ]−∞,t], con t ∈ R, e l’operatore S associa ad ogni segnale {x(u)}u∈R appartenente ad I il segnale y(t), ottenuto integrando x(u) sull’intervallo ] − ∞,t], per ogni t ∈ R. Esempio 1.8 (accumulatore) Un accumulatore è un sistema che realizza la seguente trasformazione: y(n) =
n
∑
x(k) ,
k=−∞
dove la successione x(n) denota il segnale di ingresso e la successione y(n) quello di uscita. In tal caso, l’insieme I dei segnali di ingresso è rappresentato da tutte le successioni x(k) la cui serie tra k = −∞ ed k = n, con n ∈ Z, risulta essere convergente, e l’operatore S realizza semplicemente la somma corrente y(n) dei valori del segnale di ingresso {x(k)}k∈Z a partire da k = −∞ fino all’istante k = n, per ogni n ∈ Z.
Si osservi che, sebbene le corrispondenze (1.1) e (1.2) che definiscono segnali e sistemi, rispettivamente, possano sembrare simili a prima vista, esse sono tuttavia completamente differenti dal punto di vista concettuale: infatti, la (1.1), che definisce un segnale, è una legge di corrispondenza tra insiemi “numerici”, i cui elementi sono numeri reali o interi relativi; d’altra parte, la (1.2) sta ad indicare una corrispondenza tra insiemi i cui elementi sono segnali (ovvero funzioni). Una seconda osservazione importante è che, com’è anche evidente dagli es. 1.7 e 1.8, il valore del segnale di uscita in un dato istante di tempo può dipendere dal valore assunto dal segnale di ingresso in più istanti o, più in generale, su tutto il proprio dominio di definizione T. Sulla base di tale osservazione, risulta essere particolarmente fuorviante l’impiego della notazione y(t) = S[x(t)] oppure y(n) = S[x(n)] per descrivere sinteticamente la trasformazione (1.2). Infatti, la scrittura y(t) = S[x(t)] (e lo stesso si può dire di y(n) = S[x(n)]) può evocare erroneamente alla mente del lettore il concetto di funzione composta, secondo il quale il valore y(t) del segnale di uscita all’istante t dipende solo dal valore x(t) assunto dal segnale di ingresso nello stesso istante t. Per evidenziare invece il fatto che nella trasformazione (1.2), il segnale di uscita in un dato istante può dipendere dall’intero segnale di ingresso, si useranno le notazioni y(t) = S[{x(u)}u∈T;t] y(n) = S[{x(k)}k∈T; n]
(1.3)
per descrivere sinteticamente la trasformazione (1.2). Nel seguito introdurremo le principali metodologie di analisi e di sintesi per i segnali ed i sistemi, con particolare riguardo a quelle che sono applicabili in generale, indipendentemente dai fenomeni fisici coinvolti. Per questo motivo nella definizione stessa di segnale e di sistema abbiamo posto l’enfasi sul concetto di modello matematico, piuttosto che sulla realtà fisica cui il modello si riferisce. In molti casi, tuttavia, facendo leva sulle conoscenze generalmente possedute dagli allievi ingegneri nell’area dell’informazione, forniremo esempi di segnali e sistemi presi principalmente dall’elettrotecnica e dall’elettronica. A questo punto è necessario fare una considerazione che è bene che il lettore tenga
7
1
1
0.5
0.5
x(t)
x(t)
1.3 Segnali deterministici ed aleatori
0
−0.5
0
−0.5
−1
−1 0
0.2
0.4
0.6
0.8
1
0
0.2
0.4
t
(a)
0.6
0.8
1
t
(b)
Fig. 1.9. Esempio di segnale aleatorio: (a) il segnale vocale x(t) corrispondente alla parola “pace” pronunciata da un adulto; (b) il segnale vocale x(t) corrispondente alla parola “pace” pronunciata da un bambino.
ben presente nel seguito. Va osservato come principio generale che un modello è solo una rappresentazione, quasi sempre estremamente semplificata, della realtà che intende descrivere. In primo luogo, infatti, il modello matematico è quasi sempre frutto di approssimazioni; ad esempio, la tensione alternata della rete di distribuzione dell’energia elettrica (cfr. es. 1.2) non è mai esattamente sinusoidale, per la presenza di disturbi, non linearità, accoppiamenti parassiti, ecc. In secondo luogo, la scelta del modello matematico è sempre un compromesso tra accuratezza della descrizione del fenomeno fisico di interesse e semplicità matematica. In conclusione, per evitare possibili fraintendimenti derivanti dalla confusione tra modello e realtà, il lettore è invitato a tenere bene a mente il celebre aforisma di Arthur Bloch:2 “Confondere il modello con la realtà è come andare al ristorante e mangiare il menù”.
1.3 Segnali deterministici ed aleatori I segnali considerati negli es. 1.1, 1.2 e 1.3 ammettono una descrizione matematica esatta attraverso una funzione del tempo. Va detto però che l’identificazione tra il concetto di segnale e quello di funzione è appropriata solo se restringiamo l’attenzione al caso dei segnali perfettamente noti o deterministici. Definizione 1.3 (segnale deterministico) Un segnale si dice deterministico (o determinato) se è perfettamente descritto da una funzione (espressa analiticamente, in forma tabellare, o in forma grafica). La classe dei segnali deterministici è ampia, ma non esaurisce tutti i possibili segnali: esiste infatti la classe importante dei segnali non deterministici, che non possono cioè essere descritti esattamente, in quanto contengono un certo grado di imprevedibilità o di incertezza. Tali segnali scaturiscono da fenomeni fisici che, per la loro complessità, o per la conoscenza imperfetta dei meccanismi che li governano, non ammettono una descrizione matematica esatta. Esempio 1.9 (segnale vocale) La voce può essere descritta da un segnale x(t) (segnale vocale), che esprime la pressione acustica in funzione del tempo. In fig. 1.9 (a) si riporta ad esempio il segnale vocale corrispondente alla parola “pace” pronunciata da un adulto. Il segnale vocale assume una forma profondamente diversa, non 2 Arthur
Bloch è l’autore di una fortunata serie di libri umoristici sulle “leggi di Murphy”.
8
Segnali e sistemi: introduzione
soltanto – come è ovvio – al variare della parola o del suono pronunciato, ma anche al variare del sesso, dell’età, e dello stato d’animo del parlatore. Ad esempio in fig. 1.9 (b) si riporta il segnale vocale corrispondente alla stessa parola “pace”, pronunciata stavolta da un bambino.
Un segnale come quello dell’es. 1.9 si dice aleatorio (dal vocabolo latino alea=dado, che per estensione sta anche a significare “rischio, incertezza”). Definizione 1.4 (segnale aleatorio) Un segnale si dice aleatorio (o casuale) se nella sua definizione è contenuto un certo grado di incertezza. Un segnale aleatorio, non essendo perfettamente noto a priori, non può essere descritto da una semplice funzione. In effetti, l’es. 1.9 relativo al segnale vocale suggerisce intuitivamente, con un piccolo sforzo di generalizzazione, che un segnale aleatorio possa essere rappresentato non da una sola funzione, ma da una collezione di funzioni (una per ogni possibile parlatore, con riferimento al segnale vocale). Per ottenere una valida ed utile descrizione matematica a partire da questo concetto intuitivo, tuttavia, sono necessari strumenti più sofisticati, quali la teoria della probabilità [15]. Bisogna notare che, proprio a causa della loro imprevedibilità, i segnali aleatori rivestono un grande interesse nell’ingegneria dell’informazione, in quanto, a differenza dei segnali deterministici, essi sono adatti a trasportare informazione. Basti pensare infatti che, per sua natura, il concetto di informazione è intrinsecamente legato a quello di imprevedibilità [15, cap. 10]. Ad esempio, l’affermazione “stanotte farà buio” non trasporta nessuna informazione, semplicemente perché è una affermazione certa, perfettamente prevedibile. Viceversa, una affermazione poco probabile, quale “domani il pianeta Terra sarà invaso dai Marziani” convoglia una grande quantità di informazione, perché poco probabile, e quindi non prevedibile. Per questo motivo, un segnale deterministico, che è noto a priori e quindi perfettamente prevedibile, non è adatto a trasportare informazione. Nonostante abbiamo sottolineato l’importanza dei segnali aleatori, nel seguito si affronterà esclusivamente lo studio dei segnali deterministici. Tale scelta ha una chiara motivazione didattica, in quanto operare con segnali deterministici consente di introdurre ad un livello relativamente semplice le principali tecniche di analisi ed elaborazione dei segnali, rimandando a corsi successivi l’applicazione di tali metodologie anche al caso di segnali aleatori. Va osservato peraltro che, una volta osservato o memorizzato, un segnale aleatorio perde la sua caratteristica di imprevedibilità e diventa in effetti deterministico: pertanto esso può essere elaborato con le tecniche caratteristiche dei segnali deterministici.
1.4 Classificazione elementare dei segnali
Fig. 1.10. Esempio di segnale multidimensionale: un’immagine in bianco e nero z(x, y).
1.4 Classificazione elementare dei segnali I segnali possono essere suddivisi in classi sulla base di diverse proprietà. In particolare, avendo osservato che i segnali deterministici possono essere descritti, in senso matematico, mediante funzioni, in questo paragrafo introdurremo una prima classificazione dei segnali sulla base delle proprietà della variabile indipendente e della variabile dipendente della funzione che modella il segnale. La combinazione opportuna delle proprietà della variabile dipendente ed indipendente consentirà infine di introdurre la fondamentale distinzione tra segnali analogici e segnali numerici o digitali. 1.4.1 Proprietà della variabile indipendente
Definizione 1.5 (segnale monodimensionale/multidimensionale) (a) Un segnale si dice monodimensionale se è descritto da una funzione di una variabile indipendente. (b) Un segnale si dice multidimensionale se è descritto da una funzione di due o più variabili indipendenti. I segnali sinusoidali degli es. 1.1 e 1.2 e la successione dell’es. 1.3 sono segnali monodimensionali, in quanto sono descritti da una funzione [x(t) o x(n)] di una sola variabile indipendente. Tipici esempi di segnali multidimensionali sono le immagini (fisse o in movimento). Esempio 1.10 (immagine in bianco e nero) Un’immagine fissa in bianco e nero, o monocromatica, quale quella di fig. 1.10, può essere descritta da un segnale multidimensionale z(x, y), che descrive le variazioni di luminosità (o luminanza) in funzione della posizione spaziale (x, y) del punto (detto anche pixel) dell’immagine. Se l’immagine è in movimento (filmato in bianco e nero), è necessario considerare anche una terza variabile temporale, per cui il segnale diventa una funzione z(x, y,t) di tre variabili.
Sebbene l’elaborazione di immagini (image processing) sia estremamente importante dal punto di vista applicativo, per gli stessi motivi di semplicità didattica già esposti per i segnali aleatori, nel seguito ci occuperemo di segnali monodimensionali, ed inoltre la variabile indipendente t oppure n sarà quasi sempre interpretata come “tempo”. Questo si rifletterà in parte nella terminologia utilizzata, come evidenziato in particolare dalla classificazione che segue.
9
Segnali e sistemi: introduzione
3
3
2
2
1
1 x(n)
x(t)
10
0
0
−1
−1
−2
−2
−3 −5
0 t
5
Fig. 1.11. Rappresentazione grafica di un segnale a TC. Tale rappresentazione si può ottenere in Matlab utilizzando il comando plot.
−3 −5
0 n
5
Fig. 1.12. Rappresentazione grafica di un segnale a TD. Tale rappresentazione si può ottenere in Matlab utilizzando il comando stem.
Definizione 1.6 (segnale a tempo continuo/discreto) (a) Un segnale si dice a tempo continuo (TC), o “forma d’onda”, se la variabile indipendente (tempo) varia in un insieme continuo. (b) Un segnale si dice a tempo discreto (TD), o “sequenza”, se la variabile indipendente (tempo) varia in un insieme discreto. Ad esempio, la sinusoide x(t) = A cos(ω0t + ϕ0 ) degli es. 1.1 e 1.2 è definita per ogni t ∈ R, e quindi è un segnale a TC. Da un punto di vista matematico, un segnale a TC è rappresentabile mediante la legge di corrispondenza (1.1), in cui il dominio T della funzione è un insieme continuo. Un segnale a TC viene denotato preferibilmente con x(t) o x(τ ), cioè utilizzando come variabile indipendente un simbolo che evoca il tempo, e la sua rappresentazione grafica è quella raffigurata in fig. 1.11. La legge di corrispondenza (1.1) modella matematicamente anche un segnale a TD, in questo caso il dominio T della funzione è un insieme discreto. La successione dell’es. 1.3 è definita per ogni n ∈ N0 , e quindi è un segnale a TD. Allo stesso modo, anche la tabella dell’es. 1.4 va considerato un segnale a TD, in quanto il suo dominio è costituito da un numero finito di possibili elementi (le generalità degli studenti). Un segnale a TD sarà denotato preferibilmente con x(n), x(m) o x(k), utilizzando cioè la convenzione di alcuni linguaggi di programmazione (es. Fortran) secondo la quale le variabili i, j, k, , m, n indicano quantità intere. La rappresentazione grafica di un segnale a TD è quella riportata in fig. 1.12. Si osservi che, sebbene un segnale a TD sia rappresentato utilizzando come ascissa un retta, cioè un insieme continuo, esso è definito solo nei punti interi della retta, cioè quelli appartenenti all’insieme Z; in altre parole, nei punti dell’asse delle ascisse appartenenti all’insieme R − Z, un segnale a TD è semplicemente non definito. Come già evidenziato nell’es. 1.3, notiamo che dal punto di vista matematico un segnale a TD x(n) è assimilabile ad una successione, e pertanto per il suo studio si possono applicare tutti i risultati matematici disponibili per le successioni. 2 Un
insieme discreto è un insieme costituito da un numero finito di elementi oppure costituito da un numero infinito numerabile di elementi (cioè i suoi elementi sono ordinabili in successione). In altre parole, un insieme è discreto se può essere posto in corrispondenza biunivoca con l’insieme dei numeri naturali; ad esempio, sono discreti l’insieme dei numeri interi relativi Z e quello dei numeri razionali Q. D’altra parte, un insieme continuo è un insieme infinito non numerabile, ad esempio, sono continui l’insieme [0, 1[ e l’insieme dei numeri reali R.
1.4 Classificazione elementare dei segnali
11
60 50 40
x(n)
30 20 10 0 3 gennaio 1995
−10 0
10
3 gennaio 1996
20
30
40
50
n
Fig. 1.13. Esempio di serie temporale (segnale a TD): il prezzo in dollari di un’azione IBM alla borsa di New York preso con cadenza settimanale nel corso di un anno. Esempio 1.11 (serie temporale) Si consideri il segnale x(n) disegnato in fig. 1.13, che rappresenta il prezzo (in dollari) di un’azione IBM (valore di chiusura) alla borsa di New York presa con cadenza settimanale dal 3 gennaio 1995 al 3 gennaio 1996. Tale segnale è intrinsecamente discreto, in quanto presenta valori solo in corrispondenza dell’insieme discreto delle settimane dell’anno. Un segnale a TD di questo tipo viene denominato serie temporale o serie storica. Altri esempi di serie storiche sono l’inflazione mensile calcolata dall’ISTAT, la produzione di un certo bene nei diversi mesi dell’anno, ecc. Le serie storiche sono molto utilizzate nella statistica, nell’economia e nella finanza.
Una serie temporale è un segnale “intrinsecamente” a TD, in quanto descrive un fenomeno in cui la variabile indipendente è discreta (ad esempio rappresenta un giorno, un mese, o un anno). I segnali del mondo fisico, tuttavia, ed in particolare quelli caratteristici dell’elettrotecnica e nell’elettronica, sono quasi sempre a TC: è importante allora considerare la classe dei segnali a TD che si ottengono dai segnali a TC mediante l’operazione di campionamento. Esempio 1.12 (campionamento) Dato un segnale a TC x(t), e definito un passo di campionamento Tc ed una frequenza di campionamento fc = 1/Tc , si definisce campionamento (in inglese, sampling) o conversione t/n del segnale x(t) il segnale x(n) ottenuto da x(t) mediante la relazione seguente: x(n) = x(nTc ) . In pratica, il segnale x(n) è composto dai campioni, prelevati con passo Tc , del segnale x(t). Ad esempio, dal campionamento della sinusoide a TC x(t) = A cos(ω0t), raffigurata in fig. 1.14(a), si ottiene la sinusoide a TD x(n) = A cos(ω0 nTc ), rappresentata in fig. 1.14(b) per ω0 Tc = π /4.
L’operazione inversa del campionamento prende il nome di interpolazione o ricostruzione, e consente di passare da un segnale a TD ad un segnale a TC. Esempio 1.13 (interpolazione lineare) Il più semplice esempio di interpolazione è l’interpolazione lineare, ottenuta congiungendo con segmenti di retta le ampiezze dei campioni del segnale a TD, supposte equispaziate di Tc (passo di interpolazione). Posto x(n) = x(nTc ) e x(n + 1) = x[(n + 1)Tc ], l’espressione del segnale a TC x(t) ottenuto per interpolazione lineare nell’intervallo [nTc , (n + 1)Tc ] è: x(n + 1) − x(n) x(t) = x(n) + t ∈ [nTc , (n + 1)Tc ] . (t − nTc ) , Tc In fig. 1.15(b) è rappresentato il segnale a TC ottenuto interpolando linearmente i campioni x(n) del segnale sinusoidale dell’es. 1.12. Si noti che l’interpolazione lineare non consente, anche visivamente, la perfetta
12
Segnali e sistemi: introduzione
x(nTc )
x(t)
x(n)
A
A
3 4 5 Tc
-2 -1
t
-A
1 2
n
-A
(a)
(b)
Fig. 1.14. Campionamento di un segnale: (a) il segnale sinusoidale a TC x(t) dell’es. 1.12 ed i suoi campioni x(nTc ), uniformemente spaziati di Tc (passo di campionamento); (b) il segnale a TD x(n) ottenuto campionando il segnale x(t) per ω0 T = π /4 (si noti la spaziatura unitaria tra i campioni del segnale a TD).
x(n)
x(nTc )
x(t)
A
A
3 4 5 -2 -1
1 2
-A
(a)
Tc
n
t
-A
(b)
Fig. 1.15. Interpolazione di un segnale: (a) il segnale a TD x(n) dell’es. 1.12; (b) il segnale a TC x(t) dell’es. 1.13 ottenuto interpolando linearmente i campioni x(nTc ).
1.4 Classificazione elementare dei segnali
segnale a TC
campion .
segnale a TD
13
segnale a TD
interp.
segnale a TC
Tc
Tc
Fig. 1.16. Schema a blocchi di un campionatore (si noti il passo di campionamento Tc indicato in basso).
Fig. 1.17. Schema a blocchi di un interpolatore (si noti il passo di interpolazione Tc indicato in basso).
ricostruzione del segnale analogico originario; in particolare, il segnale interpolato x(t) presenta, a differenza della sinusoide originale, un andamento “a spezzata”.
L’interpolazione lineare non è l’unico tipo di interpolazione possibile: in particolare, l’esempio precedente mostra che se si vuole ottenere un andamento più “dolce” del segnale interpolato è necessario ricorrere a tecniche di interpolazione più sofisticate. In ogni caso, la teoria del campionamento e dell’interpolazione, ed in particolare la fondamentale questione se un segnale a TC, dopo essere stato campionato, possa essere ricostruito perfettamente a partire dai suoi campioni (teorema del campionamento), sarà studiata approfonditamente nel cap. 7. Notiamo infine che campionamento e interpolazione possono essere interpretati come sistemi, denominati rispettivamente campionatore ed interpolatore, e rappresentati graficamente in fig. 1.16 e fig. 1.17.
14
Segnali e sistemi: introduzione
Red
z R(x,y)
Green
z G(x,y)
Blue
z B(x,y)
Fig. 1.18. Esempio di segnale vettoriale: un’immagine a colori si può decomporre nelle componenti RGB, e quindi nei segnali zR (x, y), zG (x, y), zB (x, y).
1.4.2 Proprietà della variabile dipendente
Definizione 1.7 (segnale scalare/vettoriale) (a) Un segnale si dice scalare se il valore assunto dal segnale (la variabile dipendente) è uno scalare. (b) Un segnale si dice vettoriale se il valore assunto dal segnale (la variabile dipendente) è un vettore, ovvero un “array” di scalari. Negli esempi visti in precedenza, i segnali sono tutti scalari. Un esempio di segnale vettoriale è l’immagine a colori, discusso nell’esempio seguente. Esempio 1.14 (immagine a colori) Una immagine fissa a colori (fig. 1.18) può essere decomposta dalle sue tre componenti fondamentali, rosso (R), verde (G) e blu (B), e quindi può essere descritta da tre segnali monocromatici associati a ciascuna componente, siano essi zR (x, y), zG (x, y), zB (x, y). In questo caso il segnale è complessivamente una funzione vettoriale di due variabili: z(x, y) = [zR (x, y), zG (x, y), zB (x, y)] . Combinando opportunamente questi tre segnali è possibile riprodurre l’immagine a colori originaria. Se l’immagine a colori è in movimento (filmato a colori), alle due variabili indipendenti spaziali bisogna aggiungere una variabile temporale, per cui il segnale sarà descritto da una funzione vettoriale z(x, y,t) di tre variabili.
1.4 Classificazione elementare dei segnali
15
x(t) 5
...
... t
-5
Fig. 1.19. Esempio di segnale ad ampiezza discreta: il segnale logico dell’es. 1.15.
Definizione 1.8 (segnale ad ampiezza continua/discreta) (a) Un segnale si dice ad ampiezza continua (AC) se la variabile dipendente (ampiezza) varia in un insieme continuo. (b) Un segnale si dice ad ampiezza discreta (AD) se la variabile dipendente (ampiezza) varia in un insieme discreto. Sulla base del modello matematico (1.1), utilizzato per descrivere un segnale, il codominio X della funzione è un insieme continuo per un segnale ad ampiezza continua, mentre X è un insieme discreto per un segnale ad ampiezza discreta. I segnali visti negli esempi precedenti sono tutti ad ampiezza continua: ad esempio, la sinusoide degli es. 1.1 e 1.2 assume con continuità tutti i valori dell’intervallo [−A, A] ≡ X. Un esempio di segnale ad ampiezza discreta è il segnale logico. Esempio 1.15 (segnale logico) La codifica degli stati logici “0” (falso) ed “1” (vero) avviene in un circuito digitale associando ad essi due livelli di tensione (in Volt), ad esempio 5V per rappresentare lo stato “0” e −5V per rappresentare lo stato ”1”. Il segnale risultante x(t) (fig. 1.19) descrive la variazione dello stato logico nel tempo. Si tratta di un segnale a tempo continuo ma ad ampiezza discreta, visto che il suo codominio X = {−5, 5} è costituito solo da due valori.
Un segnale ad ampiezza discreta si può ottenere da un segnale ad ampiezza continua mediante una opportuna trasformazione delle ampiezze, detta quantizzazione. In pratica tale operazione consiste nell’effettuare una discretizzazione delle ampiezze continue del segnale, rimpiazzandole con un numero finito di possibili valori. Il vantaggio che si consegue con la quantizzazione è che, se il numero delle ampiezze è finito, esse possono essere rappresentate mediante cifre binarie “0” ed ”1” (bit). Esempio 1.16 (quantizzazione) Si consideri il segnale sinusoidale a TD x(n) = A cos(ω0 nT ) dell’es. 1.12, raffigurato in fig. 1.20(a). Esso può essere trasformato in un segnale ad ampiezza discreta con due soli livelli ±A mediante l’operazione di quantizzazione “ad un bit”: +A , se x(n) ≥ 0 ; y(n) = −A , altrimenti . Il segnale risultante è mostrato in fig. 1.20 (b). La quantizzazione si dice “ad un bit” in quanto l’ampiezza
16
Segnali e sistemi: introduzione
y(n) A
x(n) A
3 4 5
3 4 5 -2 -1
1 2
n
-2 -1
1 2
n
-A
-A
(a)
(b)
Fig. 1.20. Quantizzazione di un segnale: (a) il segnale a TD x(n) dell’es. 1.12; (b) il segnale ad ampiezza discreta y(n) dell’es. 1.16 ottenuto quantizzando con due livelli A e −A il segnale x(n).
segnale ad ampiezza continua
quantizz .
segnale ad ampiezza discreta
Fig. 1.21. Schema a blocchi di un quantizzatore. assume due soli valori, e quindi può essere rappresentata con un solo bit, ad esempio “1” per l’ampiezza A e “0” per l’ampiezza −A.
Anche l’operazione di quantizzazione si può interpretare come un sistema, denominato quantizzatore, e raffigurato in fig. 1.21. Così come il campionamento, anche la teoria della quantizzazione sarà approfondita nel cap. 7.
discreta
17
segnali a TC/AD
segnali digitali (TD/AD)
continua
ampiezza
1.4 Classificazione elementare dei segnali
segnali analogici (TC /AC)
segnali a TD/AC
continuo
discreto tempo
Fig. 1.22. Le quattro categorie di segnali che si ottengono combinando le classificazioni nel tempo ed in ampiezza. Tra esse, le categorie dei segnali analogici e digitali sono le uniche di interesse applicativo.
1.4.3 Segnali analogici e digitali
Dal punto di vista applicativo, le classificazioni più importanti tra quelle viste in precedenza sono quella tra segnali a tempo continuo o discreto, e tra segnali ad ampiezza continua o discreta. Poiché tali classificazioni riguardano una il tempo e l’altra l’ampiezza del segnale, esse sono indipendenti, e dalla loro combinazione scaturiscono quattro possibili categorie di segnali (fig. 1.22). Di queste, tuttavia, solo le due che seguono hanno un’importanza rilevante nelle applicazioni, tanto da meritare una denominazione particolare: Definizione 1.9 (segnale analogico/digitale) (a) Un segnale si dice analogico se è a tempo continuo e ad ampiezza continua. (b) Un segnale si dice digitale o numerico se è a tempo discreto e ad ampiezza discreta (con un numero finito di ampiezze). I segnali del mondo fisico sono analogici, in quanto i fenomeni fisici evolvono con continuità sia nel tempo che in ampiezza, e per il loro studio matematico, affrontato già a partire dal XVIII secolo, esistono metodologie ben consolidate. Viceversa, l’interesse per i segnali digitali è più recente, ma essi rivestono un ruolo predominante nello scenario tecnologico attuale, in quanto possono essere rappresentati mediante stringhe di bit ed immagazzinati ed elaborati mediante dispositivi digitali (elaborazione digitale dei segnali o digital signal processing, DSP), con vantaggi rilevanti in termini di costi e flessibilità (si veda l’es. 1.18 e la successiva discussione).
18
Segnali e sistemi: introduzione
uscita
ingresso 1
x(t)
sistema a TC
y(t)
ingresso 2 (a)
(a) uscita
ingresso 1
x(n) ingresso 2
sistema a TD
y(n)
(b)
(b) Fig. 1.23. Esempi di sistemi MISO; (a) sommatore a due ingressi; (b) moltiplicatore a due ingressi.
Fig. 1.24. Rappresentazione di un sistema SISO mediante schema a blocchi: (a) sistema a TC; (b) sistema a TD.
1.5 Classificazione elementare dei sistemi Come i segnali, anche i sistemi possono essere classificati sulla base delle loro proprietà elementari, quali il numero degli ingressi e delle uscite, e la natura temporale (a tempo continuo o a tempo discreto) degli ingressi e delle uscite. Definizione 1.10 (sistema SISO/MISO/SIMO/MIMO) (a) Un sistema con un ingresso ed una uscita si dice single-input single-output (SISO). (b) Un sistema con più ingressi ed una uscita si dice multiple-input single-output (MISO). (c) Un sistema con un ingresso e più uscite si dice single-input multiple-output (SIMO). (d) Un sistema con più ingressi e più uscite si dice multiple-input multiple-output (MIMO). I sistemi visti in precedenza, quali ad esempio il partitore resistivo, il campionatore, l’interpolatore, ed il quantizzatore, sono tutti di tipo SISO. Semplici esempi di sistemi MISO sono il sommatore ed il moltiplicatore, raffigurati schematicamente in fig. 1.23. Nel seguito, a parte il caso dei sommatori e dei moltiplicatori, faremo esclusivamente riferimento a sistemi SISO: per questo motivo, quando parleremo di sistema, supporremo implicitamente che esso sia di tipo SISO. Definizione 1.11 (sistema a tempo continuo/discreto/misto) (a) Un sistema si dice a tempo continuo (TC) se l’ingresso e l’uscita sono entrambi segnali a tempo continuo. (b) Un sistema si dice a tempo discreto (TD) se l’ingresso e l’uscita sono entrambi segnali a tempo discreto. (c) Un sistema si dice misto (o ibrido) se l’ingresso e l’uscita sono uno a tempo continuo e l’altro a tempo discreto, o viceversa.
1.5 Classificazione elementare dei sistemi
segnale analogico
segnale analogico
19
A/D
segnale digitale
segnale campionato campion .
quantizz .
(a)
segnale digitale
(b)
Tc Fig. 1.25. Conversione A/D: (a) schema a blocchi di un convertitore A/D; (b) rappresentazione schematica della conversione A/D come un campionamento seguito da una quantizzazione.
Sulla base del modello (1.2) utilizzato per descrivere matematicamente un sistema, nel caso di sistemi a TC, entrambi gli insiemi I e U dei segnali di ingresso e di uscita racchiudono solo segnali a TC, mentre I e U sono costituiti solo da segnali a TD nel caso di sistemi a TD ed, infine, nel caso di sistemi misti, l’insieme I racchiude solo segnali a TC, mentre U contiene solo segnali a TD, o viceversa. Praticamente tutti i sistemi del mondo fisico evolvono con continuità nel tempo, e quindi sono sistemi a TC: ad esempio una rete elettrica, come il partitore dell’es. 1.5, è un sistema a TC. In accordo con la simbologia introdotta in fig. 1.6, un generico sistema a TC può essere rappresentato con lo schema a blocchi in fig. 1.24(a). I sistemi a TD non esistono generalmente “in natura”, ma sono di grande interesse in quanto descrivono numerosi fenomeni delle scienze naturali ed umane (ad esempio, in campo economico o sociale); essi sono inoltre di grande interesse ingegneristico, in quanto consentono di “simulare” mediante un calcolatore digitale il comportamento di un sistema fisico. Un generico sistema a TD si rappresenta con lo schema a blocchi in fig. 1.24(b). Notiamo infine che talvolta i sistemi a TC sono anche denominati sistemi analogici, ed i sistemi a TD sono denominati, in maniera lievemente imprecisa, sistemi digitali.3 Infine, i sistemi misti (TC/TD o TD/TC) sono molto utili quando bisogna passare dal mondo “fisico” dei segnali a TC al mondo “virtuale” dei segnali a TD, e viceversa. Esempi significativi di sistemi di questo tipo sono il campionatore (es. 1.12), che presenta ingresso a TC e uscita a TD, e l’interpolatore (es. 1.13), che presenta ingresso a TD e uscita a TC. Il seguente esempio introduce due ulteriori esempi di sistemi misti. Esempio 1.17 (conversione A/D e D/A) Un segnale analogico può essere convertito in un segnale digitale mediante una conversione A/D, effettuata da un sistema denominato convertitore A/D (fig. 1.25). Per effettuare tale conversione è necessario discretizzare sia i tempi che le ampiezze del segnale, e quindi bisogna effettuare sia un campionamento (cfr. es. 1.12), sia una quantizzazione (cfr. es. 1.16). Lo schema del convertitore A/D riportato in fig. 1.25 è puramente di principio; in un convertitore A/D reale (denominato anche analog-todigital converter, ADC), le operazioni di campionamento e quantizzazione non sono necessariamente effettuate nell’ordine visto, e spesso non sono nemmeno chiaramente separabili. Inoltre, in un ADC sarà presente in uscita anche un codificatore binario per trasformare le ampiezze del segnale quantizzato in stringhe di bit. La conversione inversa (da segnale digitale ad analogico) prende il nome di conversione D/A ed è effettuata da un convertitore D/A (fig. 1.26): essa consiste fondamentalmente in una operazione di interpolazione 3 Più
precisamente, i sistemi digitali sono particolari sistemi a TD implementati con un’aritmetica a precisione finita.
20
Segnali e sistemi: introduzione
segnale digitale
D/A
segnale analogico
(a)
segnale digitale
interp.
segnale analogico
(b)
Tc Fig. 1.26. Conversione D/A: (a) schema a blocchi di un convertitore D/A; (b) rappresentazione schematica della conversione D/A in termini di interpolazione.
(cfr. es. 1.13), in quanto gli effetti della quantizzazione sono irreversibili, e quindi non può esistere una operazione inversa di “dequantizzazione”. Un convertitore D/A reale (denominato anche digital-to-analog converter, DAC), accetta in ingresso stringhe di bit, che sono trasformate in valori di ampiezza da un decodificatore binario, prima di effettuare l’interpolazione.
Un’applicazione particolarmente interessante dei sistemi misti, ed in particolare dei convertitori A/D e D/A, è lo schema classico dell’elaborazione digitale dei segnali o digital signal processing (DSP) riportato in fig. 1.27, e finalizzato ad elaborare un segnale analogico in maniera digitale. In tale schema, un segnale analogico x(t) viene prima convertito, mediante un convertitore A/D, in un segnale digitale x(n); successivamente, il segnale x(n) viene elaborato mediante un sistema digitale, ed il segnale risultante y(n) viene nuovamente trasformato in un segnale analogico dal convertitore D/A. Si noti che il sistema complessivo (tratteggiato in fig. 1.27) è un sistema analogico; per questo motivo, lo schema di fig. 1.27 può essere interpretato anche come uno schema di simulazione di un sistema analogico mediante un sistema digitale. Rispetto ad una elaborazione analogica del segnale x(t), lo schema digitale in fig. 1.27 offre alcuni vantaggi importanti, quali maggiore flessibilità, minore ingombro, minore consumo di potenza e, non ultimo, minor costo dell’hardware. Per questo motivo, schemi DSP del tipo precedentemente visto trovano applicazioni in quasi tutti i moderni settori della tecnologia, dalle telecomunicazioni all’informatica, alla biomedica, all’automazione, alle costruzioni aerospaziali, ai trasporti, e numerosi altri.
x(t)
x(n) A/D
sistema digitale
y(n)
D/A
sistema analogico Fig. 1.27. Schema classico per l’elaborazione digitale dei segnali.
y(t)
1.5 Classificazione elementare dei sistemi
21
registrazione masterizzatore analogico microfono
disco in vinile
amplificatori
trasduttore ("puntina ") altoparlante riproduzione
Fig. 1.28. Schema analogico per la registrazione/riproduzione audio. L’informazione è memorizzata sul disco in vinile in forma analogica (come profondità del solco).
La sintesi e l’analisi dei convertitori A/D e D/A saranno approfondite nel cap. 7. Tuttavia l’esempio che segue mostra come tali sistemi giochino un ruolo fondamentale in una familiare applicazione dell’elettronica di consumo. Esempio 1.18 (schemi analogici e digitali per la registrazione/riproduzione audio) In fig. 1.28 si riporta lo schema di principio che descrive la registrazione di un brano musicale su un disco in vinile e la sua successiva riproduzione, entrambe effettuate in maniera analogica. Il brano da registrare viene captato da un microfono, che si comporta da trasduttore, ovvero converte la pressione acustica del suono in un segnale elettrico. Tale segnale elettrico, di debole intensità, viene amplificato e inviato ad un masterizzatore (analogico). Il masterizzatore si comporta da attuatore, trasforma cioè il segnale elettrico in un segnale che comanda l’incisione dei solchi su un supporto (master), tipicamente in materiale metallico pregiato. Il profilo dei solchi del disco riproduce il più fedelmente possibile l’ampiezza del segnale audio all’ingresso del masterizzatore. Una volta inciso il master, da esso si possono ricavare dei master secondari, e da questi ultimi le copie in materiale plastico (vinile), che vengono vendute all’utente finale. Da ciascuna copia, l’utente può riascoltare il brano inciso utilizzando un giradischi, nel quale un trasduttore – la cosiddetta “puntina” – muovendosi lungo i solchi converte il movimento verticale in una debole tensione elettrica, che dopo essere stata amplificata può essere applicata ai diffusori acustici (le casse) e finalmente ascoltata. Lo schema di registrazione/riproduzione analogica precedentemente visto è stato tuttavia sostituito al giorno d’oggi dallo schema digitale riportato in fig. 1.29. In esso, la differenza significativa è che il segnale captato dal microfono, dopo l’amplificatore, viene sottoposto ad una conversione A/D, codificato in bit, ed inviato ad un masterizzatore (digitale), il quale memorizza su un supporto ottico (il compact disc) le stringhe di bit che rappresentano il segnale dopo il campionamento e la quantizzazione, bruciando con un laser in misura maggiore o minore le zone del disco. Successivamente, l’informazione binaria può essere letta dal compact disc utilizzando un trasduttore ottico (ancora un laser): le stringhe di bit vengono decodificate, ed inviate ad un convertitore D/A. Successivamente il segnale viene amplificato e riprodotto mediante i diffusori acustici (le casse).
L’es. 1.18 può servire per evidenziare più chiaramente alcuni dei numerosi vantaggi che lo schema digitale presenta rispetto a quello analogico.
22
Segnali e sistemi: introduzione
registrazione
A/D
masterizzatore digitale
microfono
compact disc
amplificatori
D/A
trasduttore (laser )
altoparlante riproduzione
Fig. 1.29. Schema digitale per la registrazione/riproduzione audio. L’informazione è memorizzata sul compact disc in forma digitale (come stringhe di bit).
Il vantaggio principale è che l’informazione, una volta memorizzata in maniera digitale, può essere riprodotta infinite volte e senza quasi alcuna degradazione. Infatti, se il supporto analogico (il disco in vinile) è sottoposto a deterioramento, polvere, graffi, deformazioni, ecc., queste si traducono comunque in una degradazione acusticamente percepibile della qualità del segnale audio (fruscio, “click”, ecc.); di contro, piccole degradazioni del supporto digitale (il compact disc), tali da non comportare scambi in lettura tra “0” ed “1” (o viceversa), non determinano alcuna degradazione della qualità del segnale audio. Esiste evidentemente la possibilità che, a causa di degradazioni più significative del supporto digitale, uno o più bit possano essere letti erroneamente, ma a tale evenienza si può porre rimedio mediante tecniche sofisticate per la rivelazione e correzione di errori (codifica di canale): questo è un altro vantaggio dello schema digitale su quello analogico, in quanto in quest’ultimo caso non sono concepibili tecniche semplici per la protezione dagli errori. Un altro vantaggio della conversione digitale è che differenti sorgenti di informazione, una volta convertite in stringhe di bit, possono essere facilmente memorizzate in maniera integrata su uno stesso supporto; si pensi ad esempio al supporto DVD (digital versatile disc) in cui si integrano con facilità informazioni “multimediali” quali video, audio, e dati di varia natura. Infine l’informazione digitale, essendo stata convertita in bit, può più facilmente essere elaborata, memorizzata, compressa, protetta, anche con un semplice personal computer (PC). Di contro, l’elaborazione dell’informazione analogica comporta l’uso di sofisticate apparecchiature professionali, costose da progettare e da realizzare. Non a caso, con l’avvento delle tecniche digitali, è diventato possibile per chiunque disporre di uno studio di registrazione audio semiprofessionale o di una stazione per l’editing video basati su un PC sufficientemente potente, a costi sempre più bassi, dell’ordine di qualche migliaio di euro.
24
Segnali e sistemi: introduzione
Capitolo 2
Proprietà dei segnali
I
n questo capitolo, che costituisce la naturale prosecuzione del precedente, viene ulteriormente approfondito lo studio dei segnali. In particolare, dopo aver introdotto le operazioni elementari che si possono effettuare sui segnali, viene definito e discusso il concetto di estensione temporale e di durata di un segnale. Successivamente si introducono le definizioni di area e media temporale di un segnale, che consentono di calcolare la componente continua ed alternata di un segnale arbitrario. Infine, sono definiti e discussi i fondamentali concetti di energia e potenza, sulla base dei quali è possibile classificare ulteriormente i segnali in segnali di energia e segnali di potenza. Nel corso del capitolo saranno introdotti numerosi segnali cosiddetti elementari, che possono considerarsi alla stregua di “mattoni”, assemblando i quali è possibile ottenere quasi tutti i segnali di interesse pratico.
2.1 Operazioni elementari sui segnali Poiché i segnali deterministici a TC sono descritti mediante funzioni di variabili reali, tutti i concetti e le operazioni introdotti nei corsi di analisi matematica per le funzioni valgono anche per i segnali TC; in particolare, con riferimento a un segnale TC, è possibile introdurre i concetti di limite e continuità, e le operazioni di derivazione e integrazione. Allo stesso modo, poiché i segnali deterministici a TD sono descritti mediante successioni, tutti i concetti e le operazioni definiti per le successioni sono validi anche per i segnali a TD; in particolare, per un segnale TD, è possibile definire le nozioni di limite e serie. Alcune definizioni e operazioni fondamentali sulle funzioni e sulle successioni sono brevemente richiamati nell’app. B. Tuttavia, esistono alcune operazioni elementari sulle funzioni che giocano un ruolo fondamentale nella teoria dei segnali e dei sistemi e, pertanto, meritano una particolare attenzione. Tali operazioni si possono schematicamente classificare come: • trasformazioni della variabile dipendente (l’ampiezza); • trasformazioni della variabile indipendente (il tempo). Anticipiamo che mentre le prime sono più semplici da interpretare, le seconde sono più complesse e soggette talvolta ad errori di interpretazione. In aggiunta a tali operazioni elementari, vi sono altre operazioni meno elementari che sono di stretto interesse dal punto di vista della teoria dei segnali
26
Proprietà dei segnali
x1 (·)
y(·)
x2 (·)
(a) x1 (·)
y(·)
x2 (·)
(b) Fig. 2.1. Operazioni sui segnali: (a) somma di due segnali; (b) moltiplicazione di due segnali.
e dei sistemi, quali, ad esempio, le operazioni di derivazione ed integrazione per segnali TC. La rivisitazione di tali proprietà consentirà di ottenere alcune importanti generalizzazioni, che porteranno in particolare a definire un particolare segnale TC dalle “strane” proprietà, detto impulso di Dirac. Inoltre, nel caso TD, in stretta analogia alle operazioni di derivazione ed integrazione per il caso TC, saranno definite due operazioni corrispondenti, denominate differenza prima e somma corrente. 2.1.1 Trasformazioni della variabile dipendente
Tra le trasformazioni elementari della variabile dipendente, considereremo in particolare la somma di due segnali, il prodotto di due segnali, la moltiplicazione di un segnale per una costante. Somma
La somma di due segnali1 y(·) = x1 (·) + x2 (·) si effettua sommando punto a punto le ordinate delle funzioni corrispondenti. La somma di due segnali si può interpretare come un sistema MISO (a due ingressi ed una uscita) (cfr. § 1.5) denominato sommatore e rappresentato schematicamente in fig. 2.1(a). La somma si può estendere facilmente a più di due segnali, così come si può generalizzare lo schema del sommatore anche al caso in cui alcuni segnali siano sottratti anziché sommati (in questo caso si aggiunge un segno “–” in prossimità del corrispondente ingresso del sommatore). Prodotto
In maniera simile alla somma, si definisce il prodotto di due segnali y(·) = x1 (·) x2 (·) . 1 Qui
e nel seguito, useremo la notazione del tipo x(·) per denotare indifferentemente un segnale TC x(t) o TD x(n).
2.1 Operazioni elementari sui segnali
x(·)
27
a
y(·)
Fig. 2.2. Schema a blocchi di un amplificatore/attenuatore.
Il prodotto di due segnali si può interpretare anch’esso come un sistema MISO (a due ingressi ed una uscita) denominato moltiplicatore e rappresentato in fig. 2.1(b). Anche la definizione di prodotto e lo schema del moltiplicatore può essere generalizzato in modo ovvio al caso di più di due ingressi. Moltiplicazione per una costante
La moltiplicazione di un segnale per una costante y(·) = a x(·) , con a > 0, corrisponde a moltiplicare tutti i valori di ampiezza del segnale per il fattore a. Tale operazione può essere interpretata come l’effetto di un sistema SISO denominato amplificatore (se a > 1) o attenuatore (se a < 1), raffigurato in fig. 2.2. Genericamente, il fattore a viene denominato guadagno dell’amplificatore/attenuatore. Se a = −1, l’operazione y(·) = −x(·) corrisponde ad un cambio di segno delle ampiezze del segnale, e viene denominata inversione (da non confondere con la riflessione temporale che è discussa dopo). Più in generale, se a < 0, l’operazione y(·) = a x(·) si può riguardare come un’inversione seguita da un’amplificazione (o attenuazione) con guadagno |a|; lo schema di fig. 2.2 può essere utilizzato anche in questo caso. 2.1.2 Trasformazioni della variabile indipendente
Tra le trasformazioni elementari della variabile indipendente considereremo la traslazione temporale, la riflessione temporale, ed il cambiamento di scala temporale; per quest’ultima operazione, in particolare, considereremo alcune caratteristiche peculiari del caso TD, attraverso l’introduzione delle operazioni di decimazione ed espansione. Traslazione temporale (ritardo/anticipo)
La traslazione temporale di un segnale TC si definisce come y(t) = x(t − t0 ) , dove per t0 > 0 si ha una traslazione verso destra del segnale, o ritardo, mentre per t0 < 0 si ha una traslazione verso sinistra, o anticipo, come rappresentato in fig. 2.3. Si noti che una traslazione temporale non modifica la forma del segnale, ma comporta solo una variazione del riferimento temporale. Una definizione analoga di traslazione temporale si può dare per un segnale TD: y(n) = x(n − n0 ) , dove però, a differenza del caso TC, il parametro della traslazione n0 assume necessariamente valori interi, cioè n0 ∈ Z: in altri termini, un segnale TD può essere traslato solo di quantità intere.
28
Proprietà dei segnali
x(t)
(a)
t2
t1
t
y(t) = x(t-t0) t0 > 0
(b)
t2+t0 t
t1+t0 y(t) = x(t-t0) t0 < 0 (c)
t1+t0
t2+t0
t
Fig. 2.3. Traslazione temporale di un segnale TC: (a) segnale originario; (b) segnale ritardato (t0 > 0); (c) segnale anticipato (t0 < 0). Riflessione temporale
La riflessione temporale di un segnale consiste nel ribaltamento della scala dei tempi, secondo le seguenti relazioni, valide rispettivamente per il caso TC e TD: y(t) = x(−t) ; y(n) = x(−n) . Un esempio di riflessione per un segnale TC è riportato in fig. 2.4; in pratica il grafico del segnale subisce una rotazione intorno all’asse delle ordinate (si noti che il valore in t = 0 oppure n = 0 resta immutato per effetto della riflessione). Dal punto di vista fisico, se ad esempio il segnale x(t) rappresenta l’audio di un brano musicale, la riflessione corrisponde a riprodurre il brano al contrario. Un segnale TC invariante alla riflessione, x(−t) = x(t), si dice pari; invece, un segnale TC invariante rispetto alla cascata di una riflessione e inversione, x(t) = −x(−t), si dice dispari. Analogamente, un segnale TD si dice pari se x(−n) = x(n), dispari se x(n) = −x(−n). Ad esempio, in fig. 2.5 (a)
2.1 Operazioni elementari sui segnali
29
x(t)
(a)
t2
t1
t
y(t) = x(-t)
(b)
- t1
- t2
t
Fig. 2.4. Riflessione temporale di un segnale TC: (a) segnale originario; (b) segnale riflesso.
e (b) sono raffigurati due esempi di segnali pari, mentre in fig. 2.5 (c) e (d) sono raffigurati due esempi di segnali dispari. Si noti che un segnale pari o dispari è completamente descritto dal suo andamento per valori positivi (oppure negativi) della variabile indipendente. A partire dalla definizione di segnale pari e dispari, si possono facilmente dimostrare (la dimostrazione è lasciata al lettore per esercizio) le seguenti semplici proprietà: Proprietà 2.1 (proprietà elementari dei segnali pari e dispari) (a) Se x(·) è dispari ed è definito il suo valore nell’origine, risulta necessariamente x(0) = 0. (b) La somma di due segnali pari [dispari] è un segnale pari [dispari]. (c) Il prodotto di due segnali pari è un segnale pari, mentre il prodotto di due segnali dispari è un segnale pari. (d) Il prodotto di un segnale pari e di un segnale dispari è un segnale dispari. (e) Ogni segnale x(·) (nè pari nè dispari) può essere decomposto come x(·) = Pa[x(·)] + Di[x(·)], dove Pa[x(·)] =
x(·) + x(−(·)) 2
e Di[x(·)] =
x(·) − x(−(·)) . 2
sono rispettivamente la componente pari (o parte pari) e la componente dispari (o parte dispari) del segnale x(·). Un esempio di decomposizione di un segnale TC in parte pari e dispari è riportato in fig. 2.6.
30
Proprietà dei segnali
x(t)
x(n)
(a)
(b)
-3 -2 -1
t
1
0
2
3
n
x(n)
x(t) (c)
(d)
1 -3 -2 -1
t
2
0
3
n
Fig. 2.5. Invarianza alle riflessioni/inversioni: (a) segnale pari a TC; (b) segnale pari a TD; (c) segnale dispari a TC; (b) segnale dispari a TD. x(t) 2
1
-1
t
Pa[x(t)]
Di[x(t)]
1 1 -1 -1
1
1
t -1 -1
Fig. 2.6. Esempio di decomposizione di un segnale TC in parte pari e dispari.
t
2.1 Operazioni elementari sui segnali
31
x(t)
(a)
t2
t1
t
y(t) = x(at) a>1
(b)
t1/a
t2/a
t
y(t) = x(at) a<1 (c)
t1/a
t2/a
t
Fig. 2.7. Cambiamento di scala temporale di un segnale TC: (a) segnale originario; (b) segnale compresso (a > 1); (b) segnale espanso (0 < a < 1). Cambiamento di scala temporale
L’operazione di cambiamento di scala temporale presenta sostanziali differenze tra il caso TC e quello TD, per cui tratteremo separatamente questi due casi. Nel caso TC, il cambiamento di scala temporale è definito come y(t) = x(at) , dove a ∈ R+ : per a > 1, in particolare, si ha una compressione dei tempi [fig. 2.7(a)], mentre per 0 < a < 1 si ha una espansione dei tempi [fig. 2.7(b)]; il caso a = 1 lascia ovviamente il segnale inalterato. Si noti che sia nel caso della compressione che dell’espansione, il valore del segnale per t = 0 rimane inalterato. Nel caso a < 0, l’operazione y(t) = x(at) non è elementare, in quanto si può riguardare come la cascata di una riflessione e di un cambiamento di scala di |a| > 0. Dal punto di vista fisico, se il segnale x(t) è l’audio di un brano musicale, la compressione corrisponde a riprodurre il segnale in un tempo più piccolo, e quindi a velocità maggiore (ad esempio, si ha una compressione se si riproduce un disco in vinile a 33 giri alla velocità di un 45 giri), mentre con
32
Proprietà dei segnali
x(n)
(a)
-9
-7 -8
-2 -6 -5 -4 -3
1 -1
4
0
2
3
7 5 6
9 8
n
y(n) = x(3n) x(0) x(-3) x(-6)
x(6)
x(3)
(b)
3
-3 -2 -1
0
1
2
n
x(-9) x(9) Fig. 2.8. Decimazione di un segnale TD: (a) segnale originario; (b) segnale decimato con M = 3.
l’espansione si ottiene esattamente l’effetto opposto. Notiamo che per segnali a TC il cambiamento di scala dei tempi è una operazione perfettamente reversibile, ed in particolare un cambiamento di scala con fattore a è perfettamente compensato da un cambiamento di scala con fattore 1/a. Per segnali a TD, l’espressione y(n) = x(an) ha senso per a > 1 solo se a è intero, ovvero se a = M ∈ N, per cui si scrive: y(n) = x(nM) . In questo caso è possibile ancora parlare di compressione, ma nel caso TD si utilizza il termine più specifico di decimazione;2 infatti, se se sceglie M = 10, il segnale y(n) si ottiene dal segnale x(n) prendendo un campione ogni 10. Un esempio di decimazione con M = 3 è rappresentato graficamente in fig. 2.8; si noti l’effetto di compressione (minore durata) del segnale risultante, derivante dalla perdita di due campioni ogni tre del segnale originario. È proprio tale perdita dei campioni caratteristica della decimazione che segna la maggiore differenza tra il caso TD ed il caso TC; infatti, a differenza 2 L’uso
del termine “decimazione” rievoca la terribile tecnica adoperata dall’esercito nazista durante la seconda guerra mondiale per selezionare i prigionieri da sottoporre a fucilazione per rappresaglia, come accadde ad esempio in occasione del massacro delle Fosse Ardeatine.
2.1 Operazioni elementari sui segnali
33
x(n)
(a)
3
-3 -2 -1
0
1
2
n
y(n)=x[n/3] x(0) x(-2)
x(2) (b)
x(-1)
x(1)
-9
9 -8 -7 -6 -5 -4 -3 -2 -1 0
1
2
3 4 5
6 7
8
n
x(-3) x(3) Fig. 2.9. Espansione di un segnale TD: (a) segnale originario; (b) segnale espanso con L = 3.
della compressione di un segnale TC, la decimazione è una operazione non reversibile, perché alcuni campioni del segnale TD (in generale, M − 1 campioni ogni M) sono eliminati completamente. Passiamo ora ad esaminare l’operazione di espansione nel caso TD. Analogamente a quanto visto per la decimazione, l’espressione y(n) = x(an) non ha senso per qualunque a < 1, in quanto an non è un numero intero. Se anche, per analogia con il caso a = M, si assume a = 1/L, con L ∈ N, l’espressione y(n) = x(n/L) ha senso solo se n è multiplo di L. Le precedenti considerazioni inducono allora a definire l’operazione di espansione nel caso TD nel modo seguente (si noti l’uso “formale” delle parentesi quadre): n = y(n) = x L
n x , se n è multiplo di L ; L 0, altrimenti .
(2.1)
Un esempio di espansione per L = 3 è fornito in fig. 2.9; da tale esempio si capisce perché l’espansione viene denominata anche interpolazione con zeri, in quanto essa espande il segnale x(n) inserendo L−1 campioni nulli (zeri) tra due campioni consecutivi. A differenza della decimazione, l’espansione a TD è una operazione perfettamente reversibile, in quanto il segnale originario può essere ottenuto semplicemente eliminando gli zeri inseriti, ovvero facendo seguire all’espansione con fattore L una decimazione con uguale fattore M = L.
34
Proprietà dei segnali
2.1.3 Combinazione di operazioni elementari
Spesso un segnale è sottoposto in sequenza a più operazioni elementari del tipo precedentemente visto. Dal punto di vista matematico, una combinazione di operazioni elementari definisce una funzione composta, per cui non dovrebbe essere difficile individuare il segnale risultante; va detto però che spesso, specialmente quando sono coinvolte trasformazioni della variabile indipendente (tempo), è facile commettere errori. Per evitare ciò, il principio fondamentale da tener presente è che le trasformazioni che agiscono sull’asse dei tempi (ritardo, riflessione, cambiamento di scala) possono essere interpretate come semplici sostituzioni formali. Ad esempio, ritardare un segnale x(t) di 3 significa effettuare la seguente sostituzione: ogni volta che nell’espressione di x(t) compare t, sostituire ad esso t − 3 (sinteticamente, questa sostituzione si denota con t − 3 → t). Allo stesso modo, espandere un segnale x(t) di un fattore 2 significa effettuare la sostituzione t/2 → t. Tenendo bene a mente questo principio, si giungerà al risultato corretto, come illustrato dall’esempio che segue. Esempio 2.1 (combinazione di operazioni elementari, caso TC) Un segnale TC x(t) viene sottoposto nell’ordine alle seguenti operazioni: (1) riflessione; (2) ritardo di 3; (3) compressione di 2. Per individuare il segnale y(t) risultante, è conveniente seguire il seguente procedimento. Prima scriviamo le relazioni che descrivono le varie operazioni individualmente, introducendo dei segnali intermedi u(t), v(t), etc. Nel nostro caso, le tre operazioni sono descritte da: riflessione: u(t) = x(−t) ; ritardo di 3: v(t) = u(t − 3) ; compressione di 2:
y(t) = v(2t) .
Successivamente, effettuiamo sostituzioni simboliche a ritroso partendo dall’ultima espressione scritta: y(t) = v(2t) = u(2t − 3) = x[−(2t − 3)] = x(3 − 2t) , che è il risultato cercato. Si noti che quando effettuiamo sostituzioni a catena, operiamo sempre con sostituzioni formali in tutti i passaggi: ad esempio per calcolare v(2t) abbiamo effettuato la sostituzione 2t → t, mentre per calcolare u(2t − 3) abbiamo effettuato la sostituzione 2t − 3 → t. Procedendo in questo modo si giunge sempre al risultato corretto.
È importante notare che, in generale, il risultato ottenuto dalla combinazione di più operazioni dipende anche dall’ordine con cui sono compiute tali operazioni. Esempio 2.2 (effetto dell’ordine nella combinazione di operazioni elementari, caso TC) Si riprenda per un momento l’es. 2.1 scambiando l’ordine delle operazioni, in particolare effettuiamo le stesse operazioni ma nel seguente ordine: (1) ritardo di 3; (2) riflessione; (3) compressione di 2. Utilizzando lo stesso procedimento dell’es. 2.1, descriviamo le tre operazioni individualmente e nell’ordine assegnato: ritardo di 3:
u(t) = x(t − 3) ;
riflessione: v(t) = u(−t) ; compressione di 2: y(t) = v(2t) .
2.1 Operazioni elementari sui segnali
35
Successivamente operiamo le sostituzioni ricorsivamente partendo dall’ultima espressione: y(t) = v(2t) = u(−2t) = x(−2t − 3) , ottenendo un segnale differente da quello dell’es. 2.1.
Un altro problema che si pone in pratica è il seguente: dato un segnale ottenuto per combinazione di operazioni elementari, individuare quali siano le operazioni elementari ed in che ordine vadano effettuate. È importante infatti notare che uno stesso segnale si può ottenere con diverse combinazioni di operazioni elementari. L’esempio che segue chiarisce meglio quest’aspetto. Esempio 2.3 (individuazione delle operazioni elementari, caso TC) Si consideri il segnale
4−t y(t) = x . 5 Esso si può pensare ottenuto a partire da x(t) mediante le seguenti tre operazioni, nell’ordine elencato: t , espansione di un fattore 5: z(t) = x 5 anticipo di 4: u(t) = z(t + 4) , riflessione: y(t) = u(−t) . Infatti si ha, sostituendo ricorsivamente a partire dall’ultima,
−t + 4 4−t y(t) = u(−t) = z(−t + 4) = x =x . 5 5 Si può verificare che il risultato dipende dall’ordine in cui si eseguono le operazioni. Ad esempio se si effettua prima la riflessione, poi l’anticipo, ed infine l’espansione, si ha: t t t +4 = x − −4 =v y(t) = u 5 5 5 e quindi un risultato differente da quello precedente. D’altra parte, lo stesso segnale di partenza si può pensare ottenuto mediante una diversa combinazione di operazioni:
4 4 anticipo di : z(t) = x t + , 5 5 riflessione: u(t) = z(−t) , t . espansione di un fattore 5: y(t) = u 5 Infatti si ha sostituendo a ritroso:
t −t −t 4 4−t y(t) = u + =z =x =x 5 5 5 5 5 e quindi lo stesso segnale. Ovviamente, poiché portano allo stesso risultato, entrambe le sequenze di operazioni sono “corrette”; va osservato peraltro che in genere la prima è da preferire, in quanto più “semplice”.
Nel caso di segnali a TD, la tecnica da seguire per combinare operazioni elementari è la stessa vista per il caso TC. Qualche approfondimento merita il solo caso in cui è presente l’espansione a TD definita dalla (2.1), in quanto quest’ultima non si può interpretare semplicemente come la sostituzione formale di n/L → n: se n/L non è intero, infatti, non ha senso calcolare il valore del segnale in n/L, per cui nella definizione (2.1) si assume convenzionalmente che tale valore sia nullo. Per ottenere
36
Proprietà dei segnali
il risultato corretto per via analitica, è conveniente utilizzare la notazione formale con le parentesi quadre introdotta in (2.1), nel senso che se in corrispondenza di un certo istante n l’argomento delle parentesi quadre è intero, allora il risultato si ottiene calcolando il valore del segnale in quel punto, altrimenti il valore del segnale è nullo. Gli esempi che seguono mostrano come procedere in due situazioni tipiche. Esempio 2.4 (combinazione di operazioni elementari, caso TD) Un segnale TD x(n) viene sottoposto nell’ordine alle seguenti operazioni: (1) riflessione; (2) anticipo di 5; (3) espansione di 2. Procediamo come come nel caso TC descrivendo matematicamente le operazioni prese individualmente: riflessione: u(n) = x(−n) ; anticipo di 5: v(n) = u(n + 5) ; n espansione di 2: y(n) = v . 2 Successivamente sostituiamo ricorsivamente partendo dall’ultima espressione, e mantenendo le parentesi quadre dell’espansione con il loro significato simbolico: n n n y(n) = v = u +5 = x − −5 . 2 2 2 Con riferimento all’ultima espressione, osserviamo che l’argomento tra parentesi quadre è intero se e solo se n è multiplo di 2, ovvero se n è pari, mentre in tutti gli altri casi è frazionario, per cui il segnale y(n) vale convenzionalmente zero. Pertanto, il segnale y(n) si può esprimere esplicitamente, eliminando la notazione simbolica con le parentesi quadre, come: 0 , se n è pari , y(n) = n x − − 5 , altrimenti . 2 Esempio 2.5 (combinazione di operazioni elementari, caso TD) Un segnale TD x(n) viene sottoposto nell’ordine alle seguenti operazioni: (1) decimazione per 3; (2) espansione di 6; (3) anticipo di 5. Procediamo come come nel caso TC descrivendo matematicamente le operazioni prese individualmente: u(n) = x(3n) ; n espansione di 6: v(n) = u ; 6 anticipo di 5: y(n) = v(n + 5) .
decimazione per 3:
Successivamente sostituiamo ricorsivamente partendo dall’ultima espressione, e mantenendo le parentesi quadre dell’espansione con il loro significato simbolico: n+5 n+5 n+5 =x 3 =x . y(n) = v(n + 5) = u 6 6 2
2.1 Operazioni elementari sui segnali
37
1
x(t) = u(t)
0.8 0.6 0.4 0.2 0 −2
0
2
4 t
6
8
10
Fig. 2.10. Gradino a TC. Con riferimento all’ultima espressione, notiamo che l’argomento tra parentesi quadre è intero se e solo se n + 5 è multiplo di 2, il che accade se e solo se n è dispari, per cui l’espressione ottenuta si può rendere esplicita, eliminando la notazione con le parentesi quadre, come: , se n è dispari , 0
y(n) = n+5 x , altrimenti . 2
2.1.4 Derivazione, integrazione, differenza prima e somma
Poiché un segnale TC x(t) è essenzialmente una funzione a valori reali di una variabile reale, per esso si applicano in modo naturale i concetti di derivabilità e integrabilità tipicamente trattati nei corsi di analisi matematica (cfr. § B.2). In particolare, se il segnale x(t) è derivabile nel punto t0 ∈ T, allora la sua derivata è definita mediante il limite del rapporto incrementale: x(t) − x(t0 ) d x(t) = lim (2.2) t→t dt t − t0 0 t=t0 che esiste ed è finito. Se il segnale x(t) è derivabile in t0 , si dimostra che x(t) è anche continuo in t0 . Pertanto, la continuità del segnale x(t) in t0 è condizione necessaria (ma non sufficiente) affinchè il limite del rapporto incrementale (2.2) esista e sia finito. Tuttavia, nell’ambito della teoria dei segnali si incontrano molto frequentemente segnali che non sono continui in tutti i punti del loro insieme di definizione T. In particolare, un problema che ricorre spesso è il calcolo della derivata di un segnale x(t) che presenta un numero finito o, al più, infinito numerabile di punti di discontinuità di prima specie. L’esempio più semplice di funzione di tale tipo è rappresentato dal gradino a TC. Il gradino a TC è definito come: 1 , se t ≥ 0 ; u(t) = 0 , altrimenti ; ed è rappresentato graficamente in fig. 2.10. Il gradino presenta una discontinuità di prima specie per t = 0, per cui il valore in tale punto può essere definito piuttosto arbitrariamente come il limite da
38
Proprietà dei segnali
1/(2 ε)
ε
ε
x(t) = δ (t)
x(t) = u (t)
1
−ε
+ε
−ε t
t
(a)
+ε
(b)
Fig. 2.11. Definizione dell’impulso a TC: (a) approssimazione uε (t) di un gradino; (b) la derivata δε (t) di uε (t). Al diminuire di ε la funzione δε (t) diventa sempre più stretta ed alta, conservando area unitaria.
destra (che vale 1), da sinistra (che vale 0), e talvolta come la semisomma dei due limiti (che vale 1/2): qui abbiamo scelto la prima convenzione. La derivata di u(t), calcolata applicando la regola di derivazione ordinaria, vale zero in tutti i punti, tranne che nel punto t = 0, in cui il limite del rapporto incrementale (2.2) non è definito. Questo risultato, sebbene matematicamente corretto, non è intuitivamente accettabile, se facciamo riferimento all’interpretazione “fisica” della derivata come “rapidità di variazione” di una funzione. Infatti, il gradino presenta effettivamente una rapidità di variazione nulla (e quindi una derivata nulla) per ogni t = 0, ma per t = 0 presenta una rapidità di variazione infinita, in quanto passa istantaneamente (in un tempo nullo) dal valore 0 al valore 1. Per tener conto di questo comportamento e, quindi, poter definire la derivata del gradino anche per t = 0, bisogna ricorrere al concetto di derivata generalizzata, non previsto dall’analisi matematica elementare, la cui trattazione rigorosa richiede la conoscenza dei fondamenti di una branca della matematica nota come teoria delle distribuzioni. Per mantenere la trattazione ad un livello sufficientemente elementare, tuttavia, cercheremo di calcolare la derivata di u(t) euristicamente, rimandando il lettore desideroso di maggiore rigore matematico ai corsi avanzati di analisi matematica. Allo scopo di calcolare la derivata generalizzata del gradino, posto ε ∈ R+ , definiamo la seguente funzione uε (t): per t < −ε ; 0 , 1 t uε (t) = 2 1 + ε , per |t| ≤ ε ; 1, per t > ε ; raffigurata in fig. 2.11(a). Tale funzione rappresenta evidentemente un’approssimazione del gradino u(t), ma a differenza di quest’ultimo è una funzione continua anche per t = 0. L’approssimazione è tanto migliore quanto più ε è piccolo; in effetti, al limite per ε → 0, si ha: lim uε (t) = u(t) .
ε →0
La funzione uε (t), essendo continua, non presenta i problemi del gradino per quanto riguarda il calcolo della derivata. Infatti la funzione uε (t) è derivabile nell’intorno di t = 0, e la sua derivata vale: 0 , per |t| > ε ; d δε (t) = uε (t) = 1 dt 2ε , per |t| < ε ;
2.1 Operazioni elementari sui segnali
39
ed è raffigurata in fig. 2.11(b): si tratta di un rettangolo di area unitaria avente base 2 ε ed altezza 1/(2 ε ). Poiché al tendere di ε a zero la funzione uε (t) tende al gradino u(t), risulta naturale definire la derivata di u(t) come segue: d u(t) = lim δε (t) . ε →0 dt
(2.3)
La questione fondamentale è ora capire a cosa tende la funzione δε (t) quando ε tende a zero. Al diminuire di ε , la funzione δε (t) diviene sempre più “stretta” e più “alta” nell’origine, conservando tuttavia area unitaria. Al limite per ε → 0, si ottiene che δε (t) tende ad una funzione di area unitaria che è ovunque nulla, eccetto che nell’origine dove assume valore infinito: non esiste alcuna funzione nel senso ordinario dell’analisi matematica che può soddisfare queste condizioni. Quindi, per ε → 0, la funzione ordinaria δε (t) non converge ad una funzione ordinaria. Ciò suggerisce che la convergenza del limite al secondo membro della (2.3) deve essere intesa diversamente da come si è solito fare per le funzioni ordinarie. A tale scopo, se è vero che, al limite per ε che tende a zero, δε (t) non ha alcun significato come funzione ordinaria, essa ha invece un significato ben preciso se la si moltiplica per un’arbitrario segnale x(t) continuo nell’origine e si integra il risultato su tutto l’asse reale: +∞ −∞
δε (t) x(t)dt =
1 2ε
ε −ε
x(t)dt .
(2.4)
Dal punto di vista matematico, la (2.4) definisce un funzionale che si “appoggia” alla funzione δε (t), cioè, un operatore che associa alla funzione x(t) un numero reale, che è dato dal rapporto tra l’area sottesa da ϕ (t) nell’intervallo (−ε , ε ) e la misura di tale intervallo. Invocando il teorema della media, possiamo affermare che esiste un punto tε ∈ [−ε , ε ] tale per cui +∞ −∞
δε (t) x(t)dt =
1 x(tε ) [ε − (−ε )] = x(tε ) , 2ε
da cui passando al limite e ricordando che x(t) è continua nell’origine, si ottiene: +∞
lim
ε →0 −∞
δε (t) x(t)dt = lim x(tε ) = x(0) . ε →0
(2.5)
In altre parole, al limite per ε che tende a zero, il funzionale (2.4) semplicemente “campiona” il segnale x(t) nell’istante di tempo t = 0. Questo risultato suggerisce di definire il limite al secondo membro della (2.3) mediante una funzione, che indichiamo con
δ (t) = lim δε (t) , ε →0
(2.6)
la quale è definita dalla relazione integrale +∞ −∞
δ (t) x(t)dt = x(0) ,
(2.7)
dove x(t) è un arbitrario segnale continuo nell’origine. Tale funzione è una funzione generalizzata e fu introdotta dal fisico P. Dirac nei suoi studi sulla meccanica quantistica, motivo per cui è comunemente nota come impulso o delta di Dirac. Come indicato dal loro stesso nome, tali funzioni costituiscono una generalizzazione del concetto di funzione: un funzione generalizzata è sempre definita mediante un integrale e non ha senso quindi pensare al valore assunto da essa per un dato valore dell’argomento. Infatti, a differenza del concetto di convergenza di funzioni ordinarie, la convergenza della famiglia di funzioni δε (t) alla funzione
40
Proprietà dei segnali
δ (t) non deve essere intesa puntualmente, ma, in virtù delle (2.5) e (2.7), deve essere intesa in senso generalizzato come: +∞
lim
ε →0 −∞
δε (t) x(t)dt =
+∞ −∞
δ (t) x(t)dt ,
(2.8)
ovvero, la convergenza è mediata attraverso una operazione di integrazione al di fuori della quale la funzione δ (t) non ha senso. Ci sono due considerazioni interessanti che si possono fare con riferimento alle relazioni (2.5) e (2.8). La prima, di carattere prettamente matematico, riguarda il fatto che, implicitamente, la (2.8) rende lecito per definizione il passaggio al limite sotto il segno di integrale; secondo l’analisi matematica convenzionale, questa operazione per l’integrale di Riemann è consentita solo se la famiglia di funzioni δε (t) converge uniformemente (il che non avviene nel nostro caso). La seconda, di carattere esclusivamente applicativo, consiste nell’osservare che, poiché nell’ambito della teoria dei segnali ciò che importa non è tanto la definizione dell’impulso di Dirac bensì il suo impiego nelle applicazioni, nel seguito useremo frequentemente la delta di Dirac al di fuori dell’operazioni di integrazione che la definisce; ad esempio, a valle delle considerazioni fatte finora, possiamo concludere che la derivata generalizzata del gradino è data dall’impulso di Dirac e, anzichè scrivere formalmente +∞ +∞ d u(t) x(t)dt = δ (t) x(t)dt , dt −∞ −∞ scriveremo più semplicemente d u(t) = δ (t) . (2.9) dt In altre parole, per semplicità d’impiego nelle applicazioni, useremo per δ (t) la stessa notazione che tipicamente si usa per le funzioni ordinarie, convenendo tacitamente che le uguaglianze dove compare la delta di Dirac vanno intese in senso generalizzato. A partire dalla definizione (2.7) dell’impulso di Dirac si possono ricavare le seguenti proprietà elementari, la cui verifica è lasciata al lettore per esercizio: Proprietà 2.2 (proprietà elementari dell’impulso di Dirac) +∞
(a) Area unitaria:
−∞
δ (t) dt = 1.
+∞
(b) Campionamento:
−∞
δ (t − t0 ) x(t) dt = x(t0 ), ∀t0 ∈ R, ∀x(t) continua in t0 .
(c) Prodotto: x(t) δ (t − t0 ) = x(t0 ) δ (t − t0 ), ∀t0 ∈ R, ∀x(t) continua in t0 . (d) Parità: δ (−t) = δ (t). 1 δ (t), ∀a ∈ R − {0}. (e) Cambiamento di scala: δ (at) = |a| n +∞ n d n d δ (t) x(t) dt = (−1) x(t) , ∀n ∈ N, ∀x(t) derivabile fino (f) Derivazione: dt n dt n −∞ t=0 all’ordine n con derivata n-esima continua in t = 0. (g) Integrazione: u(t) =
t
−∞
δ (u) du.
b
(h) Integrazione definita: a
continuo in t = 0.
x(0) , se a < 0 < b ; δ (t) x(t) dt = ∀a < b ∈ R, ∀x(t) 0, se a > 0 oppure b < 0 ;
2.1 Operazioni elementari sui segnali
41
Dalla proprietà (a) si ricava che l’impulso di Dirac ha area unitaria, come la famiglia di funzioni δε (t). Le proprietà (b) e (c) esprimono, con un diverso formalismo matematico, la medesima proprietà dell’impulso di Dirac, ovvero quella di estrarre (nel gergo della teoria dei segnali, “campionare”) il valore del segnale nel punto t0 in cui l’impulso è centrato. La proprietà (d) evidenzia che la delta di Dirac è un segnale pari, mentre la proprietà (e) mostra che, anche per l’impulso a TC, un cambiamento di scala comporta un cambiamento di area. L’operazione di derivazione è definita anche per le funzioni generalizzate e, a tal proposito, la proprietà (f) chiarisce come tale operazione vada correttamente interpretata per l’impulso di Dirac. La proprietà (g) definisce invece la relazione inversa della (2.9), mostrando che il gradino è il risultato dell’integrazione dell’impulso di Dirac. A tale proposito, sia ben chiaro che l’integrale che compare nella proprietà (g) è valido nel senso delle distribuzioni e non in senso ordinario (secondo Riemann); infatti, non esiste nessuna funzione ordinaria che possa restituire un gradino mediante integrazione (nell’analisi convenzionale, le funzioni definite mediante integrali sono continue). Un commento a parte merita infine la proprietà (h). Innanzitutto, si osservi che se uno degli estremi di integrazioni (a oppure b) è zero, allora l’integrale tra a e b dell’impulso di Dirac non è definito. Tuttavia, l’integrale sull’intervallo (0− , b) è definito e si calcola con la seguente procedura al limite: b 0−
δ (t) x(t)dt = lim
b
ε → 0 −ε ε >0
δ (t) x(t)dt = x(0) .
Analogo risultato sussiste per l’integrazione sull’intervallo (a, 0+ ). A partire dalla proprietà (h), ponendo x(t) = 1, ∀t ∈ R, e b = −a = ε , si ottiene: ε −ε
δ (t)dt = 1 ,
con ε ∈ R+ piccolo a piacere ,
che suggerisce l’interpretazione intuitiva (matematicamente non corretta) che δ (t) sia nulla ovunque tranne che nell’origine. In virtù di questa interpretazione e della proprietà (a), l’impulso di Dirac δ (t) si può rappresentare graficamente come in fig. 2.12. Si noti che l’area unitaria dell’impulso viene rappresentata convenzionalmente assimilandola ad un’ampiezza, ovvero tracciando una freccia di altezza pari ad uno. Mediante cambiamento di scala delle ampiezze e traslazione temporale, è possibile definire un impulso di Dirac centrato in t0 ∈ R e di area A: x(t) = A δ (t − t0 ) , raffigurato in fig. 2.13. Concludiamo questa breve trattazione dell’impulso di Dirac, osservando che la (2.9) consente di ricavare la regola di derivazione per un segnale TC che presenta un numero finito o, al più, infinito numerabile di punti di discontinuità di prima specie: se il segnale x(t) presenta N (con N che può essere eventualmente infinito) discontinuità di prima specie negli istanti di tempo t1 ,t2 , . . . ,tN , la sua derivata generalizzata presenterà un impulso di Dirac nel punto tn , per n ∈ {1, 2, . . . , N}, avente
area pari al valore del “salto” di discontinuità s(tn ) = x(tn+ ) − x(tn− ) nel punto in questione. Più precisamente, detta h(t) la derivata ordinaria della parte continua di x(t), ∀t ∈ T − {t1 ,t2 , . . . ,tN }, si ottiene la seguente espressione: N d x(t) = h(t) + ∑ s(tn ) δ (t − tn ) . dt n=1
(2.10)
Il fatto che x(t) sia continuo per t ∈ T − {t1 ,t2 , . . . ,tN } non implica che esso sia derivabile in tutti i punti dell’insieme T − {t1 ,t2 , . . . ,tN }. Questo significa che la funzione h(t) può non essere definita in qualche punto. Se tali punti sono isolati (rappresentano cioè un insieme di misura nulla), questo
42
Proprietà dei segnali
1
A
x(t) = A δ(t−t0)
x(t) = δ(t)
0.8 0.6 0.4 0.2 0
t
−5
0 t
0
5
t
Fig. 2.13. Impulso a TC x(t) = A δ (t −t0 ). L’impulso è centrato in t0 ed ha area A.
Fig. 2.12. Impulso a TC (delta di Dirac).
x(t)
x'(t)
2
(a)
-1
1
(b)
1
t
1
-1
t
-2
Fig. 2.14. Calcolo della derivata di un segnale TC discontinuo (es. 2.6): (a) il segnale x(t); (b) la sua derivata generalizzata.
mancanza di informazione è spesso inessenziale: dal punto di vista dell’analisi dei segnali, la caratterizzazione completa di un segnale è in molti casi superflua e, come vedremo più avanti in questo capitolo, è sufficiente una caratterizzazione sintetica, in cui il valore del segnale in un punto isolato non è rilevante; da un punto di vista dell’analisi dei sistemi, come vedremo nei prossimi capitoli, il segnale di uscita da un sistema dipende dal segnale di ingresso mediante una relazione integrale, il cui calcolo non dipende dai valori assunti dal segnale di ingresso in insiemi di misura nulla. Esempio 2.6 (derivata generalizzata di un segnale TC) Si voglia calcolare la derivata generalizzata del segnale TC riportato in fig. 2.14(a). Tale funzione presenta una sola discontinuità di prima specie nel punto
t1 = 1 (N = 1), il cui salto è s(t1 ) = x(t1+ ) − x(t1− ) = −2. Applicando la regola (2.10), si ottiene immediatamente che: d x(t) = [u(t + 1) − u(t − 1)] − 2 δ (t − 1) , dt raffigurata in fig. 2.14(b).
Per un segnale TD x(n), il cui insieme di definizione è un insieme discreto, non è possibile considerare le operazioni di derivazione ed integrazione. Tuttavia, è possibile definire alcune operazioni
2.1 Operazioni elementari sui segnali
43
1
x(n) = u(n)
0.8 0.6 0.4 0.2 0 −2
0
2
4 n
6
8
10
Fig. 2.15. Gradino a TD.
che hanno una certa analogia con quelle di derivazione ed integrazione per segnali a TC. Si definisce differenza prima del segnale x(n) la seguente operazione:
∇1 [x(n)] = x(n) − x(n − 1) , che può essere vista come la “controparte” a TD della operazione di derivazione a TC. Il calcolo della differenza prima di un segnale TD non crea gli stessi problemi che invece pone il calcolo della derivata di un segnale TC. Per capire ciò, seguendo parallelamente la trattazione fatta per i segnali TC, consideriamo il calcolo della differenza prima del gradino a TD. La definizione del gradino a TD è analoga a quella del gradino a TC: 1 , se n ≥ 0 ; u(n) = 0 , altrimenti ; e la sua rappresentazione grafica è riportata in fig. 2.15. Si noti che, a differenza del gradino a TC, nella definizione del gradino a TD non vi è ambiguità nel valore assunto dal segnale nell’origine, in quanto il concetto di continuità non si applica ad una sequenza. Notiamo, inoltre, che il gradino a TD si può ottenere da quello a TC mediante campionamento con passo unitario. In questo caso, senza dover ricorrere a nessun strumento matematico avanzato, è immediato stabilire che 1 , se n = 0 ; δ (n) = ∇1 [u(n)] = (2.11) 0 , altrimenti ; Volendo stabilire un parallelo tra il caso TC e quello TD, si può affermare che la (2.11) è la controparte a TD della relazione (2.9). Il segnale δ (n) prende il nome di impulso a TD o impulso discreto (anche detto delta di Kronecker), ed è rappresentato graficamente in fig. 2.16. Notiamo che l’impulso elementare δ (n) è centrato nell’origine e ha ampiezza unitaria. Mediante cambiamento di scala delle ampiezze e traslazione temporale, è possibile definire un impulso discreto centrato in n0 ∈ Z e di ampiezza A ∈ R arbitraria: x(n) = A δ (n − n0 ) , raffigurato graficamente in fig. 2.17. Analogamente all’impulso di Dirac, l’impulso a TD gode delle seguenti proprietà elementari, la cui semplice verifica è lasciata al lettore per esercizio:
44
Proprietà dei segnali
1
A
x(n) = δ(n)
0
x(n) = A δ(n−n )
0.8 0.6 0.4 0.2 0 −5
0 n
n0
5
n
Fig. 2.16. Impulso unitario a TD.
Fig. 2.17. Impulso a TD x(n) = A δ (n − n0 ). L’impulso è centrato in n0 ed ha ampiezza A.
Proprietà 2.3 (proprietà elementari dell’impulso discreto) +∞
(a) Area unitaria:
∑
δ (n) = 1.
n=−∞ +∞
∑
(b) Campionamento:
x(n) δ (n − n0 ) = x(n0 ), ∀n0 ∈ Z.
n=−∞
(c) Prodotto: x(n) δ (n − n0 ) = x(n0 ) δ (n − n0 ), ∀n0 ∈ Z. (d) Parità: δ (−n) = δ (n). (e) Decimazione ed espansione:
δ (nM) = δ (n) , n = δ (n) , δ L (f) Somma: u(n) =
n
∑
∀M ∈ N ; ∀L ∈ N .
δ (m).
m=−∞
Osservazioni analoghe a quelle effettuate per l’impulso di Dirac si possono fare per le proprietà (a), (b), (c) e (d), che esprimono le proprietà di area unitaria, campionamento e parità dell’impulso discreto. La proprietà (e) evidenzia che l’impulso a TD è invariante rispetto alle operazioni di decimazione ed espansione. Infine, la proprietà (f) stabilisce che il gradino a TD è la somma corrente dell’impulso discreto e rappresenta la controparte a TD della proprietà (g) dell’impulso di Dirac. Si noti che la somma corrente gioca nel caso TD lo stesso ruolo che gioca l’integrale tra −∞ e t per i segnali TC.
2.2 Caratterizzazione sintetica dei segnali
45
2.2 Caratterizzazione sintetica dei segnali Nel capitolo precedente abbiamo visto che un segnale (deterministico) è completamente descritto da una funzione, cioè da una legge che ad ogni elemento del dominio T fa corrispondere uno ed un solo elemento del codominio X. In alcuni casi pratici, tuttavia, la descrizione completa di un segnale mediante una funzione è eccessivamente dettagliata, ed è invece di interesse conoscere solo alcuni parametri numerici del segnale, che forniscono una descrizione o caratterizzazione sintetica (rispetto all’assegnazione della corrispondenza tra T e X) del segnale. In altri casi, i segnali possono essere frutto di dati sperimentali e, pertanto, da un lato possono non essere noti in tutti gli istanti di tempo, dall’altro la loro conoscenza può essere soggetta ad un certo margine di incertezza; quindi, piuttosto che descrivere puntualmente un segnale, è più ragionevole descrivere il segnale mediante quantità medie, come, ad esempio, il valore di un integrale, che risentono meno o non risentono affatto di cambiamenti poco significativi del segnale. I principali parametri numerici che concorrono a caratterizzare sinteticamente un segnale sono i seguenti: • durata temporale; • area e media temporale; • energia e potenza. La durata è una misura dell’estensione temporale del segnale, cioè dell’intervallo di tempo all’interno del quale il segnale assume valori non trascurabili, mentre l’operazione di media temporale è utilizzata per definire la componente continua ed alternata di un segnale. I concetti di energia e potenza sono alla base della caratterizzazione energetica dei segnali, e consentono di introdurre la relativa classificazione in segnali di energia e di potenza. Come esempio particolarmente significativo di segnali di potenza, verranno presentati i segnali periodici e le loro proprietà, e tra essi si esamineranno in particolare i fasori e le sinusoidi, evidenziando alcune differenze significative tra il caso TC ed il caso TD.
2.3 Estensione e durata temporale di un segnale La durata di un segnale è un concetto intuitivo, legato evidentemente alla misura dell’estensione temporale del segnale. Una definizione generale può essere la seguente: Definizione 2.1 (estensione e durata temporale di un segnale) (a) L’estensione temporale Dx ⊆ T di un segnale x(t) a TC è l’intervallo di tempo in cui |x(t)| assume valori non trascurabili. La durata di x(t) è la misura ∆x ≥ 0 dell’insieme Dx . (b) L’estensione temporale Dx ⊆ T di un segnale x(n) a TD è l’intervallo di tempo in cui |x(n)| assume valori non trascurabili. La durata di x(n) è la misura ∆x ∈ N dell’insieme Dx . Per quanto concerne la definizione di misura di un insieme, è bene mettere in evidenza che esiste una differenza notevole tra il caso TC e quello TD. Infatti, nel caso TC, la misura dell’insieme Dx è quella secondo Peano-Jordan o, più in generale, secondo Lebesgue. Ad esempio, la misura dell’intervallo [t1 ,t2 ] coincide con la sua lunghezza |t2 − t1 |. Nel caso TD, invece, poiché l’insieme Dx è discreto, è possibile utilizzare la stessa definizione di misura secondo Peano-Jordan o Lebesgue, secondo le quali un insieme composto da punti isolati ha sempre misura nulla, cioè, risulterebbe ∆x = 0 per ogni
46
Proprietà dei segnali
x(t)
t1
durata
t2
t
Fig. 2.18. Segnale di durata rigorosamente limitata.
segnale x(n). Nel caso TD, la definizione di misura da adottare per Dx è molto più semplice ed è uguale al numero di punti isolati che costituiscono Dx (in sostanza coincide con la cardinalità di Dx ). Un secondo aspetto importante riguarda un certo grado di arbitrarietà presente nella definizione precedente, legato all’interpretazione di quali valori del segnale siano trascurabili, e quali no. In altre parole, non esiste una definizione universalmente accettata di estensione temporale di un segnale. Tuttavia, con riferimento a taluni casi particolari di segnali, esistono alcune definizioni di estensione temporale di un segnale che sono di comune impiego. Una prima classificazione dei segnali sulla base della durata può essere quella tra segnali di durata rigorosamente e praticamente limitata, e segnali di durata non limitata. Nel seguito, approfondiremo questa classificazione, considerando sia segnali TC che TD. 2.3.1 Segnali di durata rigorosamente limitata
Un segnale TC x(t) si dice di durata rigorosamente limitata se esistono due numeri reali finiti t1 e t2 , con t2 > t1 , tali che il segnale si annulla identicamente al di fuori dell’intervallo di tempo (t1 ,t2 ), cioè, x(t) = 0 per ogni t ∈ (t1 ,t2 ). Un primo esempio di segnale TC a durata rigorosamente limitata è quello riportato in fig. 2.18. In tal caso, con riferimento alla definizione generale di estensione, si considerano trascurabili solo i valori nulli del segnale. Conseguentemente, l’estensione del segnale è definita come Dx = (t1 ,t2 ) e la sua durata è data da ∆x = t2 − t1 . Analogamente, un segnale TD x(n) si dice di durata rigorosamente limitata se esistono due numeri interi finiti n1 e n2 , con n2 > n1 , tali che il segnale si annulla identicamente al di fuori dell’intervallo di tempo {n1 , n1 + 1, . . . , n2 }, cioè, x(n) = 0 per ogni n ∈ {n1 , n1 + 1, . . . , n2 }. In questo caso, l’estensione del segnale è definita come Dx = {n1 , n1 + 1, . . . , n2 } e la sua durata è data da ∆x = n2 − n1 + 1. Talvolta un segnale a durata rigorosamente limitata è anche denominato finestra. Alcuni esempi elementari di finestre sono presentati di seguito.
2.3 Estensione e durata temporale di un segnale
47
1
A x(t) = A rect[(t−t0)/T]
x(t) = rect(t)
0.8 0.6 0.4 0.2 0 −2
−1
0 t
1
Fig. 2.19. Finestra rettangolare a TC.
t0−T/2
2
t0
t0+T/2
t
Fig. 2.20. Finestra rettangolare a TC dell’es. 2.7. Tale finestra è ottenuta dalla finestra elementare mediante moltiplicazione per A, cambiamento di scala con a = 1/T e traslazione temporale di t0 .
Finestra rettangolare e triangolare
La finestra rettangolare a TC è definita3 come 1 , se |t| ≤ 0.5 ; rect(t) = 0 , altrimenti ; ed è rappresentata graficamente in fig. 2.19. Si tratta di un segnale pari (centrato nell’origine), di durata ∆x = 1 ed ampiezza unitaria (finestra elementare o “prototipo”). A partire dalla finestra prototipo, mediante moltiplicazione per una costante, traslazione temporale e cambiamento di scala, è possibile ottenere una finestra di ampiezza e durata arbitraria ed arbitrariamente posizionata sull’asse dei tempi. Notiamo infine che la finestra rettangolare si può esprimere come differenza di due gradini traslati temporalmente, in quanto si ha rect(t) = u(t + 1/2) − u(t − 1/2). Esempio 2.7 (finestra rettangolare arbitraria) La finestra
t − t0 x(t) = A rect T è ottenuta dalla finestra prototipo mediante moltiplicazione per A, cambiamento di scala con a = 1/T e traslazione temporale di t0 . Utilizzando la definizione, si vede che
A, se t ∈ [t0 − T /2,t0 + T /2] ; t − t0 x(t) = A rect = T 0, altrimenti ; il cui andamento è raffigurato in fig. 2.20: la finestra è centrata in t = t0 e ha durata ∆x = T .
La finestra rettangolare a TD è definita da: 1 , se 0 ≤ n ≤ N − 1 ; RN (n) = 0 , altrimenti ; 3 In
numerosi testi, la finestra rettangolare è denotata con il simbolo Π(t).
Proprietà dei segnali
1
1
0.8
0.8 x(t) = Λ(t)
x(n) = R5(n)
48
0.6 0.4
0.6 0.4
0.2
0.2
0
0
−2
0
2
4 n
6
8
10
Fig. 2.21. Finestra rettangolare a TD per N = 5.
−2
−1
0 t
1
2
Fig. 2.22. Finestra triangolare a TC.
ed è rappresentata graficamente in fig. 2.21. La finestra ha estensione temporale Dx = {0, 1, . . . , N −1} e durata ∆x = N, ed è asimmetrica rispetto all’origine, a differenza della sua versione a TC. Una finestra simmetrica (pari) si può ottenere da RN (n) solo per N dispari, considerando la versione anticipata RN (n + n0 ) con n0 = (N − 1)/2. Come nel caso TC, anche nel caso TD la finestra rettangolare si può esprimere come differenza di due gradini traslati temporalmente, infatti si ha RN (n) = u(n)−u(n−N). Infine, si noti che, ponendo N = 1, la finestra rettangolare a TD degenera nell’impulso discreto, cioè, R1 (n) = δ (n). La finestra triangolare a TC è definita da: 1 − |t| , se |t| < 1 ; Λ(t) = 0, altrimenti ; ed è rappresentata graficamente in fig. 2.22. Si tratta di un segnale pari (centrato nell’origine), di ampiezza unitaria e durata ∆x = 2. Notiamo in particolare che la durata della finestra triangolare prototipo è doppia rispetto a quella della finestra rettangolare prototipo. Così come visto per la finestra rettangolare nell’es. 2.7, a partire dalla finestra triangolare prototipo, mediante operazioni elementari (moltiplicazione per una costante, traslazione temporale, e cambiamento di scala) è possibile ottenere una finestra triangolare di ampiezza e durata arbitraria ed arbitrariamente posizionata sull’asse dei tempi. È possibile definire la finestra triangolare (si veda la fig. 2.23) anche nel caso TD, ed essa è nota come finestra di Bartlett: |n − N| , se 0 ≤ n ≤ 2N − 1 ; 1− B2N (n) = N 0 , altrimenti . La finestra di Bartlett ha durata ∆x = 2N − 1 (il valore del segnale per n = 0 è nullo) e, così come la finestra rettangolare a TD, è asimmetrica rispetto all’origine. Tuttavia, si noti che il numero di campioni non nulli è sempre un numero dispari e il massimo del segnale si raggiunge per n = N; pertanto, come riportato in fig. 2.24, per ottenere una finestra triangolare a TD con simmetria pari è sufficiente traslare la finestra di Bartlett di N campioni verso sinistra, ovvero considerare B2N (n + N).
49
1
1
0.8
0.8 x(n) = B8(n+4)
x(n) = B8(n)
2.3 Estensione e durata temporale di un segnale
0.6 0.4
0.6 0.4
0.2
0.2
0
0
−2
0
2
4 n
6
8
10
Fig. 2.23. Finestra triangolare a TD per N = 4.
−6
−4
−2
0 n
2
4
6
Fig. 2.24. Finestra triangolare a TD per N = 4 con simmetria pari.
x(t)
soglia
...
... t1
durata
t2
t
Fig. 2.25. Segnale di durata praticamente limitata.
2.3.2 Segnali di durata praticamente limitata
Esistono casi di segnali aventi ancora durata limitata, ma per i quali l’interpretazione e la misura della durata non è altrettanto univoca di quella per i segnali che si annullano identicamente al di fuori di un intervallo. In particolare, si consideri un segnale TC come quello riportato in fig. 2.25, il quale decade asintoticamente a zero per t → ±∞, senza mai annullarsi. È chiaro intuitivamente che tale segnale debba essere considerato a durata limitata, in quanto i suoi valori risultano trascurabili al di fuori di un certo intervallo di tempo; per esso, tuttavia, l’estensione Dx si può definire solo se si introduce un valore di soglia per le ampiezze, e si considerano trascurabili le ampiezze del segnale inferiori alla soglia fissata. Fissare una soglia (vedi fig. 2.25) consente anche in questo caso di individuare come estensione del segnale un intervallo Dx = (t1 ,t2 ) di valori significativi del segnale, con t2 > t1 , e la misura ∆x = t2 − t1 di tale intervallo è per definizione la durata del segnale. Un segnale TC di questo tipo di dice segnale di durata praticamente limitata. Un discorso analogo sussiste anche per i segnali a TD. Si noti che, se si fissa una soglia diversa, si perviene ad un diverso valore di durata del segnale; questo introduce, a differenza del caso di segnali a durata rigorosamente limitata, un certo elemento di arbitrarietà nella misura della durata, legato proprio all’arbitrarietà nella scelta del valore della soglia.
Proprietà dei segnali
14
14
12
12
10
10 x(t)=A eat
x(t)=A eat
50
8 6 4
8 6 4
A
2
A
2
0
0
−2 −10
−5
0 t
(a)
5
10
−2 −10
−5
0 t
5
10
(b)
Fig. 2.26. Esponenziale a TC con A = 1 e per due valori di a: (a) a > 0 (valore effettivo a = 0.25); (a) a < 0 (valore effettivo a = −0.25).
Tale scelta può variare a seconda della natura del segnale, delle applicazioni, e degli scopi per i quali il segnale stesso viene studiato o elaborato. Osserviamo inoltre che i segnali di durata limitata – sia quelli a durata rigorosamente limitata, che quelli a durata praticamente limitata – sono anche detti segnali transitori, in quanto assumono valori significativi solo in corrispondenza di un intervallo di tempo Dx limitato. Infine, notiamo che tra le operazioni elementari introdotte nel § 2.1, solo il cambiamento di scala dei tempi è in grado di alterare la durata di un segnale. In particolare, con riferimento al caso TC per semplicità, una compressione con fattore a > 1 riduce la durata del segnale da ∆x a ∆x /a < ∆x , mentre un’espansione con fattore 0 < a < 1 aumenta la durata del segnale da ∆x a ∆x /a > ∆x . Un tipico esempio di segnali di durata praticamente limitata è rappresentato dai segnali esponenziali reali monolateri, che sono descritti di seguito. Segnale esponenziale reale
Per definire il segnale esponenziale monolatero a TC, partiamo dalla definizione del segnale esponenziale bilatero a TC: x(t) = A eat , dove a ∈ R è un fattore di scala dei tempi, mentre A > 0 rappresenta un fattore di ampiezza (si noti che x(0) = A, ∀a ∈ R). L’esponenziale a TC è una funzione monotona di t, ed in particolare per a > 0 l’esponenziale risulta crescente, come in fig. 2.26(a), mentre per a < 0 l’esponenziale risulta decrescente, come in fig. 2.26(b). Inoltre al crescere di |a| l’esponenziale cresce o decresce più rapidamente, come mostra il calcolo della derivata di x(t). Il caso a = 0 è degenere, in quanto per tale valore di a l’esponenziale si riduce ad una funzione costante x(t) = A. Poiché, in dipendenza dal valore di a = 0, l’esponenziale bilatero è infinitesimo solo per t → +∞ o solo per t → −∞, esso non rientra nella famiglia dei segnali di durata praticamente limitata. Moltiplicando il segnale esponenziale per un gradino u(t) si ottiene l’esponenziale monolatero: x(t) = A eat u(t) , che risulta diverso da zero, per effetto del gradino, solo per t ≥ 0; si noti peraltro che il comportamento per t ≥ 0, al variare di a, è lo stesso dell’esponenziale x(t) = A eat . In particolare, nel caso a < 0,
2.3 Estensione e durata temporale di un segnale
51
x(t)=A e
−t/T
u(t)
A
T t
Fig. 2.27. Esponenziale monolatero a TC ed interpretazione geometrica della costante di tempo T.
essendo infinitesimo per t → ±∞, l’esponenziale monolatero è un segnale di durata praticamente limitata4 , la cui estensione è Dx = (0, ∆x ), con ∆x > 0 (durata) dipendente dalla scelta della soglia. In tal caso, se si pone per definizione a = −1/T con T > 0, l’esponenziale monolatero si riscrive come segue: x(t) = A e−t/T u(t) , dove il parametro T prende il nome di costante di tempo, e rappresenta il valore di t in corrispondenza del quale x(t) = A e−1 ≈ 0.368 A. La costante di tempo ammette anche una interessante interpretazione geometrica, legata alla pendenza della funzione esponenziale nell’origine, ed indirettamente alla sua durata. Infatti la derivata (calcolata da destra) della funzione x(t) vale x (0+ ) = −A T , per dell’origine t cui la retta tangente alla curva nell’origine ha equazione x = A 1 − T (fig. 2.27): tale retta interseca l’asse delle ascisse proprio in corrispondenza di t = T . È chiaro allora che, al crescere di T , la pendenza diminuisce, l’esponenziale tende ad “allargarsi” (espandersi) sull’asse dei tempi, e quindi aumenta la misura dell’intervallo di tempo in cui x(t) assume valori non trascurabili. Viceversa, al diminuire di T , la pendenza aumenta, si ha un restringimento (compressione) dell’esponenziale sull’asse dei tempi, e quindi diminuisce la misura dell’intervallo di tempo in cui x(t) assume valori non trascurabili. Si capisce allora che la costante di tempo T governa proprio l’estensione Dx e, dunque, la durata ∆x , dell’esponenziale monolatero. Per calcolare la durata analiticamente, scegliamo come valore di soglia α A, con 0 < α < 1. Così facendo, risolvendo l’equazione x(∆x ) = α A, la durata del segnale risulta
1 ∆x = T ln α e, com’era intuibile, cresce con legge direttamente proporzionale a T . A titolo esemplificativo, se si sceglie α = 0.05, cioè, si ritengono trascurabili tutti i valori del segnale che risultano essere più piccoli del 5% del valore massimo A, si ottiene che ∆x ≈ 3 T . In altre parole, sebbene il segnale non si annulli mai al finito, esso assume valori praticamente trascurabili dopo solo 3 costanti di tempo. Passiamo ora ad introdurre l’esponenziale bilatero a TD, che è definito dalla relazione x(n) = A an , 4 Lo
stesso discorso può essere fatto anche per l’esponenziale monolatero x(t) = A eat u(−t), con a > 0.
52
Proprietà dei segnali
dove a ∈ R − {0} è un fattore di scala dei tempi, mentre A > 0 rappresenta un fattore di ampiezza (si noti che x(0) = A, ∀a ∈ R − {0}). L’andamento dell’esponenziale a TD al variare di a è più articolato rispetto a quello dell’esponenziale a TC. In particolare, per |a| > 1 l’esponenziale è crescente in modulo, mentre per 0 < |a| < 1 l’esponenziale è decrescente in modulo. Inoltre, per a > 0 l’esponenziale assume sempre valori positivi, mentre per a < 0 assume valori di segno alterno (positivi per n pari, negativi per n dispari). Infine, per |a| = 1, l’esponenziale è costante in modulo: in particolare, se a = 1, l’esponenziale si riduce al segnale costante x(n) = A, mentre, se a = −1, si ha x(n) = A (−1)n , che assume alternativamente i valori ±A. I sei possibili andamenti dell’esponenziale a TD sono rappresentati graficamente in fig. 2.28. Similmente all’esponenziale bilatero a TC, l’esponenziale bilatero a TD non ricade nella classe dei segnali di durata praticamente limitata. Per ottenere un segnale esponenziale di durata praticamente limitata, bisogna introdurre l’esponenziale monolatero: x(n) = A an u(n) , che presenta lo stesso comportamento di x(n) = A an per n ≥ 0, mentre è identicamente nullo per n < 0, a causa della presenza del gradino. Per 0 < |a| < 1, in particolare, l’esponenziale monolatero tende a zero per n → ∞, per cui è un esempio di segnale TD di durata praticamente limitata5 , la cui estensione è Dx = {0, 1, . . . , ∆x − 1}, con ∆x > 0 (durata) dipendente dalla scelta della soglia. La durata del segnale, in tal caso, è funzione di |a|: per valori di |a| prossimi ad 1, l’esponenziale decresce più lentamente, mentre per valori di |a| prossimi a zero, l’esponenziale decresce più rapidamente. Più precisamente, scegliendo come valore di soglia α A, con 0 < α < 1, e risolvendo l’equazione |x(∆x )| = α A, si ottiene che la durata del segnale è data da ln α1 ln(α ) . ∆x = = 1 ln(|a|) ln |a| Come preannunciato, fissato 0 < α < 1, la durata del segnale tende ad essere infinitamente grande, per |a| → 1; viceversa, per |a| → 0, la durata del segnale tende a zero.
5 Lo
stesso discorso può essere fatto anche per l’esponenziale monolatero x(n) = A an u(−n), con |a| > 1.
2.3 Estensione e durata temporale di un segnale
53
8
8
7
6
6
4
5
2 x(n)
x(n)
4 3
0 −2
2 1
−4
0
−6
−1 −10
−5
0 n
5
−8 −10
10
−5
(a) 8
7
6
6
4
5
10
5
10
5
10
2 x(n)
4
x(n)
5
(b)
8
3
0 −2
2 1
−4
0
−6
−1 −10
0 n
−5
0 n
5
−8 −10
10
−5
(c)
0 n
(d) 1
1 0.8
0.5
x(n)
x(n)
0.6
0
0.4 −0.5
0.2 −1
0 −10
−5
0 n
(e)
5
10
−10
−5
0 n
(f)
Fig. 2.28. Esponenziale a TD con A = 1 e per vari valori di a: (a) a > 1 (valore effettivo a = 1.1); (b) a < −1 (valore effettivo a = −1.1); (c) 0 < a < 1 (valore effettivo a = 0.833); (d) −1 < a < 0 (valore effettivo a = −0.833); (e) a = 1; (f) a = −1.
54
Proprietà dei segnali
x(t)
...
...
t
Fig. 2.29. Segnale di durata non limitata.
2.3.3 Segnali di durata non limitata e segnali periodici
Esistono segnali che non decadono a zero, come ad esempio il segnale raffigurato in fig. 2.29. Per segnali di questo tipo, è evidente che non esiste nessun criterio obiettivo per considerare trascurabili alcuni valori del segnale rispetto ad altri, e per questo motivo si assume che il segnale abbia durata non limitata o illimitata, ovvero ∆x = +∞. Una definizione pratica, allora, di segnale di durata non limitata è quella di un segnale che presenta valori non trascurabili durante tutto l’intervallo di tempo in cui viene osservato o elaborato. I segnali di durata illimitata sono anche detti segnali persistenti. Va detto che il concetto di segnale di durata non limitata costituisce una astrazione matematica: i segnali che si incontrano in pratica, infatti, sono sempre di durata limitata, in quanto osservati o elaborati su un intervallo di tempo finito (anche se eventualmente molto lungo). In molti casi, tuttavia, risulta più semplice e conveniente utilizzare modelli matematici secondo i quali tali segnali hanno durata non limitata. Una famiglia importante di segnali di durata illimitata è quella dei segnali periodici. I segnali periodici sono molto frequenti nella fisica e nelle scienze naturali, in quanto descrivono fenomeni in cui una stessa proprietà si presenta esattamente dopo un certo intervallo di tempo, detto periodo. Ad esempio, il pianeta Terra ruota su sé stesso con un periodo circa pari a 24 ore, ed intorno al Sole con un periodo pari circa a 365 giorni. Tale ripetibilità di un fenomeno si esprime in maniera matematicamente rigorosa come segue: Definizione 2.2 (segnale periodico) (a) Un segnale TC x(t) si dice periodico se esiste un valore reale T0 > 0 tale che x(t) = x(t + T0 ),
∀t ∈ R .
(2.12)
Il più piccolo valore di T0 che verifica la (2.12) è detto periodo (fondamentale) del segnale. (b) Un segnale TD x(n) si dice periodico se esiste un valore intero N0 ≥ 1 tale che x(n) = x(n + N0 ),
∀n ∈ Z .
(2.13)
Il più piccolo valore di N0 che verifica la (2.13) è detto periodo (fondamentale) del segnale. Se non esiste alcun valore di T0 e N0 che soddisfa le relazioni (2.12) e (2.13), rispettivamente, i segnali x(t) e x(n) si dicono aperiodici. È bene enfatizzare il fatto che, mentre nel caso TC il periodo T0 è in generale un numero reale, nel caso TD il periodo N0 è necessariamente un numero intero. Inoltre
2.3 Estensione e durata temporale di un segnale
55
Im
Im
A/2
ω0 >0
ω0 >0
x(t)
ω0t + ϕ 0 x(t)
ω0t + ϕ 0
Re
A
-(ω0t + ϕ 0 )
Re -ω0 <0
Fig. 2.30. Rappresentazione di un fasore a TC nel piano complesso come vettore ruotante (la fase iniziale ϕ0 rappresenta la posizione angolare del vettore per t = 0).
Fig. 2.31. Rappresentazione di una sinusoide a TC nel piano complesso come somma di due fasori aventi ampiezza A/2 e ruotanti in verso opposto; la somma dei vettori ruotanti si calcola applicando la regola del parallelogramma
osserviamo che, se un segnale (ad esempio TC) è periodico di periodo T0 , allora esso è periodico di periodo 2T0 , 3T0 , . . . Per questo motivo nella definizione di periodo si fa riferimento al minimo valore di T0 o N0 , e talvolta si parla di periodo fondamentale. Come ulteriore osservazione, è interessante notare che, sulla base delle (2.12) e (2.13), e della definizione di periodo, per un segnale costante x(·) = a, le (2.12) e (2.13) sono verificate per ogni scelta di T0 e per ogni scelta di N0 . Pertanto, un segnale costante può essere visto come caso limite di segnale periodico avente periodo arbitrario. Nel seguito si introdurranno alcuni segnali periodici elementari, quali, ad esempio, gli esponenziali complessi o fasori6 e le sinusoidi. Come vedremo nel cap. 5, sotto condizioni non eccessivamente restrittive, un segnale periodico arbitrario può essere rappresentato mediante combinazione lineare di fasori oppure di sinusoidi. Un’altra operazione che consente di rappresentare in modo naturale un segnale periodico di forma arbitraria è la replicazione, che si basa sul fatto che un segnale periodico si ripete nel tempo con cadenza pari al periodo fondamentale del segnale. Fasore a TC
L’espressione matematica di un fasore a TC è la seguente: x(t) = A e j(ω0t+ϕ0 ) = A e j(2π f0t+ϕ0 ) = A [cos(2π f0t + ϕ0 ) + j sin(2π f0t + ϕ0 )] ,
(2.14)
dove A > 0 è l’ampiezza, ϕ0 è la fase iniziale, misurata in radianti (rad), ω0 è la pulsazione, misurata in radianti al secondo (rad/s), f0 = 2ωπ0 è la frequenza, misurata in cicli/s o Hertz (Hz). Il fasore è un segnale che assume valori complessi, e pertanto non può essere rappresentato in funzione del tempo su un convenzionale diagramma cartesiano (t, x). Una conveniente interpretazione grafica (fig. 2.30) è invece quella nel piano complesso, secondo la quale il fasore è rappresentato come un vettore ruotante,7 avente modulo A, che si muove con velocità angolare |ω0 |, in senso antiorario 6 Alcune 7 Si
fisica.
definizioni e proprietà dei numeri complessi e delle funzioni a valori complessi sono richiamati in app. A. noti l’analogia tra la rappresentazione grafica del fasore sul piano complesso ed il moto circolare uniforme della
56
Proprietà dei segnali
se ω0 > 0, ed in senso orario se ω0 < 0. Questa rappresentazione consente di dare un significato al concetto di pulsazione o frequenza negativa, che altrimenti non avrebbe una chiara interpretazione fisica: in particolare, il segno della pulsazione o della frequenza è legato al verso di rotazione (orario/antiorario) del fasore. Di contro, il valore assoluto della pulsazione o della frequenza misura la velocità di rotazione del vettore ruotante, ovvero la rapidità di variazione del fasore: a valori di |ω0 | maggiori corrispondono fasori che variano più rapidamente, mentre a valori di |ω0 | minori corrispondono fasori che variano più lentamente; il caso ω0 = 0 rappresenta il fasore più lentamente variabile, in quanto per questo valore di ω0 il fasore degenera nel segnale costante x(t) = A e jϕ0 . Dall’interpretazione come vettore ruotante, si vede che un fasore occupa nuovamente la stessa posizione nel piano complesso dopo aver percorso un giro completo, il che accade dopo un tempo pari a T0 =
2π 1 = , |ω 0 | | f 0 |
(2.15)
pertanto, il fasore è un segnale periodico di periodo T0 . Una dimostrazione più rigorosa della periodicità del fasore a TC si può ottenere utilizzando la (2.12): infatti, imponendo che valga la (2.12), ovvero che x(t) = x(t + T0 ), si ha: A e j[2π f0 (t+T0 )+ϕ0 ] = A e j(2π f0t+ϕ0 )
=⇒
e j2π f0 T0 = 1 ,
e quest’ultima relazione risulta verificata se e solo se 2π f0 T0 = 2kπ , con k ∈ Z, da cui il più piccolo valore positivo per T0 si ottiene ponendo k = 1 (se f0 > 0) o k = −1 (se f0 < 0), e quindi si ha la (2.15), come preannunciato. Si noti, infine, che il fasore non è un segnale “fisico”, nel senso che esso non è direttamente riconducibile a nessuna grandezza fisica. Così come l’impulso di Dirac a TC, il fasore è una pura astrazione matematica che, come sarà chiaro nel seguito, risulta particolarmente utile per la sintesi e l’analisi dei segnali e sistemi che si incontrano nella realtà fisica. In ogni caso, notiamo che il fasore a TC rientra a pieno titolo nel modello matematico di segnale (1.1), in cui il dominio T coincide con R e il codominio X è un sottoinsieme del campo dei numeri complessi C. Sinusoide a TC
Un segnale sinusoidale8 a TC si può scrivere come: x(t) = A cos(ω0t + ϕ0 ) = A cos(2π f0t + ϕ0 ) ,
(2.16)
dove i parametri A, ω0 , f0 e ϕ0 hanno la stessa interpretazione dei corrispondenti parametri per il fasore a TC. In effetti, utilizzando le formule di Eulero (cfr. § A.4), un segnale sinusoidale si può esprimere come: A cos(ω0t + ϕ0 ) =
1 j(ω0t+ϕ0 ) 1 − j(ω0t+ϕ0 ) Ae + Ae = Re[A e j(ω0t+ϕ0 ) ] 2 2
ovvero come la somma di due fasori di uguale ampiezza A/2, ruotanti in senso opposto con uguale velocità angolare |ω0 | (fig. 2.31). Anche la sinusoide, come il fasore, è un segnale periodico di periodo T0 = |2ωπ0 | = | f10 | : la dimostrazione rigorosa si basa sull’applicazione della (2.13) e ricalca quella già vista per il fasore. 8 Ricordiamo
che con il termine “segnale sinusoidale” intendiamo indifferentemente un segnale espresso in termini della funzione seno o (preferibilmente) della funzione coseno.
2.3 Estensione e durata temporale di un segnale
57
Fasore a TD
I fasori e le sinusoidi a TD presentano molte affinità, ma anche alcune differenze significative rispetto al caso TC. Un fasore a TD si scrive come: x(n) = A e j(θ0 n+ϕ0 ) = A e j(2πν0 n+ϕ0 ) = A[cos(2πν0 n + ϕ0 ) + j sin(2πν0 n + ϕ0 )] ,
(2.17)
dove A > 0 è l’ampiezza, ϕ0 è la fase iniziale (rad), θ0 è la pulsazione (rad), ν0 = 2θπ0 è la frequenza (cicli). Notiamo anzitutto le differenti dimensioni fisiche per la pulsazione e la frequenza rispetto al caso TC, derivanti dal fatto che mentre nel caso TC il tempo t si misura in secondi (s), nel caso TD il tempo n va considerato adimensionale. Come il fasore a TC, anche il fasore a TD soddisfa la definizione di segnale (1.1), in cui il dominio T coincide con Z e il codominio X è un sottoinsieme del campo dei numeri complessi C. L’interpretazione di un fasore a TD come vettore ruotante nel piano complesso è simile a quella di un fasore a TC (fig. 2.30): la differenza sostanziale, però, è che poiché il tempo n varia in maniera discreta, il fasore si muove “a scatti” nel piano complesso, ruotando in senso antiorario se θ0 > 0 e orario se θ0 < 0, e con una differenza angolare tra due posizioni consecutivamente occupate pari a |θ0 |. Sulla base di questa interpretazione, se il fasore si sposta di θ0 oppure di θ0 + 2kπ , la posizione finale è la stessa. Questa è una delle fondamentali differenze rispetto ai fasori a TC, ed è nota come proprietà di periodicità in frequenza dei fasori a TD: Proprietà 2.4 (periodicità in frequenza dei fasori a TD) Due fasori x1 (n) ed x2 (n) aventi pulsazioni θ1 e θ2 tali che θ2 − θ1 = 2kπ (k ∈ Z) sono coincidenti. Equivalentemente, due fasori x1 (n) ed x2 (n) aventi frequenze ν1 e ν2 tali che ν2 − ν1 = k (k ∈ Z) sono coincidenti. Prova. Si ha: x2 (n) = A e j(θ2 n+ϕ0 ) = A e j[(θ1 +2π k)n+ϕ0 ] = A e j(θ1 n+ϕ0 ) e j2π kn = x1 (n) ,
∀n, k ∈ Z .
=1
Ovviamente, poiché θ1 = 2πν1 e similmente θ2 = 2πν2 , la condizione θ2 − θ1 = 2kπ equivale, in termini di frequenze, a ν2 − ν1 = k.
La conseguenza più importante della proprietà di periodicità in frequenza è che un qualunque fasore a TD può essere ottenuto considerando soltanto valori di pulsazione in un intervallo di ampiezza 2π , come θ0 ∈ [0, 2π [ oppure θ0 ∈ [−π , π [, o equivalentemente valori di frequenza in un intervallo di ampiezza unitaria, come ν0 ∈ [0, 1[ oppure ν0 ∈ [−1/2, 1/2[. Inoltre la rapidità di variazione del fasore non aumenta in maniera monotona con la frequenza ν0 (o equivalentemente, con la pulsazione θ0 ), così come accade nel caso TC; in particolare, passando da ν0 = 0 a ν0 = 1, la rapidità di variazione del fasore prima aumenta (fino a ν0 = 1/2), poi diminuisce (fino a ν0 = 1). Ne segue che i fasori con la massima rapidità di variazione sono quelli a frequenza ν0 = 1/2 + k, k ∈ Z, mentre quelli con la minima rapidità di variazione (costanti) sono quelli a frequenza ν0 = k, k ∈ Z. Un’altra differenza significativa rispetto al caso TC è che il fasore TD non è sempre un segnale periodico nel tempo. Infatti, applicando la definizione di periodicità (2.13) per un segnale TD, si ha: A e j[θ0 (n+N0 )+ϕ0 ] = A e jθ0 n+ϕ0 ) , da cui si ottiene dopo alcune semplificazioni: e jθ0 N0 = 1 ,
58
Proprietà dei segnali
che risulta verificata se e solo se θ0 N0 = 2kπ , k ∈ Z, da cui si ricava che
ν0 =
θ0 k = , 2π N0
k ∈ Z,
e quindi ν0 dev’essere necessariamente un numero razionale (rapporto di due numeri interi). Si ricava allora la seguente proprietà di periodicità nel tempo dei fasori a TD: Proprietà 2.5 (periodicità nel tempo dei fasori a TD) Un fasore a TD x(n) = A e j(2πν0 n+ϕ0 ) risulta periodico nel tempo se e solo se la sua frequenza ν0 è un numero razionale. In tal caso, il suo periodo è il più piccolo valore intero N0 ≥ 1 che soddisfa la relazione 2πν0 N0 = 2kπ , k ∈ Z. La proprietà precedente, oltre ad evidenziare il fatto che un fasore a TD non è sempre periodico, mostra anche che, nel caso in cui è periodico, il periodo non coincide in generale con l’inverso della frequenza. In pratica, il periodo di un fasore a TD si può determinare con i seguenti passi: Proprietà 2.6 (periodo di un fasore a TD) Sia x(n) = A e j(2πν0 n+ϕ0 ) un fasore a TD con frequenza ν0 razionale (non intera). Il periodo N0 del fasore si determina come segue: (1) si rappresenta il numero razionale ν0 = k/N0 , con k ∈ Z − {0} ed N0 > 1 primi tra loro (si riduce preliminarmente la frazione ai minimi termini); (2) il periodo N0 coincide con il denominatore della frazione; (3) il valore assoluto |k| del numeratore rappresenta il numero di giri che effettua il fasore prima di riportarsi nella posizione iniziale; il segno di k è legato al verso di rotazione del fasore (orario se k < 0, antiorario se k > 0). Esempio 2.8 (periodicità nel tempo di un fasore a TD) Se ν0 = 1/3, il periodo è N0 = 3 ed il fasore compie k = 1 giri completi in senso orario prima di riportarsi nelle posizione iniziale. Se ν0 = 2/3, il periodo è ancora N0 = 3, ma il fasore compie k = 2 giri completi in senso orario prima di riportarsi nella posizione iniziale. Questi due esempi mostrano che, contrariamente a quanto avviene con i segnali periodici a TC, un aumento della frequenza (da ν0 = 1/3 a ν0 = 2/3) non implica una riduzione del periodo, che può rimanere lo stesso (come nei due esempi precedenti) o, addirittura, può aumentare. Infatti, se si aumenta la frequenza di un segnale periodico facendola passare da ν0 = 1/3 a ν0 = 3/4, il periodo aumenta passando da N0 = 3 a N0 = 4. Questi semplici esempi confermano il fatto che la rapidità di variazione di un fasore non aumenta in maniera monotona con la frequenza. Infine, se ν0 = √12 (un numero irrazionale), allora il fasore non è periodico nel tempo. Sinusoide a TD
Il segnale sinusoidale a TD si può scrivere come x(n) = A cos(θ0 n + ϕ0 ) = cos(2πν0 n + ϕ0 ) , e si può interpretare, similmente al caso TC, come la somma di due fasori ruotanti in senso opposto: 1 j(θ0 n+ϕ0 ) 1 − j(θ0 n+ϕ0 ) Ae + Ae . 2 2 Per la sinusoide a TD valgono le stesse proprietà di periodicità esposte per il fasore a TD. In particolare: A cos(θ0 n + ϕ0 ) =
2.3 Estensione e durata temporale di un segnale
59
(a) periodicità in frequenza: due sinusoidi con pulsazioni θ2 − θ1 = 2kπ (k ∈ Z) sono coincidenti; (b) periodicità nel tempo: una sinusoide è periodica se e solo se la sua frequenza è un numero razionale ν0 = k/N0 (k ∈ Z e N0 > 1); il periodo si determina come il denominatore della frazione che rappresenta ν0 ridotta ai minimi termini. Replicazione
Un modo del tutto generale per costruire un segnale TC x(t) periodico con periodo T0 è quello di partire da un segnale xg (t), detto generatore, diverso da zero nell’intervallo [−T0 /2, T0 /2], e di effettuarne la replicazione con periodo T0 :
x(t) = repT0 [xg (t)] =
+∞
∑
xg (t − kT0 ) .
(2.18)
k=−∞
In pratica la replicazione consiste nel sommare infinite versioni (cosiddette “repliche”) del segnale generatore xg (t), traslate di ±T0 , ±2T0 , etc. Applicando graficamente questa procedura si verifica facilmente che il segnale risultante è periodico di periodo T0 ; d’altra parte, per una dimostrazione più formale, basta provare che per il segnale x(t) definito come nella (2.18) risulta necessariamente x(t) = x(t + T0 ), ∀t ∈ R. Si ha, infatti, x(t + T0 ) =
+∞
∑
xg (t + T0 − kT0 ) =
k=−∞
+∞
∑
xg [t − (k − 1)T0 ] .
k=−∞
Effettuando il cambiamento di variabile k − 1 = nella sommatoria, si ha: +∞
∑
k=−∞
xg [t − (k − 1)T0 ] =
+∞
∑
=−∞
xg (t − T0 ) = x(t) ,
per cui x(t + T0 ) = x(t), ∀t ∈ R, come si voleva dimostrare. Esempio 2.9 (onda rettangolare a TC) Consideriamo come segnale generatore una finestra rettangolare di ampiezza A e durata T : t xg (t) = A rect . T Replicando xg (t) con passo T0 ≥ T (in caso contrario le repliche si sovrapporrebbero) si ottiene l’onda rettan T T0
golare di periodo T0 , ampiezza A, e duty-cycle o ciclo di servizio δc =
≤ 1, la cui espressione è:
t +∞ t − kT0 = ∑ A rect x(t) = repT0 A rect , T T k=−∞ e la cui rappresentazione grafica per A = 1 e δc = 0.5 è quella di fig. 2.32. Il duty-cycle δc , talvolta espresso in percentuale, rappresenta la misura del rapporto tra il tempo in cui l’onda rettangolare assume il valore A, ed il periodo dell’onda stessa. Ad esempio, in fig. 2.33 è mostrata un’onda rettangolare con A = 1 e δc = 0.8 (duty-cycle dell’80%). Come caso limite, notiamo che un’onda rettangolare con δc = 1 (100%) degenera nel segnale costante x(t) = A.
Dato un segnale generatore xg (t) e fissato un periodo T0 , è possibile costruire un unico segnale periodico x(t) secondo la (2.18). Viceversa, un qualunque segnale periodico x(t) può sempre essere espresso come replicazione di un opportuno generatore xg (t). Infatti come generatore è possibile scegliere la
60
Proprietà dei segnali
0.8
0.8
0.6
0.6 x(t)
1
x(t)
1
0.4
0.4
0.2
0.2
0
0
−2
−1
0 t/T
1
2
0
−2
−1
0 t/T
1
2
0
Fig. 2.32. Onda rettangolare a TC con A = 1 e δc = 0.5 (duty-cycle del 50%).
Fig. 2.33. Onda rettangolare a TC con A = 1 e δc = 0.8 (duty-cycle dell’80%).
restrizione del segnale periodico ad un periodo, ad esempio [−T0 /2, T0 /2], che si ottiene “finestrando” (ossia moltiplicando per una finestra rettangolare) il segnale: x(t), t ∈ [−T0 /2, T0 /2] ; t = xg (t) = x(t) rect T0 0, altrimenti. Bisogna tuttavia notare che, per determinare il generatore, è possibile scegliere come intervallo di finestratura un qualunque intervallo di periodicità del segnale, ad esempio [t0 − T0 /2,t0 + T0 /2], con t0 ∈ R. In altri termini, la relazione tra segnale periodico e generatore non è biunivoca. Un caso meno banale che evidenzia la possibilità di scegliere almeno due diversi generatori di uno stesso segnale periodico è la replicazione con sovrapposizione tra le repliche, descritta dall’esempio che segue. Esempio 2.10 (onda triangolare a TC con sovrapposizione) A partire dal segnale generatore xg (t) = Λ(t) avente durata pari a 2 (Fig. 2.34), costruiamo il segnale periodico x(t) effettuando la replicazione di xg (t) con periodo T0 = 32 < 2:
+∞ 3 x(t) = rep 3 [xg (t)] = ∑ Λ t − k . 2 2 k=−∞ Poiché il periodo di replicazione è inferiore alla durata del generatore, le repliche del segnale si sovrappongono, ed il segnale risultante (fig. 2.35) non si ottiene semplicemente affiancando le finestre triangolari, ma bisogna tener conto della sovrapposizione tra le repliche, sommando queste ultime negli intervalli di sovrapposizione. In questo caso, finestrando il segnale periodico nell’intervallo [−1, 1], si ottiene il generatore raffigurato in fig. 2.36, che ovviamente è differente da quello originariamente considerato per costruire l’onda triangolare.
La definizione di replicazione si può estendere al caso TD con cambiamenti banali di notazione. In particolare, dato un segnale generatore xg (n) diverso da zero nell’intervallo {0, 1, . . . , N0 − 1}, la replicazione di xg (n) è definita come: x(n) = repN0 [xg (n)] =
+∞
∑
xg (n − kN0 ) .
(2.19)
k=−∞
Tale espressione restituisce un segnale periodico x(n) di periodo N0 , cioè risulta x(n) = x(n + N0 ), ∀n ∈ Z (la prova è banale ed è simile a quella già vista per il caso TC).
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
−2
−1
0 t
1
2
Fig. 2.34. Segnale generatore dell’onda triangolare a TC dell’es. 2.10.
−2
−1
0 t
1
2
Fig. 2.35. Onda triangolare a TC dell’es. 2.10 (sono raffigurate a tratteggio le repliche che sommate tra loro danno luogo al segnale a tratto continuo).
1
1
0.8
0.8
0.6
0.6 x(n)
xg(t)
61
x(t)
xg(t)
2.3 Estensione e durata temporale di un segnale
0.4
0.4
0.2
0.2
0
0
−2
−1
0 t
1
2
Fig. 2.36. Un differente generatore dell’onda triangolare a TC dell’es. 2.10, ottenuto finestrando il segnale periodico nell’intervallo (−0.75, 0.75).
−10
−5
0 n
5
10
Fig. 2.37. Onda rettangolare a TD con M = 3 ed N0 = 5.
Esempio 2.11 (onda rettangolare a TD) Consideriamo come segnale generatore una finestra rettangolare di ampiezza unitaria e durata M: xg (n) = RM (n) . Replicando tale generatore con periodo N0 ≥ M (altrimenti le repliche si sovrapporrebbero) si ha: x(n) = repN0 [RM (n)] =
+∞
∑
RM (n − kN0 ) ,
k=−∞
il cui andamento è rappresentato in Fig. 2.37 per M = 3 e N0 = 5.
Viceversa, un qualunque segnale periodico x(n) di periodo N0 può sempre essere ottenuto come replicazione di un opportuno generatore xg (n). Infatti come generatore è sempre possibile scegliere la restrizione del segnale periodico al periodo, che si ottiene finestrando il segnale con una finestra
62
Proprietà dei segnali
rettangolare a TD: x(n), n ∈ {0, 1, . . . , N0 − 1} ; xg (n) = x(n) RN0 (n) = 0, altrimenti . Vale anche nel caso TD la stessa osservazione, già fatta nel caso TC, riguardo la non biunivocità della relazione tra segnali periodici e generatori; in altri termini, un generatore determina univocamente un segnale periodico, mentre un segnale periodico può essere ottenuto da diversi generatori.
2.4 Area e media temporale di un segnale
;;; ;;; x(t)
63
Z
-Z
+Z
t
2Z
Fig. 2.38. Interpretazione della media temporale di un segnale TC nell’intervallo [−Z, Z]. L’area del rettangolo (tratteggiata) di altezza x(t)Z e base 2Z è uguale all’area sottesa dal segnale.
2.4 Area e media temporale di un segnale Altri due parametri che concorrono a caratterizzare sinteticamente un segnale sono l’area e la media temporale. Dato un segnale TD x(n) e fissato un intero K ≥ 0, si definisce area del segnale nell’intervallo {−K, −K + 1, . . . , K − 1, K} la somma dei valori assunti dal segnale in tale intervallo: K
∑
Ax (K) =
x(n) ,
(2.20)
n=−K
mentre si definisce media temporale del segnale nell’intervallo {−K, −K + 1, . . . , K − 1, K} la media aritmetica dei valori assunti dal segnale in tale intervallo:
x(n)K =
K 1 ∑ x(n) . 2K + 1 n=−K
(2.21)
Si noti che, in dipendenza della natura del codominio X del segnale, l’area e la media temporale di x(n) sono numeri reali o complessi. Le definizioni di area e media temporale date nel caso TD si estendono al caso di segnali a TC x(t) sostituendo alla sommatoria l’integrale. Considerato Z > 0, si definisce infatti area del segnale nell’intervallo (−Z, Z), il numero, reale o complesso, calcolato effettuando l’integrale del segnale su tale intervallo:
Ax (Z) =
+Z −Z
x(t) dt ,
(2.22)
mentre si definisce media temporale del segnale nell’intervallo (−Z, Z), il numero, reale o complesso, calcolato effettuando la media integrale dei valori del segnale: 1 x(t)Z = 2Z
Z −Z
x(t) dt .
(2.23)
64
Proprietà dei segnali
L’interpretazione di media, sia nel caso TC che nel caso TD, si ottiene notando che le (2.21) e (2.23) si possono riscrivere come Ax (K) , 2K + 1 Ax (Z) x(t)Z = , 2Z
x(n)K =
e quindi, la media si può interpretare come l’altezza del rettangolo avente base pari all’intervallo temporale di riferimento e con la stessa area del segnale. Tale interpretazione è raffigurata graficamente per il caso TC in fig. 2.38. Si suole anche dire che la media temporale rappresenta il valor medio del segnale nell’intervallo temporale di riferimento. I valori dell’area e della media temporale calcolati sulla base delle (2.20) e (2.21) oppure (2.22) e (2.23), salvo che in casi particolari, dipendono dalla scelta di Z oppure di K, ovvero riguardano solo una porzione del segnale. Per ottenere invece valori di area e media temporale rappresentativi dell’intero segnale, è sufficiente far tendere Z oppure K all’infinito. Si perviene così alle fondamentali definizioni di area e media temporale di un segnale (sull’intero asse dei tempi): Definizione 2.3 (area e media temporale) (a) L’area di un segnale è:
Ax =
lim Z→+∞
−Z K
lim
K→+∞
Z
∑
x(t) dt, (segnali TC) (2.24) x(n),
(segnali TD)
n=−K
(b) La media temporale di un segnale è: 1 Z lim x(t) dt, (segnali TC) Z→+∞ 2Z −Z x(·) = K 1 x(n), (segnali TD) lim ∑ K→+∞ 2K + 1 n=−K
(2.25)
L’integrale che definisce l’area di un segnale TC può non esistere, il che significa che esistono segnali per i quali la definizione di area (2.24) perde di significato. Ciò accade, per esempio, nel caso dei segnali periodici, per i quali l’integrale nella (2.24) non esiste in senso ordinario. A tal proposito, si noti che, in base alla (2.24), l’area di un segnale TC è definita mediante il valor principale di Cauchy dell’integrale di x(t) esteso a tutto l’asse reale (cfr. § B.2.2), il cui valore è in generale diverso dal corrispondente integrale improprio: +∞ −∞
x(t) dt =
Z2
lim
Z1 ,Z2 →+∞ −Z1
x(t) dt ,
(2.26)
in cui, a differenza del valor principale di Cauchy dove Z1 = Z2 = Z, gli estremi di integrazione tendono all’infinito indipendentemente l’uno dall’altro. Se il limite nella (2.26) esiste, allora anche il valor principale di Cauchy dell’integrale di x(t) esteso all’intero asse reale esiste e i due integrali forniscono lo stesso risultato, cioè +∞ −∞
x(t) dt = lim
Z
Z→+∞ −Z
x(t) dt .
(2.27)
2.4 Area e media temporale di un segnale
65
Tuttavia, il viceversa non è vero: il valor principale di Cauchy dell’integrale di x(t) su R può esistere anche quando il corrispondente integrale improprio non esiste. Ad esempio, se consideriamo il segnale x(t) = t, con t ∈ R, l’integrale (2.26) non esiste, mentre il valor principale di Cauchy dell’integrale di x(t) esteso a tutto l’asse reale risulta esistere ed essere nullo, cioè, il segnale ha area nulla. Più in generale, tutti i segnali dispari risultano avere area nulla. Un discorso analogo sussiste anche per i segnali a TD con riferimento alla sommatoria: l’area del segnale x(n) è definita mediante la somma simmetrica della serie bilatera di x(n) (cfr. § B.1.3), che può esistere anche quando la serie bilatera di x(n) non converge. Quando invece la serie di x(n) converge, essa è anche simmetricamente convergente e la sua sua somma coincide con quella simmetrica, cioè +∞
∑
x(n) = lim
K→+∞
n=−∞
K
∑
x(n) .
n=−K
Per quanto concerne l’interpretazione di x(·), poiché la media temporale definita nella (2.25) si ottiene come caso limite dalle definizioni (2.21) o (2.23), l’interpretazione della (2.25) si potrebbe ricavare come caso limite di quella già data con riferimento alla media su un intervallo temporale di durata limitata, e quindi come valor medio del segnale (con riferimento all’intero asse dei tempi). Tuttavia, dato che l’area di un segnale può essere infinita, bisogna fare attenzione a generalizzare l’interpretazione di media come l’altezza di un rettangolo avente la stessa area del segnale. Essa vale infatti se la media è calcolata su un intervallo temporale finito, e quindi per ogni fissato valore di Z o di K: in questo caso, se il segnale x(·) assume valori finiti, la sua area è necessariamente finita. Poiché la definizione di area e valor medio sono intimamente legate, il fatto che Ax sia finito o infinito ha delle immediate implicazioni sul valor medio del segnale. Infatti, soffermando l’attenzione al caso TC, se il segnale x(t) ha area finita, cioè, |Ax | < +∞, risulta che: 1 Z
x(t) = lim
Z→+∞
2Z
−Z
Z
lim
x(t) dt =
Z→+∞ −Z
x(t) dt =
lim 2Z
Z→+∞
Ax = 0, +∞
(2.28)
ossia, se il segnale ha area finita, la sua media temporale è nulla. Questo accade per i segnali aventi durata rigorosamente limitata (come le finestre), ma si verifica anche per molti segnali aventi durata praticamente limitata. Con ragionamenti analoghi è possibile provare la stessa proprietà anche nel caso TD. Come conseguenza di questo risultato, si deduce che affinché la media temporale di x(·) assuma un valore diverso da zero, l’area del segnale deve necessariamente essere infinita. Un’altra proprietà interessante dei segnali aventi area finita è legata al cambiamento di scala temporale. Con riferimento al caso TC per semplicità, a partire dal segnale x(t) avente area finita Ax , mediante cambio di variabile, è immediato calcolare l’area del segnale y(t) = x(at), con a ∈ R − {0}, ottenendo: Ay = lim
Z
Z→+∞ −Z
y(t) dt = lim
Z
Z→+∞ −Z
1 Z→+∞ |a|
x(at) dt = lim
Z
−Z
x(τ ) dτ =
Ax , |a|
da cui si ricava che una compressione (|a| > 1) riduce l’area del segnale, mentre una espansione (0 < |a| < 1) aumenta l’area del segnale. Come caso particolare, ponendo a = −1, si ottiene che l’area di un segnale è invariante rispetto alle riflessioni temporali, nel senso che se y(t) = x(−t), si ha Ay = Ax . Allo stesso modo, è facile verificare che anche l’operazione di traslazione temporale non altera l’area di un segnale. Esempio 2.12 (area e media temporale della finestra rettangolare) Calcoliamo area e media temporale di una finestra rettangolare a TC x(t) = A rect(t/T ). Si tratta di un segnale di durata rigorosamente limitata, per cui la sua area è finita: Ax = lim
Z
Z→+∞ −Z
x(t) dt = lim A Z→+∞
T /2
−T /2
dt = lim AT = AT . Z→+∞
66
Proprietà dei segnali
Conseguentemente, la sua media temporale è nulla: 1 Z→+∞ 2Z
x(t) = lim
Z −Z
x(t) dt = 0 .
Con calcoli analoghi, si verifica che anche la media temporale della finestra a TD x(n) = RN (n) è nulla, in quanto ha area finita pari a N. Esempio 2.13 (area e media temporale dell’esponenziale monolatero decrescente) Calcoliamo area e media temporale del segnale esponenziale a TC x(t) = A e−t/T u(t), con T > 0. Pur trattandosi di un segnale di durata praticamente limitata, l’esponenziale monolatero decrescente ha area finita come la finestra rettangolare: Ax = lim
Z
Z→+∞ −Z
x(t) dt = lim A Z→+∞
Z 0
e−t/T dt = lim AT (1 − e−Z/T ) = AT . Z→+∞
L’area dell’esponenziale monolatero decrescente dipende linearmente dalla costante di tempo T : questo risultato è perfettamente in accordo con l’interpretazione geometrica di T data in fig. 2.27. Conseguentemente, la media temporale di x(t) è nulla: 1 Z→+∞ 2Z
x(t) = lim
Z −Z
x(t) dt = 0 .
Analogamente, anche la media temporale dell’esponenziale a TD x(n) = A an u(n), con 0 < |a| < 1, è nulla, in quanto la sua area è finita ed è data da: Ax = lim
K
∑
K→+∞ n=−K
K
x(n) = lim A ∑ an = lim A K→+∞
n=0
K→+∞
A 1 − aK+1 = . 1−a 1−a
Per avere esempi significativi di segnali aventi media temporale diversa da zero, dobbiamo considerare allora segnali aventi area infinita e quindi durata illimitata. Esempio 2.14 (media temporale del segnale costante) È semplice calcolare la media temporale di un segnale costante x(·) = a. Nel caso TC si ha: 1 Z→+∞ 2Z
x(t) = lim
Z −Z
1 Z→+∞ 2Z
a dt = a lim
Z −Z
dt = a lim
Z→+∞
1 2Z = a . 2Z
Calcoli analoghi si possono effettuare anche nel caso TD, e quindi per un segnale costante x(·) = a si ha x(·) = a; in altri termini, la media temporale di una costante coincide con la costante stessa. Esempio 2.15 (media temporale del gradino) Calcoliamo la media temporale di un gradino a TD. Si ha: K K 1 1 1 K +1 = . u(n) = lim 1 = lim ∑ ∑ K→+∞ 2K + 1 n=−K K→+∞ 2K + 1 K→+∞ 2K + 1 2 n=0
u(n) = lim
Calcoli analoghi si possono effettuare anche nel caso TC, e quindi si ha in generale u(·) = 12 .
La media temporale può essere nulla anche se il segnale ha durata infinita, ma presenta particolari proprietà di simmetria, come evidenziato nel seguente esempio. Esempio 2.16 (media temporale del signum) Calcoliamo la media temporale del segnale TC x(t) = sgn(t), definito come t ≥ 0; 1, sgn(t) = −1, t < 0 ;
67
1
1
0.5
0.5 x(n) = sgn(n)
x(t) = sgn(t)
2.4 Area e media temporale di un segnale
0
0
−0.5
−0.5
−1
−1 −5
0 t
−5
5
0 n
5
Fig. 2.40. Segnale signum a TD.
Fig. 2.39. Segnale signum a TC.
e rappresentato graficamente in Fig. 2.39. Si ha:
1 Z→∞ 2Z
x(t) = lim
Z −Z
0 Z 1 (−1) dt + 1 dt = 0. Z→∞ 2Z −Z 0
sgn(t) dt = lim
=−Z
=Z
Questo risultato discende dal fatto che il signum a TC, essendo una funzione dispari9 , ha area nulla (nel senso del valor principale di Cauchy). Lo stesso risultato si ottiene per il segnale TD x(n) = sgn(n), definito analogamente a sgn(t), come 1, n ≥ 0; sgn(n) = −1, n < 0 ;
e raffigurato graficamente in fig. 2.40. In questo caso, il risultato x(n) = 0 discende dal fatto che il signum a TD è un segnale avente area finita pari ad 1 [somma simmetrica della serie bilatera di x(n)].
Più in generale, osserviamo nuovamente che se un segnale ha simmetria dispari, allora la sua area è nulla e, conseguentemente, anche la sua media temporale è nulla. Per completare la trattazione, presentiamo le seguenti proprietà della media temporale, utili nelle applicazioni:
9 Notiamo
che a rigore la funzione sgn(t) non è dispari, in quanto il suo valore nell’origine non è nullo; tuttavia essa soddisfa la proprietà sgn(−t) = −sgn(t), ∀t = 0, e d’altra parte il valore della funzione in un singolo punto non modifica il risultato del calcolo dell’area e della media temporale.
68
Proprietà dei segnali
Proprietà 2.7 (proprietà della media temporale) (a) Linearità: α1 x1 (·) + α2 x2 (·) = α1 x1 (·) + α2 x2 (·) ,
∀α1 , α2 ∈ C .
(b) Invarianza temporale: x(t − t0 ) = x(t) ,
∀t0 ∈ R ;
x(n − n0 ) = x(n) ,
∀n0 ∈ Z .
(c) Media temporale di un segnale periodico: Sia x(·) un segnale periodico, avente periodo T0 nel caso TC, o periodo N0 nel caso TD, assolutamente integrabile/sommabile su un periodo. La media temporale di x(·) può essere calcolata su un solo periodo: T0 1 x(t) dt , (segnali TC) T 0 0 x(·) = 1 N0 −1 ∑ x(n) , (segnali TD) N0 n=0 Prova. La dimostrazione delle proprietà (a) e (b) è immediata ed è lasciata al lettore come esercizio. Nel seguito, proviamo la proprietà (c) per il caso a TC (la dimostrazione per il caso TD si effettua in modo simile). In base alla definizione di media temporale, dobbiamo calcolare 1 x(t) = lim Z→+∞ 2Z
Z −Z
x(t) dt .
Osserviamo che è possibile esprimere Z = nZ T0 + εZ , dove nZ ∈ N indica il numero intero di periodi T0 contenuti
in (0, Z), mentre εZ = Z − nZ T0 ∈ [0, T0 [ è la frazione di periodo rimanente. Si ha allora: 1 2Z
Z −Z
x(t) dt =
1 2Z
−nZ T0
1 nZ −1 (k+1)T0 1 x(t) dt + x(t) dt + ∑ 2Z 2Z −Z 0 k=−nZ kT (a)
Z nZ T0
(b)
(c)
x(t) dt .
I termini (a) e (c) tendono a zero per Z → +∞. Infatti, consideriamo il termine (c) ed effettuiamo il cambio di variabile u = t − nZ T0 , ottenendo: Z−n T Z T0 1 1 Z 0 1 εZ 1 = ≤ x(t) dt x(u + n T ) du |x(u)| du ≤ |x(u)| du , Z 0 2Z 0 2Z n T 2Z 0 2Z 0 Z 0 = x(u) per la periodicità non dipende da Z ed è finito
da cui segue la convergenza a zero per Z → +∞, se il segnale x(t) è assolutamente sommabile in (0, T0 ). Mediante un analogo ragionamento si prova che anche il termine (a) tende a zero al divergere di Z. Per il termine (b), invece, effettuando il cambiamento di variabile u = t − kT0 , si trova: 1 nZ −1 ∑ 2Z k=−n Z
(k+1)T0 kT0
x(t) dt =
=
1 nZ −1 ∑ 2Z k=−n Z
T0
nZ −1
T0
1 ∑ 2Z k=−n Z
0
x(u + kT0 )
du
= x(u) per la periodicità
0
x(u) du =
2 nz 2nZ T0 + 2εZ
T0 0
x(t) dt ,
2.4 Area e media temporale di un segnale
69
per cui facendo divergere Z o equivalentemente nZ , si ha in definitiva: 2nz nZ →+∞ 2nz T0 + 2εz
x(t) = lim
T0 0
x(t) dt =
1 T0
T0 0
x(t) dt .
La proprietà 2.7(c) consente di semplificare il calcolo della media temporale di un segnale periodico, evitando il passaggio al limite presente nella definizione generale (2.25). Tale proprietà può essere espressa in forma più generale, osservando che per un segnale periodico a TC risulta: T0 0
x(t) dt =
t0 +T0 t0
x(t) dt ,
∀t0 ∈ R ,
ovvero il risultato dell’integrale su un periodo T0 non dipende dagli estremi di integrazione; questo consente di utilizzare la notazione simbolica T0
t0 +T0
x(t) dt =
t0
x(t) dt ,
∀t0 ∈ R ,
per indicare l’integrale effettuato su un intervallo arbitrario di durata T0 , pari ad un periodo del segnale. Allo stesso modo, per un segnale TD, denoteremo con
∑ x(n) =
n0 +N0 −1
N0
∑
x(n) ,
∀n0 ∈ Z ,
n=n0
la sommatoria fatta su N0 campioni consecutivi arbitrari, ovvero su un periodo del segnale. Con la notazione precedente, la media temporale di un segnale periodico si può esprimere come: 1 x(t) dt , (segnali a TC) T0 T0 x(·) = 1 (2.29) x(n) , (segnali a TD) ∑ N 0 N0
Esempio 2.17 (media temporale del signum) Come applicazione della proprietà di linearità, ricalcoliamo la media temporale del segnale x(t) = sgn(t), notando che tale segnale può essere espresso semplicemente in funzione del gradino come sgn(t) = 2 u(t) − 1. Si ha allora: x(t) = 2 u(t) − 1 = 2 u(t) − 1 = 0 , = 12
=1
dove abbiamo applicato i risultati degli es. 2.14 e 2.15, riottenendo il risultato dell’es. 2.16.
Esempio 2.18 (media temporale di un fasore) Calcoliamo dapprima la media temporale del fasore a TC x(t) = A e j(ω0 t+ϕ0 ) . Per ω0 = 0, il fasore degenera nel segnale costante x(t) = A e jϕ0 , per cui: x(t) = A e jϕ0 = A e jϕ0 . Per ω0 = 0, il fasore x(t) è periodico di periodo T0 = periodo, ad esempio in (0, T0 ), utilizzando la (2.29): 1 x(t) = T0
Ae T0
j(ω0 t+ϕ0 )
A e j ϕ0 dt = T0
T0
e 0
j ω0 t
2π | ω0 | ,
per cui la media temporale si può calcolare su un
t=T0
A e j ϕ0 e j ω0 t A e jϕ0 e j2π − 1 dt = = = 0. T0 jω0 t=0 T0 jω0
70
Proprietà dei segnali
Nonostante il fasore a TD x(n) = A e j(θ0 n+ϕ0 ) non sia necessariamente un segnale periodico (lo è solo se la sua frequenza ν0 è un numero razionale), esso gode di proprietà analoghe a quelle del fasore a TC per quanto riguarda la media temporale. Infatti, si può dimostrare (la verifica è lasciata come esercizio) che 0, se θ0 = 2π k, k ∈ Z ; x(n) = j ϕ 0 A e , altrimenti ; Esempio 2.19 (media temporale di una sinusoide) Calcoliamo la media temporale della sinusoide a TC x(t) = A cos(ω0t + ϕ0 ). Nel caso ω0 = 0 la sinusoide si riduce ad un segnale costante x(t) = A cos(ϕ0 ), pertanto x(t) = A cos(ϕ0 ) = A cos(ϕ0 ) . Nel caso in cui ω0 = 0, poiché la sinusoide x(t) si esprime come somma di due fasori, possiamo applicare la proprietà 2.7(a) (linearità della media temporale): 1 1 1 1 x(t) = A e j(ω0 t+ϕ0 ) + A e− j(ω0 t+ϕ0 ) = A e jϕ0 e jω0 t + A e− jϕ0 e− jω0 t = 0 , 2 2 2 2 =0
=0
dove abbiamo sfruttato il risultato (cfr. es. 2.18) che un fasore con ω0 = 0 ha media temporale nulla. Analogamente, per la sinusoide a TD x(n) = A cos(θ0 n + ϕ0 ), si può verificare (la dimostrazione è lasciata come esercizio) che: 0, se θ0 = 2π k, k ∈ Z ; x(n) = A cos (ϕ0 ) , altrimenti ;
2.4.1 Componente continua e alternata di un segnale
Utilizzando una terminologia mutuata dall’elettrotecnica, la media temporale di un segnale si può interpretare come la componente continua del segnale; a partire dalla componente continua, si può definire per differenza anche la componente alternata. Definizione 2.4 (componente continua/alternata) La componente continua (DC) di un segnale x(·) coincide con la sua media temporale:
xdc = x(·) .
(2.30)
La componente alternata (AC) di un segnale x(·) si ottiene sottraendo al segnale la sua componente continua:
xac (·) = x(·) − xdc .
(2.31)
Mentre la componente continua rappresenta il valor medio del segnale, e quindi, in un certo senso, la parte “costante” del segnale, la componente alternata, essendo ottenuta depurando il segnale della componente continua, ne rappresenta la parte effettivamente “variabile”. Dalla sua definizione, è chiaro che la componente alternata di un segnale ha media temporale (e quindi componente continua) nulla. Infatti, applicando la proprietà di linearità della media temporale, si ha: xac (·) = x(·) − xdc = x(·) − xdc = xdc − xdc = 0 .
2.5 Energia di un segnale
71
Dalla definizione stessa di componente alternata, è chiaro inoltre che un qualunque segnale si può scrivere sempre come la somma della sua componente continua e della sua componente alternata: x(·) = xdc + xac (·) .
(2.32)
In particolare, un segnale x(·) che presenta xdc = 0 e che, quindi, coincide con la sua componente alternata, viene detto segnale puramente alternativo. Dagli es. 2.18 e 2.19, segue che il fasore e la sinusoide a TC, con ω0 = 0, sono segnali TC puramente alternativi; analogamente, il fasore e la sinusoide a TD, con θ0 = 2π k, k ∈ Z, sono segnali TD puramente alternativi. Esempio 2.20 (componente continua ed alternata del gradino) Abbiamo già calcolato (es. 2.15) la media temporale del gradino, per cui la componente continua vale xdc = 12 , mentre la componente alternata vale: xac (t) = x(t) − xdc = u(t) −
1 1 = sgn(t) . 2 2
Pertanto la decomposizione (2.32) per un gradino assume la forma: u(t) = xdc + xac (t) =
1 1 + sgn(t) . 2 2
Dalla relazione precedente si può ricavare, per verifica, anche la relazione sgn(t) = 2 u(t) − 1 che abbiamo già utilizzato in precedenza. Risultati analoghi valgono anche per il caso del gradino a TD.
2.5 Energia di un segnale Un parametro importante che caratterizza sinteticamente un’ampia famiglia di segnali è l’energia; il concetto di energia è fondamentale nella fisica, e ricorre in numerose applicazioni. Consideriamo, ad esempio, un resistore R attraversato dalla corrente x(t): per effetto termico, il resistore dissipa nell’intervallo di tempo (−Z, Z) un’energia pari a Ex (Z) =
Z −Z
R x2 (t) dt ,
che viene misurata in Joule (J). Se si considerano altri esempi in altri campi della fisica, si può verificare che in generale l’energia è proporzionale all’integrale del quadrato del segnale. Per ottenere una definizione indipendente dalla particolare applicazione fisica, conviene ignorare le eventuali costanti di proporzionalità (come la resistenza R nell’esempio precedente) e definire l’energia di un arbitrario segnale TC o TD (sull’intero asse dei tempi) nel modo seguente: Definizione 2.5 (energia) L’energia di un segnale è:
Ex =
lim Z→+∞ lim
K→+∞
Z
−Z K
∑
|x(t)|2 dt, (segnali TC) |x(n)|2 ,
(2.33) (segnali TD)
n=−K
Si noti la presenza del modulo nella definizione (2.33), che rende tale definizione di energia applicabile anche a segnali complessi; se il segnale è reale, il modulo può evidentemente essere omesso, in quanto per un segnale reale |x(·)|2 = x2 (·). Avendo ignorato eventuali costanti di proporzionalità, notiamo
72
Proprietà dei segnali
che le dimensioni fisiche di Ex calcolata mediante la (2.33) non sono necessariamente quelle di una energia. Ad esempio, il quadrato di una corrente non è dimensionalmente una energia, ma richiede una moltiplicazione per una resistenza. Tali costanti di proporzionalità non saranno considerate nel seguito, ma evidentemente vanno portate in conto se si intende calcolare l’energia in Joule mediante la (2.33) in specifiche applicazioni. Essendo legata al quadrato del segnale, l’energia è una quantità non negativa (Ex ≥ 0). Dal confronto tra le (2.24) e (2.33), è interessante osservare che l’energia del segnale x(·) può essere interpretata come l’area del segnale |x(·)|2 . Questo osservazione ci consente di estendere all’energia alcune proprietà dell’area di un segnale. In particolare, se il segnale x(·) presenta durata rigorosamente limitata (è il caso delle finestre), allora anche |x(·)|2 sarà di durata rigorosamente limitata e, conseguentemente, la sua energia (ovvero l’area di |x(·)|2 ) sarà finita. Tuttavia, l’energia può esistere finita anche se il segnale x(·) ha durata non rigorosamente limitata, purché |x(·)|2 decada a zero per |t| → +∞ o per |n| → +∞ con sufficiente rapidità, in modo da garantire la convergenza dell’integrale o della serie che compaiono nella definizione (2.33) (cfr. § B.2.3 e B.1.4). Esempio 2.21 (energia della finestra rettangolare) Il calcolo dell’energia per una finestra rettangolare a TC x(t) = A rect(t/T ) è semplice, avendosi: Ex = lim
Z
Z→+∞ −Z
|x(t)|2 dt = A2
T /2 −T /2
dt = A2 T .
Calcoli altrettanto semplici si possono effettuare per una finestra rettangolare a TD x(n) = RN (n). Si ha infatti: Ex = lim
K
∑
K→+∞ n=−K
|x(n)|2 =
N−1
∑ 1=N.
n=0
Esempio 2.22 (energia dell’esponenziale monolatero a TC) Calcoliamo l’energia per l’esponenziale monolatero a TC x(t) = A e−t/T u(t), con T > 0. Si ha: Ex = lim
Z
Z→+∞ −Z
|x(t)| dt = A 2
2
∞
−2t/T
e 0
dt = A
2
e−2t/T −2/T
!t=∞ = t=0
A2 T . 2
Notiamo che l’energia è finita poiché x(t) è una funzione che tende a zero per t → +∞ con legge esponenziale (quindi molto rapidamente). Se avessimo viceversa considerato T < 0, avremmo avuto un esponenziale monolatero crescente, che quindi avrebbe presentato Ex = +∞. Esempio 2.23 (energia dell’esponenziale monolatero a TD) Calcoliamo l’energia per l’esponenziale monolatero a TD x(n) = A an u(n). Si ha: Ex = lim
K
∑
K→+∞ n=−K
|x(n)|2 = A2
∞
∑ a2n .
n=0
Si ottiene allora una serie geometrica di ragione a2 , che converge se e solo se |a|2 < 1, ovvero se e solo se |a| < 1. In questo caso, allora, l’energia vale: Ex = A2
1 , 1 − a2
|a| < 1 .
Notiamo che la condizione |a| < 1 equivale a dire che l’esponenziale tende a zero per n → +∞ , mentre per |a| ≥ 1 l’energia non esiste finita, in quanto l’esponenziale non tende a zero.
2.5 Energia di un segnale
73
2.5.1 Segnali di energia
I segnali aventi energia finita (come quelli degli es. 2.21, 2.22, e 2.23) prendono il nome di segnali di energia. Più in generale, sussiste la seguente definizione: Definizione 2.6 (segnale di energia) Si dice segnale di energia un segnale x(·) avente energia finita e diversa da zero (0 < Ex < +∞). In pratica, la classe dei segnali di energia si può identificare con la classe dei segnali di durata limitata o transitori (cfr. § 2.3), che comprende sia i segnali di durata rigorosamente limitata (come ad esempio la finestra rettangolare dell’es. 2.21), sia i segnali di durata praticamente limitata (ad esempio i segnali esponenziali monolateri decrescenti degli es. 2.22 e 2.23). Viceversa, i segnali di durata non limitata o persistenti non sono di energia, in quanto tipicamente presentano Ex = +∞: vedremo che tali segnali appartengono in genere alla classe dei segnali di potenza (vedi § 2.6). In conclusione, osserviamo che, dal punto di vista matematico, non esiste alcuna relazione di inclusione tra l’insieme dei segnali di energia e l’insieme dei segnali aventi area finita (cfr. § B.2.3 e B.1.4): un segnale può essere di energia, ma non avere area finita; un segnale può avere area finita, ma non essere di energia. Poiché i segnali aventi area finita hanno componente continua nulla, consegue che, in generale, un segnale di energia può anche avere componente continua non nulla. Tuttavia, in molti casi di interesse pratico i segnali di energia hanno anche area finita (vedi ad esempio gli esponenziali monolateri); la conseguenza pratica è che tipicamente essi hanno componente continua nulla. 2.5.2 Energia mutua
Osserviamo preliminarmente che il prodotto di un segnale di energia per una costante è ancora un segnale di energia, e la somma di due segnali di energia è ancora un segnale di energia. Questa circostanza si esprime matematicamente dicendo che l’insieme dei segnali di energia è chiuso rispetto alle operazioni di somma e prodotto per una costante (cfr. § B.2.3 e B.1.4). Nel caso del prodotto per una costante α ∈ C, posto y(·) = α x(·), è semplice provare che si ha Ey = |α |2 Ex ; più articolato è il calcolo dell’energia Ex+y della somma di due segnali. Sviluppiamo esplicitamente i calcoli nel caso TC, partendo dalla definizione: Ex+y = lim
Z
Z→+∞ −Z
|x(t) + y(t)|2 dt .
(2.34)
Sviluppando il modulo al quadrato all’interno dell’integrale, si ha: |x(t) + y(t)|2 = [x(t) + y(t)][x(t) + y(t)]∗ = x(t) x∗ (t) + y(t) y∗ (t) + x(t) y∗ (t) + y(t) x∗ (t) = |x(t)|2 + |y(t)|2 + 2 Re[x(t) y∗ (t)] , dalla quale, sostituendo nella (2.34), si ha: Ex+y = lim
Z
Z→+∞ −Z
|x(t)| dt + lim 2
Z
Z→+∞ −Z
|y(t)| dt + 2 Re 2
Z
lim
Z→+∞ −Z
∗
x(t) y (t) dt .
(2.35)
Se si pone
Exy = lim
Z
Z→+∞ −Z
x(t) y∗ (t) dt ,
(2.36)
74
Proprietà dei segnali
si ha in definitiva: Ex+y = Ex + Ey + 2 Re(Exy ) .
(2.37)
La relazione (2.37) mostra che nel calcolo dell’energia Ex+y della somma di due segnali compare, oltre alle energie Ex e Ey dei singoli segnali, il termine Exy che evidentemente porta in gioco relazioni energetiche mutue o reciproche tra i due segnali. Estendendo i precedenti concetti, con ovvie modifiche, al caso TD, possiamo dare la seguente definizione di energia mutua tra due segnali: Definizione 2.7 (energia mutua) L’energia mutua tra due segnali x(·) e y(·) è:
Exy =
lim Z→+∞ lim
K→+∞
Z
−Z K
x(t) y∗ (t) dt, (segnali TC)
∑ x(n) y (n), ∗
(2.38) (segnali TD)
−K
A differenza dell’energia, che è una quantità reale e non negativa, l’energia mutua è in generale una quantità complessa; notiamo peraltro che per x(·) ≡ y(·) l’energia mutua si riduce all’energia del segnale. Inoltre, poiché il secondo segnale nella (2.38) è coniugato, si ha Eyx = E∗xy : nel caso di segnali reali, però, l’energia mutua è anch’essa reale (anche se può avere segno qualsiasi), e risulta simmetrica, in quanto Eyx = Exy . In tal caso, la relazione (2.37) (valida per segnali a TC e a TD) si semplifica nella: Ex+y = Ex + Ey + 2 Exy ,
(2.39)
simile concettualmente alla formula per il calcolo del quadrato di un binomio. Poiché il termine contenente l’energia mutua nella (2.37) o nella (2.39) può assumere segno qualsiasi, tali relazioni mostrano che l’energia della somma di due segnali può risultare in generale maggiore, minore o uguale rispetto alla somma delle energie. Particolarmente interessante è la condizione in cui Exy = 0, che garantisce l’additività delle energie:10 Ex+y = Ex + Ey .
(2.40)
La precedente osservazione porta ad introdurre il concetto di ortogonalità11 tra due segnali di energia: Definizione 2.8 (ortogonalità tra segnali di energia) Due segnali di energia x(·) e y(·) si dicono ortogonali se Exy = 0. Per segnali di energia ortogonali vale l’additività delle energie (2.40). Nei due esempi seguenti, sono mostrati alcuni casi tipici (certamente non esaustivi) di segnali ortogonali. Esempio 2.24 (segnali di energia ortogonali nel tempo) Si considerino due segnali che non si sovrappongono nel tempo, come ad esempio x(t) = rect(t) e y(t) = rect(t − 1) (fig. 2.41). In tal caso si ha x(t) y∗ (t) ≡ 0, "Z e quindi a maggior ragione Exy = limZ→+∞ −Z x(t) y∗ (t) dt = 0. Segnali (TC o TD) che non si sovrappongono nel tempo sono detti ortogonali nel tempo. 10 Se i segnali sono complessi, per l’additività delle energie è necessario e sufficiente che sia Re[E ] = 0; in questo caso xy la condizione Exy = 0 è sufficiente ma non necessaria, mentre diventa necessaria e sufficiente se i segnali sono reali. 11 Si usa il termine “ortogonalità” in quanto, in base a concetti matematici più avanzati, l’energia mutua può anche essere interpretata come “prodotto scalare” tra i segnali x(t) ed y(t) (riguardati come vettori).
2.6 Potenza e valore efficace di un segnale
75
1 x(t)
x(t)
1 0.5 0 −1
−0.5
0
0.5 t
1
1.5
0 −1.5
2
y(t)
y(t)
−1
−0.5
0 t
0.5
1
1.5
−1
−0.5
0 t
0.5
1
1.5
0.5
1 0.5 0 −1
0.5
−0.5
0
0.5 t
1
1.5
2
Fig. 2.41. I segnali x(t) = rect(t) e y(t) = rect(t − 1) sono ortogonali nel tempo (es. 2.24).
0 −0.5 −1.5
Fig. 2.42. I segnali x(t) = rect(t) e y(t) = t rect(t) sono ortogonali per simmetria (es. 2.25).
Esempio 2.25 (segnali di energia ortogonali per simmetria) Si considerino due segnali di energia anche sovrapposti nel tempo, ma tali che uno dei due, ad esempio x(t), abbia simmetria pari, mentre l’altro ha simmetria dispari. Poiché il prodotto di una funzione pari e di una dispari è una funzione dispari, risulta anche in questo caso Exy = 0, nonostante x(t) y∗ (t) ≡ 0. Per un esempio concreto, basta considerare i segnali x(t) = rect(t) e y(t) = t rect(t) (fig. 2.42). Si ha: Exy = lim
Z
Z→+∞ −Z
rect(t)t rect(t)dt =
1/2 −1/2
t dt = 0 .
2.6 Potenza e valore efficace di un segnale Come l’energia, anche la potenza è un parametro sintetico caratterizzante alcuni segnali, che è utilizzato in numerosi e diversi ambiti della fisica. Consideriamo ancora l’esempio del resistore R attraversato dalla corrente x(t): la potenza mediamente dissipata nell’intervallo di tempo (−Z, Z) è Px (Z) =
1 2Z
Z −Z
R x2 (t) dt ,
ovvero si ottiene dividendo l’energia dissipata nell’intervallo (−Z, Z) per la lunghezza 2Z di tale intervallo di tempo. La potenza è una quantità misurata in J/s o Watt (W). Per ottenere una definizione generale della potenza mediamente dissipata su tutto l’intervallo temporale del segnale, conviene trascurare eventuali costanti di proporzionalità (come la resistenza R) e far tendere Z all’infinito, ottenendo così:
1 Z→+∞ 2Z
Px = lim
Z −Z
|x(t)|2 dt .
(2.41)
Notiamo che la potenza Px coincide con la media temporale del segnale |x(t)|2 ed essendo legata, come l’energia, al modulo al quadrato del segnale, è una quantità non negativa (Px ≥ 0). Pertanto, generalizzando l’interpretazione come media temporale al caso TD, si perviene alla seguente definizione di potenza:
76
Proprietà dei segnali
Definizione 2.9 (potenza) La potenza di un segnale è: Px = |x(·)|2 =
1 lim Z→+∞ 2Z
Z
−Z
|x(t)|2 dt,
(segnali TC)
K 1 |x(n)|2 , (segnali TD) ∑ K→+∞ 2K + 1 n=−K
lim
(2.42)
Si noti che il modulo nella definizione (2.42) può essere omesso se il segnale è reale. Avendo trascurato eventuali costanti di proporzionalità, le dimensioni fisiche della potenza definita in base alla (2.42) non sono necessariamente quelle corrette (ovvero W). Il vantaggio è, come per l’energia, di ottenere una quantità che dipende esclusivamente dal segnale. Esempio 2.26 (potenza di un segnale costante) La potenza di un segnale costante x(·) = a è: Px = |x(·)|2 = |a|2 = |a|2 . Se il segnale è reale (a ∈ R), allora Px = a2 .
Esempio 2.27 (potenza del gradino) Il calcolo della potenza di un gradino u(·) è semplice: basta osservare che, poiché il gradino assume solo i due valori reali 0 ed 1, si ha: 1 Px = |u(·)|2 = u2 (·) = u(·) = xdc = 2 dove abbiamo utilizzato il risultato dell’es. 2.15 sulla componente continua di un gradino.
A partire dalla potenza si definisce il valore efficace di un segnale (detto anche valore root mean square o RMS), molto utilizzato nell’elettrotecnica: Definizione 2.10 (valore efficace) Il valore efficace di un segnale x(·) è: $ # xrms = Px = |x(·)|2 .
Sulla base del risultato dell’es. 2.26, il valore efficace di un segnale x(·) si può interpretare come il valore che deve assumere un segnale costante per avere la stessa potenza del segnale dato. 2.6.1 Segnali di potenza
Sulla base della definizione di potenza, è possibile individuare la classe dei segnali che hanno potenza finita; tali segnali prendono il nome di segnali di potenza: Definizione 2.11 (segnale di potenza) Si dice segnale di potenza un segnale x(·) avente potenza finita e diversa da zero (0 < Px < +∞). La classe dei segnali di potenza è costituita dai segnali di durata non limitata o persistenti: tali segnali comprendono i segnali aperiodici persistenti (es. gradino, signum) e i segnali periodici (es. fasore,
2.6 Potenza e valore efficace di un segnale
77
sinusoide). Per soddisfare la definizione (2.12) oppure (2.13), un segnale periodico deve necessariamente avere durata illimitata; questo comporta che la sua energia è necessariamente infinita. Infatti, fatta eccezione per casi di scarso interesse pratico, un segnale periodico è necessariamente un segnale di potenza. Ricordando che la potenza di un segnale x(·) non è altro che il valor medio di |x(·)|2 e invocando la proprietà 2.7(c) della media temporale, segue che la potenza di un segnale periodico si può calcolare12 come: 1 |x(t)|2 dt , (segnali a TC) T T 0 Px = |x(·)|2 = 1 0 (2.43) 2 (segnali a TD) N ∑ |x(n)| , 0 N0
da cui si vede che la potenza esiste necessariamente finita e diversa da zero, salvo per casi particolari di scarso interesse pratico13 . Esempio 2.28 (potenza di un fasore) Calcoliamo la media temporale del fasore a TC x(t) = A e j(ω0 t+ϕ0 ) . Per ω0 = 0, il fasore degenera nel segnale costante x(t) = A e jϕ0 , per cui: Px = |x(t)|2 = A2 = A2 . Per ω0 = 0, il fasore x(t) è periodico di periodo T0 = |ω2π | , per cui la potenza si può calcolare applicando la 0 (2.43). In tal modo, si ha: 1 Px = |x(t)|2 = A2 dt = A2 , T0 T0 √ da cui si ottiene per il valore efficace xrms = Px = A (si noti che i risultati per la potenza ed il valore efficace valgono anche per ω0 = 0). Nonostante il fasore a TD x(n) = A e j(θ0 n+ϕ0 ) non sia necessariamente un segnale periodico (lo è solo se la sua frequenza ν0 è un numero razionale), esso gode di proprietà analoghe a quelle del fasore a TC per quanto riguarda la potenza. Infatti, si può dimostrare (la verifica è lasciata come esercizio) che in ogni caso Px = |x(n)|2 = A2 . Esempio 2.29 (potenza di una sinusoide) Calcoliamo prima la potenza della sinusoide a TC x(t) = A cos(ω0t + ϕ0 ). Nel caso ω0 = 0 la sinusoide si riduce ad un segnale costante x(t) = A cos(ϕ0 ), pertanto: Px = |x(t)|2 = A2 cos2 (ϕ0 ) = A2 cos2 (ϕ0 ) . Nel caso in cui ω0 = 0, applicando la formula trigonometrica di bisezione ed ancora la proprietà di linearità della media temporale, si ha: 2 2 A2 A A 1 + cos(2ω0t + 2ϕ0 ) = 1 + cos(2ω0t + 2ϕ0 ) = , Px = |x(t)|2 = A2 cos2 (ω0t + ϕ0 ) = 2 2 2 =1
=0
dove si è sfruttato il risultato (si veda l’es. 2.19) che una sinusoide con √ pulsazione diversa da zero ha componente continua nulla. Il valore efficace della sinusoide è allora xrms = Px = √A2 , risultato frequentemente utilizzato nell’elettrotecnica. Analogamente, per la sinusoide a TD x(n) = A cos(θ0 n + ϕ0 ), si può verificare (la dimostrazione è lasciata come esercizio) che: 2 A , se θ0 = π k, k ∈ Z ; 2 Px = |x(n)| = 22 A cos2 (ϕ0 ) , altrimenti . 12 Notiamo che se x(·) è periodico di periodo T [N ], allora anche |x(·)|2 ammette lo stesso periodo, anche se il periodo 0 0 fondamentale può essere un sottomultiplo di T0 [N0 ]. 13 Ad esempio, la potenza potrebbe divergere solo nel caso di un segnale TC periodico x(t) che non sia a quadrato sommabile sull’intervallo T0 (un segnale del genere dovrebbe necessariamente essere non limitato su un periodo, per cui è di scarso interesse pratico).
78
Proprietà dei segnali
2.6.2 Relazioni tra segnali di energia e di potenza
È interessante analizzare più in dettaglio le relazioni esistenti tra segnali di energia e segnali di potenza. A tal proposito, sussiste il seguente risultato: Teorema 2.1 (relazioni tra segnali di energia e di potenza) (a) se x(·) è un segnale di potenza, allora esso ha energia infinita (Ex = +∞); (b) se x(·) è un segnale di energia, allora esso ha potenza nulla (Px = 0). Prova. Per provare la (a), basta scrivere (ad esempio nel caso TC): Px = |x(t)| = lim
2
Z→+∞
Z
1 Z
2Z
lim
|x(t)| dt = 2
−Z
Z→+∞ −Z
|x(t)|2 dt
lim 2Z
.
(2.44)
Z→+∞
È chiaro allora che, se la potenza (2.44) esiste finita, si avrà:
Ex = lim
Z
Z→+∞ −Z
|x(t)|2 dt = Px lim 2Z = +∞ . Z→+∞
Con ragionamenti analoghi è possibile provare la stessa proprietà anche nel caso TD. Viceversa, se l’energia è finita, dalla (2.44) si ricava: Z
lim
Px =
Z→+∞ −Z
|x(t)|2 dt
lim 2Z
Z→+∞
=
Ex = 0, lim 2Z
(2.45)
Z→+∞
il che prova la (b) (un analogo ragionamento è possibile per il caso TD).
La proprietà (a) prova che un segnale di potenza ha necessariamente Ex = +∞, e quindi non può essere di energia. Viceversa, la (b) prova che un segnale di energia ha necessariamente Px = 0, e quindi non può essere di potenza. Pertanto, gli insiemi dei segnali di energia e dei segnali di potenza non hanno elementi in comune, e quindi sono disgiunti. Tuttavia, i due insiemi non costituiscono una partizione di tutti i possibili segnali, in quanto esistono casi di segnali che non sono nè di energia, nè di potenza. Un primo esempio banale è il segnale identicamente nullo x(·) = 0, che ha Ex = Px = 0 e quindi non appartiene a rigore nè ai segnali di energia, nè a quelli di potenza. Esistono casi meno banali di segnali, aventi durata non limitata, che non sono segnali di potenza, in quanto hanno Px = +∞ (e ovviamente non sono neppure segnali di energia, in quanto hanno Ex = +∞). Ad esempio il segnale rampa a TC x(t) = t u(t), raffigurato in fig. 2.43, presenta Ex = Px = +∞, e quindi non si può considerare nè un segnale di potenza, nè di energia. 2.6.3 Potenza mutua
Con ragionamenti analoghi a quelli effettuati per i segnali di energia, si può verificare che anche l’insieme dei segnali di potenza è chiuso rispetto alle operazioni di somma e prodotto per una costante. In altri termini, il prodotto di un segnale di potenza per una costante α ∈ C è ancora un segnale di potenza, e la somma di due segnali di potenza è ancora un segnale di potenza. Anche in questo caso, posto y(·) = α x(·), si prova facilmente che Py = |α |2 Px ; per quanto riguarda la somma di due segnali, invece, seguendo passaggi simili a quelli effettuati per l’energia, e sfruttando la proprietà di linearità della media temporale, si mostra facilmente che Px+y = Px + Py + 2 Re(Pxy ) , dove Pxy è la potenza mutua tra i segnali x(·) ed y(·), definita come segue:
(2.46)
2.6 Potenza e valore efficace di un segnale
79
2
x(t) = t u(t)
1.5
1
0.5
0 −2
−1
0 t
1
2
Fig. 2.43. Segnale rampa a TC.
Definizione 2.12 (potenza mutua) La potenza mutua tra due segnali x(·) e y(·) è:
∗
Pxy = x(·) y (·) =
1 lim Z→+∞ 2Z
Z
−Z
x(t) y∗ (t) dt,
(segnali TC)
K 1 x(n) y∗ (n), (segnali TD) ∑ K→+∞ 2K + 1 n=−K
lim
(2.47)
Notiamo che, per la presenza dell’operazione di coniugazione sul secondo segnale, si ha Pyx = P∗xy , ed in generale la potenza mutua è complessa; se invece i segnali sono reali la potenza mutua è simmetrica (Pyx = Pxy ) e reale (ma di segno qualsiasi), per cui la (2.46) si scrive Px+y = Px + Py + 2 Pxy .
(2.48)
Le relazioni (2.46) e (2.48) e evidenziano che, come per le energia, anche per la potenze non vale l’additività, a meno che Pxy = 0. Questa osservazione porta alla definizione di ortogonalità anche per i segnali di potenza: Definizione 2.13 (ortogonalità per segnali di potenza) Due segnali di potenza x(·) e y(·) si dicono ortogonali se Pxy = 0. Per segnali di potenza ortogonali, in particolare, vale la proprietà di additività delle potenze: Px+y = Px + Py .
(2.49)
Gli esempi che seguono presentano alcuni casi significativi (anche qui non esaustivi) di segnali di potenza ortogonali. Esempio 2.30 (ortogonalità tra seno e coseno) Un esempio di due segnali di potenza a TC ortogonali si ottiene scegliendo x(t) = cos(ω0t) e y(t) = sin(ω0t), con ω0 = 0. Si ha infatti, adoperando le proprietà della media temporale e note formula trigonometriche: % & 1 1 Pxy = cos(ω0t) sin(ω0t) = sin(2ω0t) = sin(2ω0t) = 0 , 2 2
80
Proprietà dei segnali
Parametro Estensione temporale
Notazione Dx
Durata temporale
∆x
Area
Ax
Definizione intervallo di tempo in cui |x(·)| assume valori non trascurabili misura dell’estensione temporale Dx Z
lim
Z→+∞ −Z K
lim
K→+∞
Media temporale
xdc = x(·)
(componente continua) Energia Potenza
Ex Px
x(t) dt
∑
x(n)
(segnali TC) (segnali TD)
n=−K
1 Z lim x(t) dt (segnali TC) Z→+∞ 2Z −Z K 1 lim x(n) (segnali TD) ∑ K→+∞ 2K + 1 n=−K area del modulo al quadrato |x(·)|2 del segnale media temporale del modulo al quadrato |x(·)|2 del segnale
Tab. 2.1. Riepilogo dei parametri che caratterizzano sinteticamente un segnale x(·). dove abbiamo sfruttato il fatto che un segnale sinusoidale ha media nulla. Notiamo che l’ortogonalità si perde se si introduce uno sfasamento tra i due segnali, a meno che lo sfasamento non assuma valori particolari (vedi esercizio 2.30). Esempio 2.31 (ortogonalità tra componente continua ed alternata) È facile provare che la componente continua ed alternata di un segnale di potenza sono tra loro ortogonali. Posto infatti x(·) = xdc + xac (·), si ha: ∗ ∗ (·) = xdc xac (·) = xdc xac (·)∗ = 0 , Pxdc xac = xdc xac
in quanto l’operazione di coniugazione si scambia con la media temporale, e xac (·) = 0 per definizione. Si ha allora: Px = Pdc + Pac , ovvero la potenza di un segnale si può esprimere come la somma della potenza in continua e della potenza in alternata.
In conclusione, nella tab. 2.1 sono riepilogati i parametri introdotti finora che caratterizzano sinteticamente un segnale, evidenziando i legami esistenti tra alcuni di essi.
2.7 Misura in dB della potenza e dell’energia Potenze ed energie possono variare anche di numerosi ordini di grandezza; inoltre nelle applicazioni esse andrebbero misurate nelle opportune unità di misura, vale a dire, Watt (W) per le potenze, Joule (J) per le energie. Con riferimento in particolare alla potenza, per risolvere i due problemi precedenti e per semplificare alcuni calcoli, nell’ingegneria si utilizza spesso una misura logaritmica ed adimensionale della potenza Px , detta misura in deciBel (dB):14
Px [Px ]dB = 10 log10 , (2.50) P0 14 Il
termine “deciBel” significa letteralmente la decima parte di un “Bel”, che è una unità di misura originariamente introdotto da tecnici che lavoravano ai laboratori della Bell Telephone. Il deciBel è utilizzato anche in acustica come unità di misura dell’intensità di un suono.
2.7 Misura in dB della potenza e dell’energia
81
Px /P0 0.001 0.01 0.1 0.5 1 2 10 100 1000
[Px ]dB −30 dB −20 dB −10 dB −3 dB 0 dB 3 dB 10 dB 20 dB 30 dB
Tab. 2.2. Valori comuni di potenza espressi in dB.
dove P0 è una potenza di riferimento, opportunamente scelta a seconda delle applicazioni. Le scelte più comuni per la potenza di riferimento sono P0 = 1W, ed in tal caso si parla di potenze espresse in dBW, e si scrive più specificamente [Px ]dBW ; se invece P0 = 1mW, si parla di potenze espressa in dBm, e si scrive [Px ]dBm ; quest’ultima scelta è molto utilizzata ad esempio nelle applicazioni che riguardano la telefonia ed i sistemi di telecomunicazione. Nella tab. 2.2 sono riportati alcuni dei valori più comuni di potenze espresse in dB. Ovviamente, dato il valore di potenza [Px ]dB in dB , il valore Px in unità naturali si ottiene facilmente invertendo la relazione (2.50): Px = P0 · 10
[P x ]dB 10
.
√ Una misura analoga in dB si può introdurre anche per il valore efficace xrms = Px ; tuttavia, per avere lo stesso valore in dB, tenendo conto della relazione quadratica esistente tra valore efficace e potenza, conviene introdurre un fattore numerico pari a 20, invece di 10, nella definizione (2.50); si perviene pertanto alla seguente definizione per la misura in dB del valore efficace xrms :
xrms [xrms ]dB = 20 log10 , x0 √ dove x0 = P0 è il valore efficace corrispondente alla potenza di riferimento P0 . Con questa scelta i valori in dB relativi alla potenza ed al valore efficace coincidono, in quanto, applicando le proprietà dei logaritmi, si ha: [Px ]dB = 10 log10
Px P0
= 10 log10
2 xrms x02
= 20 log10
xrms x0
= [xrms ]dB .
Esempio 2.32 (potenze espresse di dBW e dBm) Si consideri la potenza Px = 100 W; scegliendo P0 = 1 W, si ha:
100 [Px ]dBW = 10 log10 = 20 dBW , 1 mentre se si sceglie P0 = 1 mW, si ha:
100 [Px ]dBm = 10 log10 = 50 dBm . 10−3
82
Proprietà dei segnali
mezzo PT
trasmissivo
γc
P R =γc P T
Fig. 2.44. Schema di principio di un collegamento punto-punto in un sistema di telecomunicazioni (problema del link budget). Notiamo che la relazione esistente tra dBW e dBm è la seguente: [Px ]dBm = [Px ]dBW + 30 dB . Infatti, le potenze di riferimento nei due casi differiscono di un fattore 1000, corrispondente a 30 dB (tab. 2.2) in unità logaritmiche. Esempio 2.33 (attenuazione in dB e link budget) Un altro esempio dell’utilità di una misura logaritmica per la potenza è quello in cui si vogliono mettere in relazione la potenza trasmessa e quella ricevuta su un collegamento punto-punto di un sistema di telecomunicazioni (tale problema prende il nome di link budget). Si consideri lo schema di fig. 2.44, in cui un segnale viene trasmesso su un mezzo trasmissivo che introduce una attenuazione della potenza pari ad γc , con 0 < γc < 1 (il valore di γc dipende dalla natura del mezzo e dalla distanza coperta dal collegamento). Detta PT la potenza trasmessa, la potenza ricevuta sarà pari a PR = γc PT ; misurando invece la potenza ricevuta in dB, si ha: PR PT γc PT [PR ]dB = 10 log10 = 10 log10 = 10 log10 [γc ] + 10 log10 , P0 P0 P0 ovvero, ponendo:
[γc ]dB = 10 log10 [γc ]
(2.51)
si può scrivere, assumendo ad esempio P0 = 1mW, [PR ]dBm = [γc ]dB + [PT ]dBm . Il vantaggio è che la relazione moltiplicativa tra potenza trasmessa e ricevuta si è trasformata, per le proprietà dei logaritmi, in una relazione additiva. La (2.51) definisce l’attenuazione in dB o path loss caratteristica del collegamento. Notiamo che poiché 0 < γc < 1, allora [γc ]dB < 0, per cui, come è ovvio che sia, risulta [PR ]dBm < [PT ]dBm .
2.8 Esercizi proposti
83
2.8 Esercizi proposti Esercizio 2.1 Si consideri il segnale TC x(t) = rect(t). Individuare quale operazione elementare è effettuata su x(t) per ottenere il segnale y(t) e rappresentare il grafico del segnale y(t): (a) y(t) = x(t − 5); (b) y(t) = x(t + 5); (c) y(t) = x(−t); (d) y(t) = x(2t); t (e) y(t) = x . 3 Esercizio 2.2 Dati i segnali TD |n| , n ∈ {0, ±1, ±2, ±3} x(n) = 0, altrimenti y(n) = R4 (n − 1) − R4 (−n − 1) , dopo aver rappresentato il grafico di x(n) ed y(n), rappresentare accuratamente il grafico del segnale z(n) nei seguenti casi: (a) z(n) = x(2n); (b) z(n) = x(3n − 1); (c) z(n) = y(1 − n); n (d) z(n) = x ; 2 (e) z(n) = y(2 − 2n); (f) z(n) = x(n − 2) + y(n + 2); (g) z(n) = x(2n) + y(n − 4); (h) z(n) = x(n + 2) y(n − 2); (i) z(n) = x(3 − n) y(n); (j) z(n) = x(−n) y(−n); (k) z(n) = x(n) y(−2 − n); (l) z(n) = x(n + 2) y(6 − n). Esercizio 2.3 Si consideri il segnale TC x(t) = Λ(t). Determinare l’espressione analitica del segnale y(t) ottenuto effettuando le seguenti operazioni su x(t) (nell’ordine specificato) e rappresentare il grafico del segnale y(t): (a) riflessione seguita da un ritardo di 5; (b) ritardo di 5 seguito da una riflessione; (c) cambiamento di scala con a = 5 seguito da un anticipo di 5; (d) anticipo di 5 seguito da un cambiamento di scala con a = 5. Esercizio 2.4 Si consideri il segnale TC y(t) = x(2t − 1). Individuare quali delle seguenti combinazioni di operazioni elementari consente di ottenere y(t) a partire da x(t) (sono possibili più risposte corrette):
84
Proprietà dei segnali
(a) ritardo di 1 seguito da cambiamento di scala con a = 2; (b) cambiamento di scala con a = 2 seguito da ritardo di 1; (c) ritardo di 1/2 seguito da cambiamento di scala con a = 2; (d) cambiamento di scala con a = 2 seguito da ritardo di 1/2. Esercizio 2.5 Si consideri il segnale TC x(t) = Λ(t). Individuare le operazioni effettuate (specificandone l’ordine) per ottenere il segnale y(t) e rappresentare il grafico del segnale y(t): (a) y(t) = x(−t + 1); (b) y(t) = x(−t − 1); (c) y(t) = x(2t − 1); (d) y(t) = x[2(t − 1)]; t −1 ; (e) y(t) = x 3
t −1 (f) y(t) = x . 3 Esercizio 2.6 Rappresentare graficamente il segnale TC 1, 2 ≤ t ≤ 4 y(t) = 0 , altrimenti e trovarne una espressione analitica in funzione del segnale x(t) = rect(t). Determinare, inoltre, l’estensione temporale e la durata del segnale. Esercizio 2.7 Rappresentare graficamente il segnale TC 3(t − 2) , 2 ≤ t ≤ 5 y(t) = 3(8 − t) , 5 ≤ t ≤ 8 0, altrimenti e trovarne una espressione analitica in funzione del segnale x(t) = Λ(t). Determinare, inoltre, l’estensione temporale e la durata del segnale. Esercizio 2.8 Rappresentare graficamente i seguenti segnali TC e determinare la loro estensione temporale e durata (per i segnali aventi durata praticamente limitata, si scelga una soglia α pari al 10% del valore massimo assunto dal segnale): (a) x(t) = rect(t) − rect(t − 1); (b) x(t) = e at u(−t), con a > 0; (c) x(t) = e−|t|/T , con T > 0; (d) x(t) = e−t ; 2
1 (e) x(t) = √ ; 1 + t2 (f) x(t) = u(t) − rect(t − 2). Esercizio 2.9 Rappresentare graficamente i seguenti segnali TD e determinare la loro estensione temporale e durata (per i segnali aventi durata praticamente limitata, si scelga una soglia α pari al 10% del valore massimo assunto dal segnale):
2.8 Esercizi proposti
85
(a) x(n) = δ (n) − 2 δ (n − 1) + 3 δ (n − 2) − δ (n − 4); (b) x(n) = an u(−n), con |a| > 1; (c) x(n) = a|n| , con 0 < |a| < 1; (d) x(n) = (−1)n u(n). Esercizio 2.10 Stabilire quali dei seguenti segnali TD sono periodici e, in caso affermativo, determinarne il periodo fondamentale N0 : (a) x(n) = (−1)n ; 2
(b) x(n) = (−1)n ; (c) x(n) = cos(2n); (d) x(n) = cos(2π n); (e) x(n) = e j (f) x(n) = e j (g) x(n) = e
8π n 15
;
7π n 15
;
πn j√ 2
(h) x(n) = n e
;
jπ n
;
(i) x(n) = e . jn
Esercizio 2.11 Rappresentare il grafico della differenza prima y(n) = ∇1 [x(n)] = x(n) − x(n − 1) del segnale TD x(n) e calcolarne area e valor medio nei seguenti casi: ' 1, n ∈ {0, 1, 4, 5} (a) x(n) = 0, altrimenti (b) x(n) = u(n) + u(n − 1). Esercizio 2.12 Rappresentare il grafico di x(t) e calcolarne area e valor medio nei seguenti casi: (a) x(t) = u(t); (b) x(t) = sgn(t); (c) x(t) = u(t − 5); (d) x(t) = sgn(−t); (e) x(t) = 2 u(t); (f) x(t) = 2 sgn(t) + 1; (g) x(t) = 2 rect(t); (h) x(t) = e−t u(t). [Suggerimento: per il calcolo del valor medio, utilizzare le proprietà della media temporale] Esercizio 2.13 Stabilire quali dei seguenti segnali TD sono periodici e, in caso affermativo, determinarne il periodo fondamentale N0 ; calcolarne inoltre area e valor medio: (a) x(n) =
+∞
∑
(−1)k δ (n − 2k);
+∞
( ) δ (n − 3k) − δ (n − k2 ) ;
k=−∞
(b) x(n) =
∑
k=−∞
86
Proprietà dei segnali
(c) x(n) = cos
πn 5
(d) x(n) = 2 cos
sin
πn
3π n π + 8 3
3
;
+ 4 sin
πn 2
.
Esercizio 2.14 Calcolare energia e potenza dei seguenti segnali TC e stabilire se sono segnali di energia o di potenza: (a) x(t) = u(t); (b) x(t) = sgn(t); (c) x(t) = cos(2π 100t) u(t); (d) x(t) = e−2t u(t); (e) x(t) = et u(−t); (f) x(t) = e−|t| ; (g) x(t) = e−t ; 2
(h) x(t) = e−t
2 /2
u(t);
1 (i) x(t) = √ . 1 + t2 [Suggerimento: per il calcolo dell’area e dell’energia dei segnali ai punti (g) ed (h), utilizzare l’integrale " +∞ −x2 √ notevole −∞ e dx = π .] Esercizio 2.15 Calcolare energia e potenza dei seguenti segnali TD e stabilire se sono segnali di energia o di potenza: (a) x(n) = u(n); (b) x(n) = u(n) − u(−n − 1); (c) x(n) = cos(π n) R5 (n); (d) x(n) = 5 cos(0.2π n); n 1 (e) x(n) = u(n); 2 (f) x(n) = (2)n R4 (n − 2); (g) x(n) =
+∞
∑
(−1)k δ (n − 2k).
k=−∞
Esercizio 2.16 Rappresentare il grafico del segnale TC
2π t x(t) = sgn a cos (a ∈ R, T0 ∈ R+ ) T0 discutendo separatamente i casi in cui a > 0 e a < 0, e calcolarne valor medio, energia e potenza. Esercizio 2.17 Rappresentare il grafico del segnale TC 0≤t ≤1 t , x(t) = 2 − t , 1 ≤ t ≤ 2 0, altrimenti e calcolarne valor medio, energia e potenza.
2.8 Esercizi proposti
87
Esercizio 2.18 Rappresentare il grafico del segnale TD x(n) = e−n/N u(n) con
N>0
e calcolarne valor medio, energia e potenza. Esercizio 2.19 Rappresentare il grafico del segnale TC 5 cos(π t) , −a ≤ t ≤ a x(t) = 0, altrimenti nel caso in cui a = 1 e a = 0.5, e calcolarne valor medio, energia e potenza in entrambi i casi. Esercizio 2.20 Rappresentare il grafico del segnale TC x(t) =
1 2
π π ≤t ≤ ω ω altrimenti
[cos(ω t) + 1] , −
0,
dove ω è una costante reale positiva, e calcolarne valor medio, energia e potenza. Esercizio 2.21 Rappresentare il grafico del segnale TD sin(0.5π n) , n ∈ {−4, −3, . . . , 4} x(n) = 0, altrimenti e calcolarne valor medio, energia e potenza. Esercizio 2.22 Rappresentare il grafico del segnale TC 5−t , 4 ≤ t ≤ 5 1 , −4 ≤ t ≤ 4 x(t) = 5 + t , −5 ≤ t ≤ −4 0, altrimenti e calcolarne valor medio, energia e potenza. Esercizio 2.23 Dato il segnale TC x(t) = rect(t), si consideri il segnale y(t) =
"t
−∞ x(τ ) d τ .
(a) Calcolare y(t) e rappresentarlo graficamente; (b) Calcolare la componente continua di y(t); (c) Stabilire se y(t) è un segnale di energia o di potenza e calcolarne l’energia o la potenza rispettivamente. Esercizio 2.24 Si consideri il segnale TC periodico x(t) =
+∞
∑
xg (t − kT0 )
k=−∞
dove xg (t) = 2 A Λ
2t T0
(A, T0 ∈ R+ )
Rappresentare il grafico del segnale x(t) e calcolarne valor medio, energia e potenza.
88
Proprietà dei segnali
Esercizio 2.25 Si consideri il segnale periodico x(n) =
+∞
∑
xg (n − 6 k)
k=−∞
dove
2, 1, xg (n) = 2, 0,
n = −1 n=0 n=1 altrove
Rappresentare il grafico del segnale x(n) e calcolarne valor medio, energia e potenza. Esercizio 2.26 Rappresentare il grafico del segnale TD y(n) =
+∞
∑
x(n − 10k)
k=−∞
dove x[n] = R3 (n + 1) + R2 (n − 4), e calcolarne valor medio, energia e potenza. Esercizio 2.27 Stabilire se i seguenti segnali TC sono periodici ed in caso affermativo determinarne il periodo; calcolarne inoltre il valor medio e la potenza: (a) x(t) = 2 cos2 (2π t); (b) x(t) = cos(2π t) u(t); (c) x(t) =
t 0
cos(2πτ ) d τ ;
(d) x(t) = cos(π t) + cos
πt
;
2
(e) x(t) = 2 cos(2π t) + 3 sin(2π t); (f) x(t) = cos(2π t) + 12 cos 2π t − π4 ; (g) x(t) = cos(2π t) sin(4π t). Esercizio 2.28 Calcolare valor medio, energia e potenza dei seguenti segnali TC x1 (t) = A1 e j2π f1 t ,
x2 (t) = A2 e j2π f2 t
con A1 , A2 ∈ R+ . Inoltre, si calcolino valor medio, energia e potenza del segnale x(t) = x1 (t) + x2 (t) discutendo separatamente i casi in cui f1 = f2 e f1 = f2 . Esercizio 2.29 Calcolare valor medio, energia e potenza dei seguenti segnali TD x1 (n) = A1 e j(2πν1 n+ψ1 ) ,
x2 (n) = A2 e j(2πν2 n+ψ2 )
con A1 , A2 ∈ R+ . Inoltre, si calcolino valor medio, energia e potenza del segnale x(n) = x1 (n) + x2 (n) . Per quali valori di ν1 − ν2 i due segnali sono ortogonali? Esercizio 2.30 Stabilire per quali valori di θ i segnali TC x(t) = cos(2π f0 t) e y(t) = cos(2π f0 t + θ ) sono ortogonali.
2.8 Esercizi proposti
89
Esercizio 2.31 Rappresentare il grafico dei seguenti segnali TC t x1 (t) = A1 [Λ(t − 1) − Λ(t + 1)] , x2 (t) = A2 rect 2 con A1 , A2 ∈ R+ , e calcolare valor medio, energia e potenza dei segnali y(t) = 5 x1 (t) + 3 x2 (t) ,
z(t) = 5 x1 (t) + 3 x2 (t − 1)
I segnali x1 (t) e x2 (t) sono ortogonali? Cosa si può dire invece per i segnali x1 (t) e x2 (t − 1)? Esercizio 2.32 Si considerino i seguenti segnali TC x1 (t) = e−t
2 /2
u(t) ,
x2 (t) = et/2 u(at)
Determinare l’insieme A ⊆ R dei valori di a in corrispondenza dei quali il segnale x2 (t) è un segnale di energia. Successivamente, per a ∈ A, si calcoli l’energia del segnale x(t) = x1 (t) + 2 x2 (t) . Esercizio 2.33 Si considerino i seguenti segnali TD x1 (n) = e−n u(n) ,
x2 (n) = R5 (n + n0 )
Determinare l’insieme Ω ⊆ Z dei valori di n0 in corrispondenza dei quali i due segnali x1 (n) e x2 (n) sono ortogonali. Successivamente, per n0 ∈ Ω, si calcoli l’energia del segnale x(n) = x1 (n) + 2 x2 (n) . Esercizio 2.34 Rappresentare il grafico dei seguenti segnali TC x(t) =
+∞
∑
xg (t − 4nT0 ) ,
y(t) =
n=−∞
dove
xg (t) = Λ
+∞
∑
yg (t − 4nT0 )
n=−∞
t T0
t yg (t) = Λ T0
− rect
t − 2T0 2T0
t − 2T0 + rect 2T0
con T0 ∈ R+ , e calcolare valor medio, energia e potenza del segnale z(t) = x(t) + y(t − 2T0 ) .
90
Proprietà dei segnali
Capitolo 3
Proprietà dei sistemi
U
n sistema è un modello matematico di un’entità fisica (un dispositivo elettromeccanico, una reazione chimico-fisica, un circuito elettrico, un processo di trasferimento di informazione) che trasforma segnali di ingresso (o cause) in segnali di uscita (o effetti). Da un punto di vista matematico, abbiamo visto nel § 1.2 che un sistema è fondamentalmente descritto da un operatore o una trasformazione S, che istituisce una relazione tra l’insieme dei segnali di ingresso I e l’insieme dei segnali di uscita U. La definizione di un modello matematico esplicito per un sistema è il primo passo per poter affrontare un qualsiasi problema di sintesi ed analisi dei sistemi. Il secondo passo, che è l’oggetto principale di questo capitolo, consiste, a partire da un modello matematico del sistema, nel definire e studiare alcune proprietà dei sistemi. Sebbene incompleta, la descrizione di un sistema sulla base delle sue proprietà è particolarmente importante in pratica per tre motivi. Innanzitutto, sulla base delle proprietà individuate è possibile suddividere i sistemi in classi omogenee. Inoltre, a partire dalle particolari proprietà di un sistema, il progettista è in grado di capire e sviluppare i metodi di analisi e sintesi più appropriati, in quanto sistemi con proprietà diverse richiedono generalmente metodologie differenti. Infine, le proprietà di un sistema consentono di capire più rapidamente quale sistema sia il modello matematico più adatto a descrivere un determinato fenomeno fisico. Facendo riferimento alla classificazione elementare introdotta nel § 1.5, considereremo nel seguito esclusivamente sistemi con un ingresso ed un’uscita (sistemi SISO), e tratteremo sia sistemi TC (ingresso e uscita entrambi TC), sia sistemi TD (con ingresso e uscita entrambi TD). Il caso di sistemi “ibridi” (con ingresso TC e uscita TD o viceversa) non è trattato specificamente in questo capitolo: alcuni esempi di sistemi di questo tipo (campionatori, interpolatori, convertitori A/D e D/A) sono discussi più in dettaglio nel cap. 7. Inoltre, per evidenziare le forti analogie esistenti tra il caso TC e TD, e poiché il modello matematico che introdurremo presenta differenze trascurabili nei due casi, la trattazione procederà in maniera il più possibile unificata.
3.1 Relazione ingresso-uscita Particolarizzando la definizione di sistema data nel § 1.2 al caso di sistemi con un ingresso ed un’uscita, diremo che un sistema SISO è un modello matematico che descrive la relazione tra un segnale
92
Proprietà dei sistemi
n
t
∫
x(t)
−∞
(a)
y(t)
x(n)
∑
y(n)
k=- ∞
(b)
Fig. 3.1. (a) Integratore TC. (b) Integratore TD o accumulatore.
di ingresso ed un segnale di uscita. Tale modello matematico è descritto da una trasformazione S : I → U,
(3.1)
che istituisce una relazione tra l’insieme dei segnali di ingresso I e l’insieme dei segnali di uscita U. Si osservi che gli insiemi I e U sono parte integrante della definizione di sistema: fissata la legge di corrispondenza, insiemi di segnali diversi definiscono sistemi diversi, che presentano proprietà diverse. Il modello matematico (3.1) può essere espresso in maniera sintetica, attraverso la relazione ingresso uscita (i-u), che nel caso di un sistema TC si definisce come segue: Definizione 3.1 (relazione i-u di un sistema TC) Un sistema TC (SISO) con ingresso x(t) ∈ I ed uscita y(t) ∈ U è descritto matematicamente dalla sua relazione ingresso-uscita (i-u): y(t) = S [{x(u)}u∈R ;t] .
(3.2)
Nella (3.2), come già osservato nel § 1.2, la notazione y(t) = S [{x(u)}u∈R ;t] sottolinea esplicitamente che l’uscita y(t) all’istante di tempo t dipende in generale dall’intero segnale di ingresso {x(u)}u∈R , e non semplicemente dal valore del segnale nello stesso istante t.1 Inoltre abbiamo utilizzato un’ulteriore variabile temporale t (separata dal punto e virgola) per specificare che la forma matematica della legge di corrispondenza tra ingresso ed uscita dipende in generale dal tempo t. Esempio 3.1 (integratore TC) L’integratore TC è descritto dalla seguente relazione i-u: y(t) =
t −∞
x(u) du ,
ed è rappresentato schematicamente in fig. 3.1(a). L’uscita del sistema all’istante t è calcolata effettuando l’integrale del segnale di ingresso da −∞ fino all’istante considerato. Pertanto, l’uscita all’istante t dipende da tutti i valori dell’ingresso x(u) per u ≤ t, valori che possiamo denotare sinteticamente con {x(u)}u≤t .
In maniera analoga, un sistema SISO TD può essere descritto matematicamente da una relazione i-u simile alla (3.2): Definizione 3.2 (relazione i-u di un sistema TD) Un sistema TD (SISO) con ingresso x(n) ∈ I ed uscita y(n) ∈ U è descritto matematicamente dalla sua relazione ingresso-uscita (i-u): y(n) = S [{x(k)}k∈Z ; n] . 1 Per
(3.3)
semplicità di notazione, abbiamo supposto che l’insieme di definizione del segnale TC di ingresso sia T ≡ R.
3.1 Relazione ingresso-uscita
z -1
x(n)
93
y(n)
x(n)
y(n)
z
y(n)
(a)
(a)
x(n)
↓M
(b) Fig. 3.2. Sistemi TD elementari. (a) Ritardo elementare: y(n) = x(n − 1). (b) Anticipo elementare: y(n) = x(n + 1).
x(n)
↑L
y(n)
(b) Fig. 3.3. Sistemi TD elementari. (a) Decimatore per ) y(n) = x(nM). (b) Espansore per L: y(n) = ( M: x Ln .
Il senso della notazione utilizzata nella (3.3) è lo stesso adottato per il caso TC: in particolare, l’uscita del sistema all’istante n dipende in generale dall’intero segnale di ingresso {x(k)}k∈Z , con una legge che può variare con n.2 Esempio 3.2 (integratore TD o accumulatore) La versione TD dell’integratore TC è l’accumulatore o somma corrente, descritto dalla seguente relazione i-u: y(n) =
n
∑
x(k) ,
(3.4)
k=−∞
e rappresentato schematicamente in fig. 3.1(b). Tale sistema calcola l’uscita all’istante n effettuando la somma di tutti i valori del segnale di ingresso fino all’istante n incluso. Anche in questo caso, l’uscita y(n) dipende dai valori dell’ingresso x(k) per k ≤ n, valori che denotiamo sinteticamente con {x(k)}k≤n . Esempio 3.3 (ritardo unitario, anticipo unitario, decimatore ed espansore) Molte delle operazioni elementari sui segnali introdotte nel cap. 2 (cfr. § 2.1) possono essere interpretate come sistemi. Nel caso TD, particolarmente importanti sono l’operazione di ritardo o anticipo di un campione, date rispettivamente da y(n) = x(n − 1) ,
y(n) = x(n + 1) ,
di decimazione: y(n) = x(nM) , e di espansione: n , se n è multiplo di L ; x L y(n) = x = L 0, altrimenti . n
Gli schemi a blocchi dei sistemi corrispondenti, denominati ritardo unitario, anticipo unitario, decimatore ed espansore, sono riportati in fig. 3.2 e fig. 3.3.3 semplicità di notazione, abbiamo supposto che l’insieme di definizione del segnale TD di ingresso sia T ≡ Z. notazioni z−1 e z utilizzate negli schemi per il ritardo e per l’anticipo fanno riferimento ad uno strumento matematico (la Z-trasformata) che non approfondiremo in questo testo; per questo motivo, il lettore è invitato a considerarle semplicemente delle notazioni simbolica (per ulteriori approfondimenti, si veda [14]). 2 Per 3 Le
94
Proprietà dei sistemi
R1
R2 R3
x(t)
R4
y(t)
Fig. 3.4. Circuito elettrico con resistori connessi in serie ed in parallelo. In particolare, R1 ed R2 sono connessi in serie, mentre R3 ed R4 sono connessi in parallelo. Inoltre, la serie di R1 ed R2 è connessa in serie al parallelo tra R3 ed R4 .
A volte, invece delle notazioni complete (3.2) e (3.3) per le relazioni i-u dei sistemi, si utilizzano le notazioni semplificate y(t) = S[x(t)],
y(n) = S[x(n)]
(3.5)
oppure le notazioni simboliche: x(t) −→ y(t),
x(n) −→ y(n) .
(3.6)
Abbiamo già osservato che la notazione (3.5) è fuorviante, in quanto può essere interpretata nel senso che il valore del segnale di uscita al’istante t oppure n dipende solo dal valore del segnale di ingresso nello stesso istante.4 Tuttavia, avendo avvertito il lettore, utilizzeremo talvolta le (3.5) e (3.6) in luogo delle notazioni rigorose (3.2) e (3.3) per snellire alcune derivazioni. Per concludere, notiamo che la relazione i-u non è l’unica descrizione possibile di un sistema, e sicuramente non è la più generale. In particolare, essa è una rappresentazione esterna, in cui compaiono solo i segnali in ingresso ed in uscita al sistema; il sistema stesso è visto come una “scatola nera” (black box), di cui non conosciamo il contenuto. Un’altra rappresentazione spesso adoperata nella teoria dei sistemi e del controllo, è la rappresentazione ingresso-stato-uscita (i-s-u), in cui entrano in gioco, oltre ai segnali di ingresso e di uscita, anche altri segnali (variabili di stato) che rappresentano lo stato interno del sistema.5 In ogni caso, nel seguito faremo uso esclusivamente della relazione i-u, che sebbene sia meno generale, è perfettamente adeguata per i nostri obiettivi.
3.2 Interconnessione di sistemi Sistemi semplici possono essere connessi tra loro (interconnessi) in varie configurazioni per ottenere sistemi più complessi. Questo approccio è estremamente conveniente se si desidera realizzare o sintetizzare un sistema complesso a partire da componenti semplici (ad esempio, un PC può essere realizzato assemblando componenti più semplici, quali scheda madre, scheda video, scheda audio, 4 Questa
interpretazione vale solo per una classe particolare di sistemi, i sistemi cosiddetti non dispersivi (cfr. § 3.3.1). “stato” di un sistema in un certo istante di tempo si intende l’insieme di informazioni necessarie e sufficienti a descrivere l’evoluzione del sistema fino a quell’istante. 5 Per
3.2 Interconnessione di sistemi
95
z(.) S2
S1
x(.)
y(.)
Fig. 3.5. Connessione in serie o in cascata dei sistemi S1 ed S2 .
S1
y 1(.)
y(.)
x(.)
S2
y 2(.)
Fig. 3.6. Connessione in parallelo dei sistemi S1 e S2 . Il sommatore all’uscita effettua la somma o la differenza dei segnali y1 (·) e y2 (·).
hard-disk, lettore CD, lettore DVD, lettore floppy-disk, monitor, tastiera, mouse, etc.). Viceversa, il comportamento di un sistema complesso può essere studiato o analizzato più facilmente se si riesce a decomporlo in sistemi più semplici e ad individuare le connessioni tra questi ultimi. Questo approccio è frequentemente utilizzato nello studio dei circuiti elettrici, come ad esempio quello riportato in fig. 3.4. Per semplificare lo studio delle interconnessioni tra sistemi, possiamo considerare le connessioni elementari tra due soli sistemi S1 : I1 → U1
e S2 : I2 → U2 .
Le connessioni più frequentemente considerate sono tre: connessione in serie, connessione in parallelo, e connessione in retroazione; avendo a disposizione più di due sistemi, e collegandoli tra loro secondo tali schemi, è possibile ottenere sistemi anche molto complessi. Definizione 3.3 (connessione di sistemi in serie) Due sistemi S1 e S2 si dicono connessi in serie o in cascata (fig. 3.5) se l’uscita del primo sistema S1 è collegata all’ingresso del secondo sistema S2 . Ad esempio, nel circuito di fig. 3.4, i resistori R1 ed R2 sono collegati in serie. Si noti che, affinchè il sistema serie sia correttamente definito, occorre che l’insieme U1 dei segnali di uscita del primo sistema sia racchiuso nell’insieme dei segnali di ingresso I2 del secondo sistema, cioè U1 ⊆ I2 . Definizione 3.4 (connessione di sistemi in parallelo) Due sistemi S1 e S2 si dicono connessi in parallelo (fig. 3.6) se lo stesso ingresso è applicato ai due sistemi S1 e S2 , e l’uscita si ottiene sommando algebricamente le uscite dei due sistemi.
96
Proprietà dei sistemi
S1
x(.)
y(.)
y 2(.)
S2
Fig. 3.7. Connessione in retroazione dei sistemi S1 e S2 . Il sommatore all’ingresso del sistema S1 effettua la somma o la differenza dei segnali x(·) e y2 (·).
Ad esempio, nel circuito di fig. 3.4, i resistori R3 ed R4 sono collegati in parallelo. Definizione 3.5 (connessione di sistemi in retroazione) Due sistemi S1 e S2 si dicono connessi in retroazione o con feedback (fig. 3.7) se l’uscita del sistema S1 , dopo essere stata elaborata dal sistema S2 , viene sommata algebricamente all’ingresso del sistema S1 . Quest’ultimo schema è più complicato da interpretare ed analizzare, in quanto il segnale di uscita viene riportato “all’indietro” (feedback), e viene aggiunto al segnale di ingresso, modificando a sua volta il segnale di uscita. Esso consente tuttavia di ottenere sistemi con comportamenti assai più complessi ed interessanti rispetto alle connessioni in serie ed in parallelo, in cui il segnale viaggia esclusivamente “in avanti” (feedforward). In particolare, mediante tale schema il sistema S2 , sulla base dell’osservazione dell’uscita del sistema S1 , può modificare l’ingresso al sistema S1 in modo da forzare un determinato andamento dell’uscita del sistema S1 . Si parla di retroazione negativa se il segnale y2 (·) riportato all’ingresso tende a contrastare le variazioni del segnale x(·), in caso contrario si parla di retroazione positiva. Lo schema con retroazione negativa è molto utilizzato nei sistemi di controllo, dove prende il nome di controllo a ciclo chiuso, e si dice che il sistema S2 funge da “controllore” del sistema S1 . Nell’elettronica analogica, invece, si utilizzano sia schemi con retroazione negativa (ad esempio, per la stabilizzazione degli amplificatori), sia schemi con retroazione positiva (ad esempio per il progetto di oscillatori). Infine, si noti che, similmente al collegamento serie, anche per lo schema con retroazione occorre che U1 ⊆ I2 e, in aggiunta, è richiesto che se x(·) ∈ I1 e y2 (·) ∈ U2 allora la loro somma/differenza x(·) ± y2 (·) è un segnale appartenente all’insieme I1 . Esempio 3.4 (accumulatore come sistema in retroazione) L’accumulatore dell’es. 3.2 ammette anche una descrizione di tipo ricorsivo, che porta alla sua interpretazione come sistema in retroazione. Infatti, estraendo il termine x(n) dalla sommatoria su k presente nella (3.4), si ha: y(n) =
n
∑
k=−∞
x(k) =
n−1
∑
x(k) + x(n) ,
k=−∞
=y(n−1)
da cui y(n) = y(n − 1) + x(n) .
3.3 Proprietà dei sistemi
x(n)
97
y(n) +
+
z-1
y(n-1) Fig. 3.8. Realizzazione di un accumulatore mediante connessione in retroazione di due sistemi: il sistema S1 è il sistema identico, mentre il sistema S2 è un ritardo elementare.
Notiamo che la precedente relazione non è una relazione i-u, in quanto l’uscita y(n) non è espressa direttamente in funzione dell’ingresso, ma in funzione dell’uscita y(n − 1) all’istante precedente. Essa consente tuttavia di fornire l’interpretazione dell’accumulatore riportata nello schema di fig. 3.8, dove il sistema S2 nel ramo in retroazione è un semplice ritardo unitario, mentre il sistema S1 nel ramo diretto è il sistema identico. Si noti che si tratta di una retroazione positiva, infatti l’uscita, essendo riportata in ingresso con il segno positivo, tende ad amplificare le variazioni del segnale di ingresso, e non ad attenuarle.
3.3 Proprietà dei sistemi Sulla base della definizione di relazione i-u, data dalla (3.2) nel caso TC e dalla (3.3) nel caso TD, è possibile introdurre e discutere alcune proprietà fondamentali dei sistemi, prescindendo completamente dalla loro natura fisica, ma analizzando esclusivamente la forma matematica della relazione i-u. Tali proprietà, discusse di seguito, sono la non dispersività, la causalità, l’invertibilità, l’invarianza temporale, la stabilità, la linearità.
3.3.1 Non dispersività
Riprendiamo la relazione i-u (3.2) di un sistema TC: y(t) = S [{x(u)}u∈R ;t] . Abbiamo già precisato che la notazione {x(u)}u∈R evidenzia che l’uscita all’istante t dipende in generale dall’intero segnale di ingresso. Esistono tuttavia sistemi per i quali l’uscita all’istante t è funzione solo dell’ingresso nello stesso istante t, e quindi la relazione i-u si può particolarizzare come segue: y(t) = S [x(t);t] . Estendendo i concetti precedenti in maniera ovvia al caso TD, possiamo dare la seguente definizione di sistema non dispersivo:
98
Proprietà dei sistemi
R1
x(t) R2
x(t)
α
y(t)
y(t)
(a)
x(n)
α
y(n)
Fig. 3.9. Schema elettrico di un partitore resistivo.
(b) Fig. 3.10. Schema a blocchi di un amplificatore. (a) Caso TC. (b) Caso TD.
Definizione 3.6 (sistema non dispersivo) (a) Un sistema TC si dice non dispersivo se la sua relazione i-u (3.2) assume la forma y(t) = S [x(t);t] .
(3.7)
(b) Un sistema TD si dice non dispersivo se la sua relazione i-u (3.3) assume la forma y(n) = S [x(n); n] .
(3.8)
In sintesi, in un sistema non dispersivo, l’uscita all’istante t oppure n dipende solo dal valore assunto dal segnale di ingresso nello stesso istante (con una legge che può variare, eventualmente, con t oppure con n). Sottolineamo che, di norma, i sistemi sono dispersivi, in quanto la forma più generale della relazione i-u è la (3.2) oppure la (3.3), e quindi i sistemi non dispersivi rappresentano un caso particolare. Inoltre, come sinonimo di sistema non dispersivo, si parla anche di sistema istantaneo o senza memoria. Esempio 3.5 (non dispersività del partitore resistivo) Si consideri il partitore resistivo, il cui schema elettrico è riportato in fig. 3.9, dove x(t) è la tensione d’ingresso e y(t) è la tensione di uscita. Applicando la legge del partitore, si ottiene la semplice relazione i-u: y(t) =
R2 x(t) , R1 + R2
nella quale y(t) dipende solo da x(t), ovvero la tensione di uscita dipende dalla tensione di ingresso nello stesso istante. Pertanto il partitore resistivo è un sistema non dispersivo. Esempio 3.6 (amplificatore/attenuatore TC) Un partitore resistivo ha una relazione i-u del tipo y(t) = α x(t) ,
con α =
R2 < 1. R1 + R2
(3.9)
3.3 Proprietà dei sistemi
99
Più in generale, un sistema TC descritto da una relazione i-u del tipo (3.9), con 0 < α < 1, prende il nome di attenuatore. Se, viceversa, α > 1, il sistema funziona da amplificatore.6 Il parametro α prende il nome di guadagno dell’amplificatore/attenuatore. Un amplificatore/attenuatore TC si rappresenta come in fig. 3.10(a). Esempio 3.7 (amplificatore/attenuatore TD) I concetti dell’es. 3.6 si possono estendere al caso TD, definendo attenuatore/amplificatore a TD (con guadagno α ∈ R) un sistema avente la seguente relazione i-u non dispersiva: y(n) = α x(n) . Un amplificatore/attenuatore a TD si rappresenta come in fig. 3.10(b).
Un sistema che non soddisfa la prop. 3.6 si dice evidentemente dispersivo, o anche dinamico, o ancora con memoria: ad esempio, l’integratore dell’es. 3.1 e l’accumulatore dell’es. 3.2 sono sistemi dispersivi. Si parla di “memoria” del sistema, nel senso chiarito meglio dai due esempi seguenti. Esempio 3.8 (integratore con memoria finita) Si consideri il sistema avente relazione i-u: y(t) =
t
t−T
x(u) du ,
con T > 0. Si tratta evidentemente di un sistema dispersivo, in quanto l’uscita all’istante t dipende dai valori dell’ingresso x(u) per t − T ≤ u ≤ t. L’uscita all’istante t, tuttavia, non dipende dall’intero segnale d’ingresso, in quanto i valori di x(u) con u < t − T oppure u > t non contribuiscono all’integrale. Per questo motivo, il sistema prende il nome di integratore con memoria finita, dove per memoria del sistema si intende la durata temporale della porzione di x(t) in ingresso che contribuisce all’uscita y(t) in un dato istante di tempo t: in questo caso, la memoria del sistema è proprio pari a T per ogni t. Il termine “memoria” per T viene utilizzato proprio perché, dopo un tempo T , il sistema “dimentica” l’ingresso. Esempio 3.9 (sistema MA) Si consideri il sistema TD descritto dalla seguente relazione i-u: y(n) =
M
∑ bk x(n − k) .
k=0
Tale sistema viene denominato filtro a media mobile o moving average (MA): il nome deriva dal fatto che il sistema calcola l’uscita y(n) effettuando la combinazione lineare, con pesi b0 , b1 , . . . , bM , degli M + 1 campioni x(n), x(n − 1), . . . , x(n − M) del segnale di ingresso. Nel caso in cui i pesi siano tutti uguali a 1/(M + 1), la relazione i-u diventa y(n) =
M 1 x(n − k) , ∑ M + 1 k=0
e quindi l’uscita y(n) è calcolata in ogni istante n come la media aritmetica dei campioni dell’ingresso negli istanti n, n − 1, . . . , n − M; si parla di media mobile in quanto al variare di n cambiano i campioni del segnale di ingresso interessati dall’operazione di media. Poiché l’uscita all’istante n dipende, oltre che da x(n), anche da M campioni precedenti dell’ingresso, tale sistema ha memoria finita e pari ad M.
In definitiva, la memoria di un sistema può essere definita come la durata temporale del segmento del segnale di ingresso che contribuisce, oltre al campione attuale,7 all’uscita in un determinato istante di tempo. In linea di principio tale memoria potrebbe variare col tempo, anche se negli es. 3.8 e 3.9 ciò non accade. Inoltre, non sempre la memoria di un sistema è finita; ad esempio l’integratore dell’es. 3.1 e l’accumulatore dell’es. 3.2 sono entrambi sistemi con memoria infinita.8 caso α < 0 si può vedere come la cascata di un invertitore, z(t) = −x(t), e di un amplificatore/attenuatore y(t) = |α |z(t). 7 Escludere il campione attuale nella determinazione della memoria di un sistema è significativo solo nel caso TD. 8 In stretta analogia con la classificazione dei segnali effettuata sulla base della durata nel § 2.3, i sistemi con memoria si possono ulteriormente classificare in sistemi a memoria rigorosamente finita, sistemi a memoria praticamente finita, e sistemi a memoria infinita. 6 Il
100
Proprietà dei sistemi
3.3.2 Causalità
Partiamo ancora dalla relazione i-u (3.2) valida per un sistema TC: y(t) = S [{x(u)}u∈R ;t] . Per un fissato t, possiamo suddividere il segnale {x(u)}u∈R in tre contributi: {x(u)}ut rappresenta l’ingresso futuro: in generale, quindi, l’uscita y(t) all’istante t dipende dall’ingresso passato, presente e futuro. Interpretando l’ingresso come causa e l’uscita come effetto, la dipendenza dell’uscita da valori futuri dell’ingresso viola il principio di causalità, secondo il quale l’effetto non può precedere la causa. Si giunge allora alla fondamentale definizione di sistema causale, ovvero di un sistema per il quale la (3.2) assume la forma y(t) = S[{x(u)}u≤t ;t] , dove con {x(u)}u≤t si intendono i valori dell’ingresso x(u) per u ≤ t, ovvero i valori passati ed il valore presente dell’ingresso. In altri termini, in un sistema causale l’uscita all’istante t dipende dagli ingressi passati e dall’ingresso presente, ma non dipende dagli ingressi futuri. Con ovvie modifiche, il concetto di sistema causale si estende al caso TD, giungendo alla seguente definizione: Definizione 3.7 (sistema causale) (a) Un sistema TC si dice causale se la sua relazione i-u (3.2) assume la forma y(t) = S [{x(u)}u≤t ;t] .
(3.10)
(b) Un sistema TD si dice causale se la sua relazione i-u (3.3) assume la forma y(n) = S [{x(k)}k≤n ; n] .
(3.11)
Esempio 3.10 (integratore causale e non causale) L’integratore dell’es. 3.1, descritto dalla relazione i-u y(t) =
t −∞
x(u) du ,
è chiaramente un sistema causale, in quanto l’uscita all’istante t dipende dall’ingresso x(u) per u ≤ t. Allo stesso modo, l’integratore dell’es. 3.8, descritto dalla relazione i-u y(t) =
t t−T
x(u) du ,
è un sistema causale, a patto che T > 0. Modificando gli estremi di integrazione, ovvero considerando un integratore descritto dalla relazione i-u y(t) =
t+T t
x(u) du ,
con T > 0, otteniamo un sistema non causale, in quanto l’uscita all’istante t dipende da x(u) per t ≤ u ≤ t + T , e quindi da valori futuri dell’ingresso.
3.3 Proprietà dei sistemi
101
Esempio 3.11 (sistema MA causale e non causale) Il sistema MA dell’es. 3.9, descritto dalla relazione i-u y(n) =
M
∑ bk x(n − k) ,
k=0
è chiaramente un sistema causale, in quanto l’uscita all’istante n dipende dai valori dell’ingresso x(n − k), con k ≥ 0, che rappresentano il presente (k = 0) ed il passato (k > 0). Se però modifichiamo leggermente la relazione i-u, considerando un sistema MA descritto dalla y(n) =
M
∑ bk x(n + k) ,
k=0
in tale sistema l’uscita all’istante n dipende dai valori dell’ingresso x(n + k), con k ≥ 0, che rappresentano il presente (k = 0) ed il futuro (k > 0), per cui tale sistema MA è non causale.
Un sistema causale è fondamentalmente un sistema la cui uscita in un dato istante non dipende dai valori futuri del segnale di ingresso. Ciò può essere espresso mediante la seguente proprietà:9 Proprietà 3.1 (proprietà di un sistema causale) (a) Siano y1 (t) e y2 (t) le uscite di un sistema TC in risposta ai segnali x1 (t) e x2 (t), rispettivamente. Il sistema è causale se e solo se, per ogni t0 ∈ R e per ogni x1 (t), x2 (t) ∈ I tali che x1 (t) = x2 (t), ∀t ≤ t0 , risulta che y1 (t) = y2 (t), ∀t ≤ t0 . (b) Siano y1 (n) e y2 (n) le uscite di un sistema TD in risposta ai segnali x1 (n) e x2 (n), rispettivamente. Il sistema è causale se e solo se, per ogni n0 ∈ Z e per ogni x1 (n), x2 (n) ∈ I tali che x1 (n) = x2 (n), ∀n ≤ n0 , risulta che y1 (n) = y2 (n), ∀n ≤ n0 . È bene osservare che la causalità (così come tutte le proprietà dei sistemi) è una proprietà dei sistemi e non dei segnali. Pertanto, con riferimento al caso TC, per dimostrare che un dato sistema è causale a partire dalla prop. 3.1, occorre verificare che tale proprietà sia soddisfatta per ogni coppia di segnali x1 (t), x2 (t) ∈ I tali che x1 (t) = x2 (t), ∀t ≤ t0 , con t0 ∈ R arbitrariamente scelto. La verifica della prop. 3.1 solo per alcuni segnali di ingresso appartenenti a I e/o solo per alcuni valori di t0 non è sufficiente per affermare che il sistema è causale. Viceversa, per dimostrare che un dato sistema è non causale e, quindi, non verifica la prop. 3.1, è sufficiente fornire uno ed un solo esempio di segnali di ingresso x1 (t) = x2 (t), ∀t ≤ t0 , per un dato valore t0 ∈ R, in corrispondenza dei quali y1 (t) = y2 (t), per uno o più valori di t ≤ t0 . Le stesse considerazioni valgono con ovvie modifiche anche per i sistemi TD. Gli esempi che seguono servono a chiarire ulteriormente questo aspetto. Esempio 3.12 (integratore non causale) Riconsideriamo l’integratore descritto dalla relazione i-u y(t) =
t+T t
x(u) du ,
con T > 0 e, utilizzando la prop. 3.1(a), verifichiamo che si tratta di un sistema non causale. A tal fine è sufficiente individuare due ingressi x1 (t) ed x2 (t) che non soddisfano la prop. 3.1(a). Scegliamo x1 (t) = 0, ∀t ∈ R, la cui corrispondente uscita è y1 (t) = 0, ∀t ∈ R, ed x2 (t) = u(t), la cui corrispondente uscita è se t < −T ; t+T 0 , y2 (t) = x(u) du = t + T , se −T ≤ t < 0 ; t T, se t ≥ 0 . 9 In
alcuni testi, la prop. 3.1 è data direttamente come definizione di sistema causale.
102
Proprietà dei sistemi
x(n)
∇1
y(n)
Fig. 3.11. Differenza prima. Sebbene x1 (t) = x2 (t) = 0, per ogni t ≤ 0, per le corrispondenti uscite si ha invece che y1 (t) = y2 (t), per alcuni valori di t ≤ 0; infatti, mentre y2 (t) = 0, per ogni t < 0, y2 (t) = 0, per t ∈] − T, 0[. Quindi la prop. 3.1(a) è violata da questa particolare scelta dei segnali di ingresso ed il sistema non può essere causale. Esempio 3.13 (differenza prima causale e non causale) Similmente all’operazione di derivazione per segnali a TC, anche l’operazione di differenza prima per segnali a TD (cfr. § 2.1.4) ammette una interpretazione sistemistica. Il sistema che opera la differenza prima causale è definito dal legame i-u: y(n) = ∇1 [x(n)] = x(n) − x(n − 1) ed è rappresentato schematicamente in fig. 3.11. Può essere visto come un sistema MA causale (cfr. es. 3.9, con M = 1, b0 = 1 e b1 = −1). Si tratta evidentemente di un sistema causale in quanto l’uscita all’istante n dipende solo dal valore presente x(n) del segnale di ingresso e da quello passato x(n − 1). È possibile definire anche un sistema che opera la differenza prima non causale nel seguente modo: y(n) = x(n + 1) − x(n) , che può essere visto come la cascata di un anticipo unitario e del sistema che opera la differenza prima causale. Equivalentemente, esso può anche essere visto come un sistema MA non causale (cfr. es. 3.9, con M = 1, b0 = −1 e b1 = 1). Si tratta chiaramente di un sistema non causale in quanto l’uscita all’istante n dipende dal valore futuro x(n + 1) del segnale di ingresso. Per provare ciò formalmente, usiamo la prop. 3.1(b) e scegliamo x1 (n) = 0, ∀n ∈ Z, la cui corrispondente uscita è y1 (n) = 0, ∀n ∈ Z, ed x2 (n) = δ (n − 1), la cui corrispondente uscita è y2 (n) = δ (n) − δ (n − 1). Sebbene x1 (n) = x2 (n) = 0, per ogni n ≤ 0, per le corrispondenti uscite si ha invece che y1 (n) = y2 (n), per alcuni valori di n ≤ 0; infatti, y1 (0) = 0 e y2 (0) = 1. Quindi la prop. 3.1(b) è violata da questa particolare scelta dei segnali di ingresso ed il sistema non può essere causale.
Si è visto che un sistema in cui l’uscita non soddisfa la (3.10) oppure la (3.11) si dice non causale. Un caso particolare di sistema non causale è quello in cui l’uscita dipende solo dal futuro, ossia: y(t) = S[{x(u)}u>t ;t] , y(n) = S[{x(k)}k>n ; n] . Un sistema siffatto si dice anticausale. Ad esempio, l’anticipo unitario y(n) = x(n + 1) è un sistema anticausale. Osserviamo in conclusione che non esistono (o almeno, non sono stati ancora scoperti...) sistemi fisici capaci di prevedere il futuro (ad esempio, la macchina del tempo che consente di viaggiare nel futuro è un esempio “fantascientifico” di sistema non causale), e quindi i sistemi del mondo fisico sono tutti causali. Questa osservazione si applica, in particolare, ai sistemi fisici che elaborano i segnali “in tempo reale”, cioè senza introdurre ritardi significativi tra il segnale d’ingresso ed il segnale di uscita. Tuttavia, in molti casi, anziché elaborare un segnale in tempo reale, è possibile memorizzarlo (su un supporto magnetico o ottico, ad esempio) ed elaborarlo “in tempo differito”: si pensi, ad esempio, all’elaborazione di un segnale che è stato prima acquisito e memorizzato sull’hard-disk di un personal computer. In quest’ultimo caso, è possibile assumere che il sistema di elaborazione conosca l’intero segnale di ingresso, ed è quindi utile considerare anche il caso di sistemi non causali. Un altro esempio
3.3 Proprietà dei sistemi
103
in cui ha senso considerare sistemi non causali è quello in cui la variabile indipendente del segnale non rappresenta effettivamente un tempo (ad esempio, nell’elaborazione di immagini, la variabile indipendente è di tipo spaziale). Si noti che, quando si progetta un sistema, la causalità rappresenta un vincolo a cui il sistema deve obbedire; pertanto, rimuovere il vincolo di causalità – compatibilmente con i requisiti applicativi – consente di progettare sistemi non causali aventi migliori prestazioni, anche se non operanti in tempo reale. 3.3.3 Invertibilità
In molti casi pratici, nota l’uscita y(·) di un sistema, siamo interessati a risalire all’ingresso x(·) che l’ha generata. Sfortunatamente questo non è sempre possibile, basti pensare ad esempio al sistema TC y(t) = x2 (t): è chiaro che, osservato y(t), non potremo risalire#univocamente a x(t), a causa dell’ambiguità sul segno nella determinazione della radice x(t) = ± y(t). Si intuisce allora come una condizione necessaria per risalire univocamente dall’uscita all’ingresso è quella che, comunque si prendano due ingressi distinti x1 (·) e x2 (·) appartenenti all’insieme I, le corrispondenti uscite y1 (·) e y1 (·) siano distinte, cioè: x1 (·) = x2 (·)
=⇒
y1 (·) = y2 (·) ,
(3.12)
ossia, ingressi distinti devono generare uscite distinte. Più precisamente, sussiste la seguente definizione di sistema invertibile:10 Definizione 3.8 (sistema invertibile) Un sistema S : I → U si dice invertibile se, comunque si fissi un segnale di uscita y(·) ∈ U, esiste un unico segnale di ingresso x(·) ∈ I tale che S [x(·)] = y(·). Se il sistema è invertibile, allora dall’osservazione dell’uscita del sistema è possibile determinare (almeno in linea di principio) univocamente l’ingresso. In altri termini, è possibile costruire un sistema S−1 : U → I , detto sistema inverso, tale che la cascata di S e S−1 (nell’ordine) realizza la trasformazione identica riportata in fig. 3.12, matematicamente ciò significa che: S−1 {S[x(·)]} = x(·) ,
per ogni segnale di ingresso x(·) ∈ I .
Si può verificare che, se S−1 è il sistema inverso di S, allora anche il sistema S−1 è invertibile e risulta che S{S−1 [y(·)]} = y(·), per ogni segnale y(·) ∈ U; in altre parole, il sistema S è il sistema inverso di S−1 . Da un punto di vista sistemistico, questo significa che, se il sistema S è invertibile, l’ordine dei due sistemi nella cascata in fig. 3.12 è inessenziale: sia la cascata S − S−1 che quella S−1 − S realizzano il sistema identico. Esempio 3.14 (invertibilità dell’amplificatore) Consideriamo l’amplificatore di guadagno α > 1, descritto dalla relazione i-u: y(·) = α x(·) . In questo caso, non vi è alcuna restrizione sui segnali di ingresso e uscita. L’amplificatore è un sistema invertibile, ed il sistema inverso si ottiene facilmente invertendo la precedente relazione: x(·) =
1 y(·) , α
e quindi il sistema inverso è un attenuatore, avente guadagno 1/α < 1 reciproco di quello dell’amplificatore. 10 Nel
seguito di questa sezione, faremo uso della notazione semplificata (3.5) per esprimere i legami i-u dei sistemi.
104
Proprietà dei sistemi
y(.) x(.)
S
S -1
x(.)
Fig. 3.12. Il sistema S−1 è il sistema inverso di S se e solo se la cascata dei due sistemi coincide con il sistema identico. Esempio 3.15 (non invertibilità del raddrizzatore) Studiamo l’invertibilità del sistema non lineare (“raddrizzatore”) descritto dalla relazione i-u: y(·) = |x(·)| . In questo caso, non vi è alcuna restrizione sui segnali di ingresso, mentre U è costituito da tutti i segnali non negativi a valori reali. È facile provare che il sistema raddrizzatore non è invertibile, a tale scopo possiamo far riferimento alla condizione necessaria (3.12). Basta infatti osservare che due ingressi distinti x1 (·) e x2 (·) aventi segno opposto [tali cioè che x2 (·) = −x1 (·)] generano gli stessi segnali di uscita y1 (·) ≡ y2 (·) = |x1 (·)| ≡ |x2 (·)|. Pertanto, poiché la (3.12) è violata, il raddrizzatore non è dotato di sistema inverso, e quindi i suoi effetti sono irreversibili.
Va notato in conclusione che, salvo per casi particolari, lo studio dell’invertibilità di un sistema, nonché la determinazione del sistema inverso, è in generale un problema abbastanza complesso. 3.3.4 Invarianza temporale
Consideriamo ancora una volta la relazione i-u di un sistema TC, nella sua forma più generale: y(t) = S [{x(u)}u∈R ;t] . La dipendenza da t nella relazione precedente evidenzia che il comportamento del sistema può variare nel tempo. Se tale dipendenza dal tempo non c’è, ovvero se è possibile scrivere: y(t) = S [{x(u)}u∈R ] , allora il sistema si dice invariante temporalmente [si usano anche le denominazioni di sistema tempoinvariante (TI) o stazionario]. Estendendo tale concetto in modo ovvio al caso TD, possiamo dare la seguente definizione:
Definizione 3.9 (sistema invariante temporalmente) (a) Un sistema TC si dice invariante temporalmente (TI) se la sua relazione i-u (3.2) assume la forma y(t) = S [{x(u)}u∈R ] .
(3.13)
(b) Un sistema TD si dice invariante temporalmente (TI) se la sua relazione i-u (3.3) assume la forma y(n) = S [{x(k)}k∈Z ] .
(3.14)
3.3 Proprietà dei sistemi
105
x(t)
y(t)
t1
t2
t
x (t)
t1
t2
t2 + T s
t
y (t)
t0
t0
t1
t1 + t0
t2
t2 + t0
t
t1
t1 + t0
t2
t2 + Ts t2 +Ts + t0
t
Fig. 3.13. Il comportamento di un sistema TC invariante temporalmente non dipende dall’istante di applicazione dell’ingresso: se xt0 (t) = x(t − t0 ), allora yt0 (t) = y(t − t0 ).
Viceversa, un sistema che non soddisfa la (3.13) o la (3.14) si dice tempo-variante (TV) o non stazionario. Una possibile interpretazione fisica della proprietà di invarianza temporale è quella che le proprietà del sistema non cambiano nel tempo, ovvero il sistema non “invecchia” e – caso limite – non “si rompe”. Una conseguenza dell’invarianza temporale è che il comportamento del sistema non dipende dall’istante in cui viene applicato l’ingresso, e quindi l’origine dei tempi può essere fissata arbitrariamente. Questa proprietà dei sistemi invarianti temporalmente è chiarita in fig. 3.13, con riferimento ad un sistema TC. Specificatamente, in questo esempio, il segnale x(t) è applicato in ingresso al sistema all’istante t1 , producendo in uscita il segnale y(t) a partire dall’istante di tempo t1 , la cui durata è maggiore di quella del segnale di ingresso (Ts > 0 è un parametro caratteristico del sistema). Si supponga ora di applicare in ingresso al sistema lo stesso segnale in un istante di tempo successivo t1 +t0 (con t0 > 0 arbitrario), cioè, a partire dal segnale x(t), si consideri ora il segnale xt0 (t) = x(t −t0 ), ottenuto da x(t) introducendo il ritardo temporale t0 . Se il sistema è TI, il suo comportamento non cambia nel tempo, pertanto la risposta yt0 (t) del sistema al segnale xt0 (t) è la stessa di quella corrispondente al segnale x(t), nel senso che il segnale di uscita yt0 (t) avrà lo stesso andamento temporale del segnale y(t) (la forma del segnale di uscita non cambia), l’unica differenza consiste nel fatto che yt0 (t) evolve a partire dall’istante di tempo t1 +t0 ; in altre parole, il segnale yt0 (t) differisce da y(t) solo per una traslazione temporale di t0 , ovvero yt0 (t) = y(t −t0 ) (questa interpretazione dell’invarianza temporale è ulteriormente approfondita dalla prop. 3.2). Se invece il sistema è TV, l’andamento dei segnali y(t) e yt0 (t) è in generale differente e la loro forma può essere anche profondamente diversa. Esempio 3.16 (amplificatore a guadagno costante e variabile) Il partitore resistivo, avente relazione i-u y(t) =
R2 x(t) , R1 + R2
2 non dipende dal tempo. Se tuttavia si tiene conto degli effetti è un sistema TI, in quanto il rapporto R1R+R 2 termici, allora i valori delle resistenze R1 ed R2 possono variare nel tempo per effetto dei cambiamenti di temperatura. In questo caso la relazione i-u va modificata come segue:
y(t) =
R2 (t) x(t) , R1 (t) + R2 (t)
(3.15)
106
Proprietà dei sistemi
ed è quella di un sistema TV. Notiamo che un partitore del tipo (3.15) è un esempio di sistema avente relazione i-u y(t) = α (t) x(t) .
(3.16)
Un sistema del tipo (3.16) è denominato amplificatore a guadagno variabile. Si noti che un sistema siffatto si comporta da amplificatore in corrispondenza dei valori di t per i quali |α (t)| > 1, e da attenuatore per i valori di t per i quali |α (t)| < 1. Una definizione analoga di amplificatore a guadagno variabile vale anche per il caso TD, e si scrive y(n) = α (n) x(n).
Poiché spesso non si conosce con sufficiente dettaglio la struttura del sistema, è utile fornire una caratterizzazione della proprietà di invarianza temporale che, differentemente dalla def. 3.9 in cui compare il funzionale S, coinvolga esclusivamente operazioni sui segnali di ingresso e di uscita (in linea con l’interpretazione data in fig. 3.13). Con riferimento al caso TC, ad esempio, si può dimostrare che una formulazione equivalente della proprietà di invarianza temporale è la seguente: se all’ingresso x(t) corrisponde l’uscita y(t), all’ingresso traslato x(t −t0 ) corrisponde l’uscita traslata y(t −t0 ), per ogni t0 ∈ R e per ogni segnale x(t) ∈ I ed y(t) ∈ U. Si faccia attenzione che, a stretto rigore, la proprietà precedente non deve valere solo “per ogni t0 ∈ R” ma, più precisamente, essa deve essere soddisfatta “per ogni t0 ∈ R tale che se x(t) ∈ I e y(t) ∈ U allora anche x(t − t0 ) ∈ I e y(t − t0 ) ∈ U”. Poiché tale distinzione ha un valenza esclusivamente matematica ed è inessenziale per molti sistemi di interesse pratico, nel seguito imporremo per semplicità che la proprietà di invarianza temporale debba valere per ogni t0 ∈ R. La stessa caratterizzazione vale anche nel caso TD, per cui si ha la seguente proprietà: Proprietà 3.2 (caratterizzazione i-u dell’invarianza temporale) (a) Un sistema TC con ingresso x(t) ed uscita y(t) è invariante temporalmente se e solo se x(t − t0 ) −→ y(t − t0 ) ,
(3.17)
per ogni t0 ∈ R, e per ogni coppia di segnali di ingresso x(t) ∈ I e di uscita y(t) ∈ U. (b) Un sistema TD con ingresso x(n) ed uscita y(n) è invariante temporalmente se e solo se x(n − n0 ) −→ y(n − n0 ) ,
(3.18)
per ogni n0 ∈ Z, e per ogni coppia di segnali di ingresso x(n) ∈ I e di uscita y(n) ∈ U. La prop. 3.2 ha un’interessante interpretazione in termini sistemistici, che è illustrata in fig. 3.14 con riferimento ad un sistema TD. La risposta yn0 (n) del sistema S al segnale traslato x(n − n0 ) può essere riguardata come la risposta della cascata riportata in fig. 3.14(a) al segnale di ingresso x(n): il primo sistema è così definito:
Sz−n0 : x(n) → xn0 (n) = x(n − n0 ) , ed effettua semplicemente il ritardo/anticipo del segnale x(n) di n0 campioni, il segnale ottenuto xn0 (n) è poi posto in ingresso al sistema S in esame, ottenendo il segnale yn0 (n) in uscita dalla cascata. Viceversa, il segnale traslato y(n − n0 ) può essere visto come la risposta della cascata riportata in fig. 3.14(b) al segnale di ingresso x(n), in cui, rispetto allo schema di fig. 3.14(a), l’ordine tra i due sistemi è scambiato. In base alla prop. 3.2(b), il sistema S è TI se e solo se yn0 (n) = y(n − n0 ), ovvero se e solo se le due configurazioni in cascata riportate in fig. 3.14 sono equivalenti, nel senso che
3.3 Proprietà dei sistemi
107
z - n0
x(n)
x n (n)=x(n-n0) 0
S
y n (n) 0
(a)
y(n) x(n)
S
-n z 0
y(n-n0)
(b) Fig. 3.14. Se il sistema TD S è TI, i due schemi in figura sono equivalenti.
forniscono la stessa uscita in risposta allo stesso segnale; quindi, se si deve calcolare la risposta del sistema S al segnale di ingresso x(n − n0 ), si può calcolare prima la risposta del sistema al segnale x(n) e poi far passare il segnale ottenuto attraverso il sistema Sz−n0 . In altre parole, se il sistema è TI, le trasformazioni S e Sz−n0 commutano,11 cioè: S{Sz−n0 [x(n)]} = Sz−n0 {S[x(n)]} ,
per ogni segnale di ingresso x(n) ∈ I ,
e la loro posizione nella cascata è ininfluente; ovviamente tale risultato non sussiste se il sistema è TV. In pratica, per dimostrare che un dato sistema è invariante temporalmente oppure no, è conveniente in generale utilizzare la prop. 3.2 piuttosto che la def. 3.9, come mostrato dagli esempi che seguono. Esempio 3.17 (tempo-varianza dell’amplificatore con guadagno variabile) Applicando la prop. 3.2 dell’invarianza temporale, verifichiamo che in generale il sistema y(t) = α (t) x(t), introdotto nell’es. 3.16, è TV. Per non sbagliare, conviene procedere per sostituzioni formali. All’ingresso x(t) corrisponde l’uscita y(t) = α (t) x(t); denotando con
xt0 (t) = x(t − t0 ) l’ingresso traslato di t0 , si ha che l’uscita yt0 (t) corrispondente a xt0 (t) è yt0 (t) = α (t) xt0 (t) = α (t) x(t − t0 ) . D’altra parte, traslando l’uscita y(t) si ha: y(t − t0 ) = α (t − t0 ) x(t − t0 ) . È chiaro che yt0 (t) = y(t − t0 ), in quanto si ha: yt0 (t) = α (t) x(t − t0 ) = α (t − t0 ) x(t − t0 ) = y(t − t0 ) , per cui, evidentemente, l’amplificatore a guadagno variabile è un sistema TV. In effetti, nella relazione precedente può valere l’uguaglianza per ogni ingresso x(t) se e solo se α (t − t0 ) = α (t) per ogni t0 ∈ R, ovvero se α (t) = α (costante). Quindi l’amplificatore risulta TI se e solo se il guadagno è costante, ovvero se la sua relazione i-u è y(t) = α x(t). Analogamente, si dimostra che l’amplificatore a guadagno variabile a TD, per il quale si ha y(n) = α (n) x(n), è un sistema TV in generale (è TI se e solo se α (n) = α ). 11 Per
semplicità, facciamo uso ancora una volta della notazione semplificata (3.5) per esprimere i legami i-u dei sistemi.
108
Proprietà dei sistemi
Esempio 3.18 (invarianza temporale dell’integratore) Proviamo invece che l’integratore dell’es. 3.1 è un sistema TI. Poiché all’ingresso x(t) corrisponde l’uscita y(t) =
t −∞
x(u) du ,
all’ingresso xt0 (t) = x(t − t0 ) corrisponde l’uscita yt0 (t) =
t −∞
xt0 (u) du =
t −∞
x(u − t0 ) du .
Effettuando il cambio di variabile v = u − t0 , si ha: yt0 (t) =
t−t0 −∞
x(v) dv = y(t − t0 ) ,
per cui resta provato che l’integratore è un sistema TI. Allo stesso modo, si può provare che l’integratore con memoria dell’es. 3.8, e l’integratore non causale dell’es. 3.10, sono anch’essi sistemi TI. Si dimostra analogamente che anche l’accumulatore o integratore a TD dell’es. 3.2 è un sistema TI. Esempio 3.19 (invarianza temporale del sistema MA) È facile provare che il sistema MA dell’es. 3.9 è TI. Infatti, poiché all’ingresso x(n) corrisponde l’uscita y(n) =
M
∑ bk x(n − k) ,
k=0
all’ingresso xn0 (n) = x(n − n0 ) corrisponderà l’uscita: yn0 (n) =
M
M
k=0
k=0
∑ bk xn0 (n − k) = ∑ bk x(n − n0 − k) = y(n − n0 ) ,
per cui il sistema è effettivamente TI. Nella dimostrazione precedente gioca un ruolo fondamentale il fatto che i coefficienti bk non variano con n; se tale proprietà non fosse verificata, il sistema risulterebbe TV. Esempio 3.20 (tempo-varianza della riflessione) Consideriamo il sistema TD che effettua la riflessione temporale di un segnale (si tratta di una delle operazioni elementari introdotte nel § 2.1): y(n) = x(−n) .
Applicando al sistema l’ingresso traslato xn0 (n) = x(n − n0 ), si ottiene l’uscita yn0 (n) = xn0 (−n) = x(−n − n0 ) = y(n + n0 ) = y(n − n0 ) , e pertanto il sistema risulta essere TV. Alla stessa conclusione si arriva anche se si considera la riflessione y(t) = x(−t) di un segnale TC.
In conclusione, si osservi che l’invarianza temporale è una pura astrazione matematica: nessun sistema del mondo fisico è tempo-invariante in senso stretto. Tuttavia, tale astrazione è utile per descrivere molti sistemi di interesse il cui comportamento nel tempo è approssimativamente costante su un periodo di tempo sufficientemente lungo (rispetto all’intervallo di tempo in cui ci interessa studiare il sistema). Ad esempio, un amplificatore audio non è un sistema TI in senso stretto, in quanto il suo comportamento cambia drasticamente quando lo si accende o lo si spegne, e cambia meno drasticamente quando si alza o si abbassa il volume. Tuttavia, per l’intervallo di durata di un compact disc, se il volume è tenuto fisso, il sistema può ritenersi ragionevolmente TI.
3.3 Proprietà dei sistemi
109
3.3.5 Stabilità
Un sistema si dice stabile in senso BIBO (bounded-input bounded-output) se l’uscita corrispondente ad un qualunque ingresso di ampiezza limitata è a sua volta di ampiezza limitata.12 Matematicamente, questa proprietà si può formulare per il caso TC e TD come segue: Definizione 3.10 (sistema stabile in senso BIBO) (a) Un sistema TC con ingresso x(t) ed uscita y(t) si dice stabile in senso BIBO se |x(t)| ≤ Kx
per ogni t ∈ R
=⇒
|y(t)| ≤ Ky
per ogni t ∈ R ,
(3.19)
per ogni x(t) ∈ I limitato, con Kx , Ky ∈ R+ . (b) Un sistema TD con ingresso x(n) ed uscita y(n) si dice stabile in senso BIBO se |x(n)| ≤ Kx
per ogni n ∈ Z
=⇒
|y(n)| ≤ Ky
per ogni n ∈ Z ,
(3.20)
per ogni x(n) ∈ I limitato, con Kx , Ky ∈ R+ . In pratica, per provare che un sistema è stabile, bisogna supporre che l’ingresso sia arbitrario ma limitato, cioè che valga la condizione |x(·)| ≤ Kx , per ogni valore di tempo, e trovare un’opportuna maggiorazione per l’uscita, ovvero trovare un valore Ky ∈ R+ tale che |y(·)| ≤ Ky , per ogni valore di tempo. Esempio 3.21 (stabilità dell’amplificatore a guadagno costante) Proviamo che l’amplificatore a TC y(t) = α x(t) è stabile. Infatti, se |x(t)| ≤ Kx per ogni t ∈ R (ingresso limitato), è possibile scrivere la seguente catena di uguaglianze e disuguaglianze:
|y(t)| = |α | |x(t)| ≤ |α | Kx = Ky ,
∀t ∈ R ,
da cui si ricava che anche y(t) è limitato. Con analoghi passaggi è possibile provare che anche l’amplificatore a TD y(n) = α x(n) è un sistema stabile. Esempio 3.22 (stabilità dell’amplificatore a guadagno variabile) Consideriamo l’amplificatore a guadagno variabile a TC y(t) = α (t) x(t). Se |x(t)| ≤ Kx per ogni t ∈ R (ingresso limitato), e se anche |α (t)| ≤ Kα per ogni t ∈ R (guadagno limitato) è possibile scrivere:
|y(t)| = |α (t)| |x(t)| ≤ Kα Kx = Ky ,
∀t ∈ R ,
per cui anche y(t) è limitato. Notiamo che il sistema è stabile solo se facciamo l’ipotesi aggiuntiva (fisicamente ragionevole) che il guadagno α (t) sia limitato. Con analoghi passaggi, e supponendo anche in questo caso che il guadagno sia limitato, ovvero che |α (n)| ≤ Kα per ogni n ∈ Z, è possibile provare che anche l’amplificatore a guadagno variabile a TD y(n) = α (n) x(n) è un sistema stabile. Esempio 3.23 (sistema MA) Proviamo che il sistema MA dell’es. 3.9, descritto dalla relazione i-u y(n) =
M
∑ bk x(n − k) ,
k=0 12 La
stabilità BIBO è anche detta stabilità esterna in quanto coinvolge solo le grandezze esterne al sistema (ingresso ed uscita) e non le grandezze interne al sistema (stato): questa definizione di stabilità è quindi in perfetto accordo con la scelta di descrivere i sistemi mediante la rappresentazione i-u, e non attraverso la rappresentazione i-s-u. Per la rappresentazione i-s-u, invece, si possono dare definizioni diverse di stabilità, che coinvolgono anche la limitatezza delle variabili di stato. Nel seguito, quando parleremo di stabilità intenderemo sempre la stabilità BIBO.
110
Proprietà dei sistemi
(a)
(b)
(c) Fig. 3.15. Un esempio di sistema instabile: il Tacoma Narrows Bridge. (a) Il Tacoma Narrows Bridge in oscillazione per le forti raffiche di vento poco prima della rottura. (b) Le oscillazioni viste da una estremità del ponte. Il dislivello tra i due lati del ponte dovuto alla torsione raggiunge l’altezza di 8.5 metri. (c) Alle 11:00 circa del 7 novembre 1940 il ponte crolla. è stabile. Infatti, se |x(n)| ≤ Kx per ogni n ∈ Z, è possibile scrivere: M M M |y(n)| = ∑ bk x(n − k) ≤ ∑ |bk | |x(n − k)| ≤ Kx ∑ |bk | = Ky , ∀n ∈ Z , k=0 k=0 k=0 per cui anche y(n) è limitato. Notiamo che un sistema MA è sempre stabile, qualunque sia l’ordine M e per qualsiasi valore dei coefficienti bk ; la sua stabilità dipende dal fatto che è descritto da una relazione i-u consistente nella somma finita di valori ritardati dell’ingresso (moltiplicati per dei coefficienti costanti).
Come si vede, per provare che un sistema è stabile, bisogna provare che l’uscita y(·) è limitata in ogni istante di tempo e per un qualunque ingresso limitato, quindi bisogna procedere tentando di trovare un maggiorante Ky per l’uscita, con la sola ipotesi che |x(·)| ≤ Kx , in ogni istante di tempo. Viceversa, per provare che un sistema è instabile, è sufficiente trovare almeno un segnale limitato in corrispondenza del quale l’uscita non è limitata, assume cioè valore infinito in almeno un istante di tempo. Un segnale che si presta bene per dimostrare che un sistema è instabile è il gradino x(·) = u(·), che è un segnale limitato in quanto assume solo i valori 0 ed 1. Esempio 3.24 (instabilità dell’integratore con memoria infinita e dell’accumulatore) L’integratore a TC con memoria infinita dell’es. 3.1, descritto dalla relazione i-u y(t) =
t −∞
x(u) du ,
3.3 Proprietà dei sistemi
111
non è un sistema stabile. Infatti, se si suppone che |x(t)| ≤ Kx per ogni t ∈ R (ingresso limitato) e si prova a trovare una maggiorazione per l’uscita, si ha: t t t x(u) du ≤ |x(u)| du ≤ Kx du , |y(t)| = −∞
−∞
−∞
"
t ma non è possibile trovare un’ulteriore maggiorazione per l’uscita, in quanto l’integrale −∞ du non è limitato. Tale difficoltà lascia intuire che il sistema è instabile; per provarlo, poniamo in ingresso x(t) = u(t) (ingresso limitato), e calcoliamo l’uscita: t 0 , t < 0; u(u) du = t y(t) = du = t , t ≥ 0 ; −∞ 0
ovvero l’uscita si può scrivere nella forma y(t) = t u(t), che rappresenta una rampa a TC (fig. 2.43), ed è un segnale non limitato in ampiezza. Avendo trovato anche un solo ingresso limitato in corrispondenza del quale l’uscita non è limitata, abbiamo provato che il sistema è instabile. In maniera simile, si prova che la versione a TD dell’integratore con memoria infinita, cioè l’accumulatore dell’es. 3.2, avente relazione i-u y(n) =
n
∑
x(k) ,
k=−∞
è instabile. Infatti, se si pone in ingresso x(n) = u(n), si ottiene in uscita il segnale n < 0; 0 , n n y(n) = ∑ u(k) = ∑ 1 = n+1, n ≥ 0; k=−∞ k=0
ovvero un segnale esprimibile come y(n) = (n + 1) u(n) (rampa a TD), che è non limitato.
La stabilità è una proprietà fondamentale nel progetto dei sistemi, in quanto assicura che, applicando al sistema segnali di ingresso limitati, l’uscita non assumerà mai valori arbitrariamente grandi. Viceversa, in un sistema fisico instabile, l’uscita può assumere, per determinati segnali di ingresso, valori arbitrariamente grandi, il che può portare al malfunzionamento del sistema o addirittura alla sua rottura. Un esempio fisico particolarmente impressionante di sistema instabile è quello del Tacoma Narrows Bridge (costruito presso Washington D.C., USA) che crollò nel 1940, pochi mesi dopo essere stato aperto al traffico, a causa delle raffiche di vento che indussero oscillazioni tali da provocare la rottura dei cavi metallici e il conseguente crollo del ponte (fig. 3.15). Proprio per evitare l’innesco di pericolose oscillazioni, che possono portare alla rottura, ai soldati che attraversano i ponti a passo di marcia si comanda abitualmente di “rompere il passo”. 3.3.6 Linearità
La proprietà di linearità è estremamente importante, in quanto porta a notevoli semplificazioni nell’analisi e nella sintesi dei sistemi. Nel seguito supporremo che, più in generale, i segnali in gioco siano a valori complessi e il loro codominio coincida con il campo dei numeri complessi, cioè, X ≡ C, mentre il dominio T sarà uguale a R oppure Z nel caso TC oppure TD, rispettivamente. Questa scelta ci consente di trattare anche segnali, quali ad esempio il fasore, che, pur non essendo direttamente riconducibili ad alcuna grandezza fisica, rappresentano una comoda astrazione matematica per la descrizione di alcuni fenomeni naturali. D’altra parte, i segnali a valori reali sono un sottoinsieme dei segnali a valori complessi. La proprietà di linearità può essere vista come composta da due proprietà più semplici: la proprietà di omogeneità e di additività, secondo la definizione seguente:
112
Proprietà dei sistemi
x(.)
α
y a(.)
S
(a)
x(.)
α
S
y b(.)
(b) Fig. 3.16. Se il sistema S verifica la proprietà di omogeneità, le configurazioni (a) e (b) sono equivalenti.
Definizione 3.11 (sistema lineare) Un sistema si dice lineare se soddisfa le seguenti due proprietà: (a) Omogeneità: per ogni coppia di segnali di ingresso x(·) ∈ I ed uscita y(·) ∈ U, si ha:
α x(·) −→ α y(·) ,
∀α ∈ C .
(b) Additività: per ogni coppia di segnali di ingresso x1 (·) ∈ I ed uscita y1 (·) ∈ U, e per ogni coppia di segnali di ingresso x2 (·) ∈ I ed uscita y2 (·) ∈ U, si ha: x1 (·) + x2 (·) −→ y1 (·) + y2 (·) .
Da un punto di vista matematico, la proprietà di omogeneità impone implicitamente che, se x(·) ∈ I, allora anche α x(·) ∈ I, ovvero l’insieme dei segnali di ingresso deve essere chiuso rispetto all’operazione di moltiplicazione per una costante. Allo stesso modo, la proprietà di additività impone implicitamente che, se x1 (·) ∈ I e x2 (·) ∈ I, allora anche x1 (·) + x2 (·) ∈ I, ovvero l’insieme dei segnali di ingresso deve essere chiuso rispetto all’operazione di somma. Pertanto, affinchè il sistema S possa essere lineare, occorre che l’insieme dei segnali di ingresso I sia uno spazio lineare, ossia uno spazio funzionale chiuso rispetto all’operazione di moltiplicazione per una costante e somma. Stessa proprietà deve valere anche per l’insieme dei segnali di uscita U. Da un punto di vista sistemistico, la proprietà di omogeneità può essere interpretata come in fig. 3.16. Precisamente, se il sistema S verifica la proprietà di omogeneità, allora la configurazione serie in fig. 3.16(a) è equivalente alla configurazione serie in fig. 3.16(b), nel senso che ya (·) ≡ yb (·); quindi, se si deve calcolare la risposta del sistema S al segnale di ingresso α x(·), si può equivalentemente calcolare prima la risposta del sistema S al segnale di ingresso x(·) e poi far passare il segnale ottenuto attraverso un amplificatore di guadagno α . In altre parole, se il sistema è omogeneo, esso commuta con il sistema amplificatore e la sua posizione nella cascata è inessenziale. Anche la proprietà di additività ammette una interessante interpretazione in termini di sistemi. Infatti, con riferimento alla fig. 3.17, se il sistema S verifica la proprietà di additività, allora la cascata del sommatore e del sistema S in fig. 3.17(a) è equivalente al sistema raffigurato in fig. 3.16(b) (si faccia attenzione: non è una configurazione parallelo), nel senso che ya (·) ≡ yb (·); quindi, se si deve calcolare la risposta del
3.3 Proprietà dei sistemi
113
x1(.)
x2(.)
x1(.)
y a(.)
S
(a)
S
y b(.)
x2(.)
S
(b) Fig. 3.17. Se il sistema S verifica la proprietà di additività, le configurazioni (a) e (b) sono equivalenti.
sistema S al segnale di ingresso x1 (·) + x2 (·) si può calcolare prima la risposta del sistema S ai segnali di ingresso x1 (·) e x2 (·) separatamente, e poi sommare i segnali di uscita ottenuti. Le due proprietà precedenti, che caratterizzano la linearità di un sistema, si possono riassumere nel cosiddetto principio di sovrapposizione: Proprietà 3.3 (principio di sovrapposizione) Un sistema è lineare se, per ogni coppia di segnali di ingresso x1 (·) ∈ I ed uscita y1 (·) ∈ U, e per ogni coppia di segnali di ingresso x2 (·) ∈ I ed uscita y2 (·) ∈ U, si ha:
α1 x1 (·) + α2 x2 (·) −→ α1 y1 (·) + α2 y2 (·) ,
∀α1 , α2 ∈ C .
(3.21)
Notiamo che il principio di sovrapposizione si può esprimere, adoperando la notazione semplificata (3.5) per il sistema S, anche nella forma: S[α1 x1 (·) + α2 x2 (·)] = α1 S[x1 (·)] + α2 S[x2 (·)] ,
∀α1 , α2 ∈ C ,
(3.22)
che ammette l’interpretazione sistemistica riportata in fig. 3.18: se il sistema S è lineare, allora i due sistemi riportati in fig. 3.18(a) e fig. 3.18(b) sono equivalenti, cioè, ya (·) ≡ yb (·); pertanto, se si deve
114
Proprietà dei sistemi
α1
x1(.)
S
y a(.)
α2
x2(.)
(a)
x1(.)
α1
S
y b(.)
x2(.)
α2
S
(b) Fig. 3.18. Se il sistema S è lineare, le configurazioni (a) e (b) sono equivalenti (principio di sovrapposizione).
calcolare la risposta del sistema S al segnale di ingresso α1 x1 (·) + α2 x2 (·), si può calcolare prima la risposta del sistema S ai segnali di ingresso x1 (·) e x2 (·) separatamente, e poi combinare linearmente, utilizzando i coefficienti α1 e α2 , i segnali di uscita ottenuti. Il principio di sovrapposizione si può estendere anche a più di due ingressi e con qualche cautela matematica anche ad una infinità numerabile di ingressi: se all’ingresso xk (·) ∈ I corrisponde l’uscita yk (·) ∈ U, si ha:
∑ αk xk (·) k
−→
∑ αk yk (·) ,
∀α1 , α2 , . . . , αk , . . . ∈ C .
(3.23)
k
È bene evidenziare che se il numero di segnali che si sovrappone è finito la (3.23) discende semplicemente dalla (3.22); se, invece, il numero di segnali xk (·) è infinito, la (3.22) da sola non basta per assicurare la (3.23): in questo caso, occorre imporre alcune condizioni matematiche aggiuntive. Onde evitare di dilungarci in discussioni di carattere prettamente matematico che non hanno rilevanza in molti casi di interesse pratico, nel seguito assumeremo la (3.23) come definizione di principio di sovrapposizione, che ovviamente racchiude la (3.22) come caso particolare. Ciò conduce alla seguente definizione più generale di sistema lineare: un sistema è lineare se, comunque si consideri una successione numerabile di segnali di ingresso xk (·) ∈ I, con k ∈ Z, l’uscita corrispondente ad una arbitraria combinazione lineare di {xk (·)}k∈Z è costituita dalla combinazione lineare, con gli stessi coefficienti, delle uscite yk (·) ∈ U corrispondenti agli ingressi presi separatamente. La proprietà di linearità comporta notevoli semplificazioni nell’analisi e nella sintesi dei sistemi, ed il principio di sovrapposizione è molto utilizzato ad esempio nello studio dei circuiti elettrici. A tale proposito, si noti che, come l’invarianza temporale, anche la linearità è una idealizzazione
3.3 Proprietà dei sistemi
115
matematica: nessun sistema nella realtà fisica è lineare in senso stretto. Infatti, in pratica, un sistema è progettato per poter funzionare con una certa famiglia di segnali di ingresso, e la moltiplicazione del segnale di ingresso per una costante di ampiezza arbitraria non si traduce semplicemente nella moltiplicazione dell’uscita per la stessa costante. Ad esempio, se si considera un amplificatore audio e lo si forza in ingresso con un segnale di tensione la cui ampiezza è maggiore di quella per cui il sistema è stato progettato, si ottiene in uscita un suono poco gradevole che nulla ha a che fare con il segnale di ingresso che si vuole amplificare. In pratica, quando si parla di sistema lineare, si intende un sistema che soddisfa il principio di sovrapposizione, quando l’ampiezza dei segnali di ingresso non eccede (in valore assoluto) una determinata soglia, variabile da sistema a sistema; se l’ampiezza del segnale di ingresso eccede tale soglia, il sistema non può più considerarsi lineare.13 Esempio 3.25 (linearità dell’amplificatore a guadagno variabile) L’amplificatore a guadagno variabile a TC y(t) = α (t) x(t) è un sistema lineare, in quanto soddisfa al principio di sovrapposizione. Adoperando la formulazione (3.22), infatti, si ha, con semplici calcoli algebrici: S[α1 x1 (t) + α2 x2 (t)] = α (t)[α1 x1 (t) + α2 x2 (t)] = α1 [α (t) x1 (t)] + α2 [α (t) x2 (t)] = α1 S[x1 (t)] + α2 S[x2 (t)] .
(3.24)
Con analogo ragionamento si può provare che anche l’amplificatore a TD y(n) = α (n) x(n) è un sistema lineare. Sia nel caso TC che TD, notiamo che la linearità dell’amplificatore vale anche nel caso particolare in cui il guadagno α (·) = α è costante (amplificatore a guadagno costante).
Una conseguenza importante della proprietà di linearità, e più precisamente dell’omogeneità, è che se un sistema omogeneo è sollecitato con un ingresso nullo (ovvero è “a riposo”), l’uscita corrispondente è necessariamente nulla. Proprietà 3.4 (comportamento a riposo di un sistema omogeneo) In un sistema omogeneo, l’uscita corrispondente all’ingresso nullo è necessariamente nulla. Prova. Sia x0 (·) ≡ 0 l’ingresso nullo, e sia y0 (·) l’uscita corrispondente a tale ingresso. Poiché x0 (·) −→ y0 (·), si ha, per l’omogeneità,
α x0 (·) −→ α y0 (·) ,
∀α ∈ C ,
ma poiché x0 (·) = α x0 (·) ≡ 0 ∀α ∈ C, allora deve aversi necessariamente y0 (·) = α y0 (·), ∀α ∈ C, e quest’ultima uguaglianza può essere verificata se e solo se y0 (·) ≡ 0. Esempio 3.26 (sistema non omogeneo) Il sistema avente relazione i-u y(t) = b1 x(t) + b0 , con b0 = 0, non è omogeneo (e quindi non è lineare) per la presenza del termine b0 . Infatti ponendo x(t) ≡ 0, si trova y0 (t) = b0 = 0, e pertanto l’uscita corrispondente all’ingresso nullo non è nulla.
Sebbene sia non lineare secondo la definizione data, il sistema dell’es. 3.26 appartiene ad una classe di sistemi in cui l’uscita y(t) si può vedere (fig. 3.19) come la somma dell’uscita di un sistema lineare yL (t) e di un termine y0 (t) non dipendente dall’ingresso, che rappresenta l’uscita corrispondente all’ingresso nullo. Nell’es. 3.26, in particolare, si ha yL (t) = b1 x(t) e y0 (t) = b0 . Tali sistemi sono una generalizzazione dei sistemi lineari, e si dicono lineari per le differenze, in quanto, dati due ingressi 13 Tipicamente,
quasi tutti i sistemi tendono a comportarsi in maniera lineare se l’ampiezza del segnale di ingresso è sufficientemente piccola; in elettronica, questa osservazione è alla base dei cosiddetti “modelli lineari approssimati per piccoli segnali”.
116
Proprietà dei sistemi
x(.)
sistema lineare
y L(.) y(.)
x(.)
g(x)
y(.)
y 0(.)
Fig. 3.19. Un sistema lineare per le differenze si può vedere come composto da un sistema lineare e da un segnale indipendente dall’ingresso.
Fig. 3.20. Schema a blocchi di un sistema non lineare (non linearità) senza memoria.
arbitrari x1 (·) e x2 (·), la differenza y2 (·) − y1 (·) tra le due uscite è una funzione lineare della differenza x2 (·) − x1 (·) tra i due ingressi. Esempi di sistemi lineari per le differenze compaiono nell’analisi di sistemi descritti da equazioni differenziali (nel caso TC, cfr. § 4.6.1) o alle differenze (nel caso TD, cfr. § 4.6.2) lineari e a coefficienti costanti. Un caso più caratteristico di sistema non lineare, che non risulta neppure lineare per le differenze, è descritto nell’esempio seguente. Esempio 3.27 (sistema quadratico) Il sistema descritto dalla relazione i-u y(t) = x2 (t) è non lineare, e prende il nome di sistema quadratico o non-linearità quadratica. Infatti, si verifica facilmente che il sistema non soddisfa né la proprietà di omogeneità, né quella di additività. Per l’omogeneità, si ha: S[α x(t)] = α 2 x2 (t) = α 2 S[x(t)] = α S[x(t)] , e quindi non è omogeneo; inoltre S[x1 (t) + x2 (t)] = [x1 (t) + x2 (t)]2 = x12 (t) + x22 (t) + 2 x1 (t) x2 (t) = x12 (t) + x22 (t) = S[x1 (t)] + S[x2 (t)] , e quindi non è additivo.
Il sistema quadratico dell’es. 3.27 è anche TI e non dispersivo o senza memoria (cfr. § 3.3.1), in quanto l’uscita y(t) è funzione dell’ingresso x(t) nello stesso istante. Esso appartiene pertanto ad una classe più generale di sistemi, detti anche non-linearità senza memoria: Definizione 3.12 (non linearità senza memoria) Sia g(·) una funzione non lineare, un sistema TI senza memoria, descritto dalla relazione iu y(t) = g[x(t)] (nel caso TC) oppure da y(n) = g[x(n)] (nel caso TD) prende il nome di non linearità senza memoria. Tali sistemi possono essere descritti semplicemente assegnando la funzione y = g(x), che prende il nome di caratteristica i-u, e sono rappresentati graficamente come in fig. 3.20. Altri esempi di non linearità senza memoria sono i sistemi descritti dalle relazioni i-u y(t) = |x(t)| (“raddrizzatore”, cfr. es. 3.15), y(t) = sgn[x(t)] (“hard limiter”), e y(t) = x3 (t) (sistema cubico). Un esempio “fisico” tratto dall’elettronica è il diodo. Esempio 3.28 (caratteristica i-u di un diodo) Il diodo è un componente elettronico rappresentato schematicamente in fig. 3.21, che può essere descritto con buona approssimazione da una relazione i-u non lineare senza memoria. Infatti, se si indica (fig. 3.21) con x(t) la tensione ai capi del diodo e con y(t) la corrente
3.3 Proprietà dei sistemi
117
y(t)
x(t)
y=g(x)
tg(θ)=R
x
Fig. 3.21. Schema elettrico di un diodo, modellato come un sistema non lineare senza memoria, avente come ingresso la tensione x(t) e come uscita la corrente y(t).
Fig. 3.22. Caratteristica ingresso-uscita di un diodo. Il parametro R rappresenta la resistenza del diodo in conduzione.
che scorre nel diodo, si può porre, con buona14 approssimazione, y(t) = g[x(t)], dove la caratteristica i-u g(x) (fig. 3.22) è x , x ≥ 0; g(x) = R 0 , altrimenti; dove R è la resistenza del diodo in conduzione, che assume in genere valori molto piccoli (dell’ordine di pochi decimi di ohm). Notiamo che la funzione g(x) di fig. 3.22 è lineare a tratti; in ogni caso, poiché essa non è lineare per tutti i valori di x, il sistema non può essere considerato lineare.
Altri esempi di sistemi elettronici descritti approssimativamente15 da modelli non lineari senza memoria sono i transistori bipolari (bipolar junction transistor, BJT) ed i transistori ad effetto di campo (field-effect transistor, FET).
14 Un modello più accurato mostra che la relazione tra tensione e corrente in un diodo in conduzione segue una legge di tipo esponenziale. 15 Bisogna notare che per i componenti elettronici menzionati (diodi e transistori) il modello di sistema senza memoria è accurato solo se si trascurano gli effetti capacitivi, il che è ragionevole per segnali costanti o lentamente variabili.
118
Proprietà dei sistemi
3.4 Esercizi proposti Esercizio 3.1 Si consideri la seguente interconnessione di sistemi:
S1
x(n)
S2
S3
y(n)
dove i legami i-u dei tre sistemi sono i seguenti: n ; S1 : y(n) = x 2 1 1 S2 : y(n) = x(n) + x(n − 1) + x(n − 2) ; 2 4 S3 : y(n) = x(2n) . Determinare il legame i-u del sistema (complessivo) riportato in figura. Risultato: y(n) = x(n) + 14 x(n − 1). Esercizio 3.2 Si consideri l’interconnessione di sistemi riportata in fig. 3.23, dove i legami i-u dei quattro sistemi sono i seguenti: S1
y(t)
S2
x(t)
S3
S4
Fig. 3.23. Sistema dell’esercizio 3.2. S1 : S2 : S3 : S4 :
y(t) = 2 x(t) + 1 ; y(t) = sgn[x(t)]; y(t) = ex(t) ; y(t) = 2 ln(|x(t)|).
Determinare il legame i-u del sistema (complessivo) riportato in fig. 3.23. Risultato: y(t) = 2 u[x(t)]. Esercizio 3.3 Si consideri il sistema caratterizzato dal seguente legame i-u:
+∞ N −1 y(n) = ∑ x(k) RN n − k + , con N ≥ 1 numero intero dispari . 2 k=−∞ Calcolare la memoria del sistema. Risultato: La memoria è pari a N − 1.
3.4 Esercizi proposti
119
S1 y(t)
x(t)
S2
Esercizio 3.4 Si consideri la seguente interconnessione di sistemi: dove i legami i-u dei due sistemi sono i seguenti: S1 : y(t) = S2 : y(t) =
t t−T1
x(τ ) dτ , con T1 > 0;
t+T2 t−T2
x(τ ) dτ , con T2 > 0.
Calcolare la memoria del sistema (complessivo) riportato in figura. Risultato: Se T1 ≥ T2 , la memoria è pari a T1 ; se T1 < T2 , la memoria è pari a 2 T2 − T1 . Esercizio 3.5 Un sistema S con ingresso x(t) ed uscita y(t) presenta le seguenti coppie i-u: x(t) = u(t + 3) −→ y(t) = e−5t u(t) , x(t) = rect(t − 1) −→ y(t) = e−3t . Stabilire se il sistema può essere causale [Suggerimento: disegnare i due segnali ed applicare la prop. 3.1 del libro di testo.] Risultato: Il sistema è non causale. Esercizio 3.6 Un sistema S con ingresso x(n) ed uscita y(n) presenta le seguenti coppie i-u: x(n) = u(n + 2) −→ y(n) = 2−n u(n + 1) , x(n) = R3 (n) −→ y(n) = 3n u(n) . Stabilire se il sistema può essere causale [Suggerimento: disegnare i due segnali ed applicare la prop. 3.1 del libro di testo.] Risultato: Il sistema può essere causale (non è detto che lo sia). Esercizio 3.7 Si consideri il sistema caratterizzato dal seguente legame i-u: y(n) = x(n) x(n − 2) . (a) Calcolare l’uscita y(n) corrispondente al segnale di ingresso x(n) = A δ (n), con A ∈ R. (b) Il sistema è invertibile? Giustificare la risposta. Risultato: (a) y(n) ≡ 0; (b) non invertibile: in virtù del risultato del punto (a), l’uscita corrispondente al segnale x(n) = A δ (n) è sempre nulla, indipendentemente dalla costante A.
120
Proprietà dei sistemi
Esercizio 3.8 Si consideri il sistema caratterizzato dal seguente legame i-u: S : x(t) ∈ I −→ ex(t) ∈ U . (a) Caratterizzare gli insiemi di ingresso ed uscita. (b) Stabilire se tale sistema è invertibile. In caso affermativo, determinare il sistema inverso. Risultato: (a) nessuna restrizione su I, l’insieme U è costituito da tutti i segnali positivi; (b) S è invertibile e il suo sistema inverso è caratterizzato dal seguente legame i-u: x(t) ∈ U −→ y(t) = ln[x(t)] ∈ I. Esercizio 3.9 Il sistema S in fig. 3.24 è lineare. Nella stessa figura sono riportate le uscite del sistema y1 (n), y2 (n) e y3 (n) corrispondenti ai segnali di ingresso x1 (n), x2 (n) e x3 (n), rispettivamente. y1(n) 3
x1(n)
3 1
1 -1
1
-1
S
0 -2
0 1
n
2
3
n
-1
-2 y2(n)
x2(n) 1
1
-1
3
1
-1 S 0
2
0
n -1
n -1
-2 -3 y3(n) x3(n)
2
2
1
1
1
1 S 0 1
n
-2
-1
0
2
n
-3
Fig. 3.24. Segnali dell’esercizio 3.9. (a) Calcolare l’uscita ya (n) del sistema corrispondente al segnale di ingresso xa (n) = δ (n). (b) Calcolare l’uscita yb (n) del sistema corrispondente al segnale di ingresso xb (n) = δ (n − 1). (c) Sulla base dei risultati ottenuti ai punti (a) e (b), stabilire se il sistema può essere tempo-invariante. Risultato: (a) ya (n) = 2 δ (n + 2) + δ (n + 1) − 2 δ (n) + 3 δ (n − 1) + 2 δ (n − 2) + δ (n − 3); (b) yb (n) = −δ (n) − 3 δ (n − 1) − δ (n − 3); (c) non può essere tempo-invariante, è necessariamente tempo-variante. Esercizio 3.10 Si consideri il sistema caratterizzato dal seguente legame i-u:
t x(τ ) dτ . y(t) = cos 2π fct + 2π −∞
3.4 Esercizi proposti
121
(a) Calcolare l’uscita ya (t) corrispondente al segnale di ingresso xa (t) = δ (t). (b) Calcolare l’uscita yb (t) corrispondente al segnale di ingresso xb (t) = δ (t − t0 ), con t0 ∈ R. (c) Sulla base dei risultati ottenuti ai punti (a) e (b), dire se il sistema può essere tempo-invariante. Risultato: (a) ya (t) = cos(2π fct); (b) yb (t) = ya (t) = cos(2π fct); (c) non può essere tempo-invariante, è necessariamente tempo-variante.
x(n)
y(n)
(-1) n
Fig. 3.25. Sistema dell’esercizio 3.11. Esercizio 3.11 Si consideri il sistema riportato in fig. 3.25. (a) Determinare il legame i-u del sistema. (b) Dire se il sistema è stabile. Risultato: (a) y(n) = x(n) + (−1)n x(n) = [1 + (−1)n ] x(n), dove 1 + (−1)n = 0 se n è dispari e 1 + (−1)n = 2 se n è pari; (b) stabile. Esercizio 3.12 Un sistema S lineare con ingresso x(t) ed uscita y(t) presenta le seguenti coppie i-u: x(t) = e j2t −→ y(t) = e j3t , x(t) = e− j2t −→ y(t) = e− j3t . (a) Calcolare l’uscita ya (t) corrispondente al segnale di ingresso xa (t) = cos(2t). (b) Calcolare l’uscita yb (t) corrispondente al segnale di ingresso xb (t) = cos(2t − 1). (c) Stabilire se il sistema può essere tempo-invariante. Risultato: (a) ya (t) = cos(3t); (b) yb (t) = cos(3t − 1). (c) il sistema non può essere tempo-invariante, è necessariamente tempo-variante. Esercizio 3.13 Il sistema S in fig. 3.26 è tempo-invariante. Nella stessa figura sono riportate le uscite del sistema y1 (n), y2 (n) e y3 (n) corrispondenti ai segnali di ingresso x1 (n), x2 (n) e x3 (n), rispettivamente. (a) Stabilire se il sistema può essere lineare. (b) Calcolare l’uscita y(n) del sistema corrispondente al segnale di ingresso x(n) = δ (n). Risultato: (a) non può essere lineare, è necessariamente non lineare; (b) y(n) = 3 δ (n + 6) + 2 δ (n + 5). Esercizio 3.14 Si considerino i due sistemi caratterizzati dai seguenti legami i-u:
122
Proprietà dei sistemi
y1(n) 3
x1(n) 2 2
1 S 0 1
0 1 2
n
n
y2(n)
4
x2(n) 2 2 S 0 1
0 1 2
n
3
n
y3(n) x3(n)
3 2 1 S 0 1 2
3 4
n
-2 -1
0 1
n
Fig. 3.26. Segnali dell’esercizio 3.13. S1 : y(n) = x(−n) ; S2 : y(n) = x(n + 2). Inoltre, sia S1,2 il sistema ottenuto dalla cascata S1 -S2 (nell’ordine), mentre S2,1 rappresenta il sistema ottenuto dalla cascata S2 -S1 (nell’ordine). Stabilire, motivando la risposta e fornendo almeno un esempio a suo supporto, se la seguente affermazione è vera oppure falsa: “se x1 (n) = x2 (n), le uscite dei due sistemi S1,2 e S2,1 sono necessariamente uguali”. Risultato: I due sistemi sono diversi: il legame i-u del sistema S1,2 è y(n) = x(−n − 2); il legame i-u del sistema S2,1 è y(n) = x(−n + 2). Esempio: quando x1 [n] = x2 [n] = δ [n], l’uscita del sistema S1,2 è y(n) = δ (n + 2), mentre l’uscita del sistema S2,1 è y(n) = δ (n − 2). Esercizio 3.15 Classificare, motivando brevemente le risposte, ciascuno dei sistemi TC sotto riportati sulla base delle loro proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità): (a) y(t) = 2 exp[x(t)]; (b) y(t) = x(t − 2) − x(1 − t); (c) y(t) = x(t) cos(2π t); (d) y(t) = [x(t) + x(t − T )] u(t); (e) y(t) = [x(t) − x(t − T )] u[x(t)], con T ∈ R − {0}. Risultato: (a) non lineare, non dispersivo, causale, tempo-invariante e stabile; (b) lineare, dispersivo, non causale, tempo-variante e stabile; (c) lineare, non dispersivo, causale, tempo-variante e stabile; (d) lineare, dispersivo se T = 0, causale se T ≥ 0 e non causale se T < 0, tempo-variante e stabile. (e) non lineare, dispersivo, causale se T > 0 e non causale se T < 0, tempo-invariante e stabile.
3.4 Esercizi proposti
123
Esercizio 3.16 Classificare, motivando brevemente le risposte, ciascuno dei sistemi TD sotto riportati sulla base delle loro proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità): (a) y(n) = a x(n) + b, con a, b ∈ R − {0}; (b) y(n) = x(−n); (c) y(n) = ex(n) ; n ∑ x(k) , per n ≥ m0 , con m0 ∈ Z ; (d) y(n) = k=m0 0 , altrimenti ; (e) y(n) =
n+m0
∑
x(k), con m0 ∈ N.
k=n−m0
Risultato: (a) non lineare (lineare per le differenze), non dispersivo, causale, tempo-invariante e stabile; (b) lineare, dispersivo, non causale, tempo-variante e stabile; (c) non lineare, non dispersivo, causale, tempoinvariante e stabile; (d) lineare, dispersivo, causale, tempo-variante e instabile. (e) lineare, dispersivo, non causale, tempo-invariante e stabile. Esercizio 3.17 Classificare in base alle loro proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità) i sistemi TC individuati dalle seguenti relazioni i-u: (a) y(t) = (b) y(t) =
+∞ 0
T 0
h(τ ) x(t − τ ) dτ ;
h(τ ) x2 (t − τ ) dτ ;
1 , se x(t) = 0 ; (c) y(t) = x(t) 0, altrimenti ; (d) y(t) =
1 2T
T −T
x(t − τ )dτ , con T ∈ R − {0}.
Risultato: (a) lineare, dispersivo, causale, tempo-invariante, stabile se h(τ ) è sommabile; (b) non lineare, dispersivo, causale se T ≥ 0, non causale se T < 0, tempo-invariante, stabile se h(τ ) è sommabile; (c) non lineare, non dispersivo, causale, tempo-invariante, instabile; (d) lineare, dispersivo, non causale, tempo-invariante e stabile. Esercizio 3.18 Classificare, motivando brevemente le risposte, ciascuno dei sistemi TD sotto riportati sulla base delle loro proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità): (a) y(n) = x(n) + u(n + 1); (b) y(n) = cos(π n) x(n); (c) y(n) = x(n2 ); (d) y(n) = x(n)
+∞
∑ δ (n − k);
k=0
(e) y(n) = an u(n) x(n), con a ∈ R − {0}.
124
Proprietà dei sistemi
Risultato: (a) non lineare (lineare per le differenze), non dispersivo, causale, tempo-variante e stabile; (b) lineare, non dispersivo, causale, tempo-variante e stabile; (c) lineare, dispersivo, non causale, tempo-variante e stabile; (d) lineare, non dispersivo, causale, tempo-variante e stabile. (e) lineare, non dispersivo, causale, tempo-variante, stabile per |a| ≤ 1 ed instabile per |a| > 1. Esercizio 3.19 Classificare, motivando brevemente le risposte, sulla base delle proprietà (linearità, non dispersività, causalità, invarianza temporale e stabilità), i sistemi TC caratterizzati dalle seguenti relazioni i-u: ln(|x(t)|) , se x(t) = 0 ; (a) y(t) = 0, altrimenti ; (b) y(t) = x(t) + x(−t); (c) y(t) = x(t) sgn(t); (d) y(t) = sgn[x(t)]. Risultato: (a) non lineare, non dispersivo, causale, tempo-invariante, instabile; (b) lineare, dispersivo, non causale, tempo-variante, stabile; (c) lineare, non dispersivo, causale, tempo-variante, stabile; (d) non lineare, non dispersivo, causale, tempo-invariante, stabile. Esercizio 3.20 Classificare, motivando brevemente le risposte, sulla base delle proprietà di linearità, non dispersività, causalità, invarianza temporale e stabilità, i sistemi TC caratterizzati dalle seguenti relazioni i-u: t ln(|x(t)|) , se x(t) = 0 ; (a) y(t) = 0, altrimenti ; (b) y(t) = a(t) x(−t), con a(t) segnale reale limitato; (c) y(t) = x(−t) + 5; (d) y(t) = sgn[x(−t)]. Risultato: (a) non lineare, non dispersivo, causale, tempo-variante, instabile; (b) lineare, dispersivo, non causale, tempo-variante, stabile; (c) non lineare (lineare per le differenze), dispersivo, non causale, tempo-variante, stabile; (d) non lineare, dispersivo, non causale, tempo-variante, stabile. Esercizio 3.21 Classificare, motivando brevemente le risposte, ciascuno dei sistemi sotto riportati sulla base delle loro proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità): x(n) , se n = 0 ; (a) y(n) = n 0 , altrimenti ; (b) y(n) = x(2 n) + x(10 − n); (c) y(n) =
n+2
∑
x2 (k);
k=n−2
(d) y(n) =
+∞
∑
sgn(k) x(n − k).
k=−∞
Risultato: (a) lineare, non dispersivo, causale, tempo-variante, stabile; (b) lineare, dispersivo, non causale, tempo-variante, stabile; (c) non lineare, dispersivo, non causale, tempo-invariante, stabile; (d) lineare, dispersivo, non causale, tempo-invariante, instabile.
3.4 Esercizi proposti
125
Esercizio 3.22 Classificare, motivando brevemente le risposte, sulla base delle proprietà di linearità, non dispersività, causalità, invarianza temporale e stabilità, i sistemi caratterizzati dalle seguenti relazioni ingresso/uscita: (a) y(n) =
1 M1 + M2 + 1
M2
∑
x(n − k), con M1 , M2 ∈ N.
k=−M1
(b) y(n) = max{x(n), x(n − 1)}. π n tan[x(n)] , se x(n) = + k π , con k ∈ Z ; 2 (c) y(n) = 0, altrimenti ; Risultato: (a) lineare, dispersivo, non causale, tempo-invariante, stabile; (b) non lineare, dispersivo, causale, tempo-invariante, stabile; (c) non lineare, non dispersivo, causale, tempo-variante, instabile.
126
Proprietà dei sistemi
Capitolo 4
Sistemi lineari tempo-invarianti (LTI)
In questo capitolo approfondiremo lo studio dei sistemi lineari tempo-invarianti (LTI), ovvero dei sistemi che possiedono sia la proprietà di linearità, sia quella di invarianza temporale. In particolare, mostreremo che tali sistemi ammettono una relazione i-u semplice e generale, che può essere espressa mediante una particolare operazione matematica, denominata convoluzione, tra il segnale di ingresso e una funzione che descrive completamente il sistema nel dominio del tempo, la sua risposta impulsiva. Introdurremo poi una classe importante di sistemi LTI, che si incontrano frequentemente nelle applicazioni, ovvero i sistemi LTI descritti nel caso TC da equazioni differenziali, e nel caso TD da equazioni alle differenze. Infine, calcolando la risposta di un sistema LTI ad un fasore applicato al suo ingresso, introdurremo il fondamentale concetto di risposta in frequenza di un sistema LTI, che rappresenta la base per lo studio dei sistemi nel dominio della frequenza e che sarà approfondito nei capitoli seguenti.
4.1 Introduzione Le proprietà di invarianza temporale e linearità viste nel cap. 3 non devono necessariamente essere possedute contemporaneamente da un dato sistema. Ad esempio, l’amplificatore con guadagno variabile y(t) = α (t) x(t) (cfr. es. 3.16) è un sistema lineare ma tempo-variante (sistema LTV), mentre il sistema quadratico y(t) = x2 (t) (cfr. es. 3.27) è un sistema non lineare ma tempo-invariante. Tuttavia, numerosi sistemi, di grande interesse per le applicazioni, possiedono sia la proprietà di linearità, sia quella di invarianza temporale. Tali sistemi sono denominati sistemi lineari tempo-invarianti (LTI), e per essi esistono tecniche di analisi e di sintesi semplici, potenti e generali. In questo capitolo, ed in gran parte del seguito della trattazione, il nostro studio si concentrerà su tale classe di sistemi. La proprietà fondamentale che semplifica lo studio dei sistemi LTI (più in generale, dei sistemi lineari) è il principio di sovrapposizione (prop. 3.3). A tale proposito, consideriamo il sistema lineare descritto dalla trasformazione S : I → U, il cui legame i-u, per semplicità di notazione, sarà descritto nel seguito mediante la notazione semplificata y(·) = S[x(·)]. In particolare, supponiamo che un generico ingresso TC o TD x(·) ∈ I possa essere espresso come sovrapposizione di segnali semplici o
128
Sistemi lineari tempo-invarianti (LTI)
“elementari” xk (·) ∈ I come segue: x(·) = ∑ αk xk (·) ,
(4.1)
k
dove i coefficienti αk sono in generale dei numeri complessi, in quanto come vedremo i segnali elementari possono assumere valori complessi. Il numero dei segnali elementari necessari per descrivere esattamente il segnale x(·) nella (4.1) può essere finito oppure infinito numerabile. Applicando il principio di sovrapposizione (3.23), si ha: ! y(·) = S[x(·)] = S
∑ αk xk (·) k
= ∑ αk S [xk (·)] = ∑ αk yk (·) , k
(4.2)
k
dove yk (·) = S[xk (·)], ovvero yk (·) è l’uscita corrispondente all’ingresso elementare xk (·). La (4.2) mostra che l’uscita y(·) si può esprimere come sovrapposizione, con gli stessi coefficienti αk , dei segnali yk (·), ciascuno dei quali rappresenta la risposta del sistema all’ingresso xk (·). Questa proprietà consente, in linea di principio, di semplificare notevolmente lo studio dei sistemi lineari, in quanto è sufficiente calcolare la risposta del sistema agli ingressi elementari xk (·). Affinché tale tecnica sia applicabile in pratica, tuttavia, i segnali elementari xk (·) da utilizzare nella (4.1) devono essere scelti in modo opportuno; in particolare, essi devono soddisfare tre proprietà fondamentali: (1) devono essere in grado di rappresentare un’ampia classe di segnali x(·); idealmente, devono essere in grado di rappresentare tutti i segnali di interesse pratico; (2) per un dato segnale di interesse x(·), deve essere semplice calcolare i coefficienti αk della sua rappresentazione (4.1); (3) deve essere semplice calcolare la risposta yk (·) del sistema a ciascuno dei segnali xk (·). Tenendo conto delle proprietà precedenti, le scelte più comuni per i segnali elementari xk (·) sono due: • i segnali xk (·) sono impulsi: la descrizione risultante del sistema prende il nome di rappresentazione nel dominio del tempo, e la funzione che caratterizza il sistema LTI nel dominio del tempo prende il nome di risposta impulsiva; • i segnali xk (·) sono fasori: la descrizione risultante del sistema prende il nome di rappresentazione nel dominio della frequenza, e la funzione che caratterizza il sistema LTI nel dominio della frequenza prende il nome di risposta in frequenza o risposta armonica. Nel seguito di questo capitolo studieremo approfonditamente la rappresentazione dei sistemi LTI nel dominio del tempo, e introdurremo anche i primi elementi della loro rappresentazione nel dominio della frequenza;uno studio più approfondito della rappresentazione nel dominio della frequenza sarà effettuato nei prossimi capitoli.
4.2 Relazione i-u di un sistema LTI e risposta impulsiva Un concetto fondamentale nella caratterizzazione dei sistemi LTI nel dominio del tempo è quello di risposta impulsiva:1 esso nasce dalla possibilità di rappresentare un arbitrario segnale x(·) come sovrapposizione di impulsi traslati nel tempo. Per approfondire tale rappresentazione, è conveniente 1 Il
concetto di risposta impulsiva, e quello di risposta in frequenza ad esso strettamente legato, possono essere dati anche con riferimento a sistemi che siano solo lineari (ma tempo-varianti); in tal caso, però, tali funzioni dipendono da due variabili.
4.2 Relazione i-u di un sistema LTI e risposta impulsiva
129
considerare prima il caso TD. Scegliendo come segnali elementari xk (n) nella (4.1) l’insieme numerabile degli impulsi discreti traslati nel tempo, ovvero xk (n) = δ (n − k), con k ∈ Z, la rappresentazione (4.1) si scrive: x(n) =
+∞
∑
+∞
αk xk (n) =
k=−∞
∑
αk δ (n − k) .
(4.3)
k=−∞
Determinare i coefficienti αk della rappresentazione è semplice, se si osserva che gli impulsi δ (n − k) nella (4.3) non si sovrappongono nel tempo, e quindi l’ampiezza di ciascuno di essi deve coincidere necessariamente con il campione x(k) della sequenza: in altri termini, si ha semplicemente αk = x(k). Pertanto la rappresentazione di un arbitrario segnale TD x(n) come sovrapposizione di impulsi è: x(n) =
+∞
∑
x(k) δ (n − k) ,
(4.4)
k=−∞
che si può interpretare equivalentemente dicendo che x(k) δ (n−k) rappresenta il campione del segnale x(n) all’istante n = k. Notiamo peraltro che la (4.4) si può giustificare in maniera più formale anche applicando le prop. 2.3 dell’impulso discreto, ed in particolare la proprietà di campionamento (la banale verifica è lasciata al lettore). Supponiamo allora che un segnale x(n), rappresentato mediante la (4.4), sia posto in ingresso ad un sistema TD LTI, e calcoliamo l’uscita sfruttando il principio di sovrapposizione, nonché l’invarianza temporale del sistema. Possiamo scrivere simbolicamente: ! y(n) = S[x(n)] = S
+∞
∑
x(k) δ (n − k) =
k=−∞
+∞
∑
x(k) S[δ (n − k)] ,
(4.5)
k=−∞
dove abbiamo applicato il principio di sovrapposizione, esteso al caso di una infinità (numerabile) di segnali, ed abbiamo sfruttato il fatto che le quantità x(k), non essendo dipendenti dal tempo n, vanno riguardate come delle costanti (corrispondono in effetti alle costanti αk ). Definiamo allora il segnale
h(n) = S[δ (n)], che rappresenta la risposta del sistema LTI all’impulso δ (n) applicato al suo ingresso: per la proprietà di invarianza temporale (si veda in particolare la caratterizzazione i-u dell’invarianza temporale espressa dalla prop. 3.2) risulta conseguentemente che: S[δ (n − k)] = h(n − k) ,
∀k ∈ Z ,
(4.6)
cioè traslando l’impulso in ingresso di k campioni, il segnale di uscita h(n) trasla anch’esso di k campioni. Pertanto, sostituendo la (4.6) nella (4.5), la relazione i-u del sistema LTI assume la forma y(n) =
+∞
∑
k=−∞
x(k) h(n − k) =
+∞
∑
h(k) x(n − k) ,
(4.7)
k=−∞
dove la seconda espressione si può ottenere dalla prima con il semplice cambiamento di variabile n − k = k e ponendo poi nuovamente k in luogo di k . Ribadiamo che per ricavare la (4.7) abbiamo utilizzato sia la proprietà di linearità [nella (4.5)], sia la proprietà di invarianza temporale [nella (4.6)]. La funzione h(n) che compare nella (4.7) prende il nome di risposta all’impulso o di risposta impulsiva del sistema LTI: essa rappresenta, come già detto, l’uscita del sistema quando viene applicato l’impulso δ (n) in ingresso. Si noti che, utilizzando la conoscenza della sola risposta impulsiva del sistema, la (4.7) consente di calcolare l’uscita di un sistema LTI in corrispondenza di un qualsiasi ingresso x(n). In questo senso, si dice che la risposta impulsiva è una risposta canonica, poiché essa caratterizza (cioè descrive) completamente il sistema LTI. L’operazione matematica effettuata tra x(n) ed h(n) nella (4.7) prende il nome di convoluzione a TD, e sarà studiata più approfonditamente nel § 4.3.
130
Sistemi lineari tempo-invarianti (LTI)
h(n)
h(n) b1
bM 1/6
b2
bM-1
b0 b3 .... 0
1
2
M -1 M
3
(a)
n
0
1
2
3
4
5
n
(b)
Fig. 4.1. (a) Risposta impulsiva di un generico sistema MA. (b) Risposta impulsiva del sistema MA con M = 5 e con pesi bk = 16 , ∀k ∈ {0, 1, . . . , 5}. Esempio 4.1 (risposta impulsiva di un sistema MA) Si consideri il sistema MA già introdotto nell’es. 3.9, descritto dalla relazione i-u y(n) =
M
∑ bk x(n − k) .
(4.8)
k=0
Seguendo i procedimenti delineati negli esempi del capitolo precedente, è semplice provare che tale sistema è sia lineare che tempo-invariante, e pertanto esso rappresenta un esempio di sistema LTI: per questo motivo, deve essere possibile esprimere la sua relazione i-u come una convoluzione (4.7). Infatti, dal confronto tra la (4.8) e la (4.7), si ha una perfetta corrispondenza se si definisce la risposta impulsiva del sistema come segue: bk , k ∈ {0, 1, . . . , M} ; h(k) = (4.9) 0 , altrimenti , rappresentata graficamente in fig. 4.1(a) nel caso generale, e particolarizzata in fig. 4.1(b) al caso M = 5 e 1 = 16 , ∀k ∈ {0, 1, . . . , 5}. D’altra parte, osserviamo che utilizzando la definizione di risposta impulsiva bk = M+1 come h(n) = S[δ (n)], si ha, ponendo x(n) = δ (n) nella (4.8): h(n) =
M
∑ bk δ (n − k) ,
(4.10)
k=0
espressione che fornisce gli stessi valori della (4.9). È interessante notare che la risposta impulsiva del sistema MA è di durata finita, pari ad M + 1 campioni.
Prima di passare al caso TC, è utile mettere in luce una particolare interpretazione della (4.7). In sostanza, la (4.7) mostra che, per un dato k ∈ Z, il campione x(k) δ (n − k) del segnale di ingresso all’istante n = k è “trasformato” dal sistema nel segnale x(k) h(n − k), con n ∈ Z; il segnale di uscita y(n) si ottiene sommando i singoli segnali x(k) h(n − k), per ogni k ∈ Z. Questa interpretazione è chiarita in fig. 4.2, dove è calcolata graficamente la risposta del sistema MA dell’es. 4.1, avente la risposta impulsiva di fig. 4.1(b), al segnale di ingresso x(n) = 13 R3 (n). In questo caso il segnale di ingresso è rappresentato dai suoi tre campioni x(0) δ (n), x(1) δ (n − 1) e x(2) δ (n − 2) a cui il sistema fa corrispondere in uscita i tre segnali x(0) h(n), x(1) h(n − 1) e x(2) h(n − 2); il segnale di uscita si ottiene sommando tali segnali, cioè y(n) = x(0) h(n) + x(1) h(n − 1) + x(2) h(n − 2). Per estendere al caso TC il ragionamento sulla relazione i-u visto in precedenza, partiamo dalla rappresentazione di un segnale a TC come sovrapposizione di impulsi di Dirac: x(t) =
+∞ −∞
x(τ ) δ (t − τ ) dτ .
(4.11)
4.2 Relazione i-u di un sistema LTI e risposta impulsiva
131
h(n)
x(n)
1/3 1/6
0
1
2
3
4
5
0
n
x(0) δ(n)
1
2
3
4
5
6 7 8
n
2
3
4
5
6 7 8
n
3
4
5
6 7 8
n
3
4
5
6 7 8
n
x(0) h(n)
1/18 0
1
2
3
4
5
0
n
x(1) δ(n-1)
1
x(1) h(n-1)
1/18 0
1
2
3
4
5
0
n
x(2) δ(n-2)
1
2
x(2) h(n-2)
1/18 0
1
2
3
4
5
0
n
1
2
y(n) = x(0) h( n) + x(1) h( n-1) + x(2) h( n-2)
1/6 1/9 1/18 0
1
2
3
4
5
6 7 8
n
Fig. 4.2. Calcolo dell’uscita y(n) di un sistema LTI come sovrapposizione delle risposte del sistema ai singoli campioni del segnale di ingresso x(n).
132
Sistemi lineari tempo-invarianti (LTI)
Tale rappresentazione si può vedere come l’estensione della (4.4) al caso TC, dove la delta di Dirac sostituisce quella discreta, e l’integrale prende il posto della sommatoria. In pratica mediante la (4.11) il segnale x(t) è rappresentato come sovrapposizione nel continuo (cioè, un integrale) di segnali elementari x(τ ) δ (t − τ ) dτ , ovvero mediante degli impulsi di Dirac di area infinitesima x(τ ) dτ , centrati in tutti i possibili istanti di tempo τ ∈ R. A differenza del caso TD, tuttavia, non è possibile dare una giustificazione immediata della (4.11), ma la sua validità si può provare formalmente utilizzando la proprietà di campionamento dell’impulso di Dirac (cfr. prop. 2.2). Tuttavia, data l’analogia formale tra la (4.11) e la (4.4), seguendo passaggi matematici simili a quelli già visti per il caso TD, è possibile provare che l’uscita y(t) del sistema LTI può essere espressa come: y(t) =
+∞ −∞
x(τ ) h(t − τ ) dτ =
+∞ −∞
h(τ ) x(t − τ ) dτ ,
(4.12)
dove la seconda uguaglianza si ottiene dalla prima ricorrendo al cambio di variabile t − τ = τ e
utilizzando poi nuovamente τ al posto di τ . Il segnale h(t) = S[δ (t)] prende il nome di risposta impulsiva del sistema LTI, e rappresenta, come già visto nel caso TD, l’uscita del sistema quando viene applicato un impulso δ (t) all’ingresso. L’operazione matematica tra x(t) ed h(t) che compare nella (4.7) è simile a quella vista nel caso TD, e prende il nome di convoluzione a TC; la sua interpretazione e le sue proprietà saranno approfondite nel § 4.3. Una giustificazione immediata ed intuitiva della (4.12) si può fornire utilizzando l’interpretazione della convoluzione per il caso TD data in precedenza (si veda anche la fig. 4.2). Precisamente, facendo un ragionamento concettualmente simile a quello fatto per il caso TD, possiamo pensare che x(τ ) δ (t − τ ) dτ rappresenti la componente del segnale di ingresso x(t) nell’istante di tempo t = τ ; se il sistema è LTI, tale componente è “trasformata” dal sistema nel segnale x(τ ) h(t − τ ) dτ , con t ∈ R; il segnale di uscita y(t) si ottiene sovrapponendo nel continuo (cioè, integrando) i segnali x(τ ) h(t − τ ) dτ , per ogni τ ∈ R. Notiamo inoltre che, formalmente, la (4.12) si basa su una definizione più generale di linearità di un sistema. Precisamente, supponiamo che un generico segnale x(t) si possa esprimere come sovrapposizione di una infinità continua di segnali elementari x(t; τ ), con τ ∈ R, ossia: x(t) =
+∞ −∞
α (τ ) x(t; τ )dτ ,
(4.13)
dove α (τ ) dτ rappresentano i coefficienti (infinitesimi) della sovrapposizione. Tale rappresentazione si può vedere come l’estensione della (4.1), in cui i segnali elementari sono una infinità numerabile (la variabile k che parametrizza i segnali è discreta), al caso di una infinità continua di segnali elementari (la variabile τ che parametrizza i segnali è continua). La (4.13) racchiude come caso particolare la proprietà di campionamento dell’impulso di Dirac: infatti, dal confronto con la (4.11), segue che α (τ ) = x(τ ) e x(t; τ ) = δ (t − τ ). La derivazione della (4.12) richiede la validità della seguente uguaglianza: y(t) = S[x(t)] =
+∞ −∞
α (τ ) S[x(t; τ )]dτ ,
(4.14)
secondo cui la risposta y(t) del sistema al segnale di ingresso x(t) si può ottenere sovrapponendo nel continuo, con gli stessi coefficienti α (τ ) dτ , le risposte S[x(t; τ )] del sistema ai segnali elementari x(t; τ ), per τ ∈ R. Così come il principio di sovrapposizione (3.23) per una infinità numerabile di segnali, anche la (4.14) non discende direttamente dalla prop. 3.3 e richiede delle condizioni matematiche aggiuntive per la sua validità. Nel seguito, senza perderci in complicate discussioni matematiche, assumeremo direttamente la (4.14) come definizione di principio di sovrapposizione per una infinità continua di segnali.
4.2 Relazione i-u di un sistema LTI e risposta impulsiva
133
Esempio 4.2 (risposta impulsiva di un integratore con memoria finita) Si consideri l’integratore con memoria finita (cfr. es. 4.2), avente relazione i-u: y(t) =
t t−T
x(u) du ,
(4.15)
con T > 0. Si può facilmente verificare che tale sistema è sia lineare, sia invariante temporalmente, per cui è un sistema LTI. In maniera equivalente, si può mostrare che la (4.15) si può scrivere come una convoluzione: infatti, notiamo preliminarmente che, con il cambio di variabile τ = t − u → u = t − τ , la (4.15) si può scrivere come: y(t) =
T 0
x(t − τ ) dτ .
Successivamente, possiamo far comparire l’integrale tra −∞ e +∞ tipico della convoluzione a patto di moltiplicare la funzione integranda per una finestra rettangolare che assume il valore 1 nell’intervallo (0, T ), e cioè:
+∞ τ − 0.5T rect y(t) = x(t − τ ) dτ , T −∞ da cui, per confronto con la (4.12), si conclude che la risposta impulsiva del sistema è:
t − 0.5T h(t) = rect T
.
Come nell’es. 4.1, anche tale risposta impulsiva è di durata finita, pari a T e coincidente con la memoria del sistema.
Negli es. 4.1 e 4.2, abbiamo implicitamente mostrato una strada alternativa per dimostrare che un determinato sistema è LTI: se infatti siamo in grado di provare che la relazione i-u del sistema si può esprimere nella forma (4.7) oppure (4.12), allora il sistema è necessariamente LTI, ed inoltre è automaticamente determinata la sua risposta impulsiva h(·). In altri termini, in maniera più formale, si può provare che condizione necessaria e sufficiente affinché un sistema sia LTI è che la sua relazione i-u sia una convoluzione: Proprietà 4.1 (relazione i-u e risposta impulsiva di un sistema LTI) (a) Dato un sistema TC S con ingresso x(t) ed uscita y(t), esso è un sistema LTI se e solo se è descritto da una relazione i-u di convoluzione: y(t) =
+∞ −∞
x(τ ) h(t − τ ) dτ =
+∞ −∞
h(τ ) x(t − τ ) dτ ,
(4.16)
dove h(t) = S[δ (t)] è la risposta impulsiva del sistema. (b) Dato un sistema TD S con ingresso x(n) ed uscita y(n), esso è un sistema LTI se e solo se è descritto da una relazione i-u di convoluzione: y(n) =
+∞
∑
k=−∞
x(k) h(n − k) =
+∞
∑
h(k) x(n − k) ,
k=−∞
dove h(n) = S[δ (n)] è la risposta impulsiva del sistema.
(4.17)
134
Sistemi lineari tempo-invarianti (LTI)
4.3 Convoluzione Come abbiamo visto nel paragrafo precedente, la relazione i-u di un sistema LTI può sempre essere espressa in termini di convoluzione, descritta dalla (4.7) nel caso TD, oppure dalla (4.12) nel caso TC. La difficoltà maggiore è che, fatta eccezione per casi particolari, la convoluzione tra due segnali è un’operazione più complessa da interpretare (e da calcolare) rispetto alle operazioni elementari viste ad esempio nel § 2.1. Cerchiamo allora di interpretare il meccanismo che sta alla base della convoluzione, partendo dal caso TD per semplicità. Nel caso TD, la convoluzione si scrive esplicitamente come: y(n) =
+∞
∑
x(k) h(n − k) =
k=−∞
+∞
∑
h(k) x(n − k) .
(4.18)
k=−∞
Le due espressioni riportate nella (4.18) sono del tutto equivalenti, e quindi l’ordine dei segnali è ininfluente nel calcolo della convoluzione (proprietà commutativa della convoluzione, vedi anche il § 4.3.1 seguente). Prendendo come riferimento la seconda delle (4.18), le operazioni da effettuare sui segnali x(n) e h(n) per calcolare la convoluzione sono schematicamente indicate di seguito: Algoritmo per il calcolo della convoluzione a TD: (1) Rappresentare h(k) e x(k) in funzione di k ∈ Z. (2) Effettuare prima la riflessione del segnale x(k), costruendo il segnale z(k) = x(−k) e, successivamente, effettuare la traslazione del segnale z(k) verso destra se n > 0, e verso sinistra se n < 0, ottenendo così il segnale wn (k) = z(k − n) = x[−(k − n)] = x(n − k). (3) Per ogni fissato valore di n ∈ Z, il valore della convoluzione y(n) all’istante n si ottiene moltiplicando i campioni corrispondenti dei due segnali h(k) e wn (k) per tutti i valori di k ∈ Z, e sommando i risultati dei prodotti ottenuti. Ovviamente, per la proprietà commutativa della convoluzione, è possibile scambiare nei passi (1)–(3) i ruoli di h(k) e x(k) senza modificare il risultato finale. Per capire meglio il meccanismo precedentemente descritto, consideriamo il seguente esempio. Esempio 4.3 (calcolo della convoluzione a TD) Consideriamo un sistema TD avente risposta impulsiva h(n) = an u(n) , con a = 0, e calcoliamo la sua uscita quando esso è sollecitato in ingresso da un gradino x(n) = u(n). Seguendo la procedura delineata precedentemente, rappresentiamo h(k) in funzione di k [fig. 4.3(a)], insieme con x(k) [fig. 4.3(b)] ed il segnale riflesso z(k) = x(−k) [fig. 4.3(c)]. Se non effettuiamo nessuna traslazione su z(k), possiamo ottenere direttamente il risultato della convoluzione per n = 0, effettuando i prodotti dei campioni corrispondenti di h(k) e z(k) e sommando i risultati; in particolare, si vede che solo i campioni di x(k) e z(k) per k = 0 danno contributo in questo caso, ed il risultato vale: y(0) =
+∞
∑
h(k) z(k) = h(0) z(0) = 1 .
k=−∞
Per calcolare gli altri valori della convoluzione, dobbiamo costruire il segnale wn (k) = z(k − n), che si ottiene da z(k) mediante traslazione di n campioni. In particolare, si vede che per n < 0 [traslazione verso sinistra, si veda la fig. 4.3(d)], il segnale wn (k) non si sovrappone con h(k), per cui il risultato della convoluzione è nullo. Viceversa, se n > 0 [traslazione verso destra, si veda la fig. 4.3(e)], si nota che si ha sovrapposizione tra h(k) e
4.3 Convoluzione
135
wn (k) su un numero finito di campioni, più precisamente, tale numero di campioni è pari ad n+1. In particolare, è semplice considerare i casi per n = 1, 2, 3 e poi generalizzare il risultato ottenuto al caso di n qualsiasi. Si ha: y(1) = y(2) = y(3) =
+∞
∑
h(k) w1 (k) = 1 + a ;
∑
h(k) w2 (k) = 1 + a + a2 ;
∑
h(k) w3 (k) = 1 + a + a2 + a3 .
k=−∞ +∞ k=−∞ +∞ k=−∞
Per un generico valore n > 0, h(k) e wn (k) si sovrappongono per k ∈ {0, 1, . . . , n}, per cui: y(n) =
+∞
∑
h(k) wn (k) = 1 + a + a2 + a3 + . . . + an =
k=−∞
n
∑ ak =
k=0
1 − an+1 , 1−a
dove per ottenere l’ultima espressione si è utilizzata la formula seguente, valida per ogni a ∈ C e per N2 ≥ N1 : N2
∑
ak =
k=N1
aN1 − aN2 +1 . 1−a
In definitiva, il calcolo della convoluzione tra h(n) = an u(n) e x(n) = u(n) restituisce il seguente segnale: 0 , se n < 0 ; y(n) = 1 − an+1 , altrimenti . 1−a Esso può essere espresso evidentemente come
1 − an+1 y(n) = u(n) , 1−a ed è rappresentato graficamente in fig. 4.3(f) nel caso in cui 0 < a < 1. Si noti che, se |a| < 1, per n → +∞ si ha: lim y(n) =
n→+∞
+∞
1
∑ ak = 1 − a ,
k=0
dove si è utilizzato il noto risultato sulla convergenza della serie geometrica.
L’esempio precedente evidenzia che l’interpretazione grafica è fondamentale per individuare correttamente gli estremi effettivi della sommatoria su k ∈ Z che compare nella (4.7). In particolare, l’esempio mostra chiaramente che, sebbene la somma in (4.7) vada effettuata in principio su infiniti valori di k, in pratica essa può ridursi ad una somma finita di valori per ogni n. Ovviamente esistono casi in cui il numero di termini della somma è infinito, per alcuni valori di n, oppure anche per tutti i valori di n; in tal caso il calcolo della convoluzione richiede la determinazione della somma di una serie, che in generale potrebbe non convergere. Le condizioni per l’esistenza e la convergenza della convoluzione tra due segnali TD sono discusse in app. C. Nel caso TC la convoluzione è definita mediante uno dei due integrali: y(t) =
+∞ −∞
x(τ ) h(t − τ ) dτ =
+∞ −∞
h(τ ) x(t − τ ) dτ .
(4.19)
Anche in questo caso, per effettuare correttamente il calcolo della convoluzione, un comodo aiuto è fornito dalla rappresentazione grafica dei segnali coinvolti. Facendo riferimento per convenienza alla seconda delle (4.19), la sequenza di operazioni che bisogna effettuare sui segnali è analoga a quella per il caso TD, vale a dire:
136
Sistemi lineari tempo-invarianti (LTI)
1
0.8
0.8
0.6
0.6 x(k)
h(k)
1
0.4
0.4
0.2
0.2
0
0
−10
−5
0 k
5
10
−10
−5
1
1
0.8
0.8
0.6 0.4
0.4 0.2
0
0
−5
0 k
5
−10
10
−5
5
10
6
1
5 y(n) = h(n) ∗ x(n)
0.8 w5(k)=x(5−k)
0 k
(d)
(c)
0.6 0.4 0.2
4 3 2 1
0 −10
10
0.6
0.2
−10
5
(b)
w−5(k)=x(−5−k)
z(k)=x(−k)
(a)
0 k
0 −5
0 k
(e)
5
10
−10
−5
0 n
5
10
(f)
Fig. 4.3. Calcolo della convoluzione tra h(n) = an u(n) (a = 0.8333) e x(n) = u(n) (es. 4.4): (a) rappresentazione di h(k); (b) rappresentazione di x(k); (c) riflessione del segnale x(k); (d) traslazione verso sinistra di z(k) (n = −5); (e) traslazione verso destra di z(k) (n = 5); (f) risultato della convoluzione.
4.3 Convoluzione
137
Algoritmo per il calcolo della convoluzione a TC: (1) Rappresentare h(τ ) e x(τ ) in funzione di τ ∈ R. (2) Effettuare prima la riflessione del segnale x(τ ), costruendo il segnale z(τ ) = x(−τ ) e, successivamente, effettuare la traslazione del segnale z(τ ) verso destra se t > 0, e verso sinistra se t < 0, ottenendo così il segnale wt (τ ) = z(τ − t) = x[−(τ − t)] = x(t − τ ). (3) Per ogni fissato valore di t ∈ R, il valore della convoluzione y(t) all’istante t si ottiene moltiplicando tra loro i segnali h(τ ) e wt (τ ) per tutti i valori di τ ∈ R, ed effettuando l’integrale del prodotto. L’esempio che segue chiarisce meglio i passi da seguire per il calcolo della convoluzione a TC. Esempio 4.4 (calcolo della convoluzione tra due finestre rettangolari a TC) Consideriamo il segnale:
t − 0.5T1 x(t) = rect , T1 di durata ∆x = T1 , posto in ingresso al sistema LTI (cfr. es. 4.2) avente risposta impulsiva
t − 0.5T2 h(t) = rect , T2 di durata ∆h = T2 . Facciamo per comodità riferimento alla seconda delle (4.19), ed assumiamo T2 > T1 . Per prima cosa, rappresentiamo x(τ ) [fig. 4.4(a)] e h(τ ) [fig. 4.4(b)] in funzione di τ ∈ R; successivamente, effettuiamo la riflessione del segnale x(τ ) in modo da ottenere il segnale z(τ ) = x(−τ ) [fig. 4.4(c)]. Osserviamo poi che il prodotto tra h(τ ) e z(τ ) ha area nulla, in quanto le due finestre rettangolari si sovrappongono solo su un punto, per cui y(0) =
+∞ −∞
h(τ ) z(τ ) dτ = 0 .
Traslando il segnale z(τ ) verso sinistra [fig. 4.4(d)], ovvero costruendo il segnale wt (τ ) = z(τ − t) = x(t − τ ) per t < 0, le finestre non si sovrappongono affatto, per cui risulta y(t) ≡ 0 per t ≤ 0. Considerando invece valori positivi di t, notiamo che per t > 0 le due finestre h(τ ) e wt (τ ) iniziano a sovrapporsi [fig. 4.4(e)]: in particolare, per 0 < t < T1 le due finestre h(τ ) e wt (τ ) si sovrappongono sull’intervallo (0,t), per cui si ha: y(t) =
t 0
dτ = t ,
0 < t < T1 .
Per T1 ≤ t < T2 , invece, le due finestre h(τ ) e wt (τ ) si sovrappongono sull’intervallo (t − T1 ,t), per cui si ha: y(t) =
t t−T1
dτ = T1 ,
T1 ≤ t < T2 .
Per T2 ≤ t < T2 + T1 , le due finestre h(τ ) e wt (τ ) si sovrappongono sull’intervallo (t − T1 , T2 ), per cui si ha: y(t) =
T2 t−T1
dτ = T2 + T1 − t,
T2 ≤ t < T2 + T1 .
Infine, per t ≥ T2 + T1 , le due finestre h(τ ) e wt (τ ) non si sovrappongono affatto, per cui si ha nuovamente y(t) ≡ 0. Riassumendo, l’espressione del segnale y(t) è la seguente: 0, t ≤ 0 oppure t ≥ T2 + T1 ; t, per 0 < t < T1 ; y(t) = (4.20) , per T1 ≤ t < T2 ; T 1 T2 + T1 − t, per T2 ≤ t < T2 + T1 .
138
Sistemi lineari tempo-invarianti (LTI)
Il segnale y(t) è una finestra trapezoidale di durata rigorosamente limitata ∆y = T1 + T2 = ∆x + ∆h , ed è rappresentato graficamente in fig. 4.4(f). Si noti che se T1 > T2 si può procedere allo stesso modo, scambiando il ruolo dei due segnali, data la proprietà commutativa della convoluzione: l’espressione del segnale y(t) per T1 > T2 si può ottenere allora scambiando T1 con T2 nella (4.20). Nel caso particolare T1 = T2 = T , notiamo che l’intervallo di tempo (T1 , T2 ) in cui il segnale y(t) è costante si riduce ad un punto, per cui si ottiene una finestra triangolare (traslata) di durata ∆y = 2T : t < 0 oppure t ≥ 2T ; 0, y(t) = t, per 0 < t < T ; 2T − t, per T ≤ t < 2T ; tale finestra si può esprimere in funzione della finestra triangolare elementare come
t −T y(t) = T Λ , T ed è rappresentata in fig. 4.5.
Quest’ultimo esempio mostra una proprietà generale della convoluzione tra segnali TC aventi durata rigorosamente limitata; in particolare, se uno dei segnali ha durata ∆1 e l’altro ha durata ∆2 , la convoluzione dei due sarà di durata pari (al più) a ∆1 + ∆2 . Tale proprietà può essere estesa con qualche modifica anche al caso di segnali TD, e prende il nome di proprietà di durata della convoluzione (cfr. § 4.3.1). In conclusione, notiamo che, similmente alla somma di convoluzione, l’integrale di convoluzione può non esistere finito. Le condizioni per l’esistenza e la convergenza della convoluzione tra due segnali TC sono discusse in app. C. 4.3.1 Proprietà della convoluzione
La principale differenza tra la convoluzione a TD (4.7) e quella a TC (4.12) è che la prima è definita mediante una sommatoria, mentre la seconda è definita mediante un integrale; tuttavia gli esempi del paragrafo precedente mostrano che le operazioni da effettuare sui segnali (riflessione, traslazione, prodotto, calcolo dell’area) sono molto simili nei due casi. Per questo motivo, nello studio delle proprietà della convoluzione, è conveniente (per quanto possibile) seguire una trattazione unificata per i casi TD e TC. A tale scopo, si introduce il simbolo ∗ per denotare indifferentemente la convoluzione nel caso TC e TD; pertanto, nel seguito, la convoluzione tra i segnali x(·) ed h(·) sarà indicata come y(·) = x(·) ∗ h(·) . Il simbolo utilizzato ricorda il prodotto: tale scelta non è casuale, in quanto si può verificare che la convoluzione possiede, oltre a proprietà specifiche, tutte le proprietà algebriche del prodotto convenzionale, come discusso di seguito. Per questo motivo, la convoluzione viene chiamata anche prodotto di convoluzione. Proprietà commutativa
Abbiamo già osservato che la convoluzione tra due segnali gode della proprietà commutativa: x(·) ∗ h(·) = h(·) ∗ x(·) . Come mostrato in fig. 4.6, l’interpretazione di questa proprietà con riferimento ai sistemi LTI è che nel calcolo dell’uscita di un sistema si può scambiare il segnale di ingresso con la risposta impulsiva, cioè i due schemi in fig. 4.6 sono equivalenti, nel senso che ya (·) ≡ yb (·). In altri termini, un sistema LTI con risposta impulsiva h(·) sollecitato dall’ingresso x(·) presenta la stessa uscita di un sistema LTI con risposta impulsiva x(·) sollecitato dall’ingresso h(·). Ovviamente questo scambio, se è possibile dal punto di vista matematico, non ha nessun senso dal punto di vista sistemistico.
4.3 Convoluzione
139
1
x(τ)
h(τ)
1
T
0
T
0
1
τ
(a)
(b)
z(τ)=x(−τ)
wt(τ)=x(t−τ)
τ
2
−T
t−T
0
1
t
1
0
τ
τ
(c)
(d)
wt(τ)=x(t−τ)
y(t) = h(t) ∗ x(t)
T1
0
t−T
0
1
t
T
1
τ
t
(e)
(f)
T2
T1+T2
Fig. 4.4. Calcolo della convoluzione tra due finestre rettangolari TC x(t) e h(t) di durata T1 e T2 (es. 4.4): (a) rappresentazione di x(τ ); (b) rappresentazione di h(τ ); (c) riflessione del segnale x(τ ); (d) traslazione verso sinistra di z(τ ) (t < 0); (e) traslazione verso destra di z(τ ) (t > 0); (f) risultato y(t) della convoluzione.
140
Sistemi lineari tempo-invarianti (LTI)
T y(t) = h(t) ∗ x(t)
x(.)
h(.)
y a(.)
(a)
h(.) 0
T
x(.)
y b(.)
2T
(b)
t
Fig. 4.5. Risultato della convoluzione tra due finestre rettangolari TC di uguale durata T . Il segnale y(t) si può esprimere come y(t) = T Λ t−T T .
Fig. 4.6. In virtù della proprietà commutativa della convoluzione, i due sistemi LTI in figura sono equivalenti.
Proprietà associativa
Con semplici passaggi si dimostra che la convoluzione gode anche della proprietà associativa: x(·) ∗ [h1 (·) ∗ h2 (·)] = [x(·) ∗ h1 (·)] ∗ h2 (·) . Va osservato che la proprietà associativa vale nell’ipotesi che abbiano senso tutte le convoluzioni in gioco. In tale ipotesi, la proprietà associativa ci consente di evidenziare alcune interessanti proprietà dei sistemi LTI. A tal fine, osserviamo innanzitutto che, come mostrato in fig. 4.7(a), l’espressione ya (·) = x(·) ∗ [h1 (·) ∗ h2 (·)] si può interpretare come l’uscita di un unico sistema LTI avente risposta impulsiva h1 (·) ∗ h2 (·). Inoltre, come evidenziato in fig. 4.7(b), notiamo che calcolare l’espressione yb (·) = [x(·) ∗ h1 (·)] ∗ h2 (·) seguendo l’ordine indicato dalle parentesi equivale a calcolare prima l’uscita del sistema avente risposta impulsiva h1 (·), e successivamente considerare il risultato ottenuto come l’ingresso del sistema avente risposta impulsiva h2 (·) per calcolare yb (·): in altri termini, yb (·) si può interpretare come l’uscita della serie o cascata dei due sistemi aventi risposte impulsive h1 (·) e h2 (·). In base a queste due interpretazioni, la proprietà associativa della convoluzione consente di affermare che la serie di due sistemi LTI equivale ad un unico sistema LTI avente risposta impulsiva hser (·) = h1 (·) ∗ h2 (·), cioè i due schemi in fig. 4.7(a) e fig. 4.7(b) sono equivalenti, nel senso che ya (·) ≡ yb (·). Per la proprietà commutativa, notiamo anche che hser (·) = h1 (·) ∗ h2 (·) = h2 (·) ∗ h1 (·), per cui il sistema LTI in fig. 4.7(a) è equivalente al sistema LTI riportato in fig. 4.7(c), cioè ya (·) ≡ yc (·). A sua volta, per la proprietà associativa, il sistema LTI in fig. 4.7(c) è equivalente allo schema serie riportato in fig. 4.7(d), ossia yc (·) ≡ yd (·). Conseguentemente, i due schemi riportati in fig. 4.7(b) e fig. 4.7(d) sono equivalenti, nel senso che yb (·) ≡ yd (·). In altre parole, il comportamento della serie di due sistemi LTI è indipendente dall’ordine di connessione: questa è una caratteristica molto importante dei sistemi LTI, in generale non posseduta da altre categorie di sistemi (tale proprietà si può generalizzare alla serie di più di due sistemi LTI). Proprietà distributiva
È semplice provare che la convoluzione gode della proprietà distributiva rispetto alla somma: x(·) ∗ [h1 (·) + h2 (·)] = x(·) ∗ h1 (·) + x(·) ∗ h2 (·) .
4.3 Convoluzione
141
y a(.)
h1(.)∗h2(.)
x(.)
(a)
x(.)
h1(.)
h1(.)
h2(.)
h2(.)
y b(.)
y c (.)
h2(.)∗h1(.)
h2(.)
y 2(.)
(a)
(c)
x(.)
y a(.)
x(.)
(b)
x(.)
y 1(.)
x(.)
h1(.)+h 2(.)
y b(.)
(b)
h1(.)
y d(.)
Fig. 4.8. In virtù della proprietà distributiva della convoluzione, i due schemi in figura sono equivalenti.
(d)
Fig. 4.7. In virtù della proprietà commutativa e associativa della convoluzione, i quattro schemi in figura sono equivalenti.
Anche qui per la validità della relazione devono avere senso tutte le convoluzioni in gioco. Similmente alla proprietà associativa, anche la proprietà distributiva consente di evidenziare una interessante proprietà dei sistemi LTI. A tale scopo, come mostrato in fig. 4.8(a), notiamo che l’espressione ya (·) = x(·)∗h1 (·)+x(·)∗h2 (·) rappresenta l’uscita del parallelo dei due sistemi aventi risposte impulsive h1 (·) e h2 (·). D’altra parte, come mostrato in fig. 4.8(b), l’espressione yb (·) = x(·) ∗ [h1 (·) + h2 (·)] si può interpretare come l’uscita di un unico sistema LTI avente risposta impulsiva h1 (·) + h2 (·). In base a queste due interpretazioni, la proprietà distributiva della convoluzione consente di affermare che il parallelo2 di due sistemi LTI equivale ad un unico sistema LTI avente risposta impulsiva hpar (·) = h1 (·) + h2 (·), cioè i due schemi in fig. 4.8(a) e fig. 4.8(b) sono equivalenti, nel senso che ya (·) ≡ yb (·). Proprietà di esistenza dell’unità
Si può facilmente provare, utilizzando la definizione di convoluzione e la proprietà di campionamento della δ (·), valida formalmente sia nel caso TC sia in quello TD, che effettuare la convoluzione di un segnale x(·) con δ (·) non ha nessun effetto sul segnale: in altri termini, vale la relazione: x(·) = δ (·) ∗ x(·) = x(·) ∗ δ (·) ,
(4.21)
2 Con riferimento alle interconnessioni elementari tra sistemi introdotte nel capitolo precedente, resta non esplorata per il
momento la connessione in retroazione tra sistemi LTI; in effetti, tale connessione non può essere studiata elementarmente nel dominio del tempo, mentre vedremo che lo studio è assai più agevole ragionando nel dominio della frequenza.
142
Sistemi lineari tempo-invarianti (LTI)
δ(.)
x(.)
x(.)
x(n)
z - n2
x(n-n2)
h(n-n1)
y a(n)
(a)
y(n)
Fig. 4.9. In un sistema identico, il segnale di uscita coincide con il segnale di ingresso: si tratta di un sistema LTI avente risposta impulsiva h(·) = δ (·).
x(n)
h(n)
-(n1+n2) z
y b(n)
(b)
Fig. 4.10. In virtù della proprietà di invarianza temporale (4.25) della convoluzione, i due schemi in figura sono equivalenti.
dove l’uguaglianza tra le due espressioni deriva ovviamente dalla proprietà commutativa della convoluzione. Dal punto di vista matematico, abbiamo già osservato che la convoluzione possiede proprietà formali analoghe a quelle del prodotto algebrico: per questo motivo, la (4.21) ammette l’interpretazione secondo la quale la δ (·) è l’elemento unitario per la convoluzione, ovvero gioca un ruolo analogo a quello dell’unità nel prodotto (moltiplicare un numero per 1 non altera il numero stesso).3 Dal punto di vista dell’interpretazione sistemistica, notiamo che la (4.21) rappresenta la relazione i-u di un sistema LTI per il quale l’uscita è sempre coincidente con l’ingresso. Tale sistema prende il nome di sistema identico, e per la (4.21) è caratterizzato dalla risposta impulsiva h(·) = δ (·) (fig. 4.9). Proprietà di invarianza temporale
Ricordiamo la formulazione i-u della proprietà di invarianza temporale (prop. 3.2), secondo la quale, per sistemi a TC e a TD, per ogni x(·) ∈ I e y(·) ∈ U, si ha, rispettivamente, x(t − t0 ) −→ y(t − t0 ) ,
∀t0 ∈ R ,
x(n − n0 ) −→ y(n − n0 ) ,
∀n0 ∈ Z .
Nel caso di un sistema LTI, esprimendo la relazione i-u del sistema mediante una convoluzione, le relazioni precedenti si scrivono esplicitamente come x(t − t0 ) ∗ h(t) = y(t − t0 ) , x(n − n0 ) ∗ h(n) = y(n − n0 ) ,
∀t0 ∈ R , ∀n0 ∈ Z ,
(4.22) (4.23)
che vanno sotto il nome di proprietà di invarianza temporale della convoluzione. Le (4.22) e (4.23) dovrebbero indurre il lettore a prestare molta attenzione al significato formale della notazione sintetica y(·) = x(·) ∗ h(·); infatti, se per calcolare y(t − t0 ), ad esempio, si procedesse con una semplice sostituzione formale t − t0 → t nell’espressione y(t) = x(t) ∗ h(t), si giungerebbe, invece che alla (4.22), al risultato scorretto y(t − t0 ) = x(t − t0 ) ∗ h(t − t0 ). Per giustificare invece la correttezza della (4.22) [un discorso analogo vale per la (4.23)] è sufficiente partire dalla definizione di convoluzione a TC: y(t) = 3 Si
+∞ −∞
h(τ ) x(t − τ ) dτ ,
noti inoltre che, esplicitando la convoluzione (4.21), è possibile riottenere la (4.4) nel caso TD e la (4.11) nel caso TC, rispettivamente.
4.3 Convoluzione
143
ed effettuare in quest’ultima la sostituzione formale t − t0 → t, scrivendo y(t − t0 ) =
+∞ −∞
h(τ ) x(t − t0 − τ ) dτ = h(t) ∗ x(t − t0 ) .
Notiamo che per la proprietà commutativa della convoluzione, si può anche scrivere: h(t − t0 ) ∗ x(t) = y(t − t0 ) , h(n − n0 ) ∗ x(n) = y(n − n0 ) ,
∀t0 ∈ R ,
(4.24)
∀n0 ∈ Z ,
(4.25)
secondo le quali una traslazione di t0 o n0 del segnale di uscita si può ottenere equivalentemente traslando della stessa quantità il segnale di ingresso oppure la risposta impulsiva. Le (4.22)–(4.25) possono essere applicate anche contemporaneamente, con ritardi diversi, ed in questo caso evidentemente gli effetti delle traslazioni temporali si sommano: h(t − t1 ) ∗ x(t − t2 ) = y[t − (t1 + t2 )] , h(n − n1 ) ∗ x(n − n2 ) = y[n − (n1 + n2 )] ,
∀t1 ,t2 ∈ R , ∀n1 , n2 ∈ Z .
(4.26) (4.27)
Notiamo che le (4.26) e (4.27) rappresentano una forma più generale della proprietà di invarianza temporale, in quanto includono come casi particolari le (4.22)–(4.25). Tali relazioni hanno una chiara interpretazione sistemistica che è riportata in fig. 4.10 con riferimento al caso TD: l’uscita del sistema LTI avente risposta impulsiva h(n − n1 ), quando al suo ingresso è posto il segnale x(n − n2 ), si può ottenere, equivalentemente, applicando prima il segnale x(n) in ingresso al sistema LTI avente risposta impulsiva h(n) e, poi, traslando nel tempo il segnale ottenuto di n1 + n2 . In altre parole, i due schemi in fig. 4.10(a) e fig. 4.10(b) sono equivalenti, nel senso che ya (·) ≡ yb (·). Esempio 4.5 (convoluzione tra due finestre rettangolari a TC, caso simmetrico) Nell’es. 4.4 abbiamo ricavato (nel caso T1 = T2 = T ) la seguente relazione notevole, che lega finestre rettangolari e triangolari mediante la convoluzione:
t − 0.5T t − 0.5T t −T rect ∗ rect = TΛ . T T T Se si vuole ricavare la convoluzione tra due finestre rettangolari elementari (di durata unitaria) centrate nell’origine, basta prima particolarizzare la relazione precedente al caso T = 1: rect(t − 0.5) ∗ rect(t − 0.5) = Λ(t − 1) , e successivamente applicare la proprietà di invarianza temporale nella forma generalizzata (4.26). Posto h(t) = x(t) = rect(t − 0.5) si avrà evidentemente che rect(t) = h(t + 0.5) = x(t + 0.5), per cui per ottenere il risultato corretto della convoluzione rect(t) ∗ rect(t) basterà applicare un anticipo di 0.5 + 0.5 = 1 a Λ(t − 1), il che ovviamente restituisce Λ(t). Si ha allora, in definitiva, la seguente relazione notevole: rect(t) ∗ rect(t) = Λ(t) ,
(4.28)
che troverà applicazione nel seguito. Proprietà di convoluzione con l’impulso
Applicando le proprietà (4.22)–(4.25) alla (4.21), possiamo ottenere una interessante generalizzazione della proprietà di esistenza dell’unità: x(t − t0 ) = x(t) ∗ δ (t − t0 ) = δ (t − t0 ) ∗ x(t) ,
∀t0 ∈ R ,
x(n − n0 ) = x(n) ∗ δ (n − n0 ) = δ (n − n0 ) ∗ x(n) ,
∀n0 ∈ Z .
(4.29) (4.30)
144
Sistemi lineari tempo-invarianti (LTI)
Queste relazioni mostrano che la convoluzione di un segnale con un impulso centrato in t0 oppure n0 equivale ad una traslazione temporale della stessa quantità del segnale. Questo risultato conferma che, nel caso TC, il sistema y(t) = x(t − t0 ), che effettua la traslazione temporale di un segnale, è un sistema LTI avente risposta impulsiva h(t) = δ (t − t0 ); una interpretazione equivalente vale nel caso TD, dove la risposta impulsiva di un sistema che effettua la traslazione temporale è h(n) = δ (n − n0 ). Proprietà di durata della convoluzione
Con riferimento alle due finestre rettangolari, dall’es. 4.4 si ricava che la convoluzione di due segnali TC di durata rigorosamente limitata è ancora un segnale di durata rigorosamente limitata. Questo risultato è valido in generale. Infatti, supponiamo che il segnale x(t) abbia estensione temporale limitata Dx = (t1 ,t2 ), con t2 > t1 ; la misura dell’intervallo Dx definisce la durata del segnale x(t), che in questo caso è data da ∆x = t2 − t1 . Similmente, supponiamo che anche la risposta impulsiva del sistema abbia estensione temporale limitata Dh = (t3 ,t4 ), con t4 > t3 ; la misura dell’intervallo Dh definisce la durata della risposta impulsiva h(t), che in questo caso è data da ∆h = t4 − t3 . Con riferimento all’algoritmo di calcolo della convoluzione a TC, a seguito della riflessione, l’estensione temporale del segnale z(τ ) = x(−τ ) sarà data dall’intervallo Dz = (−t2 , −t1 ) e, come conseguenza della traslazione temporale di t, l’estensione temporale del segnale wt (τ ) = z(τ − t) sarà Dwt = (t − t2 ,t − t1 ). Questo significa che il prodotto h(τ ) wt (τ ) sarà identicamente nullo per ogni τ ∈ R non appartenente all’intersezione Dh ∩ Dwt dei due intervalli Dh ed Dwt . Pertanto, l’integrale di convoluzione tra x(t) e h(t) si riduce al seguente integrale: y(t) =
Dh ∩Dwt
h(τ ) wt (τ )dτ ,
in cui la variabile di integrazione τ varia nell’intervallo Dh ∩ Dwt . A questo punto il risultato di tale integrale è nullo per tutti i valori di t ∈ R per i quali l’intersezione tra i due intervalli Dh ed Dwt è vuota, cioè Dh ∩ Dwt = ∅. Ricordando che Dh = (t3 ,t4 ) e Dwt = (t −t2 ,t −t1 ), ciò accade sicuramente in due casi: quando t − t1 < t3 , ovvero t < t1 + t3 , oppure quando t − t2 > t4 , ovvero t > t2 + t4 . In definitiva, risulta che y(t) ≡ 0,
∀t ∈ (t1 + t3 ,t2 + t4 ) ,
(4.31)
per cui Dy ⊆ (t1 + t3 ,t2 + t4 ), e quindi y(t) ha durata rigorosamente limitata. Inoltre, la sua durata è pari alla misura di Dy , per la quale vale la disuguaglianza ∆y ≤ (t2 + t4 ) − (t1 + t3 ) = (t2 − t1 ) + (t4 − t3 ) = ∆x + ∆h . In altre parole, se i due segnali x(t) e h(t) hanno estensioni temporali limitate, ovvero durate finite ∆x ∈ R+ e ∆h ∈ R+ , rispettivamente, allora la loro convoluzione y(t) è ancora un segnale avente estensione limitata, la cui durata ∆y è al più4 pari alla somma delle durate dei due segnali sottoposti alla convoluzione, cioè ∆y ≤ ∆x +∆h . È interessante osservare dalla (4.31) che, se il segnale di ingresso x(t) e la risposta impulsiva del sistema h(t) si annullano identicamente per t < 0, ossia, t1 = t3 = 0, allora anche il segnale di uscita è identicamente nullo per t < 0. Si osservi inoltre che la (4.31) è valida anche quando il segnale di ingresso (o la risposta impulsiva) ha estensione non limitata. Ad esempio, se l’estensione del segnale di ingresso è non limitata superiormente, cioè, t2 = +∞, dalla (4.31) segue che l’estensione del segnale di uscita risulterà anch’essa non limitata superiormente. segnale y(t) potrebbe annullarsi identicamente anche in un sottoinsieme dell’intervallo (t1 + t3 ,t2 + t4 ) (si noti che questo non è il caso dell’es. 4.4); per cui, possiamo dire in generale che ∆x + ∆h è la massima durata del segnale y(t). 4 Il
4.3 Convoluzione
145
Si può dimostrare che una proprietà analoga vale per il caso TD: se i due segnali x(n) e h(n) hanno estensioni temporali limitate, ovvero durate finite ∆x ∈ N e ∆h ∈ N, rispettivamente, allora la loro convoluzione y(n) è ancora un segnale avente estensione limitata, la cui durata ∆y è al più pari a ∆x + ∆h − 1, cioè ∆y ≤ ∆x + ∆h − 1 (si noti la piccola differenza tra il caso TC ed il caso TD, legata alla sottrazione di 1). Questa proprietà è meglio evidenziata dal seguente esempio. Esempio 4.6 (calcolo della convoluzione tra due finestre rettangolari a TD) Consideriamo il segnale x(n) = RN1 (n) , di durata ∆x = N1 , in ingresso al sistema di risposta impulsiva h(n) = RN2 (n) , avente durata ∆h = N2 , ed assumiamo che N2 ≥ N1 . Per prima cosa, rappresentiamo x(k) [fig. 4.11(a)] e h(k) [fig. 4.11(b)] in funzione di k ∈ Z; successivamente, effettuiamo la riflessione del segnale x(k) in modo da ottenere il segnale z(k) = x(−k) [fig. 4.11(c)]. Se non effettuiamo nessuna traslazione su z(k), possiamo ottenere direttamente il risultato della convoluzione per n = 0, effettuando i prodotti dei campioni corrispondenti di h(k) e z(k) e sommando i risultati; in particolare, si vede che solo i campioni per k = 0 danno contributo in questo caso, ed il risultato vale: y(0) =
+∞
∑
h(k) z(k) = h(0) z(0) = 1 .
k=−∞
Per calcolare gli altri valori della convoluzione, dobbiamo costruire il segnale wn (k) = z(k − n), che si ottiene da z(k) mediante traslazione di n campioni. In particolare, si vede che per n < 0 [traslazione verso sinistra, si veda la fig. 4.11(d)], il segnale wn (k) non si sovrappone con h(k), per cui il risultato della convoluzione è nullo. Viceversa, per taluni valori di n > 0 [traslazione verso destra, si veda la fig. 4.11(e)], si nota che si ha sovrapposizione tra h(k) e wn (k) su un numero finito di campioni. In particolare, per 0 ≤ n < N1 − 1 le due finestre h(k) e wn (k) si sovrappongono per k ∈ {0, 1, . . . , n}, per cui si ha: y(n) =
n
∑ 1 = n+1,
0 ≤ n < N1 − 1 .
k=0
Per N1 − 1 ≤ n < N2 − 1, invece, le due finestre h(k) e wn (k) si sovrappongono per k ∈ {n − N1 + 1, n − N1 + 2, . . . , n} , per cui si ha: y(n) =
n
∑
k=n−N1 +1
1 = N1 ,
N1 − 1 ≤ n < N2 − 1 .
Per N2 − 1 ≤ n ≤ N2 + N1 − 2, le due finestre h(k) e wn (k) si sovrappongono per k ∈ {n − N1 + 1, n − N1 + 2, . . . , N2 − 1} per cui si ha: y(n) =
N2 −1
∑
k=n−N1 +1
1 = N2 + N1 − n − 1,
N2 − 1 ≤ n ≤ N2 + N1 − 2 .
Infine, per n > N2 + N1 − 2, le due finestre h(k) e wn (k) non si sovrappongono, per cui si ha y(n) ≡ 0. Riassumendo, l’espressione del segnale y(n) è la seguente: 0, n + 1, y(n) = N1 , N2 + N1 − n − 1,
n < 0 oppure n > N2 + N1 − 2 ; per 0 ≤ n < N1 − 1 ; per N1 − 1 ≤ n < N2 − 1 ; per N2 − 1 ≤ n ≤ N2 + N1 − 2 .
(4.32)
146
Sistemi lineari tempo-invarianti (LTI)
Il segnale y(n) è una finestra trapezoidale di durata ∆y = N1 + N2 − 1 = ∆x + ∆h − 1, ed è rappresentato graficamente in fig. 4.11(f). Nel caso particolare N1 = N2 = N, notiamo che l’intervallo di valori in cui il segnale y(n) è costante si riduce ad un punto, per cui si ottiene una finestra triangolare [fig. 4.12]: n < 0 oppure n > 2N − 2 ; 0, y(n) = n + 1, per 0 ≤ n < N − 1 ; 2N − n − 1, per N − 1 ≤ n ≤ 2N − 2 ; la cui durata è pari ad ∆y = 2N − 1. Tale finestra si può esprimere in funzione della finestra triangolare elementare a TD o finestra di Bartlett (la verifica è lasciata al lettore) introducendo un anticipo di un campione: y(n) = NB2N (n + 1) . Si ha allora la seguente relazione notevole tra finestre elementari a TD (rettangolari e triangolari), controparte a TD della (4.28): RN (n) ∗ RN (n) = NB2N (n + 1) . Anche questa relazione, come la (4.28), troverà applicazione nel seguito.
(4.33)
4.3 Convoluzione
147
1
0.8
0.8
0.6
0.6
x(k)
h(k)
1
0.4
0.4
0.2
0.2
0
0
−10
−5
0 k
5
10
−10
−5
1
1
0.8
0.8
0.6 0.4
0
0
0 k
5
−10
10
−5
0 k
10
(d)
(c) 1
4
y(n) = h(n) ∗ x(n)
0.8 w2(k)=x(2−k)
5
0.4 0.2
−5
10
0.6
0.2
−10
5
(b)
w−2(k)=x(−2−k)
z(k)=x(−k)
(a)
0 k
0.6 0.4
3
2
1
0.2 0
0 −10
−5
0 k
(e)
5
10
−10
−5
0 n
5
10
(f)
Fig. 4.11. Calcolo della convoluzione tra due finestre rettangolari TD di durata N1 = 4 ed N2 = 6 (es. 4.6): (a) rappresentazione di h(k); (b) rappresentazione di x(k); (c) riflessione del segnale x(k); (d) traslazione verso sinistra di z(k) (n = −2); (e) traslazione verso destra di z(k) (n = 2); (f) risultato della convoluzione.
148
Sistemi lineari tempo-invarianti (LTI)
Riepilogo delle proprietà della convoluzione
Per comodità del lettore, le proprietà della convoluzione precedentemente introdotte e discusse sono sinteticamente riassunte di seguito: Proprietà 4.2 (proprietà della convoluzione) (a) Proprietà commutativa: x(·) ∗ h(·) = h(·) ∗ x(·) . (b) Proprietà associativa: x(·) ∗ [h1 (·) ∗ h2 (·)] = [x(·) ∗ h1 (·)] ∗ h2 (·) . (c) Proprietà distributiva: x(·) ∗ [h1 (·) + h2 (·)] = x(·) ∗ h1 (·) + x(·) ∗ h2 (·) . (d) Proprietà di esistenza dell’unità: x(·) = x(·) ∗ δ (·) = δ (·) ∗ x(·) . (e) Proprietà di invarianza temporale: h(t − t1 ) ∗ x(t − t2 ) = y[t − (t1 + t2 )] , ∀t1 ∈ R, ∀t2 ∈ R ; h(·) ∗ x(·) = y(·) =⇒ h(n − n1 ) ∗ x(n − n2 ) = y[n − (n1 + n2 )] , ∀n1 ∈ Z, ∀n2 ∈ Z . (f) Proprietà di convoluzione con l’impulso: x(t − t0 ) = x(t) ∗ δ (t − t0 ) = δ (t − t0 ) ∗ x(t) ,
∀t0 ∈ R ;
x(n − n0 ) = x(n) ∗ δ (n − n0 ) = δ (n − n0 ) ∗ x(n) ,
∀n0 ∈ Z .
(g) Proprietà di durata della convoluzione: Siano x(t) e h(t) di durata rigorosamente limitata, con durate ∆x , ∆h ∈ R+ =⇒ y(t) = x(t) ∗ h(t) è di durata rigorosamente limitata, con durata ∆y ≤ ∆x + ∆h . Siano x(n) e h(n) di durata rigorosamente limitata, con durate ∆x , ∆h ∈ N =⇒ y(n) = x(n) ∗ h(n) è di durata rigorosamente limitata, con durata ∆y ≤ ∆x + ∆h − 1.
4.4 Risposta al gradino L’impulso di Dirac è un segnale ideale, non realizzabile in pratica, per cui è impossibile determinare sperimentalmente la risposta impulsiva di un sistema TC, come suggerito dalla definizione, applicando un impulso al suo ingresso. D’altra parte, anche il gradino è un segnale ideale, in quanto presenta una discontinuità brusca; tuttavia in laboratorio è più semplice da approssimare mediante un segnale
4.4 Risposta al gradino
149
y(n) = h(n) ∗ x(n)
4
3
2
1
0 −10
−5
0 n
5
10
Fig. 4.12. Risultato della convoluzione tra due finestre rettangolari TD di durata N = 4. Il segnale y(n) si può esprimere come y(n) = 4B8 (n + 1).
con un tempo di salita molto stretto, come ad esempio il segnale uε (t) di fig. 2.11(a). Questa considerazione spinge ad introdurre la risposta al gradino o risposta indiciale di un sistema LTI (TC oppure TD), definita come l’uscita s(·) del sistema LTI corrispondente ad un gradino u(·) in ingresso. Nel caso TD, in particolare, sfruttando la relazione i-u (4.7) di un sistema TD LTI, la risposta al gradino si può scrivere esplicitamente come: s(n) = h(n) ∗ u(n) =
+∞
∑
h(k) u(n − k) =
k=−∞
n
∑
h(k) ,
(4.34)
k=−∞
dove nell’ultimo passaggio abbiamo sfruttato il fatto che u(n − k) ≡ 0 per n − k < 0 e quindi per n < k. Un’interpretazione alternativa della precedente relazione si basa sulla proprietà commutativa della convoluzione, secondo la quale s(n) si può interpretare come l’uscita di un sistema accumulatore (cfr. es. 3.2) avente risposta impulsiva u(n) sollecitato in ingresso da h(n). In altri termini, per ottenere la risposta al gradino a partire dalla risposta impulsiva, è sufficiente far passare quest’ultima in un sistema accumulatore. Notando che la (4.34) si può anche scrivere in forma ricorsiva come s(n) = s(n − 1) + h(n) , allora si ha:
h(n) = s(n) − s(n − 1) = ∇1 [s(n)] ,
(4.35)
e quindi la risposta impulsiva si può ottenere effettuando la differenza prima della risposta al gradino. In definitiva, le relazioni (4.34) e (4.35) mostrano che risposta impulsiva e risposta al gradino sono legate da una relazione biunivoca: per questo motivo, non solo la risposta impulsiva, ma anche la risposta al gradino caratterizza completamente un sistema LTI, ovvero è anch’essa una risposta canonica. In particolare, la risposta al gradino consente di calcolare immediatamente la risposta rN (n) del sistema ad una finestra rettangolare di durata N. Infatti, basta ricordare che una finestra rettangolare si può esprimere mediante differenza di due gradini: RN (n) = u(n) − u(n − N) ,
150
Sistemi lineari tempo-invarianti (LTI)
da cui sfruttando le proprietà di linearità e di invarianza temporale del sistema, si ottiene:
rN (n) = S[RN (n)] = s(n) − s(n − N) , ossia la risposta di un sistema LTI alla finestra rettangolare RN (n) si ottiene semplicemente calcolando la differenza tra la risposta al gradino e la sua versione ritardata nel tempo di N. Nel caso TC valgono considerazioni analoghe. Infatti la risposta al gradino s(t), utilizzando la (4.12), si può scrivere esplicitamente come s(t) = h(t) ∗ u(t) =
+∞ −∞
h(τ ) u(t − τ ) dτ =
t −∞
h(τ ) dτ ,
(4.36)
dove nell’ultimo passaggio abbiamo sfruttato il fatto che u(t − τ ) ≡ 0 per t − τ < 0 e quindi per t < τ . Dalla (4.36), derivando ambo i membri ed applicando il teorema fondamentale del calcolo integrale, si ottiene h(t) =
d s(t) dt
(4.37)
Le (4.36) ed (4.37) legano biunivocamente risposta al gradino e risposta impulsiva nel caso TC, e mostrano che anche nel caso TC la risposta al gradino è una risposta canonica, in quanto caratterizza completamente il sistema. In particolare, mediante la risposta al gradino è semplice calcolare la risposta rT (t) alla finestra rettangolare centrata nell’origine di durata T , in quanto quest’ultima si può esprimere come t rect = u(t + T /2) − u(t − T /2) . T Pertanto, adoperando le proprietà di linearità e di invarianza temporale del sistema, si ha t = s(t + T /2) − s(t − T /2) . rT (t) = S rect T Nel caso TC, la risposta alla finestra rettangolare consente di ricavare approssimativamente per via sperimentale la risposta impulsiva di un sistema LTI. Infatti, come già detto in precedenza, il calcolo sperimentale della risposta impulsiva richiede la realizzazione in laboratorio di un impulso di Dirac da applicare in ingresso al sistema: l’impulso di Dirac è un segnale non riproducibile esattamente in pratica, trattandosi di una pura astrazione matematica (cfr. § 2.1.4). Tuttavia, abbiamo visto [si veda la (2.6) in particolare] che l’impulso di Dirac si può ottenere come il limite (nel senso delle distribuzioni) per ε → 0 della successione di segnali (ordinari) δε (t), raffigurati in fig. 2.11(b), aventi area unitaria. Ciò suggerisce che una buona approssimazione della risposta impulsiva di un sistema TC LTI si può ottenere osservando la sua uscita hε (t) quando in ingresso è posto il segnale t 1 δε (t) = rect , 2ε 2ε con ε sufficientemente piccolo. Per la linearità del sistema, tale uscita è data da:
hε (t) = S[δε (t)] =
1 1 r2ε (t) = [s(t + ε ) − s(t − ε )] . 2ε 2ε
(4.38)
Se ε è sufficientemente piccolo5 il segnale hε (t) rappresenta una buona approssimazione della risposta impulsiva del sistema, cioè hε (t) ≈ h(t) (notiamo che per ε → 0 il secondo membro della (4.38) tende 5 Non esiste una regola generale per stabilire quanto ε
debba essere piccolo affinchè hε (t) sia una buona approssimazione di h(t); un valore appropriato di ε dipende dalla struttura interna del sistema e, dunque, varia da sistema a sistema.
4.4 Risposta al gradino
151
alla derivata della risposta al gradino, che per la (4.37) è esattamente la risposta impulsiva, per cui l’approssimazione vista corrisponde a confondere la derivata con il rapporto incrementale). I legami tra risposta impulsiva e risposta al gradino nel caso TC e TD sono schematicamente riassunti di seguito: Proprietà 4.3 (legami tra risposta al gradino e risposta impulsiva) (a) Nel caso TC, la risposta al gradino s(t) e la risposta impulsiva h(t) di un sistema LTI sono legate dalla relazione biunivoca: s(t) =
t −∞
h(τ ) dτ
←→
h(t) =
d s(t) . dt
(b) Nel caso TD, la risposta al gradino s(n) e la risposta impulsiva h(n) di un sistema LTI sono legate dalla relazione biunivoca: s(n) =
n
∑
h(k)
←→
h(n) = ∇1 [s(n)] = s(n) − s(n − 1) .
k=−∞
Di seguito sono riportati alcuni esempi di calcolo della risposta impulsiva e della risposta al gradino sia nel caso di sistemi TC che nel caso di sistemi TD. Esempio 4.7 (risposta impulsiva e risposta al gradino di un integratore) Si consideri l’integratore avente memoria infinita (cfr. es. 3.1), descritto dalla relazione i-u: y(t) =
t −∞
x(u) du .
(4.39)
Abbiamo già mostrato che tale sistema è TI (cfr. es. 3.18) e si può facilmente verificare che tale sistema è anche lineare, per cui l’integratore (4.39) è un sistema LTI. In maniera equivalente, si può mostrare che la (4.39) si può scrivere come una convoluzione: y(t) =
t −∞
x(u) du =
+∞ −∞
x(τ ) u(t − τ ) dτ ,
(4.40)
dove nell’ultimo passaggio abbiamo sfruttato il fatto che u(t − τ ) ≡ 0 per t − τ < 0 e quindi per τ > t. Confrontando la (4.40) con la (4.12), si conclude che la risposta impulsiva del sistema è: h(t) = u(t) , ossia la risposta impulsiva del sistema integratore è proprio il gradino unitario [fig. 4.13(a)]. Conseguentemente, in virtù della (4.36), la risposta al gradino del sistema integratore è data dal seguente integrale: s(t) =
t −∞
u(τ ) dτ ,
il cui valore è (cfr. es. 3.24): s(t) = t u(t) , si tratta cioè di una rampa, identicamente nulla per t < 0, che cresce linearmente per t > 0 [fig. 4.13(b)]. Utilizzando la (4.38), in fig. 4.13(c) è riportata la risposta hε (t) del sistema alla finestra rettangolare δε (t). Si può notare che, per ε → 0, il segnale hε (t) tende proprio alla risposta impulsiva del sistema. In pratica, possiamo dire che, se ε 1, il segnale in fig. 4.13(c) rappresenta una buona approssimazione della risposta impulsiva del sistema.
152
Sistemi lineari tempo-invarianti (LTI)
3
1
h(t)
s(t)
2
1
0 −1
t
0
1 t
(a)
2
3
(b)
ε
h (t)
1
0 ε
−ε −1
0
1 t
2
3
(c) Fig. 4.13. Integratore con memoria infinita (es. 4.7): risposta impulsiva; (b) risposta al gradino; (c) la ri (a) sposta hε (t) alla finestra rettangolare δε (t) = 21ε rect 2tε è una buona approssimazione della risposta impulsiva per ε 1. Esempio 4.8 (risposta impulsiva e risposta dell’integratore TD o accumulatore) Si consideri l’integratore TD o accumulatore (cfr. es. 3.2), avente relazione i-u: y(n) =
n
∑
x(k) .
(4.41)
k=−∞
Si può facilmente verificare che l’integratore TD è un sistema LTI. In maniera equivalente, si può mostrare che la (4.41) si può scrivere come una convoluzione: y(n) =
n
∑
x(k) =
k=−∞
+∞
∑
x(k) u(n − k) ,
(4.42)
k=−∞
dove nell’ultimo passaggio abbiamo sfruttato il fatto che u(n − k) ≡ 0 per n − k < 0 ovvero per k > n. Confrontando la (4.42) con la (4.7), si conclude che la risposta impulsiva del sistema è: h(n) = u(n) ,
4.4 Risposta al gradino
153
10 1
8
0.8
s(n)
h(n)
6 0.6
4
0.4
2
0.2
0
0 −4
−2
0
2
4
6
8
n
(a)
−4
−2
0
2
4
6
8
n
(b)
Fig. 4.14. Integratore a TD o accumulatore (es. 4.8): (a) risposta impulsiva; (b) risposta al gradino. ossia la risposta impulsiva del sistema integratore TD è proprio il gradino unitario [fig. 4.14(a)]. Conseguentemente, in virtù della (4.34). la risposta al gradino del sistema integratore TD è data da: n 0, se n < 0 ; s(n) = ∑ u(k) = n + 1 , se n ≥ 0 ; k=−∞ che possiamo scrivere in maniera più compatta come segue: s(n) = (n + 1) u(n) , si tratta cioè di una rampa a TD [fig. 4.14(b)].
Esempio 4.9 (risposta al gradino di un integratore con memoria finita) Si consideri l’integratore con memoria finita (cfr. es. 4.2), avente relazione i-u: y(t) =
t t−T
x(u) du ,
(4.43)
la cui risposta impulsiva è una finestra rettangolare di durata T centrata in t = T /2, ossia:
t − 0.5T h(t) = rect , T che è riportata in fig. 4.15(a). In virtù della (4.36), la risposta al gradino di tale sistema è il risultato del seguente integrale:
t τ − 0.5T rect s(t) = dτ , T −∞ in cui l’estremo superiore di integrazione t varia in R. Risolvendo l’integrale si ottiene: 0, se t < 0 ; t dτ = t , se 0 ≤ t < T ; 0 s(t) = T dτ = T , se t ≥ T . 0
154
Sistemi lineari tempo-invarianti (LTI)
T
s(t)
h(t)
1
T
T
t
t
(a)
(b)
ε
h (t)
1
−ε
ε
T−ε
T+ε t
(c) Fig. 4.15. Integratore con memoria finita (es. 4.9): (a) risposta impulsiva; (b) risposta al gradino; (c) la risposta hε (t) alla finestra rettangolare δε (t) = 21ε rect 2tε è una buona approssimazione della risposta impulsiva per ε T. che possiamo esprimere in maniera più compatta nel seguente modo: s(t) = t rect
t − 0.5T T
+ T u(t − T ) ,
si tratta di una funzione identicamente nulla per t < 0, che cresce linearmente nell’intervallo (0, T ) fino a raggiungere per t = T il valore T che mantiene costantemente fino all’infinito [fig. 4.15(b)]. Utilizzando la (4.38), in fig. 4.15(c) è riportata la risposta hε (t) del sistema alla finestra rettangolare δε (t) di durata 2ε < T . Si può notare che, per ε → 0, il segnale hε (t) tende ancora alla risposta impulsiva h(t) del sistema. In pratica, possiamo dire che, se ε T , il segnale in fig. 4.13(c) rappresenta una buona approssimazione della risposta impulsiva del sistema. In altre parole, se la durata della finestra rettangolare di ingresso è molto piccola rispetto alla memoria T del sistema, il sistema si comporta approssimativamente come se vi fosse un impulso di Dirac in ingresso. Esempio 4.10 (risposta al gradino di un sistema MA) Si consideri il sistema MA già studiato nell’es. 4.1,
4.4 Risposta al gradino
155
0.3
1 0.2
0.8 s(n)
h(n)
1/6 0.1
0.6 0.4
0
0.2 0
−0.1 −2
0
2
4 n
6
8
10
−2
0
2
(a)
4 n
6
8
10
(b)
Fig. 4.16. Sistema MA con M = 5 e bk = 16 , ∀k ∈ {0, 1, . . . , 5}: (a) risposta impulsiva; (b) risposta al gradino. descritto dalla relazione i-u y(n) =
M
∑ bk x(n − k) ,
(4.44)
k=0
la cui risposta impulsiva ha la seguente espressione: h(n) =
M
∑ bk δ (n − k) ,
(4.45)
k=0
rappresentata in fig. 4.1(a) nel caso generale, ed in fig. 4.1(b) nel caso in cui M = 5 e i pesi bk sono tutti uguali 1 . In virtù della (4.34), la risposta al gradino di tale sistema è il risultato della seguente sommatoria: a M+1 s(n) =
n
M
∑ ∑ bm δ (k − m) ,
k=−∞ m=0
in cui l’estremo superiore della sommatoria n varia in Z. La somma di tale serie si ottiene distinguendo i seguenti casi: 0, se n < 0 ; n ∑ bk , se 0 ≤ n < M ; s(n) =
k=0
M ∑ bk , se n ≥ M . k=0
Nel caso in cui i pesi bk siano tutti uguali a 0, se n < 0 ; n+1 s(n) = , se 0 ≤ n < M ; M+1 1, se n ≥ M .
1 M+1 ,
la risposta al gradino diventa:
che possiamo esprimere in maniera più compatta nel seguente modo: s(n) =
n+1 RM (n) + u(n − M) , M+1
156
Sistemi lineari tempo-invarianti (LTI)
e che è rappresentata graficamente nel caso M = 5, insieme alla risposta impulsiva, in fig. 4.16.
Nel seguito faremo quasi sempre riferimento alla risposta impulsiva; dato il legame biunivoco con la risposta al gradino, il lettore non dovrebbe incontrare difficoltà ad estendere alla risposta al gradino molti dei risultati ottenuti per la risposta impulsiva.
4.5 Proprietà della risposta impulsiva
157
4.5 Proprietà della risposta impulsiva Poiché la risposta impulsiva è una risposta canonica, cioè caratterizza completamente un sistema LTI, è possibile legare le proprietà del sistema (non dispersività, causalità, stabilità, invertibilità) alle proprietà matematiche della risposta impulsiva: questo aspetto è approfondito nei paragrafi seguenti. 4.5.1 Non dispersività
Ricordiamo che un generico sistema si dice non dispersivo (cfr. § 3.3.1) se l’uscita all’istante t oppure n dipende solo dall’ingresso nello stesso istante. Consideriamo un sistema TD LTI, descritto dalla convoluzione a TD espressa dalla seconda delle (4.7): +∞
∑
y(n) =
h(k) x(n − k) .
k=−∞
Affinché y(n) dipenda solo da x(n), occorre che i termini x(n − k) per k = 0 non diano contributo alla somma su k. Una condizione necessaria e sufficiente affinché ciò accada, per ogni segnale di ingresso {x(k)}k∈Z , è che risulti h(k) = 0, ∀k = 0; in questo caso, infatti, si ha: y(n) = h(0) x(n) .
Notiamo che, ponendo α = h(0), la relazione precedente si può riscrivere come y(n) = α x(n) ,
(4.46)
e quindi si può interpretare come la relazione i-u di un amplificatore/attenuatore ideale: pertanto, un sistema TD LTI non dispersivo è necessariamente un amplificatore/attenuatore ideale. Ponendo x(n) = δ (n) nella (4.46), si ricava che la risposta impulsiva di tale sistema vale h(n) = α δ (n) .
(4.47)
Pertanto, possiamo concludere che un sistema TD LTI è non dispersivo se e solo se la sua risposta impulsiva assume la forma (4.47). Passiamo ora a considerare i sistemi TC LTI, il cui legame i-u è descritto dalla convoluzione a TC espressa dalla prima delle (4.12): y(t) =
+∞ −∞
x(τ ) h(t − τ ) dτ .
(4.48)
Per ricavare la proprietà cui deve soddisfare la risposta impulsiva affinchè il sistema sia non dispersivo, seguiamo una strada diversa da quella seguita nel caso TD. Il sistema è non dispersivo se e solo se, per ogni segnale di ingresso, l’uscita all’istante t dipende solo dal valore {x(τ )}τ =t del segnale di ingresso nello stesso istante; equivalentemente, questo vuol dire che la risposta del sistema non cambia se, nella (4.48), al posto di {x(τ )}τ ∈R , poniamo un segnale {x1 (τ )}τ ∈R che dipende solo dal valore “attuale” {x(τ )}τ =t . Per costruire un segnale siffatto, possiamo ricorrere alla proprietà del prodotto dell’impulso di Dirac [cfr. prop. 2.2(c)], ponendo x1 (τ ) = x(τ ) δ (t − τ ) = x(t) δ (t − τ ) . Sostituendo nella (4.48), si ha che l’uscita corrispondente a x1 (τ ) vale y1 (t) =
+∞ −∞
x1 (τ ) h(t − τ ) dτ =
+∞ −∞
x(τ ) δ (t − τ ) h(t − τ ) dτ .
(4.49)
158
Sistemi lineari tempo-invarianti (LTI)
Per quanto precedentemente detto, il sistema è non dispersivo se e solo se y(t) = y1 (t), per ogni segnale di ingresso e per ogni t ∈ R; dal confronto tra la (4.48) e (4.49), ciò accade se e solo se h(t) = h(t) δ (t) = h(0) δ (t) , dove ancora una volta nell’ultimo passaggio si è sfruttata la proprietà del prodotto dell’impulso di
Dirac. Se poniamo α = h(0), otteniamo che un sistema TC LTI è non dispersivo se e solo se la sua risposta impulsiva è l’analogo a TC della (4.47), ovvero se h(t) = α δ (t) . Sostituendo nella (4.48) la risposta impulsiva precedente, si ha: y(t) =
+∞ −∞
x(τ ) h(t − τ ) dτ = α
+∞ −∞
x(τ )δ (t − τ ) dτ = α x(t) ,
dove nell’ultimo passaggio si è applicata la proprietà di campionamento dell’impulso di Dirac. Quindi, un sistema TC LTI non dispersivo ha necessariamente una relazione i-u del tipo: y(t) = α x(t) , ovvero anche in questo caso coincide con un amplificatore/attenuatore ideale. In definitiva, la caratterizzazione di un sistema LTI non dispersivo in termini di risposta impulsiva è riassunta dalla seguente proprietà (valida per il caso TC e TD): Proprietà 4.4 (risposta impulsiva di un sistema LTI non dispersivo) (a) Un sistema LTI è non dispersivo se e solo se la sua risposta impulsiva assume la forma h(·) = α δ (·). (b) Equivalentemente, un sistema LTI è non dispersivo se e solo se la sua relazione i-u è y(·) = α x(·), ovvero se e solo se è un amplificatore/attenuatore ideale. I sistemi non dispersivi sono denominati anche sistemi senza memoria, dove la memoria di un sistema è stata definita (cfr. § 3.3.1) come la durata temporale del segmento del segnale di ingresso che contribuisce, oltre al campione attuale, all’uscita in un determinato istante di tempo. Se allora osserviamo la relazione i-u di un sistema LTI [cfr. (4.7) oppure (4.12)], possiamo notare che tale durata è determinata dalla estensione temporale Dh della risposta impulsiva; pertanto, la memoria di un sistema coincide con la durata temporale ∆h della risposta impulsiva h(·) (escluso il campione per n = 0 nel caso TD). In stretta analogia con la classificazione dei segnali effettuata sulla base della durata nel § 2.3, i sistemi LTI con memoria si possono ulteriormente classificare come segue: • sistemi LTI aventi memoria rigorosamente finita: la risposta impulsiva h(·) ha durata rigorosamente limitata; • sistemi LTI aventi memoria praticamente finita: la risposta impulsiva h(·) decade asintoticamente a zero per t, n → ±∞, senza mai annullarsi; l’estensione temporale Dh e, quindi, la durata ∆h , si definisce introducendo una soglia opportuna e considerando trascurabili le ampiezze della risposta impulsiva inferiori alla soglia fissata; • sistemi LTI aventi memoria infinita: la risposta impulsiva h(·) non decade a zero, per cui presenta valori non trascurabili su un intervallo temporale non limitato.
159
1
1
0.8
0.8
0.6
0.6 s(t)
T h(t)
4.5 Proprietà della risposta impulsiva
0.4
0.4
0.2
0.2
0
0
−2
−1
0
1
2
3
4
5
−2
−1
0
1
2
t/T
t/T
(a)
(b)
3
4
5
Fig. 4.17. Sistema TC IIR con memoria praticamente finita (es. 4.11): (a) risposta impulsiva; (b) risposta al gradino.
Un sistema LTI con memoria rigorosamente finita prende anche il nome di sistema finite impulse response (FIR). Esempi di sistemi FIR sono l’integratore con memoria finita (cfr. es. 4.9) e il sistema MA (cfr. es. 4.10). Un sistema LTI con memoria non rigorosamente finita (praticamente finita o infinita) è spesso detto anche sistema infinite impulse response (IIR). L’integratore (cfr. es. 4.7) e l’accumulatore (cfr. es. 4.8), aventi come risposta impulsiva il gradino unitario, sono sistemi IIR con memoria infinita. Nell’esempio che segue è trattato il caso di un sistema IIR con memoria praticamente finita. Esempio 4.11 (sistema IIR con memoria praticamente finita) Si consideri il sistema TC descritto dal seguente legame i-u: y(t) =
+∞ 1 −τ /T e x(t − τ ) dτ , 0
T
(4.50)
dove T > 0. Sfruttando il fatto che u(τ ) = 0 per τ < 0, la relazione di sopra si può esprimere equivalentemente come segue: y(t) =
+∞ 1 −τ /T e u(τ ) x(t − τ ) dτ . −∞
T
(4.51)
Confrontando la (4.51) con la seconda delle (4.12), si ricava che il legame i-u del sistema è espresso mediante l’integrale di convoluzione tra il segnale di ingresso x(t) e la funzione del tempo h(t) =
1 −t/T e u(t) . T
(4.52)
Pertanto, il sistema in esame è un sistema LTI con risposta impulsiva data dalla (4.52), che è rappresentata in fig. 4.17(a). In virtù della (4.36), la risposta al gradino di tale sistema si ottiene come: se t < 0 ; t 0 , 1 −τ /T t 1 −τ /T −t/T e u(τ ) dτ = s(t) = e dτ = 1 − e , se t ≥ 0 , −∞ T 0 T che possiamo esprimere in maniera più compatta come: s(t) = (1 − e−t/T ) u(t) ,
160
Sistemi lineari tempo-invarianti (LTI)
e che è rappresentata in fig. 4.17(b). Poichè la risposta impulsiva del sistema è un esponenziale monolatero decrescente, con costante di tempo T > 0, ovvero è un segnale di durata praticamente limitata, il sistema LTI ha memoria praticamente finita. Per calcolare la memoria analiticamente, scegliamo come valore di soglia α h(0+ ) = α /T , con 0 < α < 1. Così facendo, risolvendo l’equazione h(∆h ) = α /T (cfr. § 2.3.2), la durata della risposta impulsiva risulta
1 ∆h = T ln , α da cui si ricava che la memoria del sistema cresce con legge direttamente proporzionale a T . Con ragionamenti analoghi si può verificare che il sistema TD LTI avente risposta impulsiva: h(n) = an u(n) ,
con 0 < |a| < 1 ,
è un sistema dispersivo IIR con memoria praticamente finita data da: ∆h =
ln(α ) , ln(|a|)
memoria che tende a diventare infinitamente grande, per |a| → 1, mentre tende a zero per |a| → 0.
In conclusione, ricordando la proprietà di durata della convoluzione (cfr. § 4.3.1), notiamo che applicando al sistema un ingresso di durata finita, esso sarà “allungato”, per effetto della convoluzione, proprio di una quantità pari alla memoria del sistema. Infatti, se per semplicità facciamo riferimento ai sistemi TC, in virtù della (4.31), la durata ∆y del segnale di uscita dal sistema è al più pari alla somma della durata ∆x del segnale di ingresso e della durata ∆h della risposta impulsiva. Lo stesso si può dire anche per i sistemi TD. In altri termini, applicando un ingresso di durata finita e misurando la durata dell’uscita è possibile ricavare per differenza la durata della risposta impulsiva, e quindi misurare la memoria del sistema LTI. 4.5.2 Causalità
Ricordiamo che un generico sistema è causale se l’uscita all’istante t oppure n dipende dal valore dell’ingresso nello stesso istante e in istanti precedenti, ma non dipende dai valori dell’ingresso negli istanti successivi. Consideriamo allora la relazione i-u di un sistema TD LTI: y(n) =
+∞
∑
h(k) x(n − k) .
k=−∞
La somma su k porta in conto valori futuri dell’ingresso per k < 0, in quanto per tali valori di k risulta n − k > n. Affinché allora l’uscita non dipenda dai valori futuri, per ogni segnale di ingresso, deve accadere che h(k) = 0 ,
∀k < 0 .
(4.53)
Pertanto un sistema TD LTI risulta causale se e solo se è verificata la condizione (4.53). In questo caso la relazione i-u assume la forma: y(n) =
+∞
∑ h(k) x(n − k) =
k=0
n
∑
x(k) h(n − k) .
k=−∞
Passiamo ora a considerare i sistemi TC LTI, il cui legame i-u è descritto dalla convoluzione: y(t) =
+∞ −∞
x(τ ) h(t − τ ) dτ .
(4.54)
4.5 Proprietà della risposta impulsiva
161
h(t)
1
T t
Fig. 4.18. Risposta impulsiva dell’integratore non causale (es. 4.12).
Ragionando in modo analogo a quanto fatto nel caso TD, si può verificare che un sistema TC è causale se e solo se h(t) = 0 ,
∀t < 0 .
In questo caso, la relazione i-u (4.54) assume la forma: y(t) =
+∞ 0
h(τ ) x(t − τ ) dτ =
t −∞
x(τ ) h(t − τ ) dτ .
In sintesi, la caratterizzazione di un sistema LTI causale in termini della sua risposta impulsiva è descritta dalla seguente proprietà: Proprietà 4.5 (risposta impulsiva di un sistema LTI causale) Un sistema LTI è causale se e solo se h(n) = 0,
∀n < 0 (sistema TD)
h(t) = 0,
∀t < 0 (sistema TC)
Se la risposta impulsiva del sistema LTI non è identicamente nulla per t < 0 (caso TC) oppure per n < 0 (caso TD), il sistema è non causale. Abbiamo visto nel capitolo precedente (cfr. § 3.3.2) che un caso particolare di sistema non causale è il sistema anticausale, per il quale l’uscita dipende solo dai valori futuri del segnale di ingresso. Ripercorrendo gli stessi ragionamenti fatti per un sistema causale, si può mostrare che un sistema LTI è anticausale se e solo se la sua risposta impulsiva soddisfa la seguente condizione: h(n) = 0,
∀n ≥ 0 (sistema TD)
h(t) = 0,
∀t ≥ 0 (sistema TC)
Tutti i sistemi LTI precedentemente presentati negli esempi di questo capitolo sono causali. Di seguito sono riportati alcuni esempi di sistemi non causali.
162
Sistemi lineari tempo-invarianti (LTI)
Esempio 4.12 (integratore non causale) Si consideri l’integratore con memoria finita (cfr. es. 3.10 e 3.12), avente relazione i-u: y(t) =
t+T t
x(u) du ,
(4.55)
con T > 0, Si può facilmente verificare che tale sistema è sia lineare, sia invariante temporalmente, per cui è un sistema LTI. In maniera equivalente, si può mostrare che la (4.55) si può scrivere come una convoluzione. Infatti, con il cambio di variabile τ = t − u → u = t − τ , la (4.55) si può scrivere come: y(t) =
0 −T
x(t − τ ) dτ .
A questo punto, moltiplicando la funzione integranda per una finestra rettangolare che assume il valore 1 nell’intervallo (−T, 0), possiamo estendere l’integrale tra −∞ e +∞ ottenendo:
+∞ τ + 0.5T y(t) = rect x(t − τ ) dτ , T −∞ da cui, per confronto con la (4.12), si conclude che la risposta impulsiva del sistema è:
t + 0.5T h(t) = rect , T che è rappresentata in fig. 4.18: si tratta di un segnale che assume valori non nulli per t < 0 e, conseguentemente, il sistema non è causale. Esempio 4.13 (sistema MA non causale) Si consideri il sistema MA già introdotto nell’es. 3.11, descritto dalla relazione i-u y(n) =
M
∑ bk x(n + k) .
k=0
Si tratta di un sistema sia lineare che tempo-invariante, e pertanto esso rappresenta un esempio di sistema LTI. Per questo motivo, deve essere possibile esprimere la sua relazione i-u come una convoluzione (4.7). Infatti, effettuando il cambiamento di variabile h = −k si ha y(n) =
0
∑
b−h x(n − h) =
h=−M
0
∑
b−k x(n − k) ,
(4.56)
k=−M
da cui, per confronto diretto con la (4.7), si ha una perfetta corrispondenza se si definisce la risposta impulsiva del sistema come segue: b−k , k ∈ {−M, −M + 1, . . . , 0} ; h(k) = (4.57) 0, altrimenti , rappresentata graficamente in fig. 4.19(a) nel caso generale. e particolarizzata in fig. 4.19(b) al caso M = 5 e 1 = 16 , ∀k ∈ {0, 1, . . . , 5}. D’altra parte, osserviamo che utilizzando la definizione di risposta impulsiva bk = M+1 come h(n) = S[δ (n)], si ha, ponendo x(n) = δ (n) nella (4.56): h(n) =
0
∑
b−h δ (n − h) ,
(4.58)
h=−M
espressione che è perfettamente equivalente alla (4.57). Si tratta di una risposta impulsiva che assume valori non nulli per n < 0, pertanto tale sistema è non causale.
4.5 Proprietà della risposta impulsiva
163
h(n) bM-1
h(n)
b0 1/6
b3
b1
bM b2 .... -M -M +1
-3 -2 -1 0
(a)
n
-5 -4 -3 -2 -1 0
n
(b)
Fig. 4.19. (a) Risposta impulsiva di un generico sistema MA non causale. (b) Risposta impulsiva del sistema MA non causale con M = 5 e con pesi bk = 16 , ∀k ∈ {0, 1, . . . , 5} (es. 4.13). Esempio 4.14 (anticipo unitario) Consideriamo il sistema TD descritto dalla relazione i-u: y(n) = x(n + 1) , che realizza un anticipo unitario del segnale di ingresso. Si tratta chiaramente di un sistema LTI, la cui risposta impulsiva si ottiene ponendo in ingresso il segnale x(n) = δ (n): h(n) = δ (n + 1) , si tratta di un impulso TD di ampiezza unitaria centrato in n = −1. Il sistema è pertanto non causale; in particolare, poiché h(n) è identicamente nulla per n ≥ 0, l’anticipo unitario TD è un sistema anticausale. Allo stesso modo il sistema TC che effettua un anticipo temporale, descritto dalla relazione i-u y(t) = x(t + T ) con T > 0, è un sistema LTI anticausale.
I sistemi causali godono di una proprietà importante. Per evidenziare tale proprietà, consideriamo il caso dei sistemi TC. Se il sistema è causale, allora la risposta impulsiva del sistema avrà estensione temporale Dh = (0, ∆h ), con ∆h ∈ R+ . Supponiamo ora che anche il segnale di ingresso sia identicamente nullo per t < 0, cioè, abbia estensione temporale Dx = (0, ∆x ), con ∆x ∈ R+ . Un segnale identicamente nullo per t < 0 è anche detto6 causale. In tal caso, seguendo gli stessi ragionamenti che hanno portato alla (4.31), si ottiene che: y(t) = 0,
∀t ∈ (0, ∆x + ∆h ) ,
ossia anche il segnale di uscita risulta essere identicamente nullo per t < 0. Tale risultato, che sussiste con ovvie modifiche anche nel caso TD, è riassunto dalla seguente proprietà: Proprietà 4.6 (risposta di un sistema LTI causale ad un segnale causale) (a) Se il segnale in ingresso ad un sistema TC LTI causale è identicamente nullo per t < 0, allora la corrispondente uscita è anch’essa identicamente nulla per t < 0. (b) Se il segnale in ingresso ad un sistema TD LTI causale è identicamente nullo per n < 0, allora la corrispondente uscita è anch’essa identicamente nulla per n < 0. 6 Questa
terminologia discende dal fatto che la risposta impulsiva è essa stessa un segnale – è il segnale di uscita di un sistema LTI quando in ingresso è applicato un impulso – per cui dire che il sistema è casuale equivale a dire che la sua risposta impulsiva è causale.
164
Sistemi lineari tempo-invarianti (LTI)
y(.) x(.)
h(.)
hinv(.)
x(.)
Fig. 4.20. Il sistema LTI hinv (·) è il sistema inverso di h(·) se e solo se la cascata dei due sistemi coincide con il sistema identico.
In verità, la prop. 4.6 si poteva già dedurre dalle prop. 3.1 e 3.4, sfruttando in aggiunta la proprietà di linearità. Soffermiamo l’attenzione sui sistemi TC. Ricordiamo che, in base alla prop. 3.1, dette y1 (t) e y2 (t) le uscite di un sistema TC in risposta ai segnali x1 (t) e x2 (t), rispettivamente, un sistema è causale se e solo se, per ogni t0 ∈ R e per ogni x1 (t), x2 (t) ∈ I tali che x1 (t) = x2 (t), ∀t ≤ t0 , risulta che y1 (t) = y2 (t), ∀t ≤ t0 . Dato un ingresso x1 (t) = 0, ∀t < 0, supponiamo di scegliere un secondo ingresso x2 (t) = 0, ∀t ∈ R, ed applichiamo la proprietà vista per t0 = −ε < 0, con ε ∈ R+ piccolo a piacere. Poiché risulta x1 (t) = x2 (t) = 0, ∀t ≤ −ε , allora risulterà per la prop. 3.1 y1 (t) = y2 (t), ∀t ≤ −ε . Ma se il sistema è lineare, in virtù della prop. 3.4, l’uscita corrispondente al segnale nullo x2 (t) è necessariamente nulla, cioè y2 (t) = 0, ∀t ∈ R. Pertanto, si ha che y1 (t) = 0, ∀t ≤ −ε , cioè, così come il segnale di ingresso, anche il segnale di uscita è identicamente nullo per t < 0. Le considerazioni che seguono si estendono senza alcuna difficoltà anche ai sistemi TD.7 È interessante osservare che nel derivare questo risultato abbiamo sfruttato solo la linearità (più precisamente, l’omogeneità) e la causalità del sistema: questo dimostra che la prop. 4.6 vale più in generale per sistemi lineari causali (non necessariamente TI). 4.5.3 Invertibilità
Ricordiamo che se un dato sistema è invertibile, il sistema inverso è quel sistema che posto in cascata al sistema dato realizza il sistema identico. In app. D è mostrato che se un sistema LTI è invertibile, allora il corrispondente sistema inverso è anch’esso LTI. In base a tale risultato, se indichiamo con h(·) la risposta impulsiva del sistema LTI invertibile e con hinv (·) la risposta impulsiva del sistema inverso, come mostrato in fig. 4.20, la cascata (nell’ordine) del sistema con risposta impulsiva h(·) e del sistema con risposta impulsiva hinv (·) deve realizzare il sistema identico. Poiché la risposta impulsiva del sistema identico è δ (·), e tenendo presente che alla cascata di due sistemi LTI corrisponde la convoluzione delle rispettive risposte impulsive, si ottiene la seguente condizione: h(·) ∗ hinv (·) = δ (·) .
(4.59)
Poiché la convoluzione è commutativa, possiamo scrivere anche: hinv (·) ∗ h(·) = δ (·) ,
(4.60)
per cui se hinv (·) è l’inverso di h(·), allora h(·) è l’inverso di hinv (·). Per cui ritroviamo il risultato, valido più in generale per l’inverso di un generico sistema (non necessariamente LTI, cfr. §3.3.3), secondo cui il sistema diretto commuta con il sistema inverso nella cascata di fig. 4.20 (notiamo che per i sistemi LTI vale una proprietà più generale, secondo la quale qualunque sistema LTI commuta con qualunque altro sistema LTI nella cascata). La seguente proprietà riassume le considerazioni fatte precedentemente: 7 Nel caso TD, l’applicazione della prop. 3.1 è più immediata:
infatti, a differenza del caso TC in cui si è dovuto introdurre un ε arbitrariamente piccolo per la scelta di t0 , in questo caso, le stesse considerazioni si possono fare scegliendo n0 = −1.
4.5 Proprietà della risposta impulsiva
165
Proprietà 4.7 (risposta impulsiva del sistema inverso di un sistema LTI) Si consideri un sistema LTI invertibile con risposta impulsiva h(·), il suo sistema inverso è anch’esso LTI e, detta hinv (·) la sua risposta impulsiva, sussiste la seguente relazione tra le due risposte impulsive: h(·) ∗ hinv (·) = hinv (·) ∗ h(·) = δ (·) . Lo studio dell’invertibilità di un sistema non è sempre agevole e richiede qualche cautela dal punto di vista matematico. Alcuni approfondimenti ed esempi sono riportati in app. D, a cui si rimanda direttamente il lettore. In molti casi pratici, un problema di interesse è determinare il sistema inverso di un dato sistema. Ad esempio, nelle telecomunicazioni, il segnale x(·) viene modificato o distorto dal supporto fisico su cui si propaga (il cosiddetto canale) e giunge alla destinazione con modifiche tali da rendere difficoltoso il recupero dell’informazione ad esso associata. In alcuni casi, il canale può essere ben modellato mediante un sistema LTI con risposta impulsiva h(·). Se fossimo grado di individuare il sistema inverso potremmo alla destinazione utilizzare il sistema hinv (·) per compensare perfettamente la distorsione introdotta dal sistema h(·). Questa compensazione prende il nome di equalizzazione. Purtroppo determinare hinv (·) dalla (4.59) o (4.60) è un problema matematicamente complicato, che va sotto il nome di deconvoluzione (di fatto, significa determinare uno dei fattori della convoluzione, noto l’altro fattore ed il risultato finale). Vedremo che una soluzione semplice si potrà ottenere operando nel dominio della frequenza. 4.5.4 Stabilità
Ricordiamo che un sistema si dice stabile (in senso BIBO, cfr. §3.3.5) se l’uscita corrispondente ad un qualunque ingresso limitato in ampiezza è a sua volta limitata in ampiezza. Per individuare quale sia la proprietà della risposta impulsiva che caratterizza la stabilità, consideriamo un sistema TD LTI, descritto dalla (4.7): y(n) =
+∞
∑
h(k) x(n − k) .
k=−∞
Supponiamo allora che l’ingresso sia limitato, ovvero |x(n)| < Kx , ∀n ∈ Z, e proviamo a trovare una maggiorazione simile per l’uscita y(n). Si ha, con passaggi banali, che: +∞ +∞ +∞ |y(n)| = ∑ h(k) x(n − k) ≤ ∑ |h(k)||x(n − k)| ≤ Kx ∑ |h(k)| . k=−∞ k=−∞ k=−∞ Pertanto, se h(k) è una successione sommabile, ovvero se +∞
∑
|h(k)| ≤ Kh ,
(4.61)
k=−∞
allora si ha |y(n)| ≤ Kx Kh = Ky e quindi l’uscita y(n) è limitata. Abbiamo cioè provato che la sommabilità (4.61) della risposta impulsiva è condizione sufficiente per la stabilità di un sistema LTI. Possiamo però provare che la sommabilità della risposta impulsiva è anche condizione necessaria per la stabilità: in altri termini, se un sistema è stabile, allora la risposta impulsiva dev’essere sommabile.
166
Sistemi lineari tempo-invarianti (LTI)
Per provarlo, procediamo per assurdo, supponendo che un sistema stabile abbia una risposta impulsiva non sommabile. Definiamo allora un opportuno segnale di ingresso: |h(−n)| , se h(−n) = 0 ; x(n) = h(−n) 0, altrimenti . Tale segnale assume solo i valori 0, 1, −1, e quindi è sicuramente limitato. L’uscita corrispondente a tale segnale limitato è: y(n) =
+∞
∑
k=−∞
h(k)x(n − k) = ∑ h(k) k
|h(k − n)| , h(k − n)
dove la seconda sommatoria va effettuata, per ciascun n ∈ Z, su tutti i valori della variabile k per i quali h(k − n) = 0. Calcoliamo in particolare l’uscita per n = 0: y(0) = ∑ h(k) k
+∞ |h(k)| = ∑ |h(k)| = ∑ |h(k)| , h(k) k k=−∞
dove abbiamo incluso nella somma, senza alterarla, anche i valori di k per i quali h(k) = 0. Poiché abbiamo supposto per assurdo che la risposta impulsiva non sia sommabile, risulta che l’uscita all’istante n = 0 non è limitata, il che contraddice l’ipotesi che il sistema sia stabile. Pertanto, la risposta impulsiva deve essere necessariamente sommabile. In definitiva, per un sistema TD vale l’equivalenza seguente: sistema TD stabile
⇐⇒
+∞
∑
|h(k)| ≤ Kh ,
ovvero h(n) sommabile .
k=−∞
Per un sistema LTI a TC è possibile ragionare in maniera analoga, sostituendo alla sommabilità della successione h(n) quella della funzione h(t): +∞ −∞
|h(τ )| dτ ≤ Kh .
(4.62)
In definitiva, la sommabilità della risposta impulsiva è condizione necessaria e sufficiente per la stabilità di un sistema LTI, come riassunto dalla seguente proprietà: Proprietà 4.8 (risposta impulsiva di un sistema LTI stabile) Un sistema LTI è stabile se e solo se la sua risposta impulsiva è sommabile, ovvero se e solo se +∞
∑
|h(k)| ≤ Kh
(sistema TD) ,
|h(τ )| dτ ≤ Kh
(sistema TC) .
k=−∞ +∞
−∞
Nel caso dei sistemi FIR, che presentano memoria rigorosamente finita, la risposta impulsiva h(·) ha durata rigorosamente limitata, pertanto essa risulterà sicuramente sommabile (supposto che assuma valori finiti). Possiamo quindi dire che tutti i sistemi LTI con memoria rigorosamente finita (FIR) sono stabili. Ad esempio, l’integratore con memoria finita (§ es. 4.9) e il sistema MA (§ es. 4.10),
4.5 Proprietà della risposta impulsiva
167
essendo sistemi FIR, sono stabili. Un sistema LTI instabile deve necessariamente avere memoria non rigorosamente finita (IIR). Più precisamente, i sistemi IIR aventi memoria infinita sono sicuramente instabili, in quanto la loro risposta impulsiva h(·) non è infinitesima all’infinito e quindi non può essere sommabile. Ad esempio, l’integratore (§ es. 4.7) e l’accumulatore (§ es. 4.8), aventi come risposta impulsiva il gradino unitario, sono esempi di sistemi IIR con memoria infinita e, pertanto, instabili. D’altra parte, se il sistema IIR ha memoria praticamente finita, la sua risposta impulsiva può essere ancora sommabile purché |h(·)| decada a zero per |t| → +∞ o per |n| → +∞ con sufficiente rapidità, in modo da garantire la convergenza dell’integrale o della serie che compaiono nella (4.61) e (4.62) (cfr. § B.1.4 e B.2.3). Un esempio di sistema LTI stabile con memoria praticamente finita è il seguente. Esempio 4.15 (stabilità di un sistema IIR con memoria praticamente finita) Riconsideriamo nuovamente il sistema IIR dell’es. 4.11, la cui risposta impulsiva [fig. 4.17(a)] è data da: 1 −τ /T e u(τ ) . T Si tratta di un sistema con memoria praticamente finita. Verifichiamo che tale sistema è stabile. A tal fine osserviamo che: +∞ +∞ 1 −τ /T 1 +∞ −τ /T e |h(τ )| dτ = u(τ ) dτ = e dτ = 1 , T 0 −∞ −∞ T h(τ ) =
pertanto la risposta impulsiva del sistema è sommabile e, conseguentemente, il sistema è stabile. Analogamente, il sistema TD IIR avente risposta impulsiva: h(n) = an u(n) ,
con 0 < |a| < 1 ,
è stabile pur non avendo memoria rigorosamente finita (ma memoria praticamente finita). Infatti, poichè risulta: +∞
∑
k=−∞
|h(k)| =
+∞
1
∑ |a|n = 1 − |a| ,
k=0
la risposta impulsiva è sommabile.
In conclusione, notiamo che per taluni sistemi TC la risposta impulsiva h(t) può non essere una funzione ordinaria, nel senso che può contenere degli impulsi di Dirac. Ad esempio, il sistema che effettua la traslazione temporale del segnale di ingresso, caratterizzato dal legame i-u: y(t) = x(t − t0 ) ,
con t0 ∈ R ,
(4.63)
ha una risposta impulsiva contenente un impulso di area unitaria centrato in t0 , ossia h(t) = δ (t − t0 ). Poiché il concetto di sommabilità di una distribuzione non è definito, si pone pertanto il problema di come studiare la stabilità di un sistema LTI qualora la sua risposta impulsiva sia una funzione generalizzata. In verità, dal punto di vista pratico, questo problema può essere tranquillamente aggirato. Ad esempio, nel caso del sistema (4.63), è assolutamente inutile studiare la stabilità a partire dalla risposta impulsiva, in quanto, in questo caso, la stabilità può essere studiata direttamente dal legame i-u senza alcun problema di carattere matematico: infatti, se il segnale di ingresso è limitato, l’uscita del sistema (4.63) è sicuramente limitata. Pertanto, possiamo concludere che il sistema TC (4.63), che anticipa/ritarda il segnale di ingresso, è un sistema stabile, per ogni t0 ∈ R. Più in generale, se la risposta impulsiva h(t) è una funzione generalizzata, è (quasi) sempre possibile decomporla nella somma di una funzione ordinaria hord (t), che non contiene impulsi, e di una funzione himp (t) puramente impulsiva, che contiene solo impulsi, cioè: N
h(t) = hord (t) + ∑ αn δ (t − tn ) = hord (t) + himp (t) , n=1
himp (t)
(4.64)
168
Sistemi lineari tempo-invarianti (LTI)
hord (t)
x(t)
α1
t1
. . .
. . .
αN
tN
y(t)
Fig. 4.21. Decomposizione in parallelo di un sistema avente risposta impulsiva generalizzata.
dove N ∈ N. In questo caso, come mostrato in fig. 4.21, il sistema avente risposta impulsiva h(t) può essere decomposto nel parallelo del sistema avente risposta impulsiva hord (t) e del sistema avente risposta impulsiva himp (t), e quest’ultimo a sua volta può essere visto come il parallelo di N sistemi, ciascuno dei quali composto da un attenuatore/amplificatore connesso in serie con un sistema che effettua la traslazione temporale. Osservando che il parallelo di più sistemi LTI equivale ad un unico sistema LTI la cui risposta impulsiva è data dalla somma delle risposte impulsive dei sistemi coinvolti nel parallelo, in virtù della prop. 4.8, possiamo affermare che, se i sistemi componenti il parallelo sono singolarmente stabili, allora il sistema complessivo è sicuramente stabile. Poichè la moltiplicazione per una costante e la traslazione temporale sono operazioni stabili, nel senso che conservano la limitatezza (in ampiezza) del segnale su cui operano, il sistema in fig. 4.21 è stabile se e solo se la risposta impulsiva hord (t) è sommabile. In altre parole, quando occorre studiare la sommabilità di una funzione generalizzata del tipo (4.64) è sufficiente limitarsi a studiare la sommabilità della sola parte ordinaria hord (t).
4.6 Esempi di sistemi LTI In questa sezione introduciamo due classi particolarmente importanti di sistemi LTI, descritti da equazioni differenziali lineari (nel caso TC) oppure da equazioni alla differenze (nel caso TD). Tali sistemi presentano numerose analogie, tuttavia per una presentazione efficace è opportuno studiarli separatamente. 4.6.1 Sistemi descritti da equazioni differenziali
Numerosi sistemi TC, in svariati campi delle scienze fisiche e dell’ingegneria, sono descritti da equazioni differenziali lineari a coefficienti costanti, del tipo N
∑ ak
k=0
M dk dm y(t) = b m ∑ dt m x(t) , dt k m=0
(4.65)
4.6 Esempi di sistemi LTI
169
dove x(t) rappresenta l’ingresso e y(t) l’uscita del sistema, a0 , a1 , . . . , aN e b0 , b1 , . . . , bM sono i coefficienti (in genere reali) dell’equazione, e N ≥ 0 è l’ordine dell’equazione, coincidente con il massimo ordine di derivazione rispetto al segnale di uscita y(t) (si suppone che aN = 0). La (4.65) è detta lineare perché al primo membro compare una combinazione lineare del segnale y(t) e delle sue N derivate e al secondo membro compare una combinazione lineare del segnale x(t) e delle sue M derivate; la (4.65) si dice a coefficienti costanti perché i coefficienti moltiplicativi a0 , a1 , . . . , aN e b0 , b1 , . . . , bM sono costanti e quindi indipendenti dal tempo t. Per sgombrare subito il campo da qualsiasi tipo di equivoco, occorre preliminarmente osservare che il fatto che la (4.65) sia lineare e i coefficienti che in essa compaiono siano tempo-invarianti non implica che il sistema da essa descritto sia in generale lineare e tempo-invariante; vedremo che ciò è vero solo in alcuni casi particolari. Una seconda osservazione importante riguarda il fatto che la (4.65) coinvolge, oltre all’uscita y(t) anche le prime N derivate di y(t): pertanto, essa non rappresenta un legame i-u come espresso dalla def. 3.1. Ciò è vero solo nel caso particolare in cui N = 0; in tal caso, infatti, la (4.65) si può scrivere direttamente come segue: y(t) =
1 a0
M
dm
∑ bm dt m x(t) ,
m=0
che rappresenta una relazione i-u tra y(t) ed x(t), nel senso specificato dalla def. 3.1. Nel caso più generale in cui N = 0, la (4.65) descrive in maniera solo implicita il comportamento del sistema. In questo caso, determinare la relazione i-u del sistema equivale a risolvere, per ogni fissato ingresso x(t), l’equazione differenziale (4.65) rispetto al segnale di uscita y(t). È noto8 che tale problema non è completamente definito, in quanto, supposto che, a partire da un istante prefissato tin ∈ R, sia applicato in ingresso al sistema un dato segnale x(t), per trovare la corrispondente uscita y(t) per t ≥ tin , è sufficiente conoscere il valore del segnale di uscita e delle sue prime N − 1 derivate in tin ; in altre parole, è necessario conoscere lo stato iniziale del sistema. Ponendo per semplicità tin = 0, lo stato iniziale del sistema è pertanto descritto dalle N condizioni iniziali: y(0) = y0 ,
d dN−1 y(t) = y1 , . . . , N−1 y(t) = yN−1 , dt dt t=0 t=0
(4.66)
dove y0 , y1 , . . . , yN−1 sono valori (in genere reali) assegnati. I valori assegnati y0 , y1 , . . . , yN−1 dipendono dalla evoluzione passata del sistema e, dal punto di vista fisico, portano in conto la presenza eventuale di energia immagazzinata nel sistema fisico. Assegnato l’ingresso x(t) per t ≥ 0, la soluzione generale della (4.65), che tiene conto di tutte le possibili condizioni iniziali, è data dalla somma di una soluzione particolare y p (t) della (4.65), per la quale si ha: N
dk
M
dm
∑ ak dt k y p (t) = ∑ bm dt m x(t) ,
(4.67)
m=0
k=0
e della soluzione generale dell’equazione differenziale omogenea associata alla (4.65), cioè dell’equazione N
dk
∑ ak dt k y(t) = 0 ,
(4.68)
k=0
ottenuta ponendo x(t) ≡ 0 nella (4.65). La soluzione generale y0 (t) della (4.68) è detta soluzione omogenea della (4.65). Come verifica di quanto sopra affermato, osserviamo che, se y0 (t) è soluzione 8 Nel
seguito si richiameranno alcuni risultati riguardanti la soluzione di equazioni differenziali senza fornire dimostrazioni, per le quali si rimanda il lettore direttamente ai testi di analisi matematica.
170
Sistemi lineari tempo-invarianti (LTI)
della (4.68), allora N
dk
∑ ak dt k y0 (t) = 0 ,
(4.69)
k=0
da cui sommando membro a membro la (4.67) e (4.69), è immediato constatare che y(t) = y0 (t) + y p (t)
(4.70)
è una soluzione della (4.65). D’altra parte, si può provare che la (4.70) fornisce tutte le soluzioni dell’equazione differenziale (4.65). In linea di principio, il calcolo della soluzione generale y0 (t) dell’equazione omogenea (4.68) non offre particolari difficoltà. Considerazioni di carattere fisico inducono nelle applicazioni pratiche a trovare soluzioni del tipo eλ t , con λ ∈ C, cioè del tipo esponenziale complesso. Se si pone allora y(t) = eλ t nella (4.68), si ottiene: + * N
N
k=0
k=0
∑ ak λ k eλ t = ∑ ak λ k
q(λ )
eλ t = q(λ ) eλ t = 0
⇐⇒
q(λ ) = 0 ,
dove l’equivalenza sussiste grazie al fatto che l’esponenziale complesso non si annulla mai, e quindi deve annullarsi q(λ ). Pertanto, l’esponenziale eλ t è soluzione della (4.68) se e solo se il parametro λ ∈ C è una radice del polinomio q(λ ), ossia: q(λ ) = a0 + a1 λ + · · · + aN λ N = 0 .
(4.71)
Il polinomio q(λ ) è detto polinomio caratteristico dell’equazione omogenea (4.68). Le radici del polinomio caratteristico possono essere reali, immaginarie oppure complesse.9 Se supponiamo in prima istanza che le N radici del polinomio q(λ ) siano distinte, siano esse λ1 , λ2 , . . . , λN , allora gli esponenziali complessi eλ1t , eλ2t , . . . , eλN t sono singolarmente soluzioni della (4.68). Più in generale, poiché una arbitraria combinazione lineare di soluzioni della (4.68) è ancora una soluzione della stessa equazione, la soluzione generale della (4.68) è data da: y0 (t) = c1 eλ1t + c2 eλ2t + · · · + cN eλN t ,
(4.72)
dove c1 , c2 , . . . , cN sono costanti arbitrarie. Si noti che l’arbitrarietà di queste costanti rende la soluzione omogenea della (4.65) non univocamente determinata. Le complicazioni introdotte dalla presenza di eventuali radici multiple del polinomio caratteristico q(λ ) sono minime e possono essere portate in conto come segue. Supposto che λi sia una radice con molteplicità Ni del polinomio caratteristico q(λ ), allora si prova facilmente che t h eλit , per h ∈ {0, 1, . . . , Ni − 1}, è soluzione della (4.68). Quindi, combinando linearmente tutte le N possibili soluzioni, si ottiene: R Ni −1
y0 (t) = ∑
∑ ci,h t h eλ t , i
(4.73)
i=1 h=0
dove λ1 , λ2 , . . . , λR sono le R radici distinte del polinomio caratteristico q(λ ) aventi molteplicità N1 , N2 , . . . , NR , rispettivamente, con N1 + N2 + · · · + NR = N [nel caso in cui R = N, la (4.73) degenera 9 Nel caso in cui i coefficienti del polinomio a , a , . . . , a N 0 1
siano reali, le radici di q(λ ) sono o reali o complesse coniugate.
4.6 Esempi di sistemi LTI
171
nella (4.72)]. Anche in questo caso, la soluzione omogenea y0 (t) non è univocamente specificata in quanto dipende dalle N costanti arbitrarie ci,h . A differenza della soluzione y0 (t), la soluzione particolare y p (t) dipende dal tipo di ingresso assegnato, e per essa non è possibile dare un’espressione generale, né una tecnica generale di soluzione. Notiamo che, senza portare in conto le condizioni iniziali, per la presenza delle costanti ci,h nella soluzione omogenea, la soluzione generale y(t) = y0 (t) + y p (t) non consente di determinare univocamente l’uscita del sistema. In altri termini, l’equazione differenziale (4.65) non definisce univocamente un sistema, in quanto l’uscita è definita a meno di N costanti arbitrarie. Riassumendo quanto detto finora, possiamo dire che la soluzione generale della equazione differenziale (4.65) si può ottenere seguendo i seguenti passi: 1. Si determina la soluzione omogenea y0 (t) data dalla (4.73), calcolando le radici del polinomio caratteristico q(λ ) (tale soluzione dipende dalle N costanti arbitrarie ci,h ). 2. Assegnato l’ingresso x(t), si determina una soluzione particolare y p (t) della (4.65); se l’ingresso è applicato all’istante tin = 0, allora la soluzione particolare ottenuta è valida solo per t > 0. 3. Si determinano gli N coefficienti ci,h della soluzione omogenea y0 (t) in modo che la soluzione generale della (4.65), data da y(t) = y0 (t) + y p (t) per t > 0, soddisfi le condizioni iniziali (4.66) assegnate. In molti casi è conveniente esprimere la soluzione generale della (4.65) come somma di due componenti: la prima dipendente solo dalle condizioni iniziali (4.66) e la seconda dipendente solo dal segnale di ingresso x(t). La componente dipendente solo dalle condizioni iniziale si può ottenere a partire dalla soluzione omogenea (4.73), imponendo che y0 (t) soddisfi da sola le condizioni iniziali assegnate, cioè y0 (0) = y0 ,
d dN−1 y0 (t) = y1 , . . . , N−1 y0 (t) = yN−1 . dt t=0 dt t=0
(4.74)
Così facendo si ottiene una particolare soluzione omogenea ylib (t) che prende il nome di evoluzione libera del sistema, in quanto dipende solo dalle condizioni iniziali ed è completamente indipendente dal segnale di ingresso x(t). La (4.74) determina un sistema di N equazioni lineari nelle N incognite ci,h , con i ∈ {1, 2, . . . , R} e h ∈ {0, 1, . . . , Ni − 1}. Risolvendo tale sistema si trova che le costanti ci,h sono combinazioni lineari dei valori y0 , y1 , . . . , yN−1 assunti da y0 (t) e dalle sue prime N − 1 derivate per t = 0. Conseguentemente, l’evoluzione libera ylib (t) del sistema è essa stessa una funzione lineare di y0 , y1 , . . . , yN−1 ; questo vuol dire che se si impone che il sistema sia inizialmente in quiete, cioè y0 = y1 = · · · = yN−1 = 0, l’evoluzione libera del sistema è nulla, ossia, ylib (t) = 0, ∀t ∈ R. Questo è un risultato del tutto intuibile in quanto, se all’istante tin = 0 il sistema non possiede alcuna energia immagazzinata al suo interno, l’uscita per t ≥ 0 non può che essere nulla in assenza di alcuna sollecitazione esterna (segnale di ingresso). D’altra parte, la componente dipendente solo dal segnale di ingresso assegnato si può ottenere cercando una soluzione particolare y p (t) della (4.65) che soddisfi le condizioni: d dN−1 y p (0) = y p (t) = · · · = N−1 y p (t) = 0 . (4.75) dt dt t=0 t=0 La soluzione particolare yfor (t) della (4.65) che si ottiene in questo modo prende il nome di risposta forzata del sistema, in quanto tiene conto del solo segnale di ingresso x(t), assumendo che siano nulle le condizioni iniziali. Si può mostrare che la risposta forzata del sistema gode di due proprietà importanti. Innanzitutto, (1) (2) la risposta forzata è funzione lineare del segnale di ingresso: se yfor (t) e yfor (t) sono le risposte forzate
172
Sistemi lineari tempo-invarianti (LTI)
x(t)
y(t)
R d dt
C
x(t)
y(t)
Fig. 4.22. Schema elettrico del sistema RC (es. 4.16).
-1/RC
d y(t) dt
Fig. 4.23. Schema a blocchi del sistema RC (es. 4.16). (1)
(2)
del sistema agli ingressi x1 (t) e x2 (t), rispettivamente, allora α1 yfor (t) + α2 yfor (t) è la risposta forzata del sistema al segnale di ingresso α1 x1 (t) + α2 x2 (t), ∀α1 , α2 ∈ C. In particolare, ciò significa che se x(t) ≡ 0, allora yfor (t) ≡ 0. Inoltre, la relazione che lega yfor (t) al segnale di ingresso è tempoinvariante: se yfor (t) è la risposta forzata del sistema al segnale di ingresso x(t), allora yfor (t − t0 ) è la risposta forzata del sistema al segnale di ingresso x(t − t0 ), ∀t0 ∈ R. In definitiva, la risposta del sistema può essere espressa anche come la somma dell’evoluzione libera e della risposta forzata: y(t) = ylib (t) + yfor (t) .
(4.76)
La prima osservazione interessante suggerita dalla (4.76) è che in generale il sistema descritto dalle (4.65) e (4.66) non è lineare. Il carattere non lineare del sistema è esclusivamente dovuto alla presenza dell’evoluzione libera ylib (t), indipendente dal segnale di ingresso, per effetto della quale l’uscita y(t) è non nulla anche quando l’ingresso è identicamente nullo; ciò viola la prop. 3.4 dal momento che, se si impone x(t) ≡ 0, segue dalla (4.76) che y(t) = ylib (t) = 0. Tuttavia, è interessante osservare che il sistema definito dalla (4.76) è lineare per le differenze, cioè, può essere rappresentato mediante lo schema a blocchi in fig. 3.19 [dove y0 (·) corrisponde in questo caso all’evoluzione libera ylib (·)], in quanto la differenza delle risposte ad una arbitraria coppia di ingressi è funzione lineare della differenza dei corrispondenti ingressi. La seconda osservazione legata alla (4.76) è che in generale il sistema descritto dalle (4.65) e (4.66) non è tempo-invariante. La tempo-varianza del sistema è ancora una volta dovuta alla presenza dell’evoluzione libera ylib (t), indipendente dal segnale di ingresso, per effetto della quale ad una traslazione del segnale di ingresso non corrisponde la medesima traslazione del segnale di uscita. Possiamo quindi dire che, affinchè il sistema descritto dalle (4.65) e (4.66) sia LTI, occorre che la sua evoluzione libera sia nulla, il che si ottiene imponendo che il sistema sia inizialmente in quiete, assegnando cioè y0 = y1 = · · · = yN−1 = 0. Nell’esempio che segue si considererà un caso semplice per chiarire ulteriormente gli aspetti precedentemente discussi. Esempio 4.16 (sistema RC) Un esempio particolarmente semplice nell’ambito dei circuiti elettrici è il sistema RC raffigurato in fig. 4.22, nel quale l’ingresso x(t) è la tensione ai capi della serie RC, mentre l’uscita y(t) è la tensione ai capi della capacità. Applicando il secondo principio di Kirchoff (equilibrio tra le tensioni) e le relazioni tra tensione e corrente ai capi di resistenza e capacità, si ottiene l’equazione differenziale che descrive il comportamento del circuito: RC
d y(t) + y(t) = x(t) . dt
(4.77)
Il comportamento di questo sistema è pertanto descritto da una equazione differenziale del primo ordine (N = 1). Notiamo che tale equazione può essere rappresentata dallo schema a blocchi in retroazione di fig. 4.23. La
4.6 Esempi di sistemi LTI
173
soluzione generale y(t) della (4.77) si può scrivere come: y(t) = y0 (t) + y p (t) , dove y0 (t) è una qualunque soluzione dell’equazione omogenea associata alla (4.77), cioè dell’equazione che si ottiene ponendo in ingresso x(t) ≡ 0: y(t) + RC
d y(t) = 0 , dt
(4.78)
mentre y p (t) è una soluzione particolare dell’equazione completa (4.77). Determiniamo prima la soluzione dell’equazione omogenea: dobbiamo cercare le radici del polinomio caratteristico q(λ ), risolvendo l’equazione (4.71), che nel nostro caso si riduce alla: q(λ ) = 1 + RC λ = 0 , da cui si ricava l’unica radice λ1 = −1/(RC). In questo caso (R = N = 1), la (4.73) degenera nella (4.72) ed è composta da un solo termine: y0 (t) = c1 e−t/RC ,
c1 ∈ R .
(4.79)
Notiamo che, per la presenza della costante moltiplicativa c1 arbitraria, la (4.79) non consente di determinare univocamente l’uscita del sistema. Per determinare l’evoluzione libera del sistema dobbiamo imporre che la soluzione omogenea y0 (t) trovata soddisfi le condizioni iniziali (4.66); nel nostro caso (equazione del primo ordine), dobbiamo imporre la sola condizione y0 (0) = y0 . Dalla (4.79) otteniamo allora che y0 (0) = c1 = y0 , per cui l’evoluzione libera del sistema RC è descritta dal seguente segnale: ylib (t) = y0 e−t/RC . Si noti che l’evoluzione libera dipende linearmente dal valore iniziale y0 . La soluzione particolare y p (t) dipende dal tipo di ingresso, e deve soddisfare l’equazione differenziale completa (4.77). Risolvendo tale equazione differenziale con la condizione iniziale y p (0) = 0, otteniamo la risposta forzata del sistema. Supponiamo ad esempio che l’ingresso sia un gradino x(t) = u(t). In questo caso, l’equazione differenziale completa assume la forma y p (t) + RC
d y p (t) = u(t) dt
⇐⇒
d 1 1 y p (t) + y p (t) = u(t) . dt RC RC
Se si moltiplicano ambo i membri dell’equazione di destra per l’esponenziale et/RC e si osserva che d 1 d y p (t) + y p (t) = y p (t)et/RC , et/RC dt RC dt si ottiene:
0 , se t < 0 ; d 1 et/RC u(t) = y p (t)et/RC = 1 t/RC dt RC e , se t ≥ 0 ; RC
da cui, per integrazione indefinita, se t < 0 ; c2 , 1 t/RC t/RC y p (t)et/RC = e dt + c3 = e + c3 , se t ≥ 0 . RC
174
Sistemi lineari tempo-invarianti (LTI)
Imponendo che y p (0) = 0, segue che c3 = −1; inoltre, trattandosi di una equazione differenziale del primo ordine, la discontinuità di prima specie del segnale x(t) all’istante t = 0 implica una discontinuità della stessa specie all’istante t = 0 nella derivata prima di y p (t), ma non comporta discontinuità in t = 0 del segnale y p (t), per cui risulta che c2 = 0.10 Pertanto, la risposta forzata del sistema assume la forma: yfor (t) = (1 − e−t/RC ) u(t) . Si osservi che yfor (t) è funzione lineare del segnale di ingresso x(t) = u(t). Inoltre, si può verificare (la verifica è lasciata al lettore) che la soluzione yt0 (t) dell’equazione differenziale (4.77), ottenuta ponendo x(t) = u(t − t0 ), con t0 ∈ R − {0} e con la condizione iniziale yt0 (t0 ) = 0, è pari a yt0 (t) = yfor (t −t0 ); in altri termini il legame tra yfor (t) e x(t) = u(t) è tempo-invariante. La soluzione completa y(t) dell’equazione differenziale corrispondente all’ingresso x(t) = u(t) si scrive: y(t) = ylib (t) + yfor (t) = y0 e−t/RC + (1 − e−t/RC ) u(t) .
(4.80)
Osserviamo che, per la presenza dell’evoluzione libera, il sistema risultante non è omogeneo (e quindi non è lineare). Inoltre la presenza di y0 (t) indipendente dall’ingresso rende il sistema non invariante temporalmente. Se allora siamo interessati ad un sistema LTI bisogna fissare come condizione iniziale quella di sistema inizialmente in quiete, ponendo y0 = 0, e la (4.80) si riduce a y(t) = yfor (t) = (1 − e−t/RC ) u(t) . Notiamo a questo punto che, essendo il sistema LTI nelle ipotesi fatte, y(t) = yfor (t) ne rappresenta la sua risposta al gradino, ovvero s(t) = (1 − e−t/RC ) u(t) . Tenendo presente la relazione (4.37) esistente tra risposta al gradino e risposta impulsiva, ricaviamo che la risposta impulsiva del sistema RC è: h(t) =
1 −t/RC d s(t) = e u(t) , dt RC
che, ponendo T = RC, corrisponde alla risposta impulsiva (4.50) assegnata nell’es. 4.11. La risposta impulsiva e la risposta al gradino del sistema RC sono raffigurate in fig. 4.24. Oltre ad essere chiaramente dispersivo, il sistema LTI ottenuto è causale [h(t) = 0, ∀t < 0] e stabile [h(t) è sommabile].
Nel cap. 6 vedremo come sia possibile ottenere la caratterizzazione di un generico sistema descritto dalla (4.65) in maniera più semplice di quanto visto finora. Nel paragrafo successivo introduciamo invece una classe di sistemi a TD con proprietà molto simili a quelli a TC descritti da equazioni differenziali del tipo (4.65). 4.6.2 Sistemi descritti da equazioni alle differenze (sistemi ARMA)
Nel caso TD, una relazione analoga alla (4.65) è la seguente: N
∑ ak y(n − k) =
k=0
M
∑ bm x(n − m) ,
(4.81)
m=0
nota come equazione alla differenze a coefficienti costanti di ordine N, con N ≥ 0 e aN = 0. Per tale equazione alle differenze si applicano tutte le considerazioni iniziali fatte per l’equazione differenziale 10 Più in generale, per un’equazione differenziale di ordine N, si dimostra che una discontinuità di prima specie del segnale
x(t) nel punto t0 implica una discontinuità di prima specie nel punto t0 della derivata N-esima del segnale y p (t), ma non comporta discontinuità nel medesimo punto di y p (t) e di tutte le sue derivate successive fino a quella di ordine N − 1.
175
1
1
0.8
0.8
0.6
0.6 s(t)
RC h(t)
4.6 Esempi di sistemi LTI
0.4
0.4
0.2
0.2
0
0
−2
−1
0
1
2
3
4
5
−2
−1
0
1
2
t/RC
t/RC
(a)
(b)
3
4
5
Fig. 4.24. Sistema RC (es. 4.16): (a) risposta impulsiva; (b) risposta al gradino.
(4.65). In particolare, i sistemi definiti implicitamente dalla (4.81), sotto opportune ipotesi, sono sistemi LTI, e sono denominati sistemi auto-regressivi a media mobile (ARMA). Solo nel caso N = 0, la (4.81) rappresenta una relazione i-u semplice da studiare, in quanto è possibile ricavare direttamente y(n) in funzione di x(n): y(n) =
1 M ∑ bm x(n − m) . a0 m=0
(4.82)
Dal confronto con l’es. 3.9, notiamo che la (4.82) definisce in effetti un sistema a media mobile (MA) (e quindi LTI e FIR), avente la seguente risposta impulsiva: bn , n ∈ {0, 1, . . . , M} ; h(n) = a0 0, altrimenti . Per N ≥ 1, analogamente al caso TC, la (4.81) descrive solo implicitamente un sistema; assegnato il segnale di ingresso x(n), per determinarne la relazione i-u, è necessario risolvere rispetto a y(n) l’equazione alle differenze. A tale proposito, va detto che la teoria e la pratica delle equazioni alle differenze, sebbene in principio siano più semplici rispetto alle equazioni differenziali, sono generalmente meno note ai lettori, ma presentano interessanti analogie con le corrispondenti nozioni valide per le equazioni differenziali. In particolare, supposto che, a partire da un istante prefissato nin ∈ Z, sia applicato in ingresso al sistema un dato segnale x(n), per trovare la corrispondente uscita y(n) per n ≥ nin , è sufficiente conoscere i valori del segnale di uscita negli N istanti di tempo precedenti nin ; questi valori racchiudono tutte le informazioni circa il passato del sistema necessarie per determinare il suo comportamento per n ≥ nin . Ponendo per semplicità nin = 0, lo stato iniziale del sistema è pertanto descritto dalle N condizioni iniziali: y(−1) = y1 , y(−2) = y2 , . . . , y(−N) = yN ,
(4.83)
dove y1 , y2 , . . . , yN sono valori (in genere reali) assegnati. Assegnato l’ingresso x(n) per n ≥ nin , si può provare che la soluzione generale di una equazione del tipo (4.81) si può esprimere, analogamente alle soluzioni di una equazione differenziale (4.65), come: y(n) = y0 (n) + y p (n) ,
176
Sistemi lineari tempo-invarianti (LTI)
dove y0 (n) è la soluzione omogenea, ovvero la soluzione generale dell’equazione omogenea associata alla (4.81): N
∑ ak y(n − k) = 0 ,
(4.84)
k=0
mentre y p (n) è una soluzione particolare dell’equazione “completa” (4.81), per la quale si ha: N
∑ ak y p (n − k) =
k=0
M
∑ bm x(n − m) .
(4.85)
m=0
Il calcolo della soluzione generale y0 (n) dell’equazione omogenea (4.84) si effettua ragionando similmente al caso TC. Se ci si limita a trovare soluzioni del tipo zn , con z ∈ C e si pone y(n) = zn nella (4.84), si ottiene: + * N
∑ ak z−k
k=0
zn = q(z) zn = 0
⇐⇒
q(z) = 0 .
q(z)
Pertanto, l’esponenziale zn è soluzione della (4.84) se e solo se il parametro z è una radice del polinomio caratteristico q(z), ossia: q(z) = a0 + a1 z−1 + · · · + aN z−N = 0 ,
(4.86)
le cui radici possono essere reali, immaginarie oppure complesse.11 Se le N radici del polinomio q(z) sono distinte, siano esse z1 , z2 , . . . , zN , la soluzione generale della (4.84) è data da: y0 (n) = c1 zn1 + c2 zn2 + · · · + cN znN ,
(4.87)
dove c1 , c2 , . . . , cN sono costanti arbitrarie. Se invece il polinomio q(z) presenta R radici distinte z1 , z2 , . . . , zR aventi molteplicità N1 , N2 , . . . , NR , rispettivamente, con N1 + N2 + · · · + NR = N, la soluzione generale della (4.84) assume la forma: R Ni −1
y0 (n) = ∑
∑ ci,h nh zni .
(4.88)
i=1 h=0
Quindi, come nel caso TC, la soluzione omogenea y0 (n) non è univocamente specificata in quanto dipende dagli N coefficienti arbitrari ci,h . L’evoluzione libera del sistema ylib (n) corrisponde alla particolare soluzione omogenea (4.88) che soddisfa le condizioni iniziali (4.83), ossia y0 (−1) = y1 , y0 (−2) = y2 , . . . , yN (−N) = yN ,
(4.89)
dipendente solo dalle condizioni iniziali e completamente indipendente dal segnale di ingresso x(n). Risolvendo il sistema lineare (4.89) si trova che le costanti ci,h sono combinazioni lineari dei valori y0 , y1 , . . . , yN−1 assunti da y0 (n) per n ∈ {−N, −N + 1, . . . , −1}. Conseguentemente, l’evoluzione libera ylib (n) del sistema è essa stessa una funzione lineare di y1 , y2 , . . . , yN ; questo vuol dire che se si impone che il sistema sia inizialmente in quiete, cioè y1 = y2 = · · · = yN = 0, l’evoluzione libera 11 Nel caso in cui i coefficienti del polinomio a , a , . . . , a N 0 1
siano reali, le radici di q(z) sono o reali o complesse coniugate.
4.6 Esempi di sistemi LTI
177
del sistema è nulla, ossia, ylib (n) = 0, ∀n ∈ Z. D’altra parte, la risposta forzata del sistema yfor (n) si può ottenere cercando una soluzione particolare y p (n) della (4.81) che soddisfa le condizioni: y p (−1) = y p (−2) = · · · = y p (−N) = 0 ; essa tiene conto del solo segnale di ingresso x(n) assumendo che siano nulle le condizioni iniziali. Similmente al caso TC, il legame tra la risposta forzata yfor (n) e il segnale di ingresso x(n) è lineare e tempo-invariante, e quindi anche in questo caso se x(n) ≡ 0 si ha yfor (n) ≡ 0. In conclusione, la risposta del sistema può essere scritta come la somma dell’evoluzione libera e della risposta forzata: y(n) = ylib (n) + yfor (n) .
(4.90)
A causa della presenza dell’evoluzione libera, il sistema descritto dalle (4.81) e (4.83) è in generale lineare per le differenze e tempo-variante. Tale sistema diventa LTI se si impone che il sistema sia inizialmente in quiete, assegnando y1 = y2 = · · · = yN = 0. I sistemi LTI caratterizzati dalle equazioni alle differenze del tipo (4.81), con condizioni iniziali nulle, sono detti sistemi ARMA e sono quelli a cui faremo riferimento nel seguito. A differenza del caso TC, l’equazione alle differenze (4.81) può essere risolta seguendo un metodo alternativo a quello delineato sopra. Tale metodo si basa sull’osservazione che la (4.81) si può riscrivere lasciando solo y(n) al primo membro: y(n) = −
1 M 1 N a y(n − k) + ∑ k ∑ bm x(n − m) . a0 k=1 a0 m=0
(4.91)
Tale relazione evidenzia che l’uscita y(n) all’istante n può essere calcolata a partire dal valore corrente del segnale di ingresso x(n), dai valori y(n − 1), y(n − 2), . . . , y(n − N) assunti dal segnale di uscita nei precedenti N istanti di tempo e dai valori x(n − 1), x(n − 2), . . . , x(n − M) assunti dal segnale di ingresso nei precedenti M istanti di tempo. Pertanto, se il segnale di ingresso è applicato al sistema a partire dall’istante nin = 0, il valore y(0) del segnale di uscita all’istante n = 0 si può calcolare utilizzando la (4.91), a partire dalla conoscenza del valore corrente del segnale di ingresso x(0) e degli N valori precedenti dell’uscita y(−1), y(−2), . . . , y(−N) (ovvero le condizioni iniziali assegnate). Successivamente, il valore y(1) del segnale di uscita all’istante n = 1 si può calcolare utilizzando la (4.91), a partire dalla conoscenza del valore corrente del segnale di ingresso x(1), di quello passato x(0) e degli N valori precedenti dell’uscita y(0), y(1), . . . , y(−N + 1). Iterando questa procedura è possibile calcolare ricorsivamente il segnale di uscita y(n) per n ≥ 0, a partire dalla conoscenza del segnale di ingresso e delle condizioni iniziali assegnate. Tale procedura, che è applicabile solo a TD, prende il nome di metodo ricorsivo per il calcolo dell’uscita di un sistema il cui funzionamento è determinato dalla equazione alle differenze (4.81) e dalle condizioni iniziali (4.83). Nell’esempio che segue, il metodo ricorsivo è applicato allo studio di una semplice equazione alle differenze del primo ordine. Esempio 4.17 (sistema AR del primo ordine) Consideriamo la seguente equazione alle differenze di ordine N = 1: a0 y(n) + a1 y(n − 1) = b1 x(n) .
Dividendo primo e secondo membro per a0 = 0, e ponendo a = −a1 /a0 e b = b1 /a0 , possiamo riscriverla nella forma seguente, più semplice, y(n) − a y(n − 1) = b x(n) , che possiamo esprimere equivalentemente come segue: y(n) = a y(n − 1) + b x(n) ,
(4.92)
178
Sistemi lineari tempo-invarianti (LTI)
da cui si ricava che l’uscita y(n) all’istante n può essere calcolata a partire dal valore corrente del segnale di ingresso x(n) e dal valore precedente y(n − 1) del segnale di uscita. Questa interpretazione porta allo schema a blocchi riportato in fig. 4.25, la cui somiglianza con lo schema di fig. 4.23 sottolinea che l’equazione (4.92) si può interpretare come la controparte a TD dell’equazione differenziale del sistema RC (cfr. es. 4.16). Imponiamo che il sistema sia LTI, assumendo che il sistema sia inizialmente in quiete, ovvero y(−1) = 0. In tale ipotesi, cerchiamo di determinarne la risposta impulsiva ponendo x(n) = δ (n), in tal caso la corrispondente uscita del sistema è per definizione proprio la risposta impulsiva, ossia y(n) = h(n). A differenza del caso TC, possiamo trovare la soluzione h(n) in maniera ricorsiva, scrivendo: h(n) = a h(n − 1) + b δ (n) . Così facendo, troviamo iterando in avanti: h(0) = a h(−1) + b δ (0) = b , h(1) = a h(0) + b δ (1) = ab , h(2) = a h(1) + b δ (2) = a(ab) = a2 b , ed in generale, per n ≥ 0, h(n) = an b . Analogamente, iterando all’indietro si ha: 1 h(−2) = [h(−1) − b δ (−2)] = 0 , a 1 h(−3) = [h(−2) − b δ (−3)] = 0 , a ed in generale, per n < 0, h(n) = 0 . In definitiva, h(n) può essere sinteticamente espressa come h(n) = b an u(n) . che è rappresentata graficamente in fig. 4.26 per a = 0.8333 e b = 1. Dalle proprietà della risposta impulsiva, si vede che il sistema è dispersivo, causale, e stabile per 0 < |a| < 1. È interessante osservare che, ponendo b = 1, la risposta impulsiva di tale sistema coincide con quella assegnata nell’es. 4.11. Pertanto, il sistema in esame è un sistema IIR avente memoria praticamente finita, supposto 0 < |a| < 1. La natura IIR di questo sistema dipende dalla presenza nel sistema di un anello ricorsivo (fig. 4.25), il che giustifica anche il termine auto-regressivo (AR) utilizzato per tali sistemi.
Purtroppo il calcolo della risposta impulsiva di un sistema ARMA arbitrario utilizzando il metodo ricorsivo non è sempre agevole come nell’es. 4.17; nel cap. 6 vedremo che esistono tecniche alternative per studiare tali sistemi nel dominio della frequenza. Va detto che, in generale, per N ≥ 1, i sistemi ARMA presentano risposte impulsive di durata infinita, e sono pertanto sistemi IIR. A conclusione di questo paragrafo, data la notevole importanza dei sistema ARMA nelle applicazioni, ed in particolare nell’elaborazione digitale dei segnali,12 è utile fare qualche considerazione sulla loro implementazione. A tale proposito, osserviamo che la forma ricorsiva (4.91) dell’equazione alle differenze (4.81), oltre a fornire un metodo alternativo di risoluzione dell’equazione, suggerisce anche un modo per realizzare il sistema. Per semplicità, con un leggero abuso di notazione, denotiamo 12 Ad
esempio, in Matlab, il comando filter implementa proprio la relazione i-u di un sistema ARMA.
4.6 Esempi di sistemi LTI
x(n)
179
b
1
y(n)
0.8
a
y(n-1)
h(n)
z -1
0.6 0.4 0.2
Fig. 4.25. Schema a blocchi del sistema descritto dall’equazione alle differenze y(n) = a y(n − 1) + b x(n) (es. 4.17).
0 0
5
10
15
20
n
Fig. 4.26. Risposta impulsiva del sistema LTI (es. 4.17) descritto dall’equazione alle differenze y(n) − a y(n − 1) = b x(n) (a = 0.8333 e b = 1).
con ak i rapporti −ak /a0 , per k ∈ {1, 2, . . . , N}, e con bm i rapporti bm /a0 , per m ∈ {0, 1, . . . , M}; così facendo la (4.91) si riscrive come segue: y(n) =
N
N
k=1
m=0
∑ ak y(n − k) + ∑ bm x(n − m) ,
(4.93)
in cui abbiamo inoltre assunto senza perdita di generalità che13 N = M. Questa relazione mette in luce che un sistema ARMA può essere realizzato mediante opportuna interconnessione di tre componenti elementari: amplificatore/attenuatore ideale, ritardo elementare e sommatore. Precisamente, lo schema a blocchi corrispondente alla (4.93) è riportato in fig. 4.27. Tale schema evidenzia che un sistema ARMA può essere decomposto nella serie di due sistemi LTI. Il primo sistema (quello di sinistra) effettua una semplice elaborazione (consistente in ritardi e moltiplicazioni per costanti) del segnale di ingresso x(n) producendo in uscita il segnale: z(n) =
N
∑ bm x(n − m) .
(4.94)
m=0
Tale sistema è in effetti un sistema MA di ordine N ed è pertanto un sistema FIR. Il secondo sistema (quello di destra) ha come ingresso il segnale z(n) e produce in uscita il segnale y(n) secondo la seguente relazione ricorsiva: y(n) =
N
∑ ak y(n − k) + z(n) ,
(4.95)
k=1
in cui l’uscita all’istante n si ricava in funzione del valore attuale del segnale di ingresso z(n) e dei valori del segnale di uscita negli N istanti precedenti. Questa ricorsione, che giustifica anche il termine auto-regressivo (AR) utilizzato per tali sistemi, si traduce dal punto di vista grafico nella “reazione del segnale di uscita” che, opportunamente ritardato e scalato, è riportato indietro verso il segnale di ingresso z(n). Per effetto della ricorsione, i sistemi AR presentano risposte impulsive di durata infinita, partire da un sistema ARMA con N = M, è possibile ottenere un sistema con N > M, ponendo a zero i coefficienti bm , per m ∈ {M + 1, M + 2, . . . , N}; analogamente, è possibile ottenere un sistema con N < M, ponendo a zero i coefficienti bk , per k ∈ {N + 1, N + 2, . . . , M}. 13 A
180
Sistemi lineari tempo-invarianti (LTI)
z(n) x(n)
y(n)
b0 z -1
z -1 a1
b1
x(n-1) z -1
z -1 a2
b2
x(n-2) . . .
y(n-2) . . .
. . .
. . .
z -1 x(n-N)
y(n-1)
z -1 bN
parte MA
aN
y(n-N)
parte AR
Fig. 4.27. Realizzazione in forma diretta I di un sistema ARMA (N = M). Lo schema si può vedere come la cascata della parte MA e della parte AR.
e sono pertanto sistemi IIR. Possiamo quindi dire che la (4.94) rappresenta la parte MA (o FIR) del sistema, mentre la (4.95) rappresenta la parte AR (o IIR) del sistema. La realizzazione di fig. 4.27 è comunemente denominata forma diretta I del sistema ARMA. Osserviamo che per tale realizzazione sono richiesti due banchi costituiti da N ritardi elementari,14 per un totale di 2 N ritardi elementari, nonchè amplificatori e sommatori. Lo schema di fig. 4.27 può essere riorganizzato allo scopo di ridurre il numero di ritardi elementari richiesti, senza alterare la natura del sistema. Un modo per fare ciò consiste nello scambiare l’ordine della parte MA e AR nella cascata; ciò non altera il legame i-u del sistema, in quanto sia la parte MA che quella AR sono sistemi LTI, ed abbiamo visto che per i sistemi LTI l’ordine di connessione in serie è inessenziale. Così facendo si giunge alla struttura modificata rappresentata in fig. 4.28, che è generalmente denominata forma diretta II del sistema ARMA.15 Si nota che in questa nuova configurazione i due banchi di N ritardi hanno in ingresso il medesimo segnale u(n) e, pertanto, essi possono essere sostituiti da un unico banco costituito solo da N elementi di ritardo. In tal modo, si ottiene la struttura cosiddetta canonica riportata in fig. 4.29, che minimizza il numero di ritardi necessari (e quindi l’ingombro di memoria) per l’implementazione del sistema ARMA.
14 Un
banco di N ritardi è equivalente ad un registro a scorrimento di lunghezza N.
15 Il comando filter di Matlab, precedentemente menzionato, calcola l’uscita di un sistema ARMA utilizzando proprio
la forma diretta II.
4.6 Esempi di sistemi LTI
181
u(n)
x(n) z -1 a1
b0 z -1 b1
u(n-1) z -1
a2
y(n)
z -1 b2
u(n-2) . . .
. . .
. . .
. . . z -1 aN
z -1 u(n-N)
bN
parte AR
parte MA
Fig. 4.28. Realizzazione in forma diretta II di un sistema ARMA (N = M). Lo schema si ottiene facilmente da quello di fig. 4.27 scambiando l’ordine della parte MA e della parte AR.
u(n)
x(n)
b0
y(n)
z -1 a1
b1 z -1
a2
b2 . . .
. . .
. . . z -1 aN
bN u(n-N)
Fig. 4.29. Realizzazione in forma canonica di un sistema ARMA (N = M). Lo schema si ottiene facilmente da quello di fig. 4.28 notando che i due banchi di ritardi paralleli possono essere sostituiti da un unico banco.
182
Sistemi lineari tempo-invarianti (LTI)
4.7 Risposta in frequenza di un sistema LTI Abbiamo visto in questo capitolo che rappresentando un arbitrario segnale di ingresso x(·) come sovrapposizione (discreta o continua) di impulsi δ (·), è possibile caratterizzare in generale il comportamento di un sistema LTI attraverso la sua risposta impulsiva h(·), e scrivere la relazione i-u in termini di convoluzione discreta (4.7) oppure continua (4.12). Vedremo nei prossimi capitoli che un’ampia famiglia di segnali di interesse pratico possono essere rappresentati, oltre che come sovrapposizione di impulsi, anche come sovrapposizione di fasori (esponenziali complessi) a diverse frequenze o, se reali, di sinusoidi (rappresentazioni di Fourier). Per la proprietà di sovrapposizione degli effetti caratteristica dei sistemi lineari, e dei sistemi LTI in particolare, e tenendo anche conto del fatto che le sinusoidi stesse si possono esprimere come sovrapposizione di una coppia di fasori (formule di Eulero), è allora sufficiente analizzare il comportamento di un sistema LTI quando esso in ingresso viene sollecitato da un singolo fasore avente frequenza arbitraria. La caratterizzazione risultante del sistema prende il nome di relazione i-u nel dominio della frequenza, e la funzione che descrive il sistema in tale rappresentazione è la risposta in frequenza del sistema LTI. Nei paragrafi seguenti, per comodità di presentazione, studieremo tale rappresentazione separatamente nel caso TC e nel caso TD. 4.7.1 Risposta ad un fasore di un sistema TC LTI
Un sistema TC LTI è descritto dalla relazione i-u (4.12), che riportiamo di seguito per comodità: y(t) =
+∞ −∞
h(τ ) x(t − τ ) dτ .
Supponiamo che il segnale di ingresso sia un fasore a frequenza f , avente ampiezza unitaria e fase iniziale nulla, ovvero poniamo x(t) = e j2π f t . Sostituendo nella relazione i-u del sistema, si ottiene: y(t) =
+∞ −∞
h(τ ) e
j2π f (t−τ )
dτ =
+∞
−∞
− j2π f τ
h(τ ) e
dτ e j2π f t .
Assumendo che la quantità tra parentesi tonde esista finita, e ponendo:
H( f ) =
+∞ −∞
h(τ ) e− j2π f τ dτ ,
(4.96)
si ha: y(t) = H( f ) e j2π f t . Questa relazione mostra che l’uscita y(t) corrispondente al fasore x(t) = e j2π f t è a sua volta un fasore avente la stessa frequenza f dell’ingresso, moltiplicato per H( f ). Questa importante proprietà dei sistemi TC LTI si può riassumere sinteticamente come segue: Proprietà 4.9 (risposta ad un fasore di un sistema TC LTI) Si consideri un fasore a frequenza f ∈ R, in ingresso ad un sistema TC LTI con risposta impulsiva h(t), per il quale la H( f ) definita dalla (4.96) esiste finita. Vale la seguente relazione i-u: x(t) = e j2π f t −→ y(t) = H( f ) e j2π f t
(4.97)
4.7 Risposta in frequenza di un sistema LTI
x(t)
H(f)
y(t) = H( f) e j2πft
Fig. 4.30. Rappresentazione schematica della risposta ad un fasore di un sistema TC LTI.
183
x(n)
H(ν)
y(n) = H( ν) e j2πνn
Fig. 4.31. Rappresentazione schematica della risposta ad un fasore di un sistema TD LTI.
La prop. 4.9 può anche essere rappresentata dallo schema a blocchi di fig. 4.30. Si noti che tale proprietà vale anche per f = 0, ed in tal caso il fasore di ingresso degenera nel segnale costante x(t) = 1, cui corrisponde in uscita ancora un segnale costante y(t) = H(0). La quantità H(0) prende il nome di guadagno in continua del sistema LTI. Dalla sua definizione (4.96), osserviamo che H( f ), per ogni fissato valore di f , è in generale una grandezza complessa, che si può scrivere in termini di ampiezza e fase come segue: H( f ) = |H( f )| e jH( f ) . Sostituendo tale espressione nella (4.97), si ha: y(t) = |H( f )| e jH( f ) e j2π f t = |H( f )| e j[2π f t+H( f )] .
(4.98)
La (4.98) mostra in maniera più esplicita l’effetto del sistema sul fasore in ingresso, in particolare l’ampiezza del fasore viene modificata da |H( f )|, mentre la fase del fasore viene modificata da H( f ). Notiamo che la frequenza del fasore resta invariata nel passaggio attraverso il sistema LTI.16 Riguardando H( f ) come una funzione complessa della frequenza f ∈ R, essa prende il nome di risposta in frequenza o risposta armonica del sistema LTI; inoltre il suo modulo |H( f )|, che modifica l’ampiezza del fasore di ingresso, prende il nome di risposta in ampiezza, mentre la sua fase H( f ), che modifica la fase del fasore di ingresso, prende il nome di risposta in fase. Vedremo nel cap. 6 che la relazione (4.96), che definisce H( f ) in funzione di h(τ ), si può interpretare come la trasformata di Fourier del segnale h(τ ). Sotto opportune ipotesi, generalmente soddisfatte dai segnali di interesse pratico, tale relazione di trasformata di Fourier è invertibile, e la sua inversa, detta antitrasformata di Fourier, consente di calcolare la risposta impulsiva h(τ ) a partire dalla risposta armonica H( f ). È interessante osservare che la risposta in frequenza è sicuramente limitata se la risposta impulsiva è sommabile, ovvero se il sistema è stabile. La prova di questo risultato si ottiene osservando che: +∞ +∞ +∞ − j2π f τ − j2π f τ |H( f )| = h(τ ) e dτ ≤ |h(τ )| |e | dτ = |h(τ )|dτ , −∞ −∞ −∞
∀f ∈ R,
=1
da cui segue che, se h(τ ) è sommabile, allora l’integrale all’ultimo membro dell’equazione precedente esiste finito e, conseguentemente, |H( f )| < +∞, ∀ f ∈ R. Quindi, la prop. 4.9 si applica sicuramente a tutti i sistemi stabili. 16 Il fatto che ad un fasore in ingresso corrisponda un fasore in uscita alla stessa frequenza, evidenzia che i fasori sono segnali particolari per i sistemi LTI, in quanto restano sostanzialmente inalterati nel passaggio attraverso il sistema stesso. Tale proprietà si esprime, per analogia con la corrispondente proprietà dell’algebra lineare, dicendo che i fasori sono le autofunzioni dei sistemi LTI. Infatti, poiché nell’algebra lineare una trasformazione lineare è descritta da una matrice A, ovvero si ha y = A x, la relazione A e = λ e che definisce gli autovettori e gli autovalori si può interpretare come il fatto che il vettore e viene trasformato da A nel vettore λ e, proporzionale a e. Per completare l’analogia, si noti allora che la funzione H( f ) gioca il ruolo del coefficiente di proporzionalità λ , cioè dell’autovalore. Questa analogia può essere resa rigorosa utilizzando concetti matematici più avanzati, in particolare concetti di analisi funzionale.
184
Sistemi lineari tempo-invarianti (LTI)
Supposto H( f ) finita, la prop. 4.9 consente anche di fornire una definizione della risposta in frequenza alternativa alla (4.96), ovvero y(t) , (4.99) H( f ) = x(t) x(t)=e j2π f t secondo la quale H( f ) si esprime come il rapporto tra l’uscita e l’ingresso quando l’ingresso è un fasore a frequenza f , avente ampiezza unitaria e fase iniziale nulla. Questa definizione è di grande utilità per ricavare direttamente la risposta armonica dei sistemi TC LTI descritti da equazioni differenziali lineari a coefficienti costanti (cfr. § 4.6.1), come dimostrato dall’esempio seguente. Esempio 4.18 (risposta in frequenza di un sistema RC) Consideriamo il sistema RC dell’es. 4.16, raffigurato in fig. 4.22. Applicando i principi di Kirchoff e le relazioni tensione-corrente per i componenti R e C, si perviene alla seguente equazione differenziale, che descrive il comportamento del sistema: RC
dy(t) + y(t) = x(t) . dt
(4.100)
Abbiamo visto nell’es. 4.16 (si veda anche il § 4.6.1) che, nell’ipotesi in cui il sistema sia inizialmente in quiete [y(0) = 0] tale equazione differenziale definisce univocamente un sistema LTI causale e stabile, avente 1 −t/RC risposta impulsiva h(t) = RC e u(t). Sfruttando la conoscenza di h(t), è possibile allora calcolare la risposta in frequenza H( f ) mediante la (4.96): questo approccio equivale ad effettuare la trasformata di Fourier di h(t), e sarà ulteriormente approfondito nel cap. 6. È più semplice invece – e non richiede la conoscenza di h(t) – calcolare la risposta in frequenza del sistema utilizzando la (4.99), ossia ponendo x(t) = e j2π f t e y(t) = H( f ) e j2π f t , e sostituendo tali espressioni nell’equazione differenziale (4.100) che descrive il sistema. Notando infatti che ) dy(t) d( = H( f ) e j2π f t = j2π f H( f ) e j2π f t , dt dt sostituendo nella (4.100) si ha: RC j2π f H( f ) e j2π f t + H( f ) e j2π f t = e j2π f t , da cui mettendo in evidenza e j2π f t si ottiene: (RC j2π f + 1) H( f ) e j2π f t = e j2π f t . Affinché l’uguaglianza precedente possa valere per ogni t ∈ R, deve risultare necessariamente: (RC j2π f + 1) H( f ) = 1 , da cui si ottiene infine la risposta in frequenza di un sistema RC: H( f ) =
1 . 1 + j2π f RC
La precedente relazione mostra effettivamente che H( f ) è una funzione complessa di f , della quale è facile ricavare modulo e fase, che definiscono rispettivamente la risposta in ampiezza e la risposta in fase del sistema RC: |H( f )| = #
1 1 + (2π f RC)2
H( f ) = − arctan(2π f RC)
(risposta in ampiezza) (risposta in fase)
che sono rappresentate graficamente in fig. 4.32 in funzione di 2π f RC. Particolarmente interessante è notare che la risposta in ampiezza è uguale ad 1 solo per f = 0, mentre assume valori minori di 1 per f = 0 e decrescenti
4.7 Risposta in frequenza di un sistema LTI
185
|H(f)|
1 0.5 0 −10
−5
0 2πfRC
5
10
−5
0 2πfRC
5
10
∠ H(f)
1 0 −1 −10
Fig. 4.32. Risposta in frequenza di un sistema RC (es. 4.18): risposta in ampiezza (in alto); risposta in fase (in basso). al crescere di | f |. In virtù di questo comportamento, solo il fasore a frequenza f = 0 (coincidente con il segnale costante x(t) = 1) non viene attenuato in ampiezza passando attraverso il sistema, mentre i fasori a frequenza f = 0 subiscono attenuazioni di ampiezza, crescenti al crescere di | f |. Un sistema di questo tipo, che introduce un’attenuazione di ampiezza crescente con la frequenza, viene chiamato filtro passabasso. Come osservazione conclusiva, notiamo che, a prima vista, si potrebbe pensare che nella strada seguita per determinare H( f ) si sia sfruttata solo l’equazione differenziale (4.100) e non la condizione iniziale y(0) = 0; il che potrebbe far pensare che il risultato ottenuto è valido anche se il sistema non è inizialmente in quiete. Tale conclusione non è corretta. Infatti, nell’imporre che l’uscita corrispondente al segnale x(t) = e j2π f t avesse l’espressione y(t) = H( f ) e j2π f t , si è implicitamente imposto che il sistema sia LTI, il che è vero se e solo se y(0) = 0. Quindi, supposto H( f ) finita, cercare la soluzione y(t) = H( f ) e j2π f t dell’equazione differenziale assegnata è equivalente ad imporre la condizione iniziale y(0) = 0.
La prop. 4.9 e l’es. 4.18 mostrano che un sistema LTI tratta i fasori presenti al suo ingresso diversamente a seconda della loro frequenza, modificandone sia l’ampiezza che la fase con una legge dipendente da f : tale comportamento, che assume una importanza rilevante nello studio dei sistemi LTI, va sotto il nome di proprietà di selettività in frequenza dei sistemi LTI, e sarà ulteriormente approfondito nei prossimi capitoli. In particolare, è importante osservare che la risposta in frequenza di un sistema può anche annullarsi ad una data frequenza f0 , cioè H( f0 ) = 0; questo significa che se si mette in ingresso a tale sistema un fasore avente frequenza f0 , la corrispondente uscita è nulla. Pertanto, dato un sistema LTI, se l’ingresso è nullo, la corrispondente uscita è necessariamente nulla (cfr. prop. 3.4); tuttavia, l’uscita di un sistema LTI può essere nulla anche quando in ingresso al sistema è posto un segnale non nullo. In altri termini, il sistema può “sopprimere” completamente il segnale di ingresso. L’es. 4.18 conferma che la funzione H( f ) data dalla (4.96) o dalla (4.99) è in generale una funzione complessa. Se il sistema LTI è reale, ovvero la sua risposta impulsiva h(t) è una funzione reale, è possibile provare che tale funzione complessa gode di una particolare proprietà di simmetria. Infatti, coniugando la (4.96), si ottiene: H ∗( f ) =
+∞ −∞
h∗ (τ ) e j2π f τ dτ =
+∞ −∞
h(τ ) e− j2π (− f )τ dτ = H(− f ) ,
dove si è sfruttato il fatto che, se h(τ ) è reale, risulta h∗ (τ ) = h(τ ). In definitiva, per un sistema reale, si ha: H ∗ ( f ) = H(− f ) .
(4.101)
186
Sistemi lineari tempo-invarianti (LTI)
Tale proprietà di simmetria della risposta in frequenza H( f ) prende il nome di simmetria hermitiana, ed è conseguenza del fatto che h(t) è una funzione reale. Utilizzando la formula di antitrasformazione di Fourier (cfr. cap. 6) si può anche provare che, se vale la (4.101), allora la h(t) è necessariamente reale. In termini matematici, quindi, la simmetria hermitiana della H( f ) è una condizione necessaria e sufficiente affinché la risposta impulsiva h(t) sia reale (e quindi affinché il sistema sia reale). Notiamo che, ponendo f = 0 nella (4.101), si ottiene H ∗ (0) = H(0), e quindi si ricava che H(0) è necessariamente reale, ovvero il guadagno in continua di un sistema reale è reale. Nel caso particolare in cui H( f ) assume solo valori reali, la simmetria hermitiana (4.101) si riduce alla convenzionale proprietà di simmetria pari. Più in generale, è possibile interpretare la simmetria hermitiana di H( f ) come simmetria pari/dispari della risposta in ampiezza ed in fase. Infatti se si esprime H( f ) in termini di modulo e fase: H( f ) = |H( f )| e jH( f ) , dalla (4.101) si ha: |H( f )| e− jH( f ) = |H(− f )| e jH(− f ) , da cui, uguagliando modulo e fase del primo e del secondo membro, si ha necessariamente: |H( f )| = |H(− f )| ,
(4.102)
H( f ) = −H(− f ) .
(4.103)
La (4.102) mostra in particolare che la risposta in ampiezza di un sistema reale è una funzione pari di f , mentre la (4.102) mostra che la risposta in fase di un sistema reale è una funzione dispari di f (a meno di multipli di 2π ). Esempio 4.19 (simmetria hermitiana della risposta in frequenza di un sistema RC) La risposta impul1 −t/RC e u(t), per cui esso è un sistema reale, e quindi la siva di un sistema RC è la funzione reale h(t) = RC sua risposta in frequenza H( f ) presenta la proprietà di simmetria hermitiana. Tale proprietà si può provare analiticamente, notando che H ∗( f ) =
1 1 = = H(− f ) , 1 − j2π f RC 1 + j2π (− f )RC
oppure anche graficamente, notando (fig. 4.32) che la risposta in ampiezza è una funzione pari, e la risposta in fase è una funzione dispari.
4.7.2 Risposta ad un fasore di un sistema TD LTI
Le considerazioni sviluppate nel precedente paragrafo nel caso TC si possono ripetere per il caso TD, con poche modifiche. Partiamo dalla relazione i-u (4.7) per un sistema TD LTI, che riportiamo di seguito per comodità: y(n) =
+∞
∑
h(k) x(n − k) .
k=−∞
Supponiamo che l’ingresso x(n) sia un fasore a frequenza ν ∈ R, avente ampiezza unitaria e fase iniziale nulla, ovvero poniamo x(n) = e j2πν n . Sostituendo l’espressione di x(n) nella relazione i-u del sistema, si ottiene: * + y(n) =
+∞
∑
k=−∞
h(k) e j2πν (n−k) =
+∞
∑
k=−∞
h(k) e− j2πν k e j2πν n
4.7 Risposta in frequenza di un sistema LTI
187
Nell’ipotesi che la serie bilatera tra parentesi tonde converga, poniamo:
H(ν ) =
+∞
∑
h(k) e− j2πν k ,
(4.104)
k=−∞
per cui si può scrivere: y(n) = H(ν ) e j2πν n , e quindi l’uscita y(n) corrispondente al fasore x(n) = e j2πν n è un fasore avente la stessa frequenza ν dell’ingresso, moltiplicato per la quantità H(ν ). Tale importante proprietà è riassunta schematicamente di seguito: Proprietà 4.10 (risposta ad un fasore di un sistema TD LTI) Si consideri un fasore a frequenza ν ∈ R, in ingresso ad un sistema TD LTI con risposta impulsiva h(n), per il quale la H(ν ) definita dalla (4.104) esiste finita. Vale la seguente relazione i-u: x(n) = e j2πν n −→ y(n) = H(ν ) e j2πν n
(4.105)
La prop. 4.10, analogamente al caso TC, può essere rappresentata schematicamente come in fig. 4.31. Tale proprietà vale anche per ν = 0, ed in tal caso il fasore di ingresso degenera nel segnale costante x(n) = 1, cui corrisponde in uscita ancora un segnale costante y(n) = H(0). La quantità H(0) prende anche in questo caso il nome di guadagno in continua del sistema LTI. Riguardata come funzione complessa della variabile ν ∈ R, la funzione H(ν ) prende il nome di risposta in frequenza o risposta armonica del sistema TD LTI. Il modulo e la fase di H(ν ), come nel caso TC, prendono il nome di risposta in ampiezza e in fase, rispettivamente, in quanto agiscono sull’ampiezza e sulla fase del fasore di ingresso. Anche in questo caso la relazione matematica (4.104) che definisce H(ν ) in funzione di h(k) è una trasformata di Fourier, e sotto opportune ipotesi mostreremo che tale relazione è invertibile, per cui è possibile ricavare h(k) a partire da H(ν ) mediante una antitrasformata di Fourier. Notiamo che, come nel caso TC, la risposta in frequenza esiste finita per ogni ν ∈ R se il sistema è stabile, ovvero h(k) è sommabile. Quest’ultimo risultato discende dal fatto che +∞ +∞ +∞ |H(ν )| = ∑ h(k) e− j2πν k ≤ ∑ |h(k)| |e− j2πν k | = ∑ |h(k)| , ∀ν ∈ R , k=−∞ k=−∞ k=−∞ k=1
da cui segue che, se h(k) è sommabile, allora la serie all’ultimo membro dell’equazione di cui sopra è convergente e, conseguentemente, |H(ν )| < +∞, ∀ν ∈ R. Quindi, la prop. 4.10 si applica sicuramente a tutti i sistemi stabili. Una differenza importante tra la risposta in frequenza nel caso TC e quella nel caso TD è legata alla proprietà di periodicità in frequenza dei fasori TD (cfr. § 2.3.3). Infatti, poiché nel caso TD due fasori aventi frequenze ν e ν + 1 coincidono, ci aspettiamo che il sistema LTI li tratti allo stesso modo, e quindi che la risposta in frequenza assuma gli stessi valori in corrispondenza di tali frequenze, ovvero H(ν ) = H(ν + 1) ,
∀ν ∈ R .
Questa relazione si può provare facilmente (vedi dopo), ed esprime il fatto che la funzione H(ν ) è periodica in frequenza di periodo 1. Vale pertanto la seguente proprietà:
188
Sistemi lineari tempo-invarianti (LTI)
Proprietà 4.11 (periodicità della risposta in frequenza di un sistema TD LTI) La risposta in frequenza H(ν ) di un sistema LTI a TD, definita dalla (4.104), è periodica di periodo unitario, ossia: H(ν ) = H(ν + 1) ,
∀ν ∈ R .
Prova. La prova è banale, e discende direttamente dalla definizione (4.104) e dalla periodicità in frequenza dei fasori TD. Calcolando direttamente H(ν + 1), si ha: H(ν + 1) =
+∞
∑
h(k) e− j2π (ν +1)k =
k=−∞
+∞
∑
k=−∞
j2π k h(k) e− j2πν k e− = =1
+∞
∑
h(k) e− j2πν k = H(ν ) ,
k=−∞
come si voleva dimostrare.
Anche nel caso TD, supposto H(ν ) finita, la prop. 4.10 consente di fornire una definizione della risposta in frequenza alternativa alla (4.104), e precisamente: y(n) (4.106) H(ν ) = x(n) x(n)=e j2πν n ovvero come rapporto tra l’uscita e l’ingresso quando l’ingresso è un fasore a frequenza ν , avente ampiezza unitaria e fase iniziale nulla. Questa definizione è di grande utilità per ricavare direttamente la risposta armonica di un sistema LTI descritto da una equazione alle differenze lineare a coefficienti costanti (cfr § 4.6.2), come dimostrato dall’esempio seguente. Esempio 4.20 (risposta in frequenza di un sistema AR del primo ordine) Consideriamo il sistema AR dell’es. 4.17, descritto dalla seguente equazione alle differenze: y(n) = a y(n − 1) + b x(n) .
(4.107)
Abbiamo visto nell’es. 4.17 che, nell’ipotesi di condizioni iniziali nulle, ossia y(−1) = 0, tale equazione alle differenze definisce univocamente un sistema LTI causale, avente risposta impulsiva h(n) = b an u(n), che risulta stabile se |a| < 1. Invece di sostituire l’espressione di h(n) nella (4.104), utilizziamo la (4.99), ossia sostituiamo x(n) = e j2πν n e y(n) = H(ν ) e j2πν n nella (4.107). Si ha: H(ν ) e j2πν n = a H(ν ) e j2πν (n−1) + b e j2πν n , da cui raggruppando i termini si ottiene: H(ν ) 1 − a e− j2πν e j2πν n = b e j2πν n . Affinché l’uguaglianza precedente sia verificata per ogni n ∈ Z, deve risultare: H(ν ) 1 − a e− j2πν = b , da cui si ottiene infine la risposta in frequenza di un sistema AR del primo ordine: H(ν ) =
b . 1 − a e− j2πν
Bisogna osservare che il procedimento seguito è corretto solo nell’ipotesi che la funzione H(ν ) definita dalla (4.104) esiste finita; abbiamo visto che una condizione sufficiente affinché ciò accada è che h(n) sia sommabile
4.7 Risposta in frequenza di un sistema LTI
189
2 |H(ν)|
|H(ν)|
2 1 0 −2
−1
0 ν
1
0 −2
2
−1
0 ν
1
2
−1
0 ν
1
2
1 ∠ H(ν)
∠ H(ν)
1 0 −1 −2
1
0 −1
−1
0 ν
1
2
Fig. 4.33. Risposta in frequenza di un sistema AR del primo ordine (es. 4.20) per a = 0.5: risposta in ampiezza (in alto); risposta in fase (in basso). Si noti che le risposte sono periodiche di periodo 1.
−2
Fig. 4.34. Risposta in frequenza di un sistema AR del primo ordine (es. 4.20) per a = −0.5: risposta in ampiezza (in alto); risposta in fase (in basso). Si noti che le risposte sono periodiche di periodo 1.
(sistema stabile), il che accade se e solo se |a| < 1. La risposta in ampiezza e la risposta in fase del sistema AR si ottengono applicando semplici risultati di algebra dei numeri complessi, e si possono esprimere come |H(ν )| = $
|b|
[1 − a cos(2πν )]2 + a2 sin2 (2πν ) a sin(2πν ) , H(ν ) = b − arctan 1 − a cos(2πν )
=#
|b| 1 + a2 − 2 a
cos(2πν )
,
che sono rappresentate graficamente in fig. 4.33 per a = 0.5 e b = 1, ed in fig. 4.34 per a = −0.5 e b = 1. Abbiamo rappresentato modulo e fase nell’intervallo ν ∈ (−2, 2), per evidenziare la periodicità di H(ν ) con periodo unitario; in pratica tenendo conto di questa osservazione sarebbe stato sufficiente rappresentare modulo e fase in un qualunque intervallo di ampiezza unitaria, come ν ∈ (0, 1) oppure ν ∈ (−1/2, 1/2). Una differenza importante che emerge dal confronto tra gli spettri di ampiezza per a = 0.5 e a = −0.5 è il fatto che nel primo caso si ha un massimo per ν = 0 (e, per la periodicità, per tutti i punti ν = k, k ∈ Z), mentre nel secondo caso si ha un massimo per ν = 12 (e, per la periodicità, per tutti i punti ν = 12 + k, k ∈ Z). Ricordando (cfr. § 2.3.3) che nel caso TD le frequenze ν = 12 + k, k ∈ Z, rappresentano quelle dei fasori più rapidamente variabili (e quindi vanno considerate come le alte frequenze nel caso TD), possiamo concludere che per a = −0.5 (ma più in generale, per −1 < a < 0) il sistema LTI si comporta come un filtro passaalto, mentre per a = 0.5 (più in generale, per 0 < a < 1) il sistema si comporta come un filtro passabasso.
La proprietà 4.10 e l’es. 4.20 mostrano che un sistema LTI, anche nel caso TD, tratta selettivamente i fasori in ingresso a secondo della frequenza ν (selettività in frequenza dei sistemi LTI). In particolare, se la risposta in frequenza si annulla alla frequenza ν , un fasore a frequenza ν è completamente soppresso dal sistema, nel senso che la corrispondente uscita è nulla. Anche nel caso TD, inoltre, se h(n) è una funzione reale (sistema reale), la H(ν ) gode della proprietà di simmetria hermitiana: H ∗ (ν ) = H(−ν ) ,
(4.108)
che si può esprimere equivalentemente, come nel caso TC, dicendo che il modulo è una funzione pari di ν , e la fase una funzione dispari di ν (a meno di multipli di 2π ). Ad esempio, si può verificare analiticamente che la risposta in frequenza H(ν ) dell’es. 4.20 soddisfa la (4.108), e d’altra parte
190
Sistemi lineari tempo-invarianti (LTI)
dalle fig. 4.33 e 4.34 appare chiaro che lo spettro di ampiezza ha simmetria pari, e quello di fase ha simmetria dispari. Concludiamo sottolineando che le relazioni i-u per i fasori viste in questa sezione (prop. 4.9 per il caso TC e 4.10 per il caso TD) sono di grande importanza teorica per il seguito della trattazione, e saranno frequentemente utilizzate nei capitoli seguenti. 4.7.3 Risposta ad una sinusoide di un sistema LTI reale
Data la relazione lineare esistente tra fasori e sinusoidi (formule di Eulero), è semplice ricavare le relazioni i-u per le sinusoidi in ingresso a sistemi LTI applicando il principio di sovrapposizione. Si consideri, ad esempio, il segnale sinusoidale TC a frequenza f0 ∈ R: x(t) = A cos(2π f0t + ϕ0 ) . Applicando la formula di Eulero, esso può essere espresso come sovrapposizione di due fasori: x(t) =
A j(2π f0t+ϕ0 ) A − j(2π f0t+ϕ0 ) A jϕ0 j2π f0t A − jϕ0 − j2π f0t e + e = e e + e e . 2 2 2 2
Notando che le quantità A2 e jϕ0 e A2 e− jϕ0 sono delle semplici costanti moltiplicative complesse (non dipendenti cioè dal tempo t), è possibile applicare il principio di sovrapposizione (3.23) e successivamente la (4.97), ottenendo: y(t) =
A A jϕ0 e H( f0 ) e j2π f0t + e− jϕ0 H(− f0 ) e− j2π f0t . 2 2
In generale, la precedente relazione non fornisce un segnale y(t) reale. Se però il sistema LTI è reale, la H( f ) gode della proprietà di simmetria hermitiana (4.101), per cui la relazione precedente si semplifica notevolmente, evidenziando che il segnale y(t) è reale.17 Infatti, poiché H ∗ ( f0 ) = H(− f0 ), i due addendi della precedente relazione sono uno il coniugato dell’altro, per cui si ha: A j(2π f0 t+ϕ0 ) = A |H( f0 )| cos[2π f0t + ϕ0 + H( f0 )] . H( f0 ) e y(t) = 2 Re 2 La relazione trovata mostra che l’uscita y(t) corrispondente ad una sinusoide a frequenza f0 è ancora una sinusoide alla stessa frequenza, con ampiezza modificata da |H( f0 )| e fase modificata da H( f0 ). Un ragionamento analogo si può effettuare per la funzione seno, e quindi sinteticamente è possibile enunciare la proprietà seguente: Proprietà 4.12 (risposta ad una sinusoide di un sistema TC LTI) Si consideri una sinusoide (coseno o seno) a frequenza f0 ∈ R, in ingresso ad un sistema TC LTI con risposta impulsiva reale h(t), per il quale H( f ) definita dalla (4.96) esiste finita per f = f0 . Valgono le seguenti relazioni i-u: x(t) = A cos(2π f0t + ϕ0 ) −→ y(t) = A |H( f0 )| cos[2π f0t + ϕ0 + H( f0 )] ;
(4.109)
x(t) = A sin(2π f0t + ϕ0 ) −→ y(t) = A |H( f0 )| sin[2π f0t + ϕ0 + H( f0 )] .
(4.110)
17 D’altra
parte, un sistema reale sollecitato da un segnale di ingresso reale deve necessariamente restituire in uscita un segnale reale.
4.7 Risposta in frequenza di un sistema LTI
191
in1
generatore sinusoidale x(t)
circuito elettrico
y(t)
in2
f 0 (variabile ) oscilloscopio a doppia traccia
Fig. 4.35. Schema di principio per la misura della risposta in frequenza di un circuito elettronico (es. 4.21).
Si può immediatamente osservare che, se H( f0 ) = 0, allora l’uscita corrispondente ad un segnale di ingresso sinusoidale/cosinusoidale a frequenza f0 è identicamente nulla. Notiamo in effetti che la (4.110) si può ottenere come caso particolare della (4.109) introducendo un opportuno sfasamento di π /2. Inoltre, la prop. 4.12 vale con ovvi cambi di notazione anche per il caso tempo-discreto, ed è riportata di seguito per completezza, lasciando al lettore gli ovvi passaggi per la sua dimostrazione: Proprietà 4.13 (risposta ad una sinusoide di un sistema TD LTI) Si consideri una sinusoide (coseno o seno) a frequenza ν0 ∈ R, in ingresso ad un sistema TD LTI con risposta impulsiva reale h(n), per il quale H(ν ) definita dalla (4.104) esiste finita per ν = ν0 . Valgono le seguenti relazioni i-u: x(n) = A cos(2πν0 n + ϕ0 ) −→ y(n) = A |H(ν0 )| cos[2πν0t + ϕ0 + H(ν0 )] ;
(4.111)
x(n) = A sin(2πν0t + ϕ0 ) −→ y(n) = A |H(ν0 )| sin[2πν0t + ϕ0 + H(ν0 )] .
(4.112)
Analogamente al caso TC, se H(ν0 ) = 0, allora l’uscita corrispondente ad un segnale di ingresso sinusoidale/cosinusoidale a frequenza ν0 è identicamente nulla. Esempio 4.21 (misura sperimentale della risposta in frequenza di un circuito elettrico) La prop. 4.12 è alla base di una semplice tecnica sperimentale utilizzata per la determinazione della risposta in frequenza di un circuito elettrico. Si consideri lo schema di misura di fig. 4.35, nel quale si collega un generatore sinusoidale (con frequenza f0 variabile) all’ingresso del circuito elettrico da analizzare; un oscilloscopio a doppia traccia, capace cioè di rappresentare due segnali su uno stesso visore, viene collegato all’ingresso e all’uscita del circuito, in modo che da rappresentare i segnali x(t) e y(t) sovrapposti (fig. 4.35). Posto x(t) = Ax cos(2π f0t + ϕx ) e y(t) = Ay cos(2π f0t + ϕy ), notiamo che per la proprietà 4.12 si ha Ay = |H( f0 )|Ax e ϕy = ϕx + H( f0 ). Pertanto confrontando le ampiezze dei segnali si può calcolare il valore di |H( f0 )| come |H( f0 )| =
Ay , Ax
mentre calcolando la differenza temporale ∆t = ty − tx esistente tra le due sinusoidi (ad esempio, considerando due attraversamenti dell’origine con pendenza positiva), è semplice risalire allo sfasamento H( f0 ) = ϕy − ϕx introdotto dal sistema risolvendo una semplice proporzione:
ϕy − ϕx ty − tx ∆t = = 2π T0 T0
=⇒
H( f0 ) = ϕy − ϕx = 2π
∆t = 2π ∆t f0 . T0
In definitiva, sollecitando il circuito con una sinusoide a frequenza f0 possiamo ricavare la risposta in ampiezza ed in fase del sistema alla frequenza f0 . Variando la frequenza f0 del generatore (a scatti oppure in maniera
192
Sistemi lineari tempo-invarianti (LTI)
continua), è possibile ripetere la procedura vista in corrispondenza di più valori di frequenza, in modo da ottenere un campionamento sufficientemente fitto della funzione H( f ), e ricavare la H( f ) mediante interpolazione numerica o grafica. La tecnica vista si può estendere anche a sistemi di natura diversa da quella elettrica (ad esempio, a sistemi meccanici), a patto di disporre di opportuni trasduttori ed attuatori.
4.8 Esercizi proposti
193
4.8 Esercizi proposti Esercizio 4.1 Determinare e diagrammare la risposta impulsiva dei seguenti sistemi LTI. Successivamente, dall’esame della risposta impulsiva, stabilire se il sistema è non dispersivo, causale, stabile. (a) y(t) =
t −∞
x(τ ) dτ .
(b) y(t) = 3 x(t) + 5 x(t − 2).
+∞ τ − 0.5T rect (c) y(t) = x(t − τ ) dτ T −∞ (d) y(t) = (e) y(t) = (f) y(t) = (g) y(t) =
T
x(t − τ ) dτ
0
t
x(τ ) dτ
t−T t+T t
1 π
t −τ
−∞
(T ∈ R+ ). (T ∈ R+ ).
x(τ ) dτ
+∞ x(τ )
(T ∈ R+ ).
(T ∈ R+ ). dτ
(trasformata di Hilbert).
[Suggerimento: per determinare h(t) applicare x(t) = δ (t) e semplificare utilizzando le proprietà dell’impulso; in alternativa cercare di esprimere direttamente la relazione tra y(t) ed x(t) come una convoluzione.] Risultato: (a) h(t) =u(t), dispersivo, causale, instabile; (b) h(t) = 3 δ (t) + 5 δ (t − 2), dispersivo,causale, , dispersivo, causale, stabile; (d) come (c); (e) come (c); (f) h(t) = rect t+0.5T , stabile; (c) h(t) = rect t−0.5T T T dispersivo, non causale, stabile; (g) h(t) = 1/(π t), dispersivo, non causale, instabile. Esercizio 4.2 Determinare e diagrammare la risposta impulsiva dei seguenti sistemi LTI. Successivamente, dall’esame della risposta impulsiva, stabilire se il sistema è non dispersivo, causale, stabile. (a) y(n) = x(n) + 2 x(n − 1) − 3x(n − 2). (b) y(n) =
n
∑
x(k).
k=−∞
(c) y(n) =
M2
∑
(−1)k x(n − k) (M1 , M2 ∈ N).
k=−M1
(d) y(n) =
∑
x(n − k).
|k|≤3
(e) y(n) = (f) y(n) =
+∞
∑ x(n − k).
k=0 +∞
1 x(n − k). |k| k = −∞
∑
k = 0
(g) y(n) =
+∞
∑
k=−∞
1 x(n − k). 1 + |k|
[Suggerimento: vedi esercizio precedente.] Risultato: (a) h(n) = δ (n) + 2δ (n − 1) − 3δ (n − 2), dispersivo, causale, stabile; (b) h(n) = u(n), dispersivo, causale, instabile; (c) h(n) =
M2
∑
k=−M1
(−1)k δ (n − k), dispersivo, non causale, stabile; (d) h(n) =
∑
|k|≤3
δ (n − k),
194
Sistemi lineari tempo-invarianti (LTI)
dispersivo, non causale, stabile; (e) come (b); (f) h(n) = h(n) =
0, 1 |n|
n=0 , n = 0
, dispersivo, non causale, instabile; (g)
1 , dispersivo, non causale, instabile. 1 + |n|
Esercizio 4.3 Utilizzando le proprietà degli impulsi e quelle della convoluzione, semplificare il più possibile le seguenti espressioni: (a) δ (t) ∗ δ (t). (b) δ (t − 5) ∗ x(t + 5). (c) δ (n) ∗ δ (n − 2). +∞
(d)
∑
δ (t − kT0 ) ∗ x(t).
k=−∞ +∞
(e)
∑
! !
δ (n − kN0 ) ∗ x(n).
k=−∞
(f) δ (2t) ∗ x(t). (g) δ (2n) ∗ x(n). Risultato: (a) δ (t); (b) x(t); (c) δ (n − 2); (d)
+∞
∑
x(t − kT0 ) = repT0 [x(t)]; (e)
k=−∞
+∞
∑
x(n − kN0 ) = repN0 [x(n)];
k=−∞
(f) 12 x(t); (g) x(n). Esercizio 4.4 Siano x(n) = δ (n) + 2δ (n − 1) − δ (n − 3) e h(n) = 2δ (n + 1) + 2δ (n − 1). Adoperando le proprietà della convoluzione, calcolare e diagrammare le seguenti convoluzioni: (a) (b) (c) (d)
y1 (n) = x(n) ∗ h(n). y2 (n) = x(n + 2) ∗ h(n). y3 (n) = x(n) ∗ h(n + 2). y4 (n) = x(n − 2) ∗ h(n + 2).
Risultato: (a) y1 (n) = 2δ (n + 1) + 4δ (n) + 2δ (n − 1) + 2δ (n − 2) − 2δ (n − 4); (b) y2 (n) = y1 (n + 2); (c) y3 (n) = y2 (n); (d) y4 (n) = y1 (n). Esercizio 4.5 Il segnale di ingresso x(n) e la risposta impulsiva h(n) di un sistema LTI sono dati da: n−2 1 x(n) = u(n − 2) e 2
h(n) = u(n + 2) .
Determinare analiticamente e rappresentare graficamente il segnale di uscita y(n). [Suggerimento: applicare la proprietà di invarianza temporale della convoluzione.] n+1 u(n). Risultato: y(n) = 2 1 − 12 Esercizio 4.6 Un sistema LTI avente risposta impulsiva h(t) = eat u(t) con a ∈ R − {0} è sollecitato dall’ingresso x(t) = ebt u(t) con b ∈ R − {0}. Calcolare l’uscita y(t) del sistema. at 1 e − ebt u(t) per a = b. Risultato: y(t) = t eat u(t) per a = b; y(t) = a−b
4.8 Esercizi proposti
195
Esercizio 4.7 Un sistema LTI avente risposta impulsiva h(n) = an u(n) con a ∈ R − {0} è sollecitato dall’ingresso x(n) = bn u(n) con b ∈ R − {0}. Calcolare l’uscita y(n) del sistema. n+1 1 a Risultato: y(n) = (n + 1) bn u(n) per a = b; y(n) = a−b − bn+1 u(n) per a = b. Esercizio 4.8 Il segnale di ingresso x(t) e la risposta impulsiva h(t) di un sistema LTI sono dati da:
t − T /2 −t/T (a) x(t) = e u(t) ed h(t) = rect , con T ∈ R+ . T (b) x(t) = 2 u(t − 1) + 2 u(t − 3) ed h(t) = u(t + 1) − 2 u(t − 1) + u(t − 3). Determinare analiticamente e rappresentare graficamente il segnale di uscita y(t). per t < 0 , 0 , −t/T Risultato: (a) y(t) = T (1 − e ), per 0 ≤ t ≤ T , −t/T (e − 1) , per t > T . Te 0, per t < 0 , per 0 ≤ t < 2 , 2t , (b) y(t) = 4 , per 2 ≤ t < 4 , 12 − 2t , per 4 ≤ t < 6 , 0 , per t ≥ 6 . Esercizio 4.9 Il segnale di ingresso x(t) e la risposta impulsiva h(t) di un sistema LTI sono dati da: (a) x(t) = e−|t| ed h(t) = e−2 (t+1) u(t + 1). (b) x(t) = 2(1 − t) [u(t) − u(t − 1)] ed h(t) = u(t) − u(t − 2). Determinare analiticamente e rappresentare graficamente il segnale di uscita y(t). 13 e(t+1) , per t ≤ −1 , Risultato: (a) y(t) = −(t+1) 2 −2 (t+1) −3e , per t > −1 . e 0, per t ≤ 0 , 2 2t − t , per 0 < t ≤ 1 , (b) y(t) = 1 , per 1 < t ≤ 2 , 2 9 − 6t + t , per 2 < t < 3 , 0 , per t ≥ 3 . Esercizio 4.10 Il segnale di ingresso x(n) e la risposta impulsiva h(n) di un sistema LTI sono dati da: (a) x(n) = u(n) ed h(n) = an u(−n − 1), con a > 1. (b) x(n) = e j 2πν0 n R10 (n) ed h(n) = bn u(n), con |b| < 1. (c) x(n) = bn e j 2πν0 n u(n) ed h(n) = R5 (n), con |b| < 1. Determinare analiticamente e rappresentare graficamente il segnale di uscita y(n). n a , per n ≤ −1 , 1−1/a Risultato: (a) y(n) = 1/a , per n > −1 . 1−1/a
196
Sistemi lineari tempo-invarianti (LTI)
per n < 0 , 0 , e j2πν0 (n+1) 1− n bn+1 b , per 0 ≤ n < 9 , j2πν (b) y(n) = 1− e b 0 j2πν 10 1− e 100 b bn , per n ≥ 9 . e j2πν0 1−
(c) y(n) =
0 ,
b
1−an+1 1−a , n 1−(1/a)5 a 1−(1/a)
per n < 0 , per 0 ≤ n < 4 ,
dove a = b e j2πν0 .
, per n ≥ 4 .
Esercizio 4.11 Senza calcolare la convoluzione, utilizzando il risultato ottenuto al punto (a) dell’esercizio precedente e sfruttando la proprietà di linearità e invarianza temporale, determinare l’uscita del sistema LTI quando la risposta impulsiva h(n) e il segnale di ingresso x(n) sono dati da: (a) x(n) = u(n − 4) ed h(n) = 2n u(−n − 1). (b) x(n) = R10 (n) ed h(n) = 2n u(−n − 1).
Risultato: (a) y(n) =
2(n−3) , per n ≤ 3 ,
1, per n > 3 . (n+1) − 2(n−9) , per n ≤ −1 , 2 (b) y(n) = 1 − 2(n−9) , per −1 < n ≤ 9 , 0 , per n > 9 .
Esercizio 4.12 Questo esercizio introduce ulteriori proprietà della convoluzione. Mostrare che le seguenti proprietà sono vere: d d x(t) è y(t). dt dt (b) Detta y(n) la risposta di un sistema LTI all’ingresso x(n), la risposta all’ingresso ∇1 [x(n)] è ∇1 [y(n)]. (a) Detta y(t) la risposta di un sistema LTI all’ingresso x(t), la risposta all’ingresso
Le relazioni precedenti vanno sotto il nome di proprietà di derivazione della convoluzione: d d d [x(t) ∗ h(t)] = x(t) ∗ h(t) = x(t) ∗ h(t) dt dt dt ∇1 [x(n) ∗ h(n)] = [∇1 x(n)] ∗ h(n) = x(n) ∗ [∇1 h(n)] La seconda espressione si ottiene facilmente sfruttando la proprietà commutativa. Osservazione. La verifica della proprietà nel caso TC richiede qualche cautela dal punto di vista matematico. Infatti, se −∞ < a < b < +∞ ed f (t, τ ) è una arbitraria funzione di due variabili derivabile rispetto a t, come conseguenza del criterio di Leibnitz, si ha: d dt
b a
f (t, τ )dτ =
b d a
dt
[ f (t, τ )] dτ ,
ovvero è possibile scambiare l’ordine tra le operazioni di derivazione ed integrazione senza alcun problema. Se gli estremi di integrazioni sono infiniti, cioè a = −∞ e b = +∞, tale scambio non è sempre possibile. Lo studio dettagliato di tale problema richiede la conoscenza della teoria della misura, la cui trattazione esula
4.8 Esercizi proposti
197
dagli scopi di questo corso. Qui ci limitiamo a richiamare il seguente risultato: se esiste una funzione g(t, τ ) integrabile su R rispetto a τ e un costante ε > 0, tale per cui: d f (t, τ ) ≤ g(t, τ ) , per ogni t0 ∈ R tale che |t0 − t| ≤ ε , dt t=t0 allora d dt
+∞ −∞
f (t, τ )dτ =
+∞ d −∞
dt
[ f (t, τ )] dτ .
Esercizio 4.13 Calcolare e diagrammare la risposta al gradino e la risposta impulsiva del sistema LTI avente relazione i-u: y(t) =
t t−1
[x(τ ) − x(τ − 1)] dτ .
Risultato: s(t) = Λ(t − 1); h(t) = rect(t − 0.5) − rect(t − 1.5). Esercizio 4.14 Calcolare e diagrammare la risposta al gradino s(n) del sistema LTI avente relazione i-u y(n) = x(n + 1) − 2 x(n) + x(n − 1) Successivamente, utilizzando s(n), calcolare e diagrammare la risposta y(n) del sistema al segnale di ingresso x(n) = R2 (n) − R2 (n − 2). Risultato: s(n) = δ (n + 1) − δ (n); y(n) = δ (n + 1) − δ (n) − 2δ (n − 1) + 2δ (n − 2) + δ (n − 3) − δ (n − 4). Esercizio 4.15 Per ognuno dei seguenti sistemi LTI con risposta impulsiva h(t), stabilire se il sistema è non dispersivo, causale e stabile: h(t) = e−4t u(t − 2). h(t) = e−6t u(3 − t). h(t) = e−2t u(t + 2). h(t) = e2t u(−1 − t). h(t) = e−6|t| . h(t) = t e−t u(t). (g) h(t) = 2 e−t − e(t−100)/100 u(t).
(a) (b) (c) (d) (e) (f)
Risultato: (a) il sistema è dispersivo, causale, stabile; (b) il sistema è dispersivo, non causale, instabile; (c) il sistema è dispersivo, non causale, stabile; (d) il sistema è dispersivo, non causale, stabile; (e) il sistema è dispersivo, non causale, stabile; (f) il sistema è dispersivo, causale, stabile; (g) il sistema è dispersivo, causale, instabile; Esercizio 4.16 Per ognuno dei seguenti sistemi LTI con risposta impulsiva h(n), stabilire se il sistema è non dispersivo, causale e stabile: (a) (b) (c) (d)
h(n) = (1/2)n u(n). h(n) = 4n u(n). h(n) = (1/3)n u(n) + 3n u(−n − 1). h(n) = (1/2)|n| .
198
Sistemi lineari tempo-invarianti (LTI)
(e) h[n] = sin
nπ
u(n). 3 (f) h(n) = 2 u(n + 5) − u(n) − u(n − 5).
(g) h(n) = n (1/3)n u(n − 1). Risultato: (a) il sistema è dispersivo, causale, stabile; (b) il sistema è dispersivo, causale, instabile; (c) il sistema è dispersivo, non causale, stabile; (d) il sistema è dispersivo, non causale, stabile; (e) il sistema è dispersivo, causale, instabile; (f) il sistema è dispersivo, non causale, stabile; (g) il sistema è dispersivo, causale, stabile. Esercizio 4.17 Si consideri il sistema LTI avente risposta impulsiva 1 h(t) = δ (t) + δ (t − T ) , 2 con T > 0. Si può dimostrare che tale sistema è invertibile e che il sistema inverso ha risposta impulsiva hinv (t) =
+∞
∑ gk δ (t − kT ). Ricavare l’espressione dei coefficienti gk .
k=0
[Suggerimento: studiare l’equazione h(t) ∗ hinv (t) = δ (t) nelle incognite gk .] Risultato: gk = (−1)k 21k , k ∈ N0 . Esercizio 4.18 Si consideri il sistema S descritto dalla seguente relazione i-u: y(n) =
+∞
∑
x(k) g(n − 2k) ,
k=−∞
dove g(n) = R4 (n). (a) Calcolare y(n) quando x(n) = δ (n − 1). (b) Calcolare y(n) quando x(n) = δ (n − 2). (c) Sulla base dei risultati dei punti (a) e (b), stabilire se S può essere un sistema LTI. (d) Verificare che S si può interpretare come la cascata (nell’ordine) di un espansore per L (con L da determinare) e di un sistema LTI con risposta impulsiva h(n) = g(n). Risultato: (a) y(n) = R4 (n − 2); (b) y(n) = R4 (n − 4); (c) non è LTI; (d) si prova effettuando il cambiamento di variabile h = 2k nella sommatoria e ricordando le proprietà dell’espansione, si trova L = 2. Esercizio 4.19 Si consideri il sistema S descritto dalla seguente relazione i-u: y(n) =
+∞
∑
x(2k) g(n − k) ,
k=−∞
dove g(n) = R3 (n). (a) Calcolare y(n) quando x(n) = δ (n − 1). (b) Calcolare y(n) quando x(n) = δ (n − 2). (c) Sulla base dei risultati dei punti (a) e (b), stabilire se S può essere un sistema LTI. Risultato: (a) y(n) ≡ 0; (b) y(n) = R3 (n − 1); (c) non è LTI.
4.8 Esercizi proposti
199
Esercizio 4.20 Si consideri la connessione in cascata dei due sistemi LTI causali aventi risposte impulsive h1 (n) ed h2 (n), rispettivamente, con h1 (n) = R2 (n). Sapendo che la risposta impulsiva del sistema complessivo è h(n) = δ (n) + 4δ (n − 1) − 4δ (n − 2) − 2δ (n − 3) + 5δ (n − 4), determinare la risposta impulsiva h2 (n) (si noti che questo equivale ad effettuare una deconvoluzione). Risultato: h2 (n) = δ (n) + 3δ (n − 1) − 7δ (n − 2) + 5δ (n − 3). Esercizio 4.21 Si consideri la seguente interconnessione di sistemi LTI:
w1(t) h1(t)
+
w(t)
x(t)
h3(t)
y 3(t)
+ y(t)
+ h2(t)
-
w2(t) y 4(t)
h4(t) Sistema complessivo
Le risposte impulsive dei sistemi sono le seguenti: h1 (t) = u(t) ,
h2 (t) = u(t + 2) − u(t) ,
h3 (t) = δ (t − 2) ,
h4 (t) = eat u(t) ,
dove a è un numero reale negativo. (a) Classificare, motivando brevemente le risposte, ciascuno dei sistemi sopra riportati sulla base delle loro proprietà (non dispersività, causalità e stabilità). (b) Determinate la risposta impulsiva h(t) del sistema complessivo avente come ingresso ed uscita i segnali x(t) e y(t), rispettivamente, e discuterne le proprietà (non dispersività, causalità e stabilità). Risultato: (a) il sistema h1 (t) è dispersivo, causale, instabile; il sistema h2 (t) è dispersivo, non causale, stabile; il sistema h3 (t) è dispersivo, causale, stabile; il sistema h4 (t) è dispersivo, causale, stabile; (b) h(t) = (1−eat ) u(t), il sistema è dispersivo, causale, instabile. Esercizio 4.22 I quattro sistemi LTI in figura sono caratterizzati dalle seguenti risposte impulsive: h1 (t) = h3 (t) = δ (t − 1) ,
h1(t)
h2 (t) = e−2t u(t) e
u1(t)
+
w 3(t)
h3(t)
h4 (t) = e−3 (t+2) u(t + 2) .
u3(t)
x(t) h2(t)
u2(t) Sistema complessivo
h4(t)
u4(t) + +
y(t)
200
Sistemi lineari tempo-invarianti (LTI)
(a) Calcolare la risposta impulsiva h(t) del sistema complessivo [avente x(t) come ingresso e y(t) come uscita]. (b) Classificare il sistema complessivo, motivando brevemente le risposte, sulla base delle sue proprietà di non dispersività, causalità e stabilità. ) ( Risultato: (a) h(t) = e−2(t+1) − e−3(t+1) u(t + 1) + e−3t + e−2t u(t); (b) il sistema è dispersivo, non causale, stabile. Esercizio 4.23 Si considerino i seguenti tre sistemi TC: S1 : y(t) = x(2t) (compressione di 2) ; S2 : h(t) = δ (t) − δ (t − 1) ; S3 : y(t) = x(t/2) (espansione di 2) . (a) Determinare il legame ingresso/uscita del sistema costituito dalla cascata S1-S2-S3 (nell’ordine) e stabilire se è lineare, non dispersivo, causale, invariante temporalmente, stabile. (b) Ripetere il calcolo del punto (a) con riferimento alla cascata S3-S2-S1 (nell’ordine). Risultato: (a) detti x(t) e y(t) i segnali in ingresso e uscita alla cascata, rispettivamente, il legame ingresso/uscita è y(t) = x(t) − x(t − 2) nel caso (a), y(t) = x(t) − x(t − 0.5) nel caso (b). Entrambi i sistemi sono lineari, dispersivi, causali, invarianti temporalmente e stabili. Esercizio 4.24 Si consideri la seguente interconnessione di sistemi: u(t) S1
x(t)
v(t) h(t)
S2
y(t)
t , con T > 0, mentre i due sistemi S1 e 2T S2 sono caratterizzati dalle relazioni ingresso/uscita u(t) = x(t/3) e y(t) = v(at), rispettivamente, con a ∈ R.
dove il sistema al centro è LTI con risposta impulsiva h(t) = rect
(a) Determinare la relazione ingresso/uscita del sistema complessivo e discuterne brevemente le proprietà (linearità, non dispersività, causalità e stabilità). (b) Determinare il valore di a in corrispondenza del quale il sistema complessivo è LTI. (c) Calcolare la risposta impulsiva h(t) del sistema complessivo per il valore di a determinato al punto (b).
T
at − τ 3
d τ ; il sistema è lineare, dispersivo, non causale, stabile; (b) il sistema è
3t lineare per ogni a; in generale è tempo-variante, eccetto che nel caso in cui a = 3; (c) h(t) = 3 rect . 2T Risultato: (a) y(t) =
−T
x
Esercizio 4.25 Si consideri il sistema LTI avente risposta impulsiva: n j u(n) . h(n) = 2 (a) Determinare la risposta y(n) del sistema al segnale di ingresso x(n) = cos(π n) u(n). (b) Determinare un’espressione semplificata della risposta y(n) per n → +∞. Risultato: (a) y(n) = (−1)
n
! (−1)n 1 − (− j/2)(n+1) u(n); (b) per n → +∞, y(n) ≈ . 1 + j/2 1 + j/2
4.8 Esercizi proposti
201
Esercizio 4.26 Si consideri il circuito RC di fig. 4.36, con costante di tempo T = RC = 1s. Supponendo che il sistema sia inizialmente in quiete (il sistema è quindi LTI), nell’ipotesi in cui la tensione di ingresso sia data da
t −1 x(t) = e−3t rect , 2 determinare analiticamente e rappresentare graficamente la tensione di uscita y(t) ai capi del condensatore. 0, per t < 0 , Risultato: y(t) = 0.5 (1 − e−2t ) e−t , per 0 ≤ t < 2 , 0.5 (1 − e−4 ) e−t , per t ≥ 2 . Esercizio 4.27 Si consideri il circuito CR di fig. 4.36, dove la tensione x(t) ai capi della serie CR è il segnale di ingresso, e la tensione y(t) ai capi della resistenza è il segnale di uscita. (a) Determinare l’equazione differenziale che lega x(t) ed y(t). (b) Determinare la soluzione omogenea dell’equazione differenziale determinata al punto (a). (c) Determinare l’evoluzione libera del sistema supponendo che y(0) = y0 . (d) Determinare l’evoluzione forzata del sistema quando l’ingresso è x(t) = t u(t) (rampa). (e) Stabilire sotto quali condizioni il sistema CR è un sistema LTI e determinare la sua risposta al gradino e la sua risposta impulsiva. (f) Studiare le proprietà (non dispersività, causalità, stabilità) del sistema LTI determinato al punto (e). [Suggerimento: per il punto (e), notare che essendo il gradino la derivata della rampa, la risposta al gradino sarà la derivata della risposta alla rampa.] d 1 d Risultato: (a) y(t) + y(t) = x(t), con T = RC; (b) y0 (t) = c1 e−t/T ; (c) ylib (t) = y0 e−t/T ; (d) yfor (t) = dt T dt d T 1 − e−t/T u(t) (risposta alla rampa); (e) il sistema è LTI se y0 = 0; s(t) = yfor (t) = e−t/T u(t); h(t) = dt d 1 s(t) = δ (t) − e−t/T u(t); (f) il sistema è dispersivo, causale, stabile. dt T Esercizio 4.28 Il segnale di ingresso x(n) e quello di uscita y(n) di un sistema LTI causale sono legati dalla seguente equazione alle differenze: y(n) + a−1 y(n − 1) = x(n − 1) , con a ∈ R. Determinare la risposta impulsiva h(n) del sistema e stabilire se esso è dispersivo, causale e stabile. [Suggerimento: Per calcolare h(n), porre x(n) = δ (n) e risolvere ricorsivamente l’equazione alle differenze con h(n) = y(n) ed h(−1) = 0.] Risultato: h(n) = (1/a)n−1 u(n − 1), sistema dispersivo, causale, stabile se e solo se |a| > 1. Esercizio 4.29 Si consideri un sistema ARMA descritto dall’equazione alle differenze 2y(n) − y(n − 1) + y(n − 3) = x(n) − 5x(n − 4) . (a) Disegnare lo schema implementativo del sistema in forma diretta I. (b) Disegnare lo schema implementativo del sistema in forma diretta II. (c) Disegnare lo schema implementativo del sistema in forma canonica.
202
Sistemi lineari tempo-invarianti (LTI)
Esercizio 4.30 Si consideri il sistema LTI avente relazione i-u y(t) = x(t) − x(t − T ), con T > 0. Calcolare la risposta in frequenza del sistema, ed utilizzarla quando possibile per calcolare la risposta del sistema ai seguenti segnali applicati al suo ingresso: (a) x(t) = e j2π T . t
(b) x(t) = e jπ T . (c) x(t) = cos 2π Tt . t (d) x(t) = 2 sin 2π T + cos π Tt . (e) x(t) = cos 2π Tt u(t). t
t Risultato: (a) y(t) ≡ 0; (b) y(t) = 2e jπ T ; (c) y(t) ≡ 0; (d) y(t) = 2 cos π Tt ; (e) y(t) = cos 2π Tt rect t−0.5T . T Esercizio 4.31 Si considerino i sistemi TC S1 , S2 , S3 , le cui risposte al fasore x(t) = e j5t sono le seguenti: S1 : e j5t −→ te j5t ; S2 : e j5t −→ e j5(t−1) ; S3 : e j5t −→ cos(5t) . Stabilire se i tre sistemi possono essere LTI. Risultato: Solo il sistema S2 può essere LTI, i sistemi S1 e S3 non sono sicuramente LTI. Esercizio 4.32 Si considerino i sistemi TD S1 , S2 , S3 , le cui risposte al fasore x(n) = e jπ n/2 sono le seguenti: S1 : e jπ n/2 −→ e jπ n/2 u(n) ; S2 : e jπ n/2 −→ e j3π n/2 ; S3 : e jπ n/2 −→ 2 e j5π n/2 . Stabilire se i tre sistemi possono essere LTI. Risultato: Solo il sistema S3 può essere LTI, i sistemi S1 e S2 non sono sicuramente LTI. Esercizio 4.33 Nello schema di figura, il sistema S1 è descritto dalla relazione ingresso-uscita z(t) =
t −∞
x(u) du ,
ed il sistema S2 è descritto dalla risposta impulsiva h2 (t) = δ (t − T ), con T > 0. x(t)
-
+ -, − 6
z(t) S1
-
- y(t)
S2
(a) Determinare l’espressione esplicita del legame ingresso-uscita del sistema complessivo [avente x(t) come ingresso ed y(t) come uscita] ed individuarne le proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità). (b) Nel caso in cui il sistema complessivo determinato al punto (a) sia LTI, determinarne la risposta impulsiva h(t) e la risposta armonica H( f ).
4.8 Esercizi proposti
203
t (c) Assumendo che l’ingresso sia x(t) = 1 + δ (t) + cos 2π , calcolare l’uscita y(t) e rappresentarla grafiT camente. Risultato:
(a) y(t) =
t t−T
x(τ ) dτ , è un integratore con memoria finita, con le seguenti proprietà: linea-
re, dispersivo, causale, tempo-invariante, stabile); (b) il sistema è LTI, applicando x(t) = δ (t) si ha h(t) =
sin(π f T ) t − 0.5T 1 1 − e− j2π f T = e− jπ f T ; (c) y(t) = rect , applicando x(t) = e j2π f t si ha H( f ) = T j2 π f πf t−0.5T . rect T Esercizio 4.34 Nello schema di figura, il sistema S è caratterizzato dalla risposta impulsiva hS (t) = δ (t − T ) (T > 0). -,
x(t)
-,
6 -
S
- y(t)
6 -
S
(a) Determinare l’espressione esplicita del legame ingresso-uscita del sistema complessivo [avente x(t) come ingresso ed y(t) come uscita] ed individuarne le proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità). (b) Nel caso in cui il sistema complessivo determinato al punto (a) sia LTI, determinarne la risposta impulsiva h(t) e la risposta armonica H( f ). 1 t t (c) Assumendo che l’ingresso sia x(t) = + 5 cos 2π + 7 sin 4π , calcolare l’uscita y(t). 3 3T 3T Risultato: (a) y(t) = x(t) + x(t − T ) + x(t − 2T ); il sistema è lineare, dispersivo, causale, tempo-invariante, stabile; (b) il sistema è LTI, applicando x(t) = δ (t) si ha h(t) = δ (t) + δ (t − T ) + δ (t − 2T ), applicando x(t) = e j2π f t si ha H( f ) = 1 + e− j2π f T + e− j4π f T ; (c) y(t) ≡ 1. Esercizio 4.35 Si consideri il sistema LTI descritto dalla seguente relazione ingresso-uscita: y(t) = x(t) − x(t − T )
T ∈ R+ .
(a) Determinare la risposta in frequenza H( f ) del sistema e diagrammare accuratamente la risposta in ampiezza e la risposta in fase nell’intervallo di frequenze (−1/T, 1/T ). (b) Sfruttando i risultati del punto (a), calcolare l’uscita y(t) del sistema se in ingresso si pone il segnale
2π t 2π t x(t) = 3 + 2 cos + 4 cos 2T T Risultato: (a) H( f ) = 1 − e− j2π f T = 2 je− jπ f T sin(π f T ); (b) y(t) = 4 cos
2π t 2T
.
Esercizio 4.36 Si consideri il sistema LTI avente, con riferimento al periodo principale, la seguente risposta in frequenza: H(ν ) =
1 − e− j 4πν 1 + 0.5 e− j 8πν
per −0.5 < ν ≤ 0.5 .
Calcolare l’uscita y(n) corrispondente al segnale di ingresso x(n) = sin(0.25 π n). √ Risultato: y(n) = 2 2 sin(0.25 π (n + 1)).
204
Sistemi lineari tempo-invarianti (LTI)
R
R
L
C C
x(t)
y(t)
x(t)
Fig. 4.36. Circuito RC.
R
Fig. 4.37. Circuito CR.
y(t)
C
x(t)
y(t)
Fig. 4.38. Circuito RLC.
Esercizio 4.37 Si consideri il circuito CR di fig. 4.37, dove la tensione x(t) ai capi della serie CR è il segnale di ingresso, e la tensione y(t) ai capi del condensatore è il segnale di uscita. (a) Determinare l’equazione differenziale che lega x(t) ed y(t). (b) Supponendo che l’equazione differenziale definisca un sistema LTI stabile, determinare la sua risposta in frequenza H( f ). (c) Determinare la risposta in ampiezza ed in fase del sistema e rappresentarle graficamente. 1 d j2π f T d y(t) + y(t) = x(t), con T = RC; (b) H( f ) = ; dt T dt 1 +j2π f T π − arctan(2π f T ) , 2π | f |T , H( f ) = j + f − (1 + j2π f T ) = 2 π (c) |H( f )| = # 2 2 2 − 2 − arctan(2π f T ) , 1 + 4π f T Risultato: (a)
f >0 . f <0
Esercizio 4.38 Si consideri il circuito RLC di fig. 4.38, dove la tensione x(t) ai capi della serie RLC è il segnale di ingresso, e la tensione y(t) ai capi del condensatore è il segnale di uscita. (a) Determinare l’equazione differenziale che lega x(t) ed y(t). (b) Supponendo che l’equazione differenziale definisca un sistema LTI stabile, determinare la sua risposta in frequenza H( f ). (c) Determinare la risposta in ampiezza ed in fase del sistema e rappresentarle graficamente. d d2 Risultato: (a) 2 y(t) + 2ζ y(t) + ω02 y(t) = ω02 x(t), con ω0 = √1LC (pulsazione di risonanza) e ζ = dt dt (coefficiente di smorzamento); 1 , con 2π f0 = ω0 ; (b) H( f ) = 1 − ( f / f0 )2 + j πζ ff2 0
1 ζf (c) |H( f )| = , H( f ) = tan−1 . π f02 [1 − ( f / f0 )2 ] ζ2 f2 2 2 [1 − ( f / f0 ) ] + π 2 f 4
R 2L
0
Esercizio 4.39 Supponendo che il sistema ARMA descritto dell’esercizio 4.29 sia stabile, calcolare la sua risposta in frequenza H(ν ). Risultato: H(ν ) =
1 − 5 e− j8πν . 2 − e− j2πν + e− j6πν
Esercizio 4.40 Si consideri l’implementazione di un sistema LTI ARMA in forma diretta prima di figura:
4.8 Esercizi proposti
205
y(n)
x(n) z -1
z -1 -1/a
a
dove a ∈ R con |a| < 1. (a) Determinare l’equazione alle differenze che lega x(n) ed y(n). (b) Supponendo che l’equazione alla differenze definisca un sistema LTI stabile, determinare la sua risposta in frequenza H(ν ). (c) Provare che la risposta in ampiezza del sistema è costante, per cui tale sistema prende il nome di sistema all-pass. Risultato: (a) y(n) − ay(n − 1) = x(n) − a−1 x(n − 1); (b) H(ν ) =
1 − a−1 e− j2πν 1 . ; (c) |H(ν )| = − j2 πν 1 − ae |a|
206
Sistemi lineari tempo-invarianti (LTI)
Capitolo 5
Serie di Fourier
La descrizione nel dominio del tempo dei sistemi LTI si basa sulla rappresentazione del segnale di ingresso come sovrapposizione di impulsi traslati nel tempo e sulla definizione di risposta impulsiva. Abbiamo però visto nel § 4.7 che, quando il segnale di ingresso è un semplice fasore, il calcolo dell’uscita di un sistema LTI si effettua più semplicemente introducendo il concetto di risposta in frequenza. Nasce allora l’esigenza di rappresentare un generico segnale come sovrapposizione (discreta o continua) di fasori (rappresentazioni di Fourier o nel dominio della frequenza). In questo capitolo si introduce una prima rappresentazione di questo tipo, mostrando in particolare che i segnali periodici (TC e TD) possono essere espressi come sovrapposizione discreta di fasori, aventi frequenze multiple di una stessa frequenza (frequenza fondamentale). Tale rappresentazione prende il nome di serie di Fourier, e nel caso TD assume la denominazione più specifica di Discrete Fourier Series (DFS). I benefici di tale rappresentazione saranno evidenziati calcolando nel § 5.5 l’uscita di un sistema LTI sollecitato in ingresso da un segnale periodico. L’analisi di tale problema ci consentirà di discutere più approfonditamente il concetto di selettività in frequenza di un sistema LTI e di introdurre un’importante classe di sistemi LTI, denominati filtri ideali.
5.1 Introduzione Nel precedente capitolo abbiamo ricavato le semplici relazioni i-u (4.97) e (4.105) che consentono di calcolare, nel caso TC o TD, la risposta di un sistema LTI ad un fasore applicato al suo ingresso; la semplicità di tali risultati spinge a cercare rappresentazioni di segnali come sovrapposizione di fasori. Si consideri infatti un segnale espresso da una somma di fasori, come ad esempio il seguente segnale TC, composto da due fasori a frequenze f1 ed f2 : x(t) = e j2π f1t + 2 e j2π f2t . Se tale segnale è posto in ingresso ad un sistema LTI avente risposta in frequenza H( f ), per la linearità del sistema e per la (4.97), l’uscita corrispondente sarà calcolabile semplicemente come: y(t) = H( f1 ) e j2π f1t + 2 H( f2 ) e j2π f2t .
208
Serie di Fourier
Si potrebbe obiettare che un segnale x(t) come il precedente, espresso come somma di un numero finito di fasori, e per di più a valori complessi, rappresenti un caso particolare di scarso interesse pratico. Tuttavia uno dei risultati più significativi della teoria dei segnali è che (quasi) tutti i segnali di interesse pratico possono essere rappresentati come sovrapposizione di fasori. In particolare, i segnali periodici possono essere rappresentati come sovrapposizione discreta (ovvero come somma di una serie) di fasori: tale rappresentazione, che prende il nome1 di serie di Fourier, sarà esaminata in questo capitolo. Successivamente, nel cap. 6, vedremo la rappresentazione più generale di un segnale, non necessariamente periodico, come sovrapposizione continua (ovvero definita mediante un integrale) di fasori, nota come trasformata di Fourier. Quest’ultima rappresentazione, opportunamente generalizzata, sarà applicabile anche ai segnali periodici, e presenterà interessanti relazioni con la serie di Fourier. Nel seguito del capitolo, poiché esistono differenze non trascurabili tra i due casi, tratteremo separatamente la serie di Fourier per segnali TC e TD.
5.2 Serie di Fourier per segnali TC Il nostro scopo è quello di rappresentare un arbitrario segnale periodico come sovrapposizione di fasori. Partiamo per semplicità da uno dei più semplici segnali periodici TC, vale a dire il segnale sinusoidale di ampiezza A e frequenza f0 , avente fase iniziale ϕ0 = 0: x(t) = A cos(2π f0t) . Tale segnale risulta periodico di periodo T0 = 1/ f0 . È semplice rappresentare tale sinusoide come sovrapposizione di fasori, applicando la formula di Eulero: x(t) = A cos(2π f0t) =
A j2π f0t A − j2π f0t e + e . 2 2
La relazione precedente mostra, in accordo con l’interpretazione già data nel § 2.3.3, che una sinusoide si può esprimere come somma di due fasori aventi frequenze f0 e − f0 , rispettivamente, ed ampiezza A/2. La rappresentazione come somma di fasori si può facilmente estendere al caso di un segnale x(t) somma di sinusoidi a frequenze diverse, purché le frequenze siano tutte multiple di una frequenza comune f0 ; solo in questo caso, infatti, il segnale x(t) risulta periodico.2 Si consideri ad esempio il seguente segnale, periodico di periodo T0 = 1/ f0 : x(t) = A1 cos(2π f0t) + A2 cos(2π 2 f0t) + A3 cos(2π 3 f0t) .
(5.1)
Applicando a ciascuna sinusoide la formula di Eulero si ottiene: x(t) = 1 La
A1 j2π f0t A1 − j2π f0t A2 j2π 2 f0t A2 − j2π 2 f0t A3 j2π 3 f0t A3 − j2π 3 f0t e + e + e + e + e + e , 2 2 2 2 2 2
(5.2)
serie di Fourier (come la trasformata di Fourier) deve il suo nome al matematico francese Jean Baptiste Joseph Fourier (1768-1830), che la introdusse in vari scritti del 1807 e del 1811, ed in maniera più estesa nel suo più importante trattato “Théorie analytique de la chaleur” (1822), dove tale strumento matematico veniva applicato per lo studio di problemi di trasmissione del calore. Va osservato, peraltro, che molto prima di Fourier, l’espressione di un segnale arbitrario come somma di oscillazioni sinusoidali fu introdotta nel 1753 dal matematico svizzero Daniel Bernoulli (1700–1782) nell’ambito dei suoi studi sul problema delle corde vibranti, e costituì l’oggetto di una violenta disputa scientifica con il più importante matematico dell’epoca, lo svizzero Leonhard Euler (1707–1783) detto Eulero. 2 In generale, si può dimostrare che la somma di funzioni periodiche con periodi differenti è ancora una funzione periodica se e solo se i periodi sono commensurabili tra loro, cioè i loro rapporti sono dei numeri razionali. Le somme di funzioni periodiche con periodi incommensurabili appartengono ad una classe più ampia di funzioni dette quasi periodiche [17].
5.2 Serie di Fourier per segnali TC
209
e quindi x(t) è la combinazione lineare di 6 fasori, a frequenze ± f0 , ±2 f0 e ±3 f0 . Gli esempi visti mostrano che un segnale periodico x(t) di periodo T0 , ottenuto come combinazione lineare di un numero finito di sinusoidi, si può rappresentare come somma di un numero finito di fasori: M
∑
x(t) =
Xk e j2π k f0t ,
con M ∈ N ,
(5.3)
k=−M
in cui ciascun fasore è moltiplicato per un coefficiente Xk , che in generale può essere complesso. Ad A esempio, per il segnale (5.1), dal confronto tra la (5.3) e la (5.2) si ricava che M = 3 e Xk = 2|k| , con k ∈ {±1, ±2, ±3}. Le frequenze fk = k f0 dei fasori della rappresentazione (5.3) sono tutte multiple della frequenza fondamentale f0 = 1/T0 . Questa particolare proprietà assicura che il segnale x(t) ottenuto mediante la (5.3) sia effettivamente periodico di periodo T0 , in quanto i fasori che lo compongono hanno tutti periodo pari ad un sottomultiplo del periodo T0 , e quindi ammettono T0 come più piccolo periodo comune. Poiché le frequenze dei fasori della rappresentazione sono in rapporto armonico tra loro (ovvero il rapporto tra due qualunque frequenze è un numero razionale), i vari termini della rappresentazione prendono il nome di armoniche del segnale x(t). Ad esempio, i termini per k = ±1 prendono il nome di prima armonica o fondamentale, i termini per k = ±2 prendono il nome di seconda armonica, e così via fino ad arrivare ai termini per k = ±M che prendono il nome di M-esima armonica. Assegnato il periodo T0 e il numero di armoniche M, il segnale x(t) è completamente determinato dai coefficienti Xk della combinazione lineare. Tali coefficienti possono essere calcolati direttamente dal segnale x(t) (problema dell’analisi). A tale proposito, notiamo che la (5.3) si può interpretare anche come decomposizione del segnale x(t) in segnali elementari xk (t) = e j2π k f0t [cfr. (4.1)], dove le funzioni xk (t) sono ortogonali, nel senso precisato nel cap. 2 per i segnali di potenza (in quanto i fasori sono segnali di potenza). Se infatti consideriamo due fasori della rappresentazione (5.3), la loro potenza mutua si calcola facilmente: 1, se k = h ; 1 ∗ j2π (k−h) f0 t e dt = δ (k − h) = (5.4) Pxk xh = xk (t) xh (t) = T0 T0 0, se k = h ; e pertanto risultano ortogonali se k = h, cioè se hanno frequenze distinte. La proprietà di ortogonalità agevola la determinazione dei coefficienti Xk per un dato segnale x(t). Per mostrare ciò, supponiamo che il segnale x(t) sia sommabile sul periodo T0 , ovvero: T0
|x(t)| dt < +∞ .
(5.5)
Essendo l’intervallo di integrazione finito, questa condizione è quasi sempre verificata per i segnali x(t) di interesse pratico: in particolare, lo è sicuramente se x(t) è un segnale limitato (come la somma di un numero finito di sinusoidi). In tale ipotesi, moltiplicando ambo i membri della (5.3) per e− j2π h f0t , con h ∈ {0, ±1, . . . , ±M}, ed integrando termine a termine su un periodo, si ottiene: 1 T0
− j2π h f0 t
x(t) e T0
M
1 dt = ∑ Xk T k=−M 0
T0
e j2π (k−h) f0t dt = Xh ,
(5.6)
=δ (k−h)
per cui, cambiando l’indice da h nuovamente a k, si ha: 1 Xk = T0
T0
x(t) e− j2π k f0t dt ,
con k ∈ {0, ±1, . . . , ±M} ,
(5.7)
210
Serie di Fourier
che consente di calcolare i coefficienti Xk della rappresentazione (5.3) per il segnale x(t) espresso come somma di un numero finito di fasori. Si osservi che, in virtù della (5.5), sussistendo la relazione |x(t) e− j2π k f0t | = |x(t)|, la funzione x(t) e− j2π k f0t è sommabile sul periodo T0 e quindi l’integrale che definisce i coefficienti Xk nella (5.7) ha senso. Purtroppo, non tutti i segnali periodici di interesse pratico si possono esprimere come combinazione lineare di un numero finito di fasori. Ad esempio, basti pensare che nella (5.3) i termini della rappresentazione (cioè i fasori) sono funzioni continue, conseguentemente il segnale x(t), espresso come somma di un numero finito di funzioni continue, è ancora una funzione continua (cfr. prop. B.3). In altre parole, affinchè la rappresentazione (5.3) sia applcabile, il segnale periodico x(t) deve essere necessariamente continuo. Abbiamo già avuto modo di evidenziare in passato che, sebbene nessun fenomeno fisico sia descrivibile mediante segnali che presentano delle discontinuità, i segnali discontinui sono un’utile astrazione matematica nello studio dei sistemi. (vedi concetto di gradino e di risposta al gradino). Si osservi inoltre che non tutti i segnali continui, inoltre, possono essere rappresentati combinando linearmente un numero finito di fasori. Le precedenti motivazioni spingono a cercare una generalizzazione della rappresentazione definita dalle (5.3) e (5.7), nella quale il segnale periodico x(t) avente periodo T0 è espresso come somma di una serie: M
∑
x(t) = lim
M→+∞
Xk e j2π k f0t =
k=−M
+∞
∑
Xk e j2π k f0t ,
(5.8)
k=−∞
ovvero si ottiene come la sovrapposizione di un numero infinito di fasori, ciascuno dei quali è moltiplicato per un coefficiente complesso Xk dato da: Xk =
1 T0
T0
x(t) e− j2π k f0t dt ,
∀k ∈ Z .
(5.9)
È interessante osservare che la sommabilità del segnale x(t) sul periodo T0 assicura l’esistenza dei coefficienti Xk non solo per k ∈ {0, ±1, . . . , ±M} ma, più in generale, per ogni k ∈ Z. Infatti, utilizzando la (5.9) è possibile effettuare la seguente maggiorazione: 1 1 − j2π k f0 t |x(t)| dt , dt ≤ |Xk | = x(t) e T0 T0 T0 T0 dove si è sfruttato il fatto che il fasore ha modulo unitario. Dalla maggiorazione precedente, si ricava che una condizione sufficiente affinché tutti i coefficienti Xk della serie (5.8) esistano finiti è che la funzione x(t) sia sommabile sul periodo T0 . Tuttavia, a differenza della rappresentazione (5.3) che, essendo la somma di un numero finito di termini, non pone alcun problema di convergenza, la serie di funzioni (5.8) può risultare non convergente. Per il momento tralasciamo questo aspetto, rimandando ogni discussione sulla convergenza della serie (5.8) al § 5.2.1. In definitiva, mettendo insieme le (5.8) e (5.9), giungiamo alla seguente definizione di serie di Fourier per un segnale TC: Definizione 5.1 (serie di Fourier a TC) Sia x(t) un segnale periodico avente periodo T0 e frequenza fondamentale f0 = 1/T0 . La serie di Fourier di x(t) è definita dalle equazioni: x(t) =
+∞
∑
Xk e j2π k f0t
(equazione di sintesi)
(5.10)
(equazione di analisi)
(5.11)
k=−∞
Xk =
1 T0
T0
x(t) e− j2π k f0t dt
5.2 Serie di Fourier per segnali TC
211
Le equazioni (5.10) e (5.11) prendono rispettivamente il nome di equazione di sintesi ed equazione di analisi della serie di Fourier.3 In particolare, la prima consente di costruire o sintetizzare il segnale x(t) sovrapponendo i singoli fasori della rappresentazione, la seconda consente di decomporre o analizzare il segnale x(t), nel senso che consente di calcolare i coefficienti complessi Xk della sua rappresentazione come somma di fasori. Dal punto di vista matematico, la serie di Fourier instaura una corrispondenza biunivoca tra il segnale x(t) e la successione dei coefficienti complessi {Xk }k∈Z , chiamati anch’essi armoniche del segnale. Più precisamente, siano x1 (t) e x2 (t) due segnali periodici con uguale periodo T0 , sviluppabili in serie di Fourier con coefficienti X1,k ed X2,k , rispettivamente; se X1,k = X2,k , per ogni k ∈ Z, allora i due segnali x1 (t) e x2 (t) sono uguali quasi ovunque su R, ovvero si ha x1 (t) = x2 (t), ∀t ∈ R eccetto che in un insieme di misura nulla. In altre parole, la successione {Xk }k∈Z identifica (quasi) univocamente il segnale x(t) (proprietà di unicità della serie di Fourier). La corrispondenza biunivoca tra x(t) e la successione dei suoi coefficienti di Fourier si può denotare simbolicamente come segue: FS
x(t) ←→ Xk . È interessante osservare che, in virtù di tale corrispondenza, un segnale periodico TC può essere equivalentemente descritto nel dominio della frequenza da un segnale TD (la successione dei suoi coefficienti di Fourier). Poiché i coefficienti Xk sono grandezze complesse, per rappresentarli graficamente dobbiamo decomporli in modulo e fase (risulta scarsamente utilizzata la rappresentazione in parte reale ed immaginaria). La sequenza |Xk | dei moduli prende il nome di spettro di ampiezza del segnale x(t), mentre la sequenza Xk delle fasi prende il nome di spettro di fase del segnale x(t) (quest’ultimo spettro è definito a meno di multipli di 2π ). Gli spettri di ampiezza e di fase possono essere rappresentati mediante due diagrammi cartesiani, che riportano |Xk | e Xk in funzione di k o anche di fk = k f0 . Essi costituiscono un primo esempio di rappresentazione nel dominio della frequenza per un segnale x(t), in quanto forniscono per ogni valore di k, rispettivamente, l’ampiezza |Xk | e la fase Xk del fasore a frequenza k f0 presente nel segnale. Particolarizzando l’equazione di analisi per k = 0, si ha 1 X0 = T0
T0
x(t) dt = xdc ,
(5.12)
dove si è tenuta presente la definizione xdc = x(t) di componente continua, ed il fatto che per segnali periodici la media temporale [cfr. prop. 2.7(c)] si può calcolare su un periodo del segnale. La (5.12) mostra che l’armonica a frequenza zero rappresenta la componente continua del segnale periodico. Per differenza, la componente alternata si calcola come: xac (t) = x(t) − xdc =
+∞
∑
k = −∞ k = 0
Xk e j2π k f0t ,
e quindi xac (t) è un segnale periodico avente lo stesso periodo di x(t), e gli stessi coefficienti della serie di Fourier di x(t), fatta eccezione per il coefficiente per k = 0, ovvero per la componente continua, che è ovviamente nulla per xac (t). 3 In
particolare, tali equazioni definiscono la cosiddetta forma esponenziale della serie di Fourier, valida in generale per segnali x(t) a valori reali o complessi. Altre forme della serie di Fourier, valide esclusivamente per segnali a valori reali, saranno sviluppate nel § 5.4.2.
212
Serie di Fourier
1
0.5
0.8 0.6
0 −5
0 k
5
1
sinc(x)
|Xk|
1
0.4
∠ Xk
0.2 0
0
−0.2
−1
−5
0 k
−6
5
Fig. 5.1. Spettro di ampiezza (in alto) e di fase (in basso) del segnale dell’es. 5.1 (A = 1, ϕ0 = π4 ).
−4
−2
0 x
2
4
6
Fig. 5.2. La funzione sinc(x) per valori di x ∈ [−6, 6].
Esempio 5.1 (serie di Fourier di un segnale sinusoidale TC) Il calcolo della serie di Fourier per un segnale sinusoidale TC è immediato. Per maggiore generalità rispetto al caso visto precedentemente, consideriamo un segnale sinusoidale avente fase iniziale arbitraria ϕ0 : x(t) = A cos(2π f0t + ϕ0 ) , con A > 0. Applicando la formula di Eulero si ha: x(t) =
A jϕ0 j2π f0 t A − jϕ0 − j2π f0 t e e + e e , 2 2
da cui, per confronto con l’equazione di sintesi (5.10), si ricava: A jϕ k = 1; 2 e 0, Xk = A2 e− jϕ0 , k = −1; 0, altrimenti. Gli spettri di ampiezza e fase sono dati, rispettivamente, da: A , k = ±1; |Xk | = 2 0, altrimenti; k = 1; ϕ0 , Xk = −ϕ0 , k = −1; indeterminata, altrimenti; e sono riportati4 in fig. 5.1 per il caso A = 1 e ϕ0 = π4 .
L’esempio precedente mostra che in casi molto semplici, ovvero quando il segnale periodico è composto da funzioni sinusoidali (vedi anche il segnale (5.1)), i coefficienti della sua serie di Fourier si possono ottenere “per ispezione” adoperando semplici relazioni trigonometriche, come la formula di Eulero. Per segnali più complicati, il calcolo dei coefficienti non è un problema concettualmente difficile, in quanto si può effettuare risolvendo l’integrale che compare nell’equazione di analisi (5.11); eventuali complicazioni possono riguardare soltanto la difficoltà di risoluzione dell’integrale. 4 Si
noti che in fig. 5.1 e nel seguito, per semplicità di rappresentazione, la fase corrispondente al numero complesso z = 0 viene convenzionalmente assunta pari a zero, sebbene essa risulti a rigore indeterminata.
5.2 Serie di Fourier per segnali TC
213
0.5
|Xk|
0.4
0.4
0.2
Xk
0.3
0
0.2
−5
0 k
5
−5
0 k
5
0.1 0
∠ Xk
2
−0.1 −0.2
0 −2
−5
0 k
5
Fig. 5.3. I coefficienti Xk dell’onda rettangolare delreali, e l’es. 5.2 (A = 1, δc = 0.5) sono puramente si ottengono dalla funzione 12 sinc 2x (tratteggiata) calcolata per x = k.
Fig. 5.4. Spettro di ampiezza (in alto) e di fase (in basso) dell’onda rettangolare dell’es. 5.2 (A = 1, δc = 0.5).
Esempio 5.2 (serie di Fourier dell’onda rettangolare TC, funzione sinc) Calcoliamo la serie di Fourier per un’onda rettangolare TC di periodo T0 , ampiezza A > 0 e duty-cycle δc = TT0 ≤ 1 (per il grafico del segnale e l’interpretazione del duty-cycle, cfr. es. 2.9). Tale segnale si ottiene per replicazione dal generatore: t , xg (t) = A rect T e quindi la sua espressione è la seguente: t x(t) = repT0 A rect . T Per calcolare i coefficienti della serie di Fourier utilizziamo direttamente l’equazione di analisi (5.11): 1 Xk = T0
− j2π k f0 t
x(t) e T0
1 dt = T0
T0 /2 −T0 /2
A rect
t T
− j2π k f0 t
e
1 dt = T0
T /2 −T /2
A e− j2π k f0 t dt .
Per k = 0, si ha: 1 X0 = T0
T /2 −T /2
A dt = A
T = Aδc , T0
mentre per k = 0 si ha: Xk =
t=T /2 sin(π kδc ) A sin(π k f0 T ) e− j2π k f0 t =A . =A t=−T /2 − j2π k f0 T0 πk πk
(5.13)
Per esprimere in forma più compatta il risultato precedente, introduciamo la funzione sinc(x):
sinc(x) =
sin(π x) , πx
x ∈ R,
(5.14)
il cui grafico per x ∈ [−6, 6] è riportato in fig. 5.2. Le principali proprietà della funzione sinc(x) sono le tre seguenti, di facile dimostrazione: (a) La funzione sinc(x) è una funzione pari: sinc(−x) = sinc(x) .
214
Serie di Fourier
(b) La funzione sinc(x) si annulla in tutti i valori interi tranne per k = 0: 1, k = 0 ; sinc(k) = 0, k = 0 . (c) La funzione sinc(x) è infinitesima del primo ordine per x → ±∞, in quanto: |sinc(x)| ≤
1 , π |x|
∀x ∈ R .
Moltiplicando e dividendo per δc nella (5.13), e utilizzando la definizione di sinc(x), si ha: Xk = A δc
sin(π kδc ) = A δc sinc(kδc ) , π kδc
k = 0 .
Notiamo che l’espressione precedente vale anche per k = 0, in quanto, per la proprietà (b) della sinc, risulta: X0 = A δc sinc(0) = A δc . Notiamo che nell’espressione delle armoniche Xk compaiono solo A ed il duty-cycle δc . Consideriamo allora il caso particolare δc = 0.5 (duty-cycle del 50 %) e A = 1. In tal caso, le armoniche si esprimono come:
k 1 Xk = sinc , 2 2 ed utilizzando la definizione di sinc(x) e le sue proprietà, nonché proprietà trigonometriche elementari, si ha: 1 2, 0, Xk = 1 πk , 1 − πk ,
k = 0; k pari; k = 2h + 1, h pari (k = . . . − 7, −3, 1, 5, 9, . . .); k = 2h + 1, h dispari (k = . . . , −5, −1, 3, 7, 11, . . .).
Più in generale, osserviamo che questo segnale, per qualunque valore di A e δc , presenta armoniche puramente reali, quindi esse possono essere rappresentate come in fig. 5.3, su un unico diagramma cartesiano. Per maggiore generalità, tuttavia, ricaviamo gli spettri di ampiezza e di fase: 1 k = 0; 2, k pari, k = 0; |Xk | = 0, 1 , k dispari; π |k| 0 indeterminata Xk = 0 ±π
k = 0; k pari, k = 0; k = . . . , −5, −1, 1, 5, . . .; k = . . . , −7, −3, 3, 7, . . ..
che sono raffigurati graficamente in fig. 5.4. Notiamo la simmetria pari dello spettro di ampiezza, e quella dispari dello spettro di fase, ottenuta quest’ultima scegliendo opportunamente la fase π per k > 0, e la fase −π per k < 0. Il grafico dello spettro di ampiezza del segnale mostra che tale onda rettangolare possiede soltanto armoniche dispari (vale a dire per valori dispari di k), la cui ampiezza decresce con legge inversamente proporzionale a k.
5.2 Serie di Fourier per segnali TC
215
1 |Xk|
0.4
0.8
0.2 0
x(t)
0.6
−5
0 k
5
−5
0 k
5
0.4 2 ∠ Xk
0.2 0
0 −2
−2
−1
0 t/T
1
2
0
Fig. 5.5. L’onda triangolare dell’es. 5.3 (A = 1).
Fig. 5.6. Spettro di ampiezza (in alto) e di fase (in basso) dell’onda triangolare dell’es. 5.3 (A = 1).
Esempio 5.3 (serie di Fourier dell’onda triangolare TC) Calcoliamo la serie di Fourier per un’onda triangolare TC di periodo T0 ed ampiezza A: 2t x(t) = repT0 A Λ , T0 ottenuta a partire dal generatore: x(t) = A Λ
2t T0
.
Tale segnale è raffigurato graficamente in fig. 5.5 per A = 1. Per calcolare i coefficienti della serie di Fourier utilizziamo direttamente l’equazione di analisi (5.11), ricordando la definizione esplicita della finestra triangolare: 1 Xk = T0
− j2π k f0 t
x(t) e T0
1 dt = T0
T0 /2
2|t| A 1− T0 −T0 /2
e− j2π k f0 t dt .
Applicando la formula di Eulero a e− j2π k f0 t , si ha: 1 Xk = T0
T0 /2
2|t| A 1− T0 −T0 /2
2A cos(2π k f0t) dt = T0
T0 /2 0
2t 1− T0
cos(2π k f0t) dt ,
dove non abbiamo riportato l’integrale in cui compare sin(2π k f0t), in quanto esso risulta nullo per la simmetria dispari della funzione integranda, ed abbiamo viceversa sfruttato nell’integrale in cui compare cos(2π k f0t) la simmetria pari della funzione integranda. Per k = 0, si ha: 2A X0 = T0
T0 /2 0
2t 1− T0
dt =
A 2A T0 = , T0 4 2
mentre per k = 0, decomponendo l’integrale nella differenza di due integrali ed integrando per parti il secondo
216
Serie di Fourier
integrale, si ha: . 2 T0 /2 cos(2π k f0t) dt − t cos(2π k f0t) dt T0 0 0 // T0 /2 sin(2π k f0t) t=T0 /2 2 2A sin(2π k f0t) sin(2π k f0t) t=T0 /2 = t − − dt T0 2π k f0 T0 2π k f0 2π k f0 0 t=0 t=0 cos(2π k f0t) t=T0 /2 2A 1 2 T0 1 1 = sin(π k) − sin(π k) + T0 2π k f0 T0 2 2π k f0 2π k f0 2π k f0 t=0
2A Xk = T0
'
T0 /2
=0
=0
1 4A = 2 [1 − cos(π k) ] T0 (2π k f0 )2 (−1)k
0, k pari, k = 0; = 2A , k dispari. π 2 k2 Notiamo che le armoniche Xk sono reali e non negative, quindi gli spettri di ampiezza e fase si calcolano banalmente, in quanto |Xk | = Xk ≥ 0 e Xk = 0, e sono raffigurati in fig. 5.6: si noti anche in questo caso la simmetria pari dello spettro di ampiezza. Dal confronto con lo spettro di ampiezza dell’onda rettangolare con δc = 1/2, notiamo che anche l’onda triangolare possiede solo armoniche dispari, ma la loro ampiezza decresce in modo inversamente proporzionale a k2 , quindi più rapidamente (si ricordi che l’onda rettangolare presenta armoniche che decrescono come 1/k). Come vedremo (cfr. § 5.2.2), questo significa che l’onda triangolare può essere approssimata più accuratamente con un numero minore di armoniche.
Come evidenziato dagli es. 5.2 e 5.3, fatta eccezione per casi molto semplici (es. segnale sinusoidale), il calcolo dei coefficienti della serie di Fourier per un dato segnale x(t) si effettua utilizzando direttamente l’equazione di analisi (5.11), e quindi consiste nella risoluzione di un integrale. In taluni casi è possibile utilizzare le proprietà formali (riportate nel § 5.4 o più estesamente in app. E) per ricondurre il calcolo a quello di qualche altro segnale per il quale è noto lo sviluppo in serie di Fourier. Vedremo tuttavia nel cap. 6 una procedura molto semplice e generale che consente di ricondurre il calcolo dei coefficienti della serie di Fourier a quello di una trasformata di Fourier (formule o serie di Poisson). Quest’ultima strada è generalmente la più semplice per calcolare la serie di Fourier di un dato segnale. 5.2.1 Condizioni matematiche per la convergenza della serie di Fourier
In questa sezione prenderemo in considerazione il problema della convergenza della serie di Fourier.5 La trattazione di tale problema matematico è interessante anche dal punto di vista applicativo in quanto, come vedremo nel § 5.2.2, esso è intimamente legato al problema della ricostruzione di un segnale periodico a partire da un numero finito di armoniche. Sia x(t) un arbitrario segnale periodo con periodo T0 . L’ipotesi di partenza che riterremo valida d’ora in avanti è che il segnale x(t) sia sommabile sul periodo T0 . Abbiamo già avuto modo di dire che tutti i segnali periodici di interesse pratico verificano questa ipotesi; inoltre, come già mostrato precedentemente, la sommabilità di x(t) sul periodo assicura che tutti i coefficienti Xk della serie di Fourier, definiti dalla equazione di analisi (5.11), esistano finiti. Tuttavia, il fatto che i coefficienti Xk 5 Per
una trattazione esauriente del problema della convergenza della serie di Fourier si rimanda ai testi di analisi matematica (ad esempio [3]); nel seguito daremo solo qualche risultato fondamentale, enfatizzando il più possibile gli aspetti intuitivi ed applicativi ed omettendo le relative dimostrazioni.
5.2 Serie di Fourier per segnali TC
217
calcolati mediante l’equazione di analisi a partire da x(t) esistano finiti non significa che la serie +∞
∑
Xk e j2π k f0t
(5.15)
k=−∞
costruita a partire da questi coefficienti converga, né tanto meno che tale serie converga al segnale x(t). Così come per le serie numeriche, lo studio della convergenza di una serie di funzioni passa attraverso la definizione delle sue somme parziali. Si definisce somma parziale (simmetrica) M-esima della serie di Fourier (5.15) il segnale: xM (t) =
M
∑
Xk e j2π k f0t ,
con M ∈ N ,
(5.16)
k=−M
ottenuto troncando simmetricamente6 la serie di Fourier ai primi 2M + 1 termini. Se la serie di Fourier (5.15) converge al segnale x(t), allora si può scrivere lim xM (t) = x(t) ,
(5.17)
M→+∞
ovvero l’equazione di sintesi restituisce il segnale x(t). Lo studio delle condizioni sotto le quali la serie (5.15) converge dipende dal tipo di convergenza richiesta. In particolare, si dice che la serie di Fourier (5.15) converge uniformemente [5] al segnale x(t) su R se, per ogni ε > 0, è possibile determinare Nε ∈ N tale che in ogni punto t ∈ R e per tutti i valori di M > Nε sia verificata la disuguaglianza:7 |xM (t) − x(t)| < ε . Una proprietà importante delle serie uniformemente convergenti è che esse si possono integrare membro a membro; pertanto, se la serie di Fourier converge uniformemente su R, i passaggi che hanno portato a ricavare i coefficienti Xk nelle (5.6) e (5.7) sono validi anche per M → +∞. Risulta immediatamente evidente che, se il segnale x(t) ha almeno una discontinuità, la sua serie di Fourier non potrà convergere uniformemente ad x(t), poichè la somma di una serie uniformemente convergente di funzioni continue (quali sono i fasori) è sempre una funzione continua. Quindi, la continuità del segnale x(t) è condizione necessaria (ma non sufficiente) affinchè la sua serie di Fourier sia uniformemente convergente. Una condizione sufficiente per la convergenza uniforme della serie di Fourier è la seguente: se la successione {Xk } dei coefficienti è sommabile, ovvero se +∞
∑
|Xk | < +∞ ,
(5.18)
k=−∞
allora la serie associata ai coefficienti Xk converge uniformemente.8 Si osservi che affinchè la successione {Xk } sia sommabile occorre che essa sia necessariamente infinitesima all’infinito, cioè lim |Xk | = 0 .
k→±∞
6 È opportuno effettuare un troncamento
simmetrico per garantire che siano presenti le armoniche Xk e X−k , in modo che il segnale xM (t) possa essere reale (proprietà di simmetria hermitiana, cfr. § 5.4.2). 7 Si osservi che la peculiarità della convergenza uniforme consiste nel fatto che il numero N non dipende dal particolare ε punto t ∈ R: infatti, uno stesso numero Nε va bene per tutti i punti dell’asse reale. 8 Tale risultato è una conseguenza del cosiddetto criterio di Weierstrass [6]: se g (x), con k ∈ Z, sono funzioni a valori k complessi definite sull’intervallo (a, b), con |gk (x)| ≤ Mk , ∀k ∈ Z e ∀x ∈ (a, b), e inoltre +∞
bilatera
∑
k=−∞
+∞
∑
k=−∞
gk (x) converge uniformemente in (a, b).
|Mk | < +∞, allora la serie
218
Serie di Fourier
Si faccia bene attenzione che la sommabilità dei coefficienti di Fourier assicura solo la convergenza uniforme della serie di Fourier, ma non che la serie restituisca proprio x(t). In altre parole, se la (5.18) è verificata, la serie di Fourier (5.15) può convergere uniformemente ad un segnale x(t) ˇ = x(t); tuttavia, quando ciò accade, i coefficienti di Fourier si possono ottenere equivalentemente dalle due espressioni seguenti: Xk =
1 T0
T0
x(t) ˇ e− j2π k f0t dt =
1 T0
T0
x(t) e− j2π k f0t dt .
Una semplice condizione sufficiente [11] per la convergenza uniforme al segnale x(t) della serie di Fourier (5.15) è data dal seguente teorema:
Teorema 5.1 (condizione sufficiente per la convergenza uniforme ad x(t)) Se il segnale x(t), periodico con periodo T0 , è continuo e derivabile quasi ovunque, con derivata x (t) a quadrato sommabile sul periodo T0 , ossia: x (t)2 dt < +∞ , T0
la serie di Fourier (5.10) converge uniformemente al segnale x(t) su tutto l’asse reale.
Abbiamo appena visto che la serie di Fourier può convergere uniformemente al segnale x(t) solo se tale segnale è continuo. Pertanto, se ci limitassimo a considerare la sola convergenza uniforme, non potremmo applicare la teoria della serie di Fourier al caso di segnali con discontinuità, come l’onda rettangolare dell’es. 5.2. Dal punto di vista ingegneristico, potremmo aggirare l’ostacolo osservando che nella pratica i segnali discontinui non esistono, ma sono solo una rappresentazione idealizzata di segnali che variano molto rapidamente, ma con continuità. Tuttavia dal punto di vista matematico il problema ha significato e va affrontato in modo rigoroso,9 considerando il problema della convergenza puntuale [10] della serie di Fourier al segnale x(t). A differenza della convergenza uniforme espressa dal teor. 5.1, che assicura la convergenza della serie (5.15) al segnale x(t) per ogni t ∈ R, il problema della convergenza puntuale della serie di Fourier consiste nel trovare sotto quali condizioni la serie (5.15) converge ad x(t) per quasi tutti i valori di t ∈ R, eccetto al più un sottoinsieme di valori di t di misura nulla, per i quali la serie, pur essendo convergente, non restituisce esattamente il segnale x(t). Si tratta quindi di dare una interpretazione meno restrittiva della convergenza della serie (5.15) che, com’è intuibile, possa consentire di applicare la teoria della serie di Fourier ad una classe più ampia di segnali periodici. In tal senso, un risultato importante fu ottenuto dal matematico tedesco Johann Peter Gustav Lejeune Dirichlet (1805-1859), che individuò nel 1828 le condizioni matematiche che prendono il suo nome e garantiscono che, una volta calcolati i coefficienti Xk a partire da un segnale x(t), la serie associata a tali coefficienti converga (non necessariamente in maniera uniforme) al segnale da rappresentare, tranne che nei punti di discontinuità: 9 Il problema della continuità della somma della serie di Fourier fu al centro del dibattito matematico dell’800, e sollevò numerosi dubbi sulla validità della serie di Fourier, tanto da negare al suo scopritore il meritato riconoscimento della comunità scientifica. Uno dei critici più severi fu il matematico francese Joseph-Louis Lagrange (1763–1813). Infatti la principale obiezione che si muoveva a Fourier era la seguente: visto che le funzioni della serie (fasori, coseni o seni) sono tutte continue, come può la serie rappresentare segnali discontinui, come l’onda rettangolare dell’es. 5.2? Oggi sappiamo che se la serie non converge uniformemente, la somma di una serie di funzioni continue non è necessariamente una funzione continua, ma ai matematici dell’800 l’affermazione di Fourier doveva sembrare ai limiti dell’eresia.
5.2 Serie di Fourier per segnali TC
219
Teorema 5.2 (condizioni di Dirichlet per la serie di Fourier) Sia x(t) un segnale periodico di periodo T0 . Se il segnale soddisfa le seguenti tre condizioni: (d1) x(t) è sommabile sul periodo T0 : T0
|x(t)| dt < +∞ ;
(d2) x(t) è una funzione continua nel periodo T0 , escluso al più un numero finito di punti con discontinuità di prima specie; (d3) x(t) è una funzione derivabile nel periodo T0 , escluso al più un numero finito di punti nei quali esistono finite la derivata sinistra e destra; allora la serie di Fourier di x(t) esiste e, per ogni t ∈ R, converge al valore assunto dalla funzione x(t) nei punti in cui questa è continua, ed a 12 [x(t + ) + x(t − )] (semisomma dei limiti destro e sinistro) nei punti in cui x(t) presenta discontinuità di prima specie. Si può inoltre dimostrare che la convergenza della serie di Fourier è uniforme in ogni intervallo che non contiene punti di discontinuità di x(t), mentre non è uniforme in ogni intervallo che contiene punti di discontinuità di x(t). In particolare, se la funzione x(t) è continua, la convergenza della serie è uniforme per ogni t ∈ R.10 Esempio 5.4 (onda rettangolare TC) Si verifica facilmente che l’onda rettangolare dell’es. 5.2 soddisfa le tre condizioni di Dirichlet, e quindi la sua serie di Fourier converge alla funzione x(t) nel punti di continuità, ed al valore A2 (semisomma dei limiti destro e sinistro) nei punti di discontinuità. Poiché l’onda rettangolare non è una funzione continua, la convergenza non è uniforme per ogni t ∈ R. In particolare, la convergenza non è uniforme in ogni intervallo che contiene i punti di discontinuità. Si osservi che in questo caso i coefficienti Xk , decrescendo come 1/k, non costituiscono una successione sommabile, violando la condizione (5.18). Esempio 5.5 (onda triangolare a TC) Anche l’onda triangolare dell’es. 5.3 soddisfa le condizioni di Dirichlet. In più, essendo una funzione continua, la serie di Fourier restituisce x(t) in tutti i punti, ed inoltre la convergenza della serie è uniforme per ogni t ∈ R. Il fatto che la serie converga uniformemente è testimoniato anche dal fatto che i coefficienti Xk , decrescendo come 1/k2 , costituiscono una sequenza sommabile. Il fatto che la serie converga uniformemente al segnale x(t) è inoltre testimoniato dal teor. 5.1.
Per concludere, osserviamo che, oltre alla convergenza uniforme e alla convergenza puntuale della serie di Fourier, esiste un terzo tipo di convergenza (meno restrittiva di entrambe), detta convergenza in media quadratica, per la cui validità si richiede solo che il segnale x(t) sia a quadrato sommabile sul periodo T0 . Questo tipo di convergenza, che è importante non solo nell’ambito della teoria dei segnali e sistemi, ma anche in molti problemi di fisica matematica, è discusso in app. E.
10 In taluni testi le condizioni di Dirichlet sono espresse con linguaggio matematico differente. Ad esempio, la condizione (d3) fu originariamente formulata dallo stesso Dirichlet nel modo seguente, matematicamente equivalente: “x(t) presenta nel periodo T0 un numero finito di massimi e minimi”. Inoltre, in numerosi testi la condizione (d2) viene formulata come il fatto che x(t) è una funzione “generalmente continua”, e la condizione (d3) come il fatto che x(t) è una funzione “generalmente derivabile con derivata generalmente continua”. Infine, considerazioni matematicamente più approfondite mostrano che, in effetti, le condizioni di Dirichlet sono un caso particolare del seguente risultato, noto come criterio di Jordan: ( ) “se la funzione x(t) è a variazione limitata in ogni intorno di t, allora la serie di Fourier converge a 12 x(t + ) + x(t − ) ” (per la definizione di funzione a variazione limitata si veda [7]).
220
Serie di Fourier
5.2.2 Ricostruzione di un segnale periodico con un numero finito di armoniche
L’equazione di sintesi della serie di Fourier, nelle ipotesi in cui valgono le condizioni di Dirichlet per la convergenza puntuale (cfr. teor. 5.2), consente di ricostruire esattamente in ogni punto di continuità il valore del segnale x(t), mentre restituisce in ogni punto di discontinuità la semisomma del limite destro e sinistro. La ricostruzione esatta di un segnale x(t) è possibile in generale solo considerando un numero infinito di armoniche, quindi essa può essere verificata solo analiticamente. D’altra parte, abbiamo osservato che una condizione necessaria per la convergenza uniforme della serie di Fourier è che i coefficienti Xk tendano a zero per |k| → +∞. Tale proprietà è sicuramente verificata per l’onda rettangolare e triangolare. Questo vuol dire che, se è vero che in teoria occorre considerare un numero finito di armoniche per ricostruire il segnale x(t), è pur vero che in pratica le armoniche di ordine superiore (quelle corrispondenti a valori di |k| grandi) “pesano” di meno nella ricostruzione del segnale. Pertanto, in pratica, se M è “sufficientemente” grande, il segnale xM (t) =
M
∑
Xk e j2π k f0t ,
con M ∈ N ,
k=−M
già definito nella (5.16), che include solo un numero finito di armoniche, può risultare una buona approssimazione del segnale x(t). La questione fondamentale è quanto debba essere grande M affinchè xM (t) consenta di ricostruire con un sufficiente grado di accuratezza il segnale x(t). Evidentemente, la scelta di M dipende dalla rapidità con cui i coefficienti di Fourier Xk tendono a zero per |k| → +∞. Abbiamo osservato che la rapidità di decadimento a zero dei coefficienti di Fourier può essere diversa da segnale a segnale: ad esempio, i coefficienti decadono come 1/k per l’onda rettangolare, e come 1/k2 per l’onda triangolare. È facilmente intuibile che, quanto maggiore è la rapidità di decadimento dei coefficienti di Fourier, tanto più piccolo può essere il valore M sufficiente a garantire un determinato livello di accuratezza. È allora particolarmente interessante notare che l’effettiva rapidità con cui i coefficienti Xk decadono a zero dipende dalla dolcezza del segnale x(t) nel dominio del tempo. Osserviamo infatti preliminarmente che, dal punto di vista matematico, un segnale x(t), continuo con alcune sue derivate, ha un andamento tanto più dolce quanto maggiore è il numero di derivate continue. Vale allora la seguente proprietà (la cui dimostrazione, non riportata, si basa sulla ripetuta integrazione per parti dell’equazione di analisi): Proprietà 5.1 (rapidità di decadimento a zero dei coefficienti della serie di Fourier) Sia x(t) un segnale periodico di periodo T0 . Se il segnale è continuo con le sue derivate fino a quella di ordine n, con derivata (n + 1)-esima discontinua ma limitata, i coefficienti Xk della sua serie di Fourier decadono a zero per k → ±∞ come 1/|k|n+2 . La proprietà precedente esprime con linguaggio matematico il seguente concetto qualitativo: quanto più è dolce il segnale, tanto più rapidamente decadono a zero i coefficienti della sua serie di Fourier. Più precisamente, essa consente di prevedere esattamente tale rapidità di decadimento a zero, anche senza calcolare esplicitamente i coefficienti Xk : basta infatti individuare il più piccolo ordine di derivata discontinua, ed incrementarlo di uno per avere la rapidità di convergenza a zero dei coefficienti. Notiamo che la proprietà precedente vale anche per un segnale discontinuo, basta porre n = −1. Come conseguenza della prop. 5.1, possiamo prevedere che, quanto più dolce è l’andamento del segnale nel dominio del tempo, tanto minore sarà il numero di armoniche necessario per ricostruite il segnale con una determinata accuratezza (ovvero tanto più piccolo sarà il valore di M). Gli esempi seguenti chiariscono ulteriormente l’importante relazione che intercorre tra l’andamento del segnale x(t) nel dominio del tempo ed i suoi coefficienti Xk nel dominio della frequenza.
5.2 Serie di Fourier per segnali TC
221
Esempio 5.6 (fenomeno di Gibbs) Si consideri l’onda rettangolare dell’es. 5.2. Per δc = 1/2 ed A = 1, i coefficienti della sua serie di Fourier sono dati da:
k 1 Xk = sinc , 2 2 e pertanto il segnale ricostruito con 2M + 1 armoniche, sfruttando la simmetria pari della funzione sinc ed il fatto che Xk = 0 per k dispari, assume l’espressione
M k k 1 M 1 j2π k f0 t + sinc = sinc (5.19) xM (t) = e cos(2π f0t) . ∑ ∑ 2 k=−M 2 2 2 k=1 k dispari
Si osservi che l’onda rettangolare è un segnale discontinuo, quindi la prop. 5.1 si applica con n = −1, confermando che, in effetti, i coefficienti della serie di Fourier dell’onda rettangolare decadono a zero come 1/|k|. L’espressione (5.19) può essere calcolata numericamente utilizzando ad esempio Matlab o Mathematica. In fig. 5.7 sono rappresentati il segnale x(t) su un periodo e la sua ricostruzione xM (t) per M = 0, 1, 3, 5, 11, 101, ottenuti con Matlab. Poiché l’onda quadra soddisfa le condizioni di Dirichlet, la ricostruzione ideale mediante la serie di Fourier deve restituire il valore 1 oppure 0 in tutti i punti di continuità, ed il valore 1/2 in corrispondenza delle discontinuità. È interessante osservare il particolare comportamento del segnale ricostruito nell’intorno delle discontinuità. Infatti da entrambi i lati della discontinuità sono presenti delle oscillazioni, la cui frequenza aumenta, ma la cui ampiezza non diminuisce al crescere di M. Questo fenomeno, noto come fenomeno di Gibbs,11 non pregiudica la convergenza della serie di Fourier in prossimità della discontinuità. Infatti al crescere di M i picchi delle oscillazioni, sebbene restino di ampiezza invariata, vengono “schiacciati” verso la discontinuità, garantendo la convergenza per ogni valore di t arbitrariamente prossimo alla discontinuità. Matematicamente, il fenomeno di Gibbs è una conseguenza del fatto che la serie di Fourier dell’onda rettangolare converge, ma non uniformemente negli intervalli che contengono le discontinuità, come già discusso in precedenza.
È interessante osservare che il fenomeno di Gibbs non si verifica solo per l’onda rettangolare, ma per ogni segnale x(t) che, pur soddisfacendo le condizioni di Dirichlet, presenta dei punti di discontinuità. In particolare, se t0 è un punto di discontinuità, denotato con s(t0 ) = x(t0+ ) − x(t0− ) il salto di discontinuità in t0 , si può dimostrare che le oscillazioni a destra e a sinistra della discontinuità sono simmetriche, e la loro ampiezza (calcolata rispetto al limite destro o sinistro) tende per M → +∞ in valore assoluto a
βgibbs |s(t0 )| π
(5.20)
dove βgibbs ≈ 0.28114072518757 è una costante notevole.12 Nell’es. 5.6, l’ampiezza delle oscillazioni calcolata secondo la (5.20) è pari in valore assoluto circa a 0.09, come si può anche osservare dalla fig. 5.7, nella quale il segnale oscilla tra i valori −0.09 (a sinistra della discontinuità) e 1.09 (a destra della discontinuità. Esempio 5.7 (onda triangolare) Si consideri l’onda triangolare dell’es. 5.3. L’onda triangolare è continua ma con derivata prima discontinua, per cui la prop. 5.1 si applica con n = 0, confermando che, in effetti, i coefficienti della serie di Fourier dell’onda triangolare decadono a zero come 1/k2 . Inoltre, poiché l’onda triangolare è una funzione continua, il fenomeno di Gibbs non si verifica per tale segnale. In effetti, la convergenza della serie di Fourier è dell’onda triangolare è uniforme in R, e la ricostruzione con un numero finito di armoniche è molto più rapida e regolare, come testimoniato dalla fig. 5.8. 11 Il
fenomeno prende il nome dal fisico J. W. Gibbs (1839–1903), che per primo lo osservò e lo descrisse.
12 In
effetti la costante βgibbs si può calcolare come βgibbs = −
della funzione non elementare seno integrale il calcolo la funzione sinint).
" sinint(x) = 0x sint t
" +∞ sin(t) π
t
dt, che a sua volta può essere espresso in termini
dt, come βgibbs = sinint(π ) − π2 (in Matlab si può usare per
Serie di Fourier
1
1
0.8
0.8 x(t), xM(t)
x(t), xM(t)
222
0.6 0.4
0.6 0.4
0.2
0.2
0
0
−0.5
0 t/T0
0.5
−0.5
1
1
0.8
0.8
0.6 0.4
0.6 0.4
0.2
0.2
0
0
−0.5
0 t/T
0.5
−0.5
0
0.8
0.8 x(t), xM(t)
x(t), xM(t)
1
0.6 0.4
0.6 0.4
0.2
0.2
0
0
(e)
0.5
(d)
1
0 t/T0
0 t/T
0
(c)
−0.5
0.5
(b)
x(t), xM(t)
x(t), xM(t)
(a)
0 t/T0
0.5
−0.5
0 t/T0
0.5
(f)
Fig. 5.7. Ricostruzione di un’onda rettangolare con un numero finito (2M + 1) di armoniche (si noti la presenza del fenomeno di Gibbs in corrispondenza delle discontinuità): (a) M = 0; (b) M = 1; (c) M = 3; (d) M = 5; (e) M = 11; (f) M = 101.
5.2 Serie di Fourier per segnali TC
223
Dal punto di vista pratico, la lenta convergenza a zero (come 1/k) delle armoniche dell’onda rettangolare comporta che per ottenere una buona approssimazione con M finito è necessario considerare un elevato numero di armoniche. Viceversa, la più rapida convergenza a zero (come 1/k2 ) delle armoniche dell’onda triangolare determina una migliore ricostruzione a parità di numero di armoniche (si confrontino le fig. 5.7 e 5.8).13
13 Una
valutazione quantitativa della bontà di tale ricostruzione, insieme con un ulteriore confronto tra la ricostruzione dell’onda rettangolare e quella triangolare, è proposta nel § 5.4.3, sulla base dell’uguaglianza di Parseval.
Serie di Fourier
1
1
0.8
0.8 x(t), xM(t)
x(t), xM(t)
224
0.6 0.4
0.6 0.4
0.2
0.2
0
0
−0.5
0 t/T0
0.5
−0.5
1
1
0.8
0.8
0.6 0.4
0.6 0.4
0.2
0.2
0
0
−0.5
0 t/T
0.5
−0.5
0
0.8
0.8 x(t), xM(t)
x(t), xM(t)
1
0.6 0.4
0.6 0.4
0.2
0.2
0
0
(e)
0.5
(d)
1
0 t/T0
0 t/T
0
(c)
−0.5
0.5
(b)
x(t), xM(t)
x(t), xM(t)
(a)
0 t/T0
0.5
−0.5
0 t/T0
0.5
(f)
Fig. 5.8. Ricostruzione di un’onda triangolare con un numero finito (2M + 1) di armoniche (si noti l’assenza del fenomeno di Gibbs): (a) M = 0; (b) M = 1; (c) M = 3; (d) M = 5; (e) M = 11; (f) M = 101.
5.3 Serie di Fourier per segnali TD (DFS)
225
5.3 Serie di Fourier per segnali TD (DFS) Trattiamo ora la rappresentazione in serie di Fourier di segnali TD, nota anche come Discrete Fourier Series (DFS). Denotiamo con x(n) un segnale periodico di periodo N0 ∈ N, e definiamo la sua frequen
za fondamentale come ν0 = 1/N0 . Anche nel caso TD la serie di Fourier consiste nella rappresentazione di x(n) come sovrapposizione di fasori aventi frequenze multiple della frequenza fondamentale ν0 , quindi con un’espressione del tipo: x(n) = ∑ Xk e j2π kν0 n .
(5.21)
k
Notiamo che, nella (5.21), non abbiamo indicato di proposito gli estremi di variazione dell’indice k, e quindi l’intervallo di variazione delle frequenze νk = kν0 . Infatti, una differenza fondamentale da tener presente nel caso TD rispetto al caso TC è che due fasori aventi frequenze ν1 e ν2 tali che ν2 − ν1 = k ∈ Z sono matematicamente coincidenti (proprietà di periodicità in frequenza dei fasori TD, cfr. § 2.3.3). Nella (5.21), pertanto, è sufficiente far variare k in modo da ottenere le frequenze νk = kν0 = k/N0 in un qualunque intervallo di ampiezza unitaria, ad esempio in (0, 1) oppure in (−1/2, 1/2). In particolare, se k ∈ {0, 1, . . . , N0 − 1}, le frequenze νk assumono i valori 0, 1/N0 , . . . , (N0 − 1)/N0 nell’intervallo [0, 1[, per cui la (5.21) si può scrivere come: x(n) =
N0 −1
∑
Xk e j2π kν0 n .
(5.22)
k=0
La relazione (5.22) è analoga all’equazione di sintesi (5.10) della serie di Fourier a TC, e rappresenta l’equazione di sintesi della serie di Fourier discreta, in base alla quale un segnale periodico x(n) di periodo N0 può essere rappresentato come somma di un numero finito N0 di fasori aventi frequenze multiple della frequenza fondamentale ν0 = 1/N0 . La differenza fondamentale rispetto alla serie di Fourier (5.10) per segnali TC è che nel caso TD il numero di armoniche è finito14 ed è pari proprio ad N0 . Quindi un segnale TD periodico di periodo N0 può essere rappresentato esattamente con N0 armoniche (viceversa, salvo casi particolari, un segnale TC può essere solo approssimato utilizzando un numero finito di armoniche). L’equazione che consente di calcolare Xk (equazione di analisi) si trova con passaggi analoghi a quelli utilizzati nel caso TC, semplificati dal fatto che, essendo la (5.22) una somma finita, non è necessario utilizzare il concetto di convergenza uniforme di una serie come nel caso TC. In particolare, moltiplicando ambo i membri della (5.22) per e− j2π hν0 n e sommando su un periodo, si ha: N0 −1 1 N0 −1 j2π (k−h)ν0 n 1 N0 −1 − j2π hν0 n x(n) e = X = Xh , ∑ ∑ k N0 ∑ e N0 n=0 n=0 k=0 =δ (k−h)
per cui, cambiando l’indice da h nuovamente a k, si ha: Xk =
1 N0 −1 ∑ x(n) e− j2π kν0 n , N0 n=0
k ∈ {0, 1, . . . , N0 − 1} .
(5.23)
Le (5.22) e (5.23) rappresentano una coppia di equazioni di sintesi/analisi della serie di Fourier per segnali TD. Esse, se si eccettua la fondamentale differenza sul numero di fasori che compaiono nella 14 Si
osservi che, proprio per questo motivo, è improprio parlare di “serie” di Fourier nel caso TD, in quanto si tratta di una somma (finita) e non di una serie.
226
Serie di Fourier
rappresentazione, costituiscono formalmente l’esatta controparte delle (5.10) e (5.11), valide nel caso TC. Va detto però che, nella letteratura scientifica, viene abitualmente utilizzata una definizione leggermente diversa per la serie di Fourier a TD. A partire da Xk , si definisce infatti la sequenza X(k) come
X(k) = N0 Xk ,
(5.24)
e pertanto, con sostituzioni algebriche banali, le (5.22) e (5.23) si riscrivono in termini di x(n) e X(k) come: x(n) = X(k) =
1 N0 −1 ∑ X(k) e j2π kν0 n , N0 k=0 N0 −1
∑
(5.25)
x(n) e− j2π kν0 n .
(5.26)
n=0
Una prima differenza rispetto alle (5.22) e (5.23) è che il fattore 1/N0 è stato spostato dall’equazione di analisi a quella di sintesi. Inoltre nella (5.26) abbiamo esteso la definizione di X(k) a qualunque valore di k, sebbene a rigore gli unici valori di X(k) richiesti dall’equazione di sintesi (5.25) siano quelli dell’intervallo {0, 1, . . . , N0 − 1}. D’altra parte è facile verificare che la sequenza X(k) definita mediante la (5.26) è periodica,15 come la sequenza x(n), di periodo N0 : tale proprietà discende banalmente dalla periodicità in k del fasore e− j2π kν0 n . In altri termini, le (5.25) e (5.26) definiscono una trasformazione biunivoca tra le due sequenze x(n) e X(k), entrambe periodiche dello stesso periodo N0 . Se infine nelle (5.25) e (5.26) facciamo l’ulteriore posizione:
wN0 = e− j2π /N0
(5.27)
perveniamo alla seguente definizione per la serie di Fourier o DFS di un segnale TD: Definizione 5.2 (serie di Fourier a TD o DFS) Sia x(n) un segnale periodico avente periodo N0 e frequenza fondamentale ν0 = 1/N0 . Posto
wN0 = e− j2π /N0 , la serie di Fourier (DFS) di x(n) è definita dalle equazioni: x(n) = X(k) =
1 N0 −1 ∑ X(k) w−kn N0 N0 k=0 N0 −1
∑
x(n) wkn N0
(equazione di sintesi)
(5.28)
(equazione di analisi)
(5.29)
n=0
In effetti, nella letteratura scientifica le (5.28) e (5.29) sono comunemente considerate le equazioni di sintesi ed analisi della serie di Fourier a TD, anche se esse non sono esattamente corrispondenti a quelle nel caso TC. In particolare, la (5.29) viene denominata Discrete Fourier Series (DFS), mentre la (5.28) prende il nome di Inverse Discrete Fourier Series (IDFS). Per sottolineare che la DFS/IDFS istituisce una corrispondenza biunivoca tra due sequenze periodiche delle stesso periodo N0 si scrive: DFS
x(n) ←→ X(k) . 15 Notiamo
che una tale periodicità non vale invece per la sequenza dei coefficienti Xk della serie di Fourier di un segnale TC, che anzi tendono a zero per |k| → ∞ e quindi non possono essere periodici.
5.3 Serie di Fourier per segnali TD (DFS)
227
1 0.8
x(n)
0.6 0.4 0.2 0 −20
−10
0 n
10
20
Fig. 5.9. Onda rettangolare TD dell’es. 5.8 (N0 = 8, M = 4).
La DFS e IDFS possono anche essere viste come operatori, e si scrive sinteticamente X(k) = DFS[x(n)] ,
x(n) = IDFS[X(k)] .
È interessante mettere in luce un’ulteriore differenza tra il caso TC e TD. Un segnale TC periodico x(t) con periodo T0 è completamente descritto nel dominio del tempo dal suo andamento su un qualsiasi periodo, ad esempio per t ∈ [0, T0 [, ovvero da un’inifinità continua di valori; abbiamo visto che invece, nel dominio della frequenza, il segnale x(t) è descritto dalla successione {Xk }k∈Z dei suoi coefficienti di Fourier, ovvero da un segnale TD. Differentemente dal caso TC, per i segnali periodici TD sussiste una perfetta dualità tra il dominio del tempo e quello della frequenza. Infatti, un segnale TD periodico x(n) con periodo N0 è completamente descritto nel dominio del tempo dai suoi N0 valori assunti su un periodo, ad esempio x(0), x(1), . . . , x(N0 − 1); nel dominio della frequenza sussiste esattamente la stessa proprietà, il segnale x(n) è completamente descritto assegnando solo N0 valori, N0 −1 cioè i coefficienti {X(k)}k=0 della sua serie di Fourier. Si può infine verificare che le quantità wN0 definite mediante la (5.27) godono delle seguenti proprietà: −kn ∗ (a) Coniugazione: (wkn N0 ) = wN0 ; k(n+N0 )
= wkn N0 ;
(k+N0 )n
= wkn N0 .
(b) Periodicità in n: wN0 (c) Periodicità in k: wN0
In particolare, la periodicità della sequenza x(n) deriva dalla proprietà (b), mentre la periodicità della sequenza X(k) segue dalla proprietà (c). La periodicità di X(k) è una caratteristica peculiare della DFS, ed è importante per comprendere alcune proprietà sia della DFS (come ad esempio la simmetria hermitiana, cfr. § 5.4.2), sia della trasformata discreta di Fourier (DFT), che è strettamente legata alla DFS (cfr. cap. 7). Esempio 5.8 (DFS dell’onda rettangolare TD, funzione di Dirichlet) Consideriamo l’onda rettangolare TD di ampiezza unitaria e periodo N0 , ottenuta replicando una finestra rettangolare di durata M ≤ N0 : x(n) = repN0 [RM (n)] =
+∞
∑
k=−∞
RM (n − kN0 ) ,
228
Serie di Fourier
e raffigurata graficamente in fig. 5.9 per N0 = 8 ed M = 4. La DFS di x(n) si scrive, sulla base della definizione (5.29), come: X(k) = DFS[x(n)] =
N0 −1
∑
x(n) wkn N0 =
n=0
M−1
M−1
n=0
n=0
∑ wknN0 = ∑ [wkN0 ]n .
Per calcolare l’espressione precedente in forma chiusa, è possibile sfruttare la seguente identità: N2
∑
an =
n=N1
aN1 − aN2 +1 , 1−a
valida per ogni a ∈ C e per ogni N2 ≥ N1 .
Ponendo infatti a = wkN0 , N1 = 0 e N2 = M − 1, si ha: X(k) =
M−1
1 − wkM N0
n=0
1 − wkN0
∑ [wkN0 ]n =
.
(5.30)
Ricordando la definizione di wN0 , notiamo che wkM N0 wkN0
− j2π kM N
= e
0
− j2π Nk 0
= e
, ,
per cui la (5.30) può essere riscritta, con semplici passaggi algebrici, come − jπ kM jπ kM − jπ kM N0 N0 N0 kM − e e e − j2π kM π sin N0 k N 1−e = 0 e− jπ (M−1) N0 . X(k) = = k − j2π N − jπ k jπ k − jπ k sin π Nk0 0 1−e e N0 e N0 − e N0 Per esprimere in forma più compatta il risultato precedente, introduciamo la funzione DM (x) (funzione di Dirichlet o “sinc periodica”):
DM (x) =
sin(π xM) − j(M−1)π x e , sin(π x)
x ∈ R,
(5.31)
il cui grafico per x ∈ [−1, 1] è riportato in fig. 5.10 [notiamo che trattandosi di una funzione complessa abbiamo rappresentato separatamente modulo e fase di DM (x)]. Le principali proprietà della funzione DM (x) sono le seguenti, di facile dimostrazione: 1. La funzione DM (x) è periodica di periodo 1: DM (x + 1) = DM (x) ,
∀x ∈ R .
2. La funzione DM (x) si annulla in tutti i valori di x multipli di 1/M, tranne che in x = ±1, ±2, . . ., dove vale M: k 0, x = , k ∈ Z, x ∈ Z ; DM (x) = M M, x ∈ Z . Utilizzando la definizione (5.31), si ha allora:
k X(k) = DM , N0 ovvero la DFS dell’onda rettangolare si ottiene campionando con passo 1/M la funzione di Dirichlet. Tale DFS è rappresentata in ampiezza e fase in fig. 5.11 nel caso N0 = 8 ed M = 4. Notiamo anche in questo caso la simmetria pari dello spettro di ampiezza, e quella dispari dello spettro di fase.
5.4 Principali proprietà della serie di Fourier e della DFS
2 0 −1
0 x
0.5
1
2
−5
0 k
5
−5
0 k
5
2
0 −2 −1
2 0
−0.5
∠ X(k)
M
∠ D (x)
4 |X(k)|
|DM(x)|
4
229
0 −2
−0.5
0 x
0.5
1
Fig. 5.10. Funzione di Dirichlet per M = 4: modulo (in alto) e fase (in basso).
Fig. 5.11. DFS dell’onda rettangolare dell’es. 5.8 (N0 = 8, M = 4): spettro di ampiezza (in alto) e di fase (in basso).
Notiamo in conclusione che, poiché la DFS è la rappresentazione di un segnale periodico come somma finita di fasori, allora per essa non esistono problemi di convergenza come per la serie di Fourier a TC. In altre parole, un qualunque segnale periodico TD con periodo N0 si può sempre esprimere mediante le (5.28) and (5.29). Di conseguenza, il fenomeno di Gibbs non sussiste nel caso TD, anche perchè il concetto di continuità perde di significato in tal caso. Il fatto che la DFS/IDFS sia espressa mediante una somma finita di termini comporta che la DFS/IDFS può essere calcolata non solo analiticamente, ma anche algoritmicamente, in quanto richiede un numero finito di operazioni. Vedremo (cfr. § cap. 7) che la DFS presenta forti affinità con la trasformata di Fourier discreta (DFT), e per quest’ultima esistono algoritmi di calcolo computazionalmente efficienti, denominati algoritmi Fast Fourier Transform (FFT), che a partire dalla loro scoperta negli anni ’60 hanno dato un grosso impulso alla diffusione delle tecniche di elaborazione numerica dei segnali.
5.4 Principali proprietà della serie di Fourier e della DFS La serie di Fourier a TC e a TD (DFS) gode di molte proprietà interessanti, che suggeriscono ulteriori considerazioni concettuali e, soprattutto, risultano particolarmente utili per facilitare il calcolo dei coefficienti di Fourier. In questo paragrafo considereremo solo alcune proprietà principali della serie di Fourier che risultano più interessanti per le loro implicazioni nell’elaborazione dei segnali. In particolare, discuteremo nel dettaglio la proprietà di linearità, simmetria hermitiana dei coefficienti, e l’uguaglianza di Parseval per il calcolo della potenza. Per tali proprietà, tratteremo congiuntamente sia il caso TC che quello TD, evidenziando, quando necessario, le differenze salienti. Altre proprietà formali, utili talvolta nei calcoli, sono simili a quelle della trasformata di Fourier (che vedremo in maggior dettaglio), e sono comunque riportate in app. E. 5.4.1 Linearità
Siano x(t) ed y(t) due segnali periodici TC con lo stesso periodo T0 , i cui coefficienti di Fourier siano Xk e Yk , rispettivamente. Poichè i due segnali x(t) e y(t) hanno lo stesso periodo, si può facilmente dimostrare che una loro arbitraria combinazione lineare z(t) = α1 x(t) + α2 y(t), con α1 , α2 ∈ C, è ancora un segnale periodico di periodo T0 .16 La proprietà di linearità della serie di Fourier afferma
230
Serie di Fourier
che i coefficienti di Fourier Zk del segnale periodico z(t) si ottengono combinando linearmente allo stesso modo i coefficienti di Fourier dei segnali x(t) e y(t), ossia: Zk = α1 Xk + α2 Yk . Analogamente, siano x(n) ed y(n) due segnali periodici TD con lo stesso periodo N0 , i cui coefficienti di Fourier siano X(k) e Y (k), rispettivamente. Anche in questo caso si può mostrare agevolmente che un’arbitraria combinazione lineare z(n) = α1 x(n) + α2 y(n), con α1 , α2 ∈ C, dei due segnali è ancora un segnale periodico di periodo N0 ,17 la cui DFS si ottiene da quella dei segnali x(n) ed y(n) nel seguente modo: Z(k) = α1 X(k) + α2 Y (k) . Riassumendo, otteniamo la seguente proprietà notevole:
Proprietà 5.2 (linearità della serie di Fourier) FS FS (a) Siano x(t) ←→ Xk e y(t) ←→ Yk due segnali TC periodici con lo stesso periodo. Si ha: FS
α1 x(t) + α2 y(t) ←→ α1 Xk + α2 Yk , DFS
∀α1 , α2 ∈ C .
DFS
(b) Siano x(n) ←→ X(k) e y(n) ←→ Y (k) due segnali TD periodici con lo stesso periodo. Si ha: DFS
α1 x(n) + α2 y(n) ←→ α1 X(k) + α2 Y (k) ,
∀α1 , α2 ∈ C .
La dimostrazione della proprietà di linearità nel caso TC e TD si ottiene immediatamente a partire dalle equazioni di analisi (5.11) e (5.29), rispettivamente. Si noti infine che la proprietà di linearità si estende facilmente al caso della combinazione lineare di un numero arbitrario (ma finito) di segnali periodici dello stesso periodo. 5.4.2 Simmetria hermitiana
Con riferimento a segnali periodici TC, negli es. 5.1, 5.2 e 5.3 abbiamo osservato che lo spettro di ampiezza |Xk | è una funzione pari di k, mentre lo spettro di fase Xk è una funzione dispari di k (a meno di multipli di 2π ). Valgono cioè le seguenti relazioni: |Xk | = |X−k | , Xk = −X−k .
(simmetria pari) (simmetria dispari)
(5.32)
Si può facilmente mostrare che queste relazioni di simmetria per gli spettri di ampiezza e di fase si possono sinteticamente enunciare come: Xk∗ = X−k . 16 Può
accadere in casi particolari che il periodo fondamentale della combinazione lineare sia però più piccolo di T0 . nel caso TD, esistono casi particolari in cui il periodo fondamentale della combinazione lineare è più piccolo di
17 Anche
N0 .
(5.33)
5.4 Principali proprietà della serie di Fourier e della DFS
231
Una proprietà analoga è stata osservata anche nell’es. 5.8 riguardante la DFS dell’onda rettangolare TD, dove si è visto che lo spettro di ampiezza |X(k)| è una funzione pari di k, mentre lo spettro di fase X(k) è una funzione dispari di k (a meno di multipli di 2π ). Valgono cioè le seguenti relazioni: |X(k)| = |X(−k)| , X(k) = −X(−k) .
(simmetria pari) (simmetria dispari)
(5.34)
Pertanto, anche in questo caso le (5.34) si possono scrivere in maniera più compatta come: X ∗ (k) = X(−k) .
(5.35)
Le proprietà (5.33) e (5.35), in particolare, prendono il nome di simmetria hermitiana o coniugata dei coefficienti di Fourier, e valgono se e solo se il segnale periodico in questione è reale, come specificato dalla seguente proprietà: Proprietà 5.3 (simmetria hermitiana dei coefficienti della serie di Fourier) FS (a) Sia x(t) ←→ Xk un segnale TC periodico. Vale la seguente equivalenza: x(t) reale
Xk∗ = X−k
⇐⇒
(simmetria hermitiana)
(5.36)
DFS
(b) Sia x(n) ←→ X(k) un segnale TD periodico. Vale la seguente equivalenza: x(n) reale
X ∗ (k) = X(−k)
⇐⇒
(simmetria hermitiana)
(5.37)
Prova. Nel seguito è riportata la dimostrazione della proprietà di simmetria hermitiana solo nel caso TC; la dimostrazione nel caso della DFS si ottiene con ragionamenti analoghi. Proviamo prima l’implicazione ⇒ nella (5.36). Partiamo dall’equazione di analisi (5.11): Xk =
1 T0
T0
x(t) e− j2π k f0 t dt .
Se x(t) è reale, si ha x∗ (t) ≡ x(t), e pertanto: Xk∗ =
1 T0
T0
x∗ (t) e j2π k f0 t dt =
1 T0
T0
x(t) e− j2π (−k) f0t dt = X−k .
Proviamo adesso l’implicazione ⇐ nella (5.36). Se vale la simmetria hermitiana (5.36), osserviamo preliminarmente che per k = 0 si ha X0 = X0∗ , e quindi X0 è reale. Inoltre l’equazione di sintesi (5.10) si può riscrivere come: +∞
x(t) = X0 + ∑ Xk e j2π k f0 t +
−1
∑
k=1
k=−∞
+∞
+∞
= X0 + ∑ Xk e k=1
j2π k f0 t
+∑
+∞
+∞
Xk e j2π k f0 t = X0 + ∑ Xk e j2π k f0 t + ∑ X−k e− j2π k f0 t
Xk∗ e− j2π k f0 t
k=1
= X0 + 2 Re
k=1
k=1
+∞
∑ Xk e
j2π k f0 t
!
(5.38) ,
k=1
da cui, avendo già provato che X0 è reale, si ricava che x(t) è reale.
L’equivalenza tra simmetria hermitiana e simmetria pari/dispari degli spettri di ampiezza/fase si dimostra facilmente nel caso TC esprimendo Xk come Xk = |Xk | e jXk e sostituendo tale espressione nella (5.36). Si ha: Xk∗ = X−k ⇐⇒ |Xk | e− jXk = |X−k | e jX−k
232
Serie di Fourier
da cui eguagliando modulo e fase dei due membri si ottiene la (5.32) (con analoghi passaggi si ottiene la (5.34) a partire dalla (5.37) nel caso TD). Per evitare possibili fraintendimenti, notiamo che, poiché la fase di un numero complesso è definita a meno di multipli di 2π , la simmetria dispari dello spettro di fase va intesa anch’essa a meno di multipli di 2π . In altre parole, se x(·) è reale, tra tutti i possibili andamenti dello spettro di fase (ottenuti aggiungendo o sottraendo multipli di 2π ), è possibile determinarne almeno uno dispari. Rispetto al caso TC, la proprietà di simmetria hermitiana della DFS merita qualche ulteriore commento, in relazione alla periodicità della sequenza X(k). Notiamo infatti che nell’equazione di sintesi (5.28) compaiono solo i valori di X(k) per k ∈ {0, 1, . . . , N0 − 1}, per cui sembrerebbe che la simmetria hermitiana si possa applicare solo per k = 0 e, conseguentemente, il solo coefficiente X(0) è vincolato ad essere reale, mentre non è imposta nessuna relazione tra gli altri coefficienti X(k), per k ∈ {1, 2, . . . , N0 − 1}. Questa conclusione non è corretta. Infatti, ricordando che la DFS X(k) è una sequenza periodica di periodo N0 , si ha: X(−k) = X(−k + N0 ) = X(N0 − k) , per cui la (5.37) si può riscrivere, per k ∈ {1, 2, . . . , N0 − 1}, anche come segue: X ∗ (k) = X(N0 − k) . Notiamo infatti che, se k ∈ {1, 2, . . . , N0 − 1}, anche N0 − k varia nello stesso intervallo. In definitiva, la proprietà di simmetria hermitiana per la DFS, con riferimento ai soli valori di k ∈ {0, 1, . . . , N0 − 1}, si può esprimere, in alternativa alla (5.37) mediante le seguenti condizioni: X(0) reale , (5.39) X ∗ (k) = X(N0 − k) , k ∈ {1, 2, . . . , N0 − 1} , dove la seconda relazione si può interpretare anche come una simmetria di X(k) rispetto al “punto medio” N0 /2 dell’intervallo {1, 2, . . . , N0 − 1}. In particolare, se N0 /2 è intero (il che accade se e solo se N0 è pari), applicando la (5.39) per k = N0 /2 si ha: X ∗ (N0 /2) = X(N0 /2) , da cui si deduce che, oltre a X(0), anche X(N0 /2) è vincolato ad essere reale per N0 pari. La proprietà di simmetria hermitiana dei coefficienti consente di ottenere forme alternative della serie di Fourier a TC e TD, valide esclusivamente per segnali reali. Infatti, con riferimento a segnali periodici TC reali, ponendo Xk = |Xk | e jXk nella (5.38), si ottiene: ! ! x(t) = X0 + 2 Re
+∞
∑ |Xk | e jX
k
e j2π k f0t = X0 + 2 Re
k=1 +∞
+∞
∑ |Xk | e j(2π k f t+X ) 0
k=1
k
(5.40)
= X0 + 2 ∑ |Xk | cos(2π k f0t + Xk ) . k=1
Con ragionamenti simili, partendo dall’equazione di sintesi (5.28) e sfruttando la proprietà di simmetria hermitiana nella forma (5.39), si può verificare (la verifica è lasciata al lettore come esercizio) che, per segnali periodici TD reali, si ottiene: /
(N0 /2)−1 N 1 0 X(0) + (−1)n X + 2 ∑ |X(k)| cos[2π kν0 n + X(k)] , N0 pari , N0 2 k=1 x(n) = / (N0 −1)/2 1 N0 dispari . N X(0) + 2 ∑ |X(k)| cos[2π kν0 n + X(k)] , 0 k=1
5.4 Principali proprietà della serie di Fourier e della DFS
233
(5.41) Le (5.40) e (5.41) sono forme alternative delle equazioni di sintesi della serie di Fourier a TC e TD, rispettivamente, valide per segnali reali, note come forma polare della serie di Fourier, in cui compaiono esclusivamente funzioni trigonometriche reali e coefficienti reali. Un’ulteriore espressione della serie di Fourier, molto utilizzata nei testi di analisi matematica e valida sempre per segnali reali, si ottiene nel caso TC decomponendo Xk , anziché in modulo e fase, in parte reale ed immaginaria. Infatti, ponendo X0 = a0 /2 e Xk = (ak − jbk )/2 (con k ∈ N) nella (5.38), si ha, con facili passaggi algebrici, x(t) =
a0 +∞ + ∑ [ak cos(2π k f0t) + bk sin(2π k f0t)] , 2 k=1
(5.42)
dove: 2 a0 = T0
T0
x(t) dt ,
2 ak = T0
T0
x(t) cos(2π k f0t) dt ,
2 bk = T0
T0
x(t) sin(2π k f0t) dt .
Allo stesso modo, ponendo X(0) = a(0)/2 e X(k) = [a(k) − jb(k)]/2 (con k ∈ {1, 2, . . . , N0 − 1}) nella (5.29), partendo dall’equazione di sintesi (5.28) e sfruttando la proprietà di simmetria hermitiana nella forma (5.39), nel caso TD si ottiene: / (N0 /2)−1 n a(N /2) a(0) (−1) 1 0 + + ∑ [a(k) cos(2π kν0 n) + b(k) sin(2π kν0 n)] , N0 pari , N0 2 2 k=1 x(n) = / (N −1)/2 0 a(0) 1 + ∑ [a(k) cos(2π kν0 n) + b(k) sin(2π kν0 n)] , N0 dispari . N0 2 k=1 (5.43) dove: a(0) = 2
N0 −1
∑
x(n) ,
a(k) = 2
n=0
N0 −1
∑
n=0
x(n) cos(2π kν0 n) ,
bk = 2
N0 −1
∑
x(n) sin(2π kν0 n) .
n=0
Le espressioni (5.42) e (5.43) sono note come forma trigonometrica o forma rettangolare della serie di Fourier, ed in essa, come nella forma polare, compaiono soltanto quantità reali. Nel seguito, anche per segnali reali, saranno utilizzate quasi esclusivamente le definizioni originali di serie di Fourier a TC e TD (cfr. def. 5.1 e def. 5.2), note anche come forma esponenziale della serie di Fourier, perché più generali e compatte. 5.4.3 Uguaglianza di Parseval
L’uguaglianza di Parseval consente di esprimere la potenza di un segnale periodico in termini delle potenza delle armoniche che lo compongono. Consideriamo dapprima il caso di un segnale TC periodico. Il punto di partenza è l’equazione di sintesi (5.10), che riscriviamo per comodità: x(t) =
+∞
∑
k=−∞
Xk e j2π k f0t .
234
Serie di Fourier
Abbiamo già osservato [eq. (5.4)] che i fasori e j2π k f0t che compaiono nella (5.10) sono a due a due ortogonali. Tale proprietà consente di calcolare la potenza della somma dei fasori come somma delle potenze dei singoli fasori. Poiché (cfr. es. 2.18) la potenza di un singolo fasore Xk e j2π f0t della rappresentazione vale |Xk |2 , otteniamo la seguente relazione: Px =
+∞
∑
|Xk |2 ,
k=−∞
nota come uguaglianza di Parseval per la serie di Fourier (a TC). Passiamo a considerare il caso di un segnale periodico TD, riprendendo e riscrivendo l’equazione di sintesi (5.28): x(n) =
N0 −1 1 1 N0 −1 j2π k n −kn X(k) w = X(k) e N0 . ∑ ∑ N0 N0 k=0 k=0 N0
Come nel caso TC, possiamo interpretare questa relazione come uno sviluppo del segnale x(n) in una j2π
k
n
somma finita di fasori xk (n) = e N0 , con coefficienti X(k)/N0 . È semplice anche in questo caso provare che i segnali xk (n), essendo fasori a frequenze distinte, sono tra di loro ortogonali, ovvero hanno potenza mutua nulla: 1, se k = h ; 1 N0 −1 j2π (k−h) n ∗ Pxk xh = xk (n) xh (n) = ∑ e N0 = δ (k − h) = 0, se k = h . N0 n=0 In virtù di tale ortogonalità, la potenza del segnale x(n) si ottiene come somma delle potenze dei singoli fasori, e tenendo conto che la potenza di ciascun fasore della rappresentazione è pari stavolta a |X(k)|2 /N02 , si ottiene la seguente relazione: Px =
1 N0 −1 ∑ |X(k)|2 . N02 k=0
nota come uguaglianza di Parseval per la DFS. Riassumendo, possiamo quindi enunciare la seguente proprietà: Proprietà 5.4 (uguaglianza di Parseval per la serie di Fourier) FS (a) Sia x(t) ←→ Xk un segnale TC periodico con periodo T0 . La potenza di x(t) è data da: Px =
+∞
∑
|Xk |2 .
(5.44)
k=−∞ DFS
(b) Sia x(n) ←→ X(k) un segnale TD periodico con periodo N0 . La potenza di x(n) è data da: Px =
1 N0 −1 ∑ |X(k)|2 . N02 k=0
(5.45)
L’interpretazione “fisica” della uguaglianza di Parseval è che la potenza di un segnale periodico si può ottenere sommando le potenze delle singole armoniche che lo compongono. Notiamo che per segnali
5.4 Principali proprietà della serie di Fourier e della DFS
235
TC reali, sfruttando la simmetria hermitiana dei coefficienti, la (5.44) può essere riscritta utilizzando solo le armoniche con k ≥ 0, ottenendo: +∞
Px = X02 + 2 ∑ |Xk |2 . k=1
L’uguaglianza di Parseval può essere utilizzate per misurare la bontà della ricostruzione di un segnale TC periodico impiegando un numero finito di armoniche (cfr. § 5.2.2). Infatti, per ottenere una valutazione quantitativa di tale bontà, è possibile calcolare la potenza del segnale ricostruito con 2M + 1 armoniche: M
xM (t) =
∑
Xk e j2π k f0t ,
con M ∈ N ,
k=−M
e confrontarla con la potenza del segnale originario x(t). Utilizzando l’uguaglianza di Parseval, la potenza del segnale ricostruito è pari a: Px (M) =
M
∑
|Xk |2 .
k=−M
Tale potenza può essere rapportata alla potenza Px del segnale x(t), ottenendo così il coefficiente
ξM =
Px (M) ∈ [0, 1] , Px
che può essere assunto come indice della bontà della ricostruzione al variare di M. In particolare, tale coefficiente, per un fissato valore di M, indica la frazione della potenza del segnale originario x(t) presente nel segnale approssimato xM (t). In fig. 5.12 è rappresentato, al variare di M, il coefficiente ξM (espresso in percentuale) per l’onda rettangolare e triangolare. Si noti come il coefficiente ξM per l’onda triangolare tenda molto più rapidamente ad 1, rispetto a quello per l’onda rettangolare. Per un fissato valore di ξM , e quindi per un fissato valore di accuratezza relativa, è possibile calcolare il numero di armoniche M necessarie per i due segnali considerati. Ad esempio, per avere ξM ≥ 0.99 è necessario considerare M = 23 per l’onda rettangolare, mentre è sufficiente un valore M = 3 per l’onda triangolare.
236
Serie di Fourier
100
γM (%)
98 96 94 92 Onda triangolare Onda rettangolare 90 0
20
40
60
80
100
M Fig. 5.12. Bontà della ricostruzione con un numero finito di armoniche: confronto tra l’onda rettangolare e l’onda triangolare.
5.5 Risposta di un sistema LTI ad un segnale periodico
x(t)
H(f)
y(t)
x(n)
237
H(ν)
y(n)
Yk=H(kf 0)X k
Y(k)=H(kν0)X(k)
Fig. 5.13. Risposta di un sistema LTI ad un segnale periodico (caso TC).
Fig. 5.14. Risposta di un sistema LTI ad un segnale periodico (caso TD).
5.5 Risposta di un sistema LTI ad un segnale periodico Come accennato all’inizio di questo capitolo, la principale motivazione che spinge a rappresentare un arbitrario segnale come sovrapposizione di fasori è la semplicità con cui è possibile calcolare l’uscita di un sistema LTI sollecitato da un singolo fasore, mediante le relazioni (4.97) e (4.105): x(t) = e j2π f t −→ y(t) = H( f ) e j2π f t , x(n) = e j2πν n −→ y(n) = H(ν ) e j2πν n . In particolare, sfruttando le formule di Eulero, le espressioni precedenti sono state già utilizzate (cfr. § 4.7.3) per ricavare l’uscita di un sistema LTI reale sollecitato da una sinusoide TC o TD, che può essere vista come un caso particolare di segnale periodico. Avendo ricavato la rappresentazione in serie di Fourier sia nel caso TC che in quello TD, siamo ora in grado di calcolare esplicitamente l’uscita di un sistema LTI quando il segnale di ingresso è un arbitrario segnale periodico.18 Consideriamo prima il caso TC, e supponiamo che il segnale x(t), periodico di periodo T0 , sia applicato (fig. 5.13) in ingresso ad un sistema LTI con risposta in frequenza H( f ). Applicando l’equazione di sintesi della serie di Fourier a TC (5.10), il segnale x(t) può essere espresso come: +∞
∑
x(t) =
Xk e j2π k f0t ,
k=−∞
dove f0 = 1/T0 . Per la linearità del sistema, è possibile applicare il principio di sovrapposizione (3.23) per calcolare l’uscita y(t). Infatti, l’uscita corrispondente ad un singolo fasore xk (t) = e j2π k f0t (avente frequenza k f0 ) della rappresentazione di x(t) si ottiene applicando la (4.97): xk (t) = e j2π k f0t −→ yk (t) = H(k f0 ) e j2π k f0t . Pertanto, per il principio di sovrapposizione (3.23), ed essendo i coefficienti Xk ∈ C quantità costanti, l’uscita del sistema sarà: y(t) =
+∞
∑
Xk H(k f0 ) e j2π k f0t . k=−∞
(5.46)
=Yk
Poiché la (5.46) ha la forma dell’equazione di sintesi (5.10) della serie di Fourier di y(t), è possibile trarre due importanti conclusioni: 18 Espressioni
ancora più generali per un segnale non necessariamente periodico saranno ricavate quando studieremo la trasformata di Fourier (cap. 6).
238
Serie di Fourier
(1) l’uscita di un sistema LTI sollecitato in ingresso da un segnale periodico x(t) avente periodo T0 è a sua volta un segnale periodico y(t) avente periodo T0 ;19 (2) i coefficienti delle serie di Fourier di y(t) e x(t) sono legati dalla relazione20 Yk = H(k f0 ) Xk .
(5.47)
La (5.47), in particolare, mette in luce che i coefficienti della serie di Fourier dell’uscita y(t) si ottengono moltiplicando quelli dell’ingresso per i campioni della risposta in frequenza H( f ), calcolati alle frequenze fk = k f0 . Notiamo che le quantità che compaiono nella (5.47) sono tutte, in generale, complesse. In termini di modulo e fase, la (5.47) si può scrivere equivalentemente: |Yk | = |H(k f0 )||Xk | ,
(5.48)
Yk = H(k f0 ) + Xk .
(5.49)
Pertanto la risposta in ampiezza |H( f )| del sistema modifica con legge moltiplicativa lo spettro di ampiezza del segnale di ingresso, mentre la risposta in fase H( f ) del sistema modifica con legge additiva lo spettro di fase del segnale di ingresso. Particolarizzando la (5.47) per k = 0, e ricordando che Y0 = ydc e X0 = xdc , si ha: ydc = H(0) xdc . Pertanto le componenti continue dei segnali di ingresso e di uscita sono legate tra loro dalla moltiplicazione per H(0), che prende per questo motivo il nome di guadagno in continua del sistema.21 Passando ad esaminare il caso di un segnale TD, supponiamo che il segnale x(n), periodico di periodo N0 , sia applicato (fig. 5.14) in ingresso ad un sistema LTI con risposta in frequenza H(ν ). Tale segnale periodico può essere rappresentato come sovrapposizione di fasori mediante l’equazione di sintesi (5.22) della DFS: x(n) =
1 N0 −1 ∑ X(k) e j2π kν0 n , N0 k=0
dove ν0 = 1/N0 . La risposta del sistema LTI ad un generico fasore della precedente rappresentazione è data dalla (4.105): xk (n) = e j2π kν0 n −→ yk (n) = H(kν0 ) e j2π kν0 n . Pertanto, applicando il principio di sovrapposizione, si trova: y(t) =
1 N0 −1 ν ) e j2π kν0t . ∑ X(k) H(k 0 N0 k=0
(5.50)
=Y (k)
Dal confronto con la (5.22), si ricava anche in questo caso che y(n) è un segnale periodico, con lo stesso22 periodo N0 del segnale di ingresso, e che la sua DFS Y (k) è legata alla DFS del segnale di ingresso dalla relazione: Y (k) = H(kν0 ) X(k) .
(5.51)
Per gli spettri di ampiezza e fase, valgono considerazioni analoghe a quelle già fatte nel caso TC. 19 A
stretto rigore, poiché alcune armoniche Xk del segnale di ingresso potrebbero essere cancellate dal sistema LTI, il periodo fondamentale del segnale y(t) potrebbe essere anche un sottomultiplo di T0 . 20 Proprio perché lega le armoniche del segnale di ingresso e di uscita, la funzione H( f ) prende anche il nome di risposta armonica del sistema. 21 Si noti che, se il sistema è reale, per la simmetria hermitiana di H( f ) risulta che H(0) è reale. 22 Vale anche nel caso TD l’osservazione secondo la quale il periodo fondamentale del segnale di uscita potrebbe essere un sottomultiplo di N0 .
5.6 Selettività in frequenza dei sistemi LTI e filtri ideali
239
1 |Xk|
0.4 |H(f)|, |H(k f0)|
0.8
0.2 0
0.6
−5
0 k
5
−5
0 k
5
0.4 0.4 |Yk|
0.2
0.2
0 0 −5
0 f/f0
5
Fig. 5.15. Risposta di ampiezza del filtro RC (es. 5.9). Sono evidenziati i campioni |H(k f0 )| dello spettro di ampiezza |H( f )|.
Fig. 5.16. Spettro di ampiezza dell’ingresso (alto) e dell’uscita (basso) del filtro RC (es. 5.9). Si noti nel segnale di uscita l’attenuazione delle armoniche a frequenza più elevata.
5.6 Selettività in frequenza dei sistemi LTI e filtri ideali Le relazioni (5.47) e (5.51) consentono di studiare gli effetti di un sistema LTI su un segnale periodico, analizzando le modifiche introdotte dal sistema sulle singole armoniche che compongono il segnale. Facendo riferimento al caso TC, ad esempio, la (5.46), riportata di seguito, y(t) =
+∞
∑
Xk H(k f0 ) e j2π k f0t k=−∞ =Yk
mostra che un sistema LTI modifica in ampiezza e fase ciascun fasore e j2π k f0t del segnale di ingresso, lasciando tuttavia invariata la frequenza k f0 del fasore stesso. Inoltre, la modifica subita dalla k-esima armonica, avente frequenza k f0 , dipende esclusivamente dal valore H(k f0 ) assunto della risposta armonica H( f ) del sistema in corrispondenza di tale frequenza. Ciò significa che in generale un sistema LTI modifica in maniera diversa le armoniche del segnale alle differenti frequenze: questa fondamentale proprietà dei sistemi LTI va sotto il nome di selettività in frequenza. Particolarmente interessante è la modifica delle ampiezze delle armoniche, in quanto essa consente di alterare il peso relativo di ciascun fasore nella serie di Fourier, come evidenziato nell’esempio che segue. Esempio 5.9 (onda rettangolare a TC in ingresso ad un sistema RC) Si consideri l’onda rettangolare dell’es. 5.2, di ampiezza A e duty-cycle δc , in ingresso ad un sistema RC. Le armoniche del segnale x(t) sono date da Xk = Aδc sinc(kδc ) , mentre la risposta in frequenza del sistema RC è H( f ) =
1 , 1 + j2π f RC
per cui la (5.47) si scrive: Yk = H(k f0 )Xk =
1 Aδc sinc(kδc ) . 1 + j2π k f0 RC
240
Serie di Fourier
1
x(t),y(t)
0.8 0.6 0.4 0.2 0 −1
−0.5
0 t/T
0.5
1
0
Fig. 5.17. Segnale di ingresso x(t) (linea tratteggiata) e di uscita y(t) (linea continua) del filtro RC dell’es. 5.9. In particolare, l’ampiezza delle armoniche di uscita (spettro di ampiezza) è data da: |Yk | = #
1 1 + (2π k f0 RC)2
Aδc |sinc(kδc )| .
In fig. 5.15 è raffigurato lo spettro di ampiezza |H( f )| ed i campioni |H(k f0 )|, per 2π f0 RC = 1, mentre in fig. 5.16 sono raffigurate le ampiezze delle armoniche dell’ingresso e dell’uscita per A = 1 e δc = 1/2. Si noti che l’effetto del sistema RC è quello di attenuare l’ampiezza delle armoniche aventi frequenze più elevate. Il segnale y(t) di uscita (fig. 5.17), per effetto dell’attenuazione delle componenti ad alta frequenza, presenta un andamento più dolce rispetto al segnale di ingresso (in particolare, si noti che nel segnale di uscita sono scomparse le discontinuità presenti nell’ingresso).
L’esempio precedente evidenza un comportamento tipico di molti sistemi LTI, ossia quello di attenuare notevolmente (quando |H(k f0 )| 1) l’ampiezza di alcune armoniche, e di lasciare inalterate (quando |H(k f0 )| ≈ 1) l’ampiezza di altre armoniche.23 Come caso limite, se il sistema presenta un risposta armonica che si annulla in corrispondenza di alcune frequenze, le armoniche corrispondenti a quelle frequenze saranno completamente cancellate e quindi non saranno presenti nel segnale di uscita. Notiamo che il sistema LTI può solo modificare in ampiezza e fase le armoniche che sono già presenti nel segnale di ingresso, mentre non è in grado di “generare” armoniche a frequenze differenti da quelle dell’ingresso (vedremo che la generazione di nuove armoniche è una caratteristica tipica dei sistemi non lineari). Per questo motivo, si dice che il sistema LTI si comporta come un filtro, ovvero opera un filtraggio del segnale di ingresso: i termini “sistema LTI” e “filtro” possono quindi essere assunti come sinonimi. Con riferimento al caso TC, i più semplici esempi di filtri sono quelli cosiddetti ideali, la cui risposta in frequenza H( f ) assume solo i valori 0 oppure 1. In particolare, tutte le armoniche aventi frequenze per le quali H( f ) = 1 vengono fatte passare dal filtro senza modifiche: tale intervallo di frequenze W p prende il nome di banda passante del filtro o passband. Viceversa, tutte le armoniche aventi frequenze per le quali H( f ) = 0 vengono completamente bloccate dal filtro: tale intervallo di frequenze Ws prende il nome di banda oscura del filtro o stopband. I filtri ideali TC sono in genere classificati, sulla base della posizione della banda passante e di quella oscura, in quattro tipologie principali: 23 Ovviamente non è escluso che il sistema LTI possa amplificare (quando |H(k f
un comportamento tipico ad esempio dei circuiti elettrici risonanti.
0 )| ≥ 1) l’ampiezza di alcune armoniche,
5.6 Selettività in frequenza dei sistemi LTI e filtri ideali
241
HLPF(f)
HHPF(f)
1
-fc Ws
1
fc
0 Wp
-fc
f Ws
Fig. 5.18. Risposta in frequenza di un filtro ideale TC passabasso (LPF).
Wp
0 Ws
fc
f Wp
Fig. 5.19. Risposta in frequenza di un filtro ideale TC passaalto (HPF).
(1) Filtri passabasso o lowpass filter (LPF): sono caratterizzati da una banda passante W p posizionata intorno alla frequenza f = 0. La risposta in frequenza di un tale filtro (fig. 5.18) ha un’espressione analitica del tipo: 1, | f | ≤ fc ; HLPF ( f ) = 0, | f | > fc ; o equivalentemente:
f HLPF ( f ) = rect 2 fc
.
La banda passante del filtro è W p = [− fc , fc ], mentre la banda oscura è Ws =]−∞, − fc [ ∪ ] fc , +∞[. La frequenza fc > 0 che separa la banda passante dalla banda oscura prende il nome di frequenza di taglio del filtro. (2) Filtri passaalto o highpass filter (HPF): sono caratterizzati da una banda passante posizionata intorno alle frequenze ±∞. La risposta in frequenza (fig. 5.19) ha un’espressione analitica del tipo: 0, | f | ≤ fc ; HHPF ( f ) = 1, | f | > fc . La banda passante del filtro è W p =]−∞, − fc [ ∪ ] fc , +∞[, mentre la banda oscura è Ws = [− fc , fc ]. Anche in questo caso, la frequenza fc > 0 che separa la banda passante dalla banda oscura prende il nome di frequenza di taglio del filtro. Un’espressione equivalente di HHPF ( f ) si ottiene osservando che un filtro HPF è complementare ad un filtro LPF con la stessa frequenza di taglio:
f HHPF ( f ) = 1 − HLPF ( f ) = 1 − rect . 2 fc
242
Serie di Fourier
HBPF(f) ∆f
-fc2 -f0 Ws
Wp
∆f
1
-fc1
0 Ws
fc1
f0
fc2
Wp
f Ws
Fig. 5.20. Risposta in frequenza di un filtro ideale TC passabanda (BPF).
(3) Filtri passabanda o bandpass filter (BPF): sono caratterizzati da una banda passante posizionata intorno alle frequenze ± f0 = 0. La risposta in frequenza (fig. 5.20) ha un’espressione analitica del tipo: 1, fc1 ≤ | f | ≤ fc2 ; HBPF ( f ) = 0, altrimenti ; dove fc1 = f0 − ∆2f e fc2 = f0 + ∆2f , con 0 < fc1 < fc2 (notiamo che f0 = Un’espressione alternativa per HBPF ( f ) è la seguente:
f − f0 f + f0 HBPF ( f ) = rect + rect . ∆f ∆f
fc1 + fc2 2
e ∆ f = fc2 − fc1 ).
La banda passante del filtro è W p = [− fc2 , − fc1 ] ∪ [ fc1 , fc2 ], mentre la banda oscura è Ws = ] − ∞, − fc2 [ ∪ ] − fc1 , fc1 [ ∪ ] fc2 , +∞[. Per questo filtro, è possibile definire due frequenze di taglio, una inferiore ( fc1 ) ed una superiore ( fc2 ), mentre la frequenza f0 prende il nome di frequenza centrale del filtro. (4) Filtri eliminabanda o bandstop filter (BSF): sono caratterizzati da una banda passante posizionata intorno alle frequenze f = 0 e f = ±∞. La risposta in frequenza (fig. 5.21) ha un’espressione analitica del tipo: 0, fc1 ≤ | f | ≤ fc2 ; HBSF ( f ) = 1, altrimenti ; dove fc1 = f0 − ∆2f e fc2 = f0 + ∆2f , con 0 < fc1 < fc2 . La banda passante del filtro è W p =] − ∞, − fc2 [ ∪ ] − fc1 , fc1 [ ∪ ] fc2 , +∞[, mentre la banda oscura è Ws = [− fc2 , − fc1 ] ∪ [ fc1 , fc2 ]. Anche per questo filtro, così come per il filtro passabanda, è possibile definire due frequenze di taglio, una inferiore ( fc1 ) ed una superiore ( fc2 ). Un’espressione alternativa per HBSF ( f ) si ottiene osservando che un filtro BSF è complementare ad un filtro BPF con le stesse frequenze di taglio:
f − f0 f + f0 HBSF ( f ) = 1 − HBPF ( f ) = 1 − rect + rect . ∆f ∆f
5.6 Selettività in frequenza dei sistemi LTI e filtri ideali
243
HBSF(f)
1
-fc2 Wp
-fc1 Ws
0 Wp
fc1
fc2 Ws
f Wp
Fig. 5.21. Risposta in frequenza di un filtro ideale TC eliminabanda (BSF).
Per quanto riguarda il caso TD, le tipologie di filtri ideali sono le stesse, con la fondamentale differenza che, essendo la risposta armonica H(ν ) una funzione periodica di periodo 1 (cfr. prop. 4.11), le corrispondenti risposte dei filtri sono tutte periodiche di periodo 1. Nelle fig. 5.22–5.25 sono mostrate le risposte armoniche dei filtri ideali LPF, HPF, BPF e BSF per il caso TD, le cui espressioni analitiche sono riportate di seguito:
ν (filtro passabasso o LPF) (5.52) HLPF (ν ) = rep1 rect 2νc
ν (filtro passaalto o HPF) (5.53) HHPF (ν ) = 1 − rep1 rect 2νc
ν − ν0 ν + ν0 HBPF (ν ) = rep1 rect + rect (filtro passabanda o BPF) (5.54) ∆ν ∆ν
ν − ν0 ν + ν0 + rect (filtro eliminabanda o BSF) (5.55) HBSF (ν ) = 1 − rep1 rect ∆ν ∆ν Per il filtri LPF e HPF, descritti dalla (5.52) e (5.53), 0 < νc < 12 rappresenta la frequenza di taglio, mentre per i filtri BPF e BSF, descritti dalla (5.54) e (5.55) è possibile definire due frequenze di taglio, νc1 = ν0 − ∆2ν e νc2 = ν0 + ∆2ν , con 0 < νc1 < νc2 < 12 . Anche nel caso TD, si ha HHPF (ν ) = 1−HLPF (ν ) e HBPF (ν ) = 1 − HBSF (ν ), ovvero le coppie di filtri LPF/HPF e BPF/BSF con le stesse frequenze di taglio sono (a due a due) complementari. A parte il cambiamento della notazione utilizzata per la frequenza (ν invece di f ), si noti che le espressioni analitiche della risposta in frequenza nel caso TD differiscono da quello TC solo per l’aggiunta dell’operazione di replicazione di passo unitario, necessaria per garantire la periodicità di H(ν ). A causa di tale periodicità, nelle fig. 5.22–5.25 si è scelto di rappresentare le varie risposte in frequenza solo nell’intervallo ν ∈ [−1/2, 1/2[. Si noti che per tutte le tipologie di filtri introdotti precedentemente, sia nel caso TC che TD, la risposta armonica H(·) è una funzione reale e pari, quindi soddisfa la proprietà di simmetria hermitiana, data dalla (4.101) nel caso TC, oppure dalla (4.108) nel caso TD. Per questo motivo, i filtri considerati precedentemente sono tutti esempi di sistemi reali dal punto di vista matematico, intendendo con questo che la loro risposta impulsiva h(·) è una funzione reale. Tali filtri si dicono invece ideali in senso “fisico”, perché presentano una separazione netta tra banda passante e banda oscura, proprietà che in molte applicazioni è una caratteristica desiderabile (ad esempio, essa consente di separare perfettamente segnali che occupano differenti intervalli di frequenza). Tali filtri si dicono ideali anche
244
Serie di Fourier
perché non soddisfano alcune delle proprietà dei sistemi, quali ad esempio la stabilità e la causalità, e per questo motivo essi non sono fisicamente realizzabili (una discussione più approfondita su questo aspetto sarà effettuata nel cap. 6).
5.6 Selettività in frequenza dei sistemi LTI e filtri ideali
245
HLPF(ν)
HHPF(ν)
1
-νc
-1/2
1
νc
0
Ws
Wp
1/2
ν
-νc
-1/2
Ws
Wp
Fig. 5.22. Risposta in frequenza di un filtro ideale TD passabasso (LPF).
νc
0 Ws
Fig. 5.23. Risposta in frequenza di un filtro ideale TD passaalto (HPF).
Ws
∆ν
1
-νc2 -ν0 -νc1
-1/2
Wp
νc1 ν0
0 Ws
νc2
Wp
1/2
ν
Ws
Fig. 5.24. Risposta in frequenza di un filtro ideale TD passabanda (BPF).
HBSF(ν)
1
-νc2
-1/2 Wp
-νc1 Ws
ν
Wp
HBPF(ν) ∆ν
1/2
0 Wp
νc1
νc2 Ws
1/2
ν
Wp
Fig. 5.25. Risposta in frequenza di un filtro ideale TD eliminabanda (BSF).
246
Serie di Fourier
5.7 Esercizi proposti Con riferimento ai segnali TC (analoghe considerazioni sussistono per la DFS di un segnale TD), per ricavare i coefficienti Xk di un segnale x(t) periodico, avente periodo fondamentale T0 e frequenza fondamentale f0 = T10 , ci sono varie strade alternative: (a) nel caso particolare in cui il segnale si può esprimere come somma di sinusoidi/cosinusoidi, si espande ciascuna sinusoide/cosinusoide con le formule di Eulero e si identificano i coefficienti Xk confrontando l’espressione ottenuta con l’equazione di sintesi della serie di Fourier (metodo di “ispezione”); (b) si risolve direttamente l’equazione di analisi 1 Xk = T0
T0
x(t) e− j2π k f0t dt ,
dove le scelte più comuni per l’intervallo di integrazione sono (−T0 /2, T0 /2) oppure (0, T0 ). In questo caso il calcolo di Xk si riduce a quello di un integrale definito (spesso conviene considerare separatamente il caso k = 0); (c) si esprime il segnale periodico x(t) in funzione di uno o più segnali periodici con lo stesso periodo, le cui serie sono più agevoli da calcolare, e si utilizzano le proprietà formali della serie di Fourier: ad esempio, se x(t) = 2 y(t) − 1 si ha, per la proprietà di linearità Xk = 2Yk − δ (k), in quanto i coefficienti della serie di Fourier di 1 (segnale costante) sono δ (k); (d) si utilizza la relazione nota come proprietà di campionamento in frequenza o formula di Poisson (cfr. capitolo 6 del libro di teoria) che lega i coefficienti Xk della serie di Fourier alla trasformata di Fourier Xg ( f ) di un arbitrario segnale generatore xg (t) del segnale periodico; in questo modo il calcolo della serie di Fourier si riconduce a quello della trasformata di Fourier di xg (t), e quest’ultimo problema è generalmente più semplice. In conclusione, il metodo di ispezione è applicabile solo a segnali composti da sinusoidi/cosinusoidi. Per un segnale avente forma più generale, la procedura (d) è quella che semplifica maggiormente i calcoli, e quindi andrebbe utilizzata per prima; tuttavia, tutte le serie di Fourier proposte negli esercizi di questo capitolo sono calcolabili semplicemente anche con le tecniche (b) e (c). Esercizio 5.1 Si consideri il segnale: π . x(t) = cos(6π t) cos(2π t) + sin 2π t + 4 (a) Determinare il periodo T0 di x(t). (b) Determinare analiticamente i coefficienti Xk della serie di Fourier di x(t) e fornirne una valida rappresentazione grafica. [Suggerimento: per il punto (b), utilizzare note formule trigonometriche ed applicare il metodo di ispezione.] Risultato: (a) T0 = 1 (b) X1 = 21j e jπ /4 , X−1 = − 21j e− jπ /4 , X2 = X−2 = X4 = X−4 = 14 , Xk = 0 per tutti gli altri valori di k ∈ Z. Esercizio 5.2 Si consideri il segnale periodico: x(t) = | cos(2π f1t)|
(segnale coseno “raddrizzato”),
con f1 ∈ R+ .
(a) Rappresentare graficamente il segnale x(t) e determinarne il periodo T0 e la frequenza fondamentale f0 .
5.7 Esercizi proposti
247
(b) Determinare analiticamente i coefficienti Xk della serie di Fourier di x(t) e fornirne una valida rappresentazione grafica. Risultato: (a) T0 =
1 2 f1 , f 0
2 = 2 f1 ; (b) Xk = (−1)k π (1−4k 2) .
Esercizio 5.3 Si consideri il segnale periodico x(t) = repT0 [xg (t)], con T0 ∈ R+ , dove 1 − 4t , 0 ≤ t ≤ T /2 , 0 T0 xg (t) = 0 , altrimenti . (a) Rappresentare graficamente il segnale x(t). (b) Determinare analiticamente i coefficienti Xk della serie di Fourier di x(t) e fornirne una valida rappresentazione grafica. k = 0, 0 , j 0 pari , Risultato: (b) Xk = − π k , k = 2 , k dispari . (π k)2 Esercizio 5.4 Si consideri il segnale periodico x(t) =
+∞
∑
(−1)k δ (t − kT ) ,
con T ∈ R+ .
k=−∞
(a) Rappresentare graficamente il segnale x(t) e determinarne il periodo T0 . (b) Determinare analiticamente i coefficienti Xk della serie di Fourier di x(t) e fornirne una valida rappresentazione grafica. 0, k pari ; Risultato: (a) T0 = 2T ; (b) Xk = 1 T , k dispari . Esercizio 5.5 Si consideri il segnale periodico x(t) = repT0 [xg (t)], con T0 ∈ R+ , dove
2t 2t − T0 xg (t) = rect − rect . T0 T0 (a) Rappresentare graficamente il segnale x(t). (b) Determinare analiticamente i coefficienti Xk della serie di Fourier di x(t) e fornirne una valida rappresentazione grafica. [Suggerimento: dal grafico, notare che il segnale x(t) si può esprimere come x(t) = y(t) − 1, dove y(t) = repT0 [2 rect(2t/T0 )] (onda rettangolare di ampiezza 2 e δc = 1/2), ed applicare poi la proprietà di linearità della serie di Fourier.]
Risultato: (b) Xk =
0, 2 kπ
sin
kπ 2
k pari ; , k dispari .
Esercizio 5.6 Si consideri il segnale periodico x(t) = repT0 [xg (t)], con T0 ∈ R+ , dove
2t t xg (t) = 2Λ − 1 rect . T0 T0
248
Serie di Fourier
(a) Rappresentare graficamente il segnale x(t). (b) Determinare analiticamente i coefficienti Xk della serie di Fourier di x(t) e fornirne una valida rappresentazione grafica. [Suggerimento: dal grafico, notare che il segnale x(t) si può esprimere come x(t) = y(t) − 1, dove y(t) = repT0 [2Λ(2t/T0 )] (onda triangolare di ampiezza 2), ed applicare poi la proprietà di linearità della serie di Fourier.] 0, k pari ; Risultato: (b) Xk = 4 , k dispari . k2 π 2 Esercizio 5.7 Si consideri il segnale periodico x(n) = rep4 [xg (n)], dove xg (n) = δ (n) − 2 δ (n − 2) − δ (n − 3) . (a) Rappresentare graficamente il segnale x(n). (b) Determinare analiticamente la DFS X(k) di x(n) e fornirne una valida rappresentazione grafica. (c) Verificare che la DFS calcolata gode della proprietà di simmetria hermitiana. Risultato: (b) X(k) = 1 − 2e− jπ k − e− j(π /2)k , k ∈ {0, 1, 2, 3}, da cui X(0) = −2, X(1) = 3 − j, X(2) = 0, X(3) = 3 + j. Esercizio 5.8 Si consideri il segnale periodico
nπ 3π + x(n) = 1 + sin . 12 8 (a) Determinare il periodo N0 di x(n). (b) Determinare analiticamente la DFS X(k) di x(n) e fornirne una valida rappresentazione grafica. (c) Verificare che la DFS calcolata gode della proprietà di simmetria hermitiana. 24 , 12 e j 3π /8 , j Risultato: (a) N0 = 24; (b) X(k) = 12 − j 3π /8 − e , j 0,
k = 0; k = 1; k = 23 ; k ∈ {2, 3, . . . , 22} .
Esercizio 5.9 Si consideri il segnale periodico
2π n 2π n 4π n π + x(n) = 1 + sin + 3 cos + cos . N N N 2 (a) Determinare il periodo N0 del segnale x(n). (b) Determinare analiticamente la DFS X(k) di x(n) e fornirne una valida rappresentazione grafica. (c) Verificare che la DFS calcolata gode della proprietà di simmetria hermitiana. Risultato: (a) N0 = N; (b) X(0) = N, X(1) = X(k) = 0 per tutti gli altri valori di k.
N 2 (3 −
j), X(2) =
N 2
j, X(N − 2) = − N2 j, X(N − 1) =
N 2 (3 +
j),
5.7 Esercizi proposti
249
Esercizio 5.10 Si consideri il segnale periodico x(n) = rep6 [xg (n)], dove 2, 1 , xg (n) = 2, 0,
n = −1 ; n = 0; n = 1; altrimenti .
(a) Rappresentare graficamente il segnale x(n). (b) Determinare analiticamente la DFS X(k) di x(n) e fornirne una valida rappresentazione grafica. (c) Verificare che la DFS calcolata gode della proprietà di simmetria hermitiana. Risultato: (b) X(k) = 1 + 4 cos
πk 3
, k ∈ {0, 1, 2, 3, 4, 5, 6}.
Esercizio 5.11 Si consideri il segnale periodico rappresentato nella seguente figura: x(n)
2 1 ....
....
-5
0
5
n
(a) Determinare il periodo N0 di x(n). (b) Determinare analiticamente la DFS X(k) di x(n) e fornirne una valida rappresentazione grafica. (c) Verificare che la DFS calcolata gode della proprietà di simmetria hermitiana.
Risultato: (a) N0 = 5; (b) X(k) =
8,
k π k/5) e− j2π 5 sin(3 sin(π k/5)
k = 0; , k ∈ {1, 2, 3, 4} .
Esercizio 5.12 Si consideri il segnale periodico x(n) =
+∞
∑
[4 δ (n − 4k) + 8 δ (n − 1 − 4k)] .
k=−∞
(a) Rappresentare graficamente il segnale x(n) e determinarne il periodo N0 . (b) Determinare analiticamente la DFS X(k) di x(n) e fornirne una valida rappresentazione grafica. (c) Verificare che la DFS calcolata gode della proprietà di simmetria hermitiana. Risultato: (a) N0 = 4; (b) X(k) = 4 + 8(− j)k , k ∈ {0, 1, 2, 3}, da cui X(0) = 12, X(1) = 4 − j 8, X(2) = −4, X(3) = 4 + j 8. Esercizio 5.13 Sia x(t) un segnale periodico di periodo T0 ∈ R+ .
250
Serie di Fourier
(a) Mostrare che se x(t) ha solo armoniche dispari (Xk = 0, ∀k pari, incluso k = 0) allora x(t) presenta la seguente proprietà di simmetria
T0 x(t) = −x t + , ∀t ∈ R . (5.56) 2 (b) Viceversa, mostrare che se x(t) ha la proprietà di simmetria (5.56), allora il segnale ha solo le armoniche dispari, e si ha in particolare 0 , k pari Xk = 2 T0 /2 − j2 π k f t 0 dt , x(t) e k dispari T0 0 [Suggerimento: (a) Scrivere l’equazione di sintesi e provare direttamente che vale la (5.56). (b) Scrivere l’equazione di analisi in (−T0 /2, T0 /2) e dividere l’integrale in due integrali, in modo da poter sfruttare la (5.56) operando un cambiamento di variabile in uno dei due integrali. ] Esercizio 5.14 Sia wN0 = e− j2π /N0 , con N0 ∈ N (è la quantità che compare nella definizione di DFS/IDFS). Provare che valgono le seguenti identità: N0 −1
∑
n=0 N0 −1
∑
k=0
w±kn N0 = N0 w±kn N0 = N0
+∞
∑
=−∞ +∞
∑
=−∞
δ (k − N0 ) = N0 repN0 [δ (k)]
δ (n − N0 ) = N0 repN0 [δ (n)] N−1
[Suggerimento: applicare l’indentità notevole
∑ an =
n=0
1 − aN , valida ∀a = 0.] 1−a
Esercizio 5.15 Sia x(t) un segnale periodico di periodo T0 ∈ R+ . Si consideri il segnale a tempo discreto x(n) ottenuto campionando x(t) con passo Tc = NT00 , N0 ∈ N:
n T0 x(n) = x N0
.
Verificare che x(n) è un segnale periodico di periodo N0 e determinare la DFS X(k) di x(n) in funzione dei coefficienti Xk della serie di Fourier di x(t). [Suggerimento: applicare le identità dell’esercizio 5.14.] Risultato: X(k) =
+∞
∑
=−∞
Xk−N0 = repN0 [Xk ].
Esercizio 5.16 Senza calcolare esplicitamente x(n), stabilire quali delle seguenti DFS corrispondono ad un segnale x(n) reale: (a) X(0) = 3, X(1) = −5, X(2) = 3, X(3) = −5; (b) X(0) = 3, X(1) = 5 − j, X(2) = 3 j, X(3) = −3 j, X(3) = 5 + j; (c) X(0) = j, X(1) = 2, X(2) = 2, X(3) = − j; (d) X(0) = −2, X(1) = 3, X(2) = 1 + j, X(3) = 1 − j, X(4) = −3; (e) X(0) = 3, X(1) = 3 e jπ /4 , X(2) = 1, X(3) = 3 e j7π /4 .
5.7 Esercizi proposti
251
Risultato: (a) x(n) reale; (b) x(n) reale; (c) x(n) non reale; (d) x(n) non reale; (e) x(n) reale. Esercizio 5.17 Si consideri il segnale periodico x(n), avente DFS X(k), caratterizzato dalle seguenti proprietà: (1) x(n) è un segnale reale; (2) x(n) è periodico di periodo N0 = 10; (3) X(11) = 50; (4) Px = 50. Dimostrare che l’unico segnale che soddisfa le proprietà (1)–(4) ha l’espressione x(n) = α cos(β n + γ ), e determinare in particolare le costanti α , β , γ . [Suggerimento: utilizzare le proprietà della DFS.] Risultato: α = 10, β = π /5 e γ = 0. Esercizio 5.18 Si consideri il segnale periodico x(n), avente DFS X(k), caratterizzato dalle seguenti proprietà: (1) x(n) è periodico di periodo N0 = 6; (2) ∑5n=0 x(n) = 2; (3) ∑7n=2 (−1)n x(n) = 1; (4) tra tutti i segnali che verificano le proprietà (1)–(3) precedenti, il segnale x(n) è quello avente potenza Px minima. Determinare e rappresentare graficamente il segnale x(n) che verifica le quattro proprietà sopra elencate. [Suggerimento: utilizzare le proprietà (2) e (3) per ricavare alcuni valori della DFS di x(n); per la proprietà (4), utilizzare l’uguaglianza di Parseval per la DFS.] Risultato: x(n) = 13 + 16 (−1)n . Esercizio 5.19 Si consideri il sistema LTI avente risposta in frequenza H( f ) =
sin(8π f ) . 2π f
Calcolare l’uscita y(t) del sistema in corrispondenza del segnale di ingresso x(t) = rep8 [xg (t)], con 1, 0 ≤ t < 4; xg (t) = −1, 4 ≤ t < 8 . Risultato: y(t) ≡ 0. Esercizio 5.20 Il segnale periodico x(t) = rep2T0 [xg (t)], dove xg (t) = Λ
t T0
,
con T0 ∈ R+ ,
viene filtrato con un filtro LTI avente risposta armonica H( f ) =
1 − j4π f T0 , 1 + j2π f T0
ottenendo il segnale y(t).
252
Serie di Fourier
(a) Determinare la componente continua dei segnali x(t) ed y(t). (b) Determinare il rapporto tra l’ampiezza della terza armonica e l’ampiezza dell’armonica fondamentale per ciascuno dei segnali x(t) e y(t). Risultato: (a) xdc = ydc =
1 2;
(b) |X3 |/|X1 | =
1 9
e |Y3 |/|Y1 | =
1 9
(1+36π 2 )(1+π 2 ) (1+9π 2 )(1+4π 2 )
≈ 19 .
Esercizio 5.21 Il segnale periodico x(t) = rep2T0 [xg (t)], dove
t t xg (t) = 2 Λ − 1 rect , T0 2T0
con T0 ∈ R+ ,
è posto in ingresso ad un filtro ideale passabasso avente guadagno unitario nella banda passante e frequenza di taglio fc . (a) Determinare la frequenza di taglio fc del filtro in modo che l’uscita y(t) del filtro sia un segnale sinusoidale di frequenza f0 = 1/(2T0 ). (b) In corrispondenza dei valori di fc determinati al punto (a), calcolare l’espressione esplicita di y(t). Risultato: (a) ragionando sulla relazione i-u Yk = Xk H(k f0 ), si trova che
1 2T0
< fc < 2T30 ; (b) y(t) = π82 cos(2π f0t).
Esercizio 5.22 Il segnale periodico x(t) = repT0 [xg (t)], dove
2t t xg (t) = 2 Λ − 1 rect , T0 T0
con T0 ∈ R+ ,
è posto in ingresso ad un filtro passabasso avente risposta armonica:
f − j2π 4 ff 0 H( f ) = rect e 4 f0 con f0 = 1/T0 . Determinare il segnale y(t) in uscita al filtro. Risultato: y(t) =
8 sin(2π f0t). π2
Esercizio 5.23 Quando il segnale x(n) = rep4 [δ (n)] è posto in ingresso al sistema LTI avente risposta armonica H(ν ), l’uscita y(n) è pari a
5π π n+ y(n) = cos . 2 4 Determinare i valori di H 4k , per k = 0, 1, 2, 3. Risultato: H(0) = 0, H(1/4) = 2 e jπ /4 , H(1/2) = 0, H(3/4) = 2 e− jπ /4 . Esercizio 5.24 Si consideri il filtro ideale avente risposta armonica
ν − ν0 ν + ν0 H(ν ) = rep1 rect + rect , ∆ν ∆ν con ν0 =
3 16
e ∆ν =
1 24 .
(a) Rappresentare graficamente la risposta armonica del filtro nell’intervallo ν ∈ (−1, 1).
5.7 Esercizi proposti
253
(b) Calcolare l’uscita del filtro in corrispondenza dei seguenti ingressi periodici: (1) x1 (n) = (−1)n ; (2) x2 (n) = 1 + sin 38π n + π4 ; 1 n−4k (3) x3 (n) = ∑+∞ u(n − 4k). k=−∞ 2 Risultato: (a) y1 (n) ≡ 0; (b) y2 (n) = sin
3π 8
n + π4 ; (c) y3 (n) ≡ 0.
Esercizio 5.25 Il segnale periodico x(t) = repT0 [xg (t)], dove xg (t) = cos
πt T0
rect
t T0
,
con T0 ∈ R+ ,
è posto in ingresso ad un filtro RC avente risposta armonica H( f ) =
1 . 1 + j2π f RC
(a) Determinare l’espressione dei coefficienti Yk della serie di Fourier del segnale y(t) in uscita al filtro. (b) Con riferimento al punto precedente, determinare il valore di RC che assicura che il rapporto ciente di ripple) in uscita al filtro sia pari ad 13 .
2|Y1 | Y0
(coeffi-
[Suggerimento: il segnale x(t) è il coseno raddrizzato dell’esercizio 5.2.] √ T0 3 1 1 ; (c) RC = . Risultato: (a) Yk = (−1)k π2 1−4k 2 k 2π 1+ j2π T RC 0
Esercizio 5.26 Il segnale +∞
t − 2kT0 x(t) = ∑ (−1) Λ T0 k=−∞
k
è posto in ingresso ad un filtro ideale passabasso di guadagno unitario e frequenza di taglio 1/T0 . (a) Calcolare la frequenza fondamentale f0 del segnale x(t). (b) Determinare il segnale in uscita al filtro e valutarne la potenza Py . [Suggerimento: il segnale x(t) è simile all’onda triangolare dell’esercizio 5.6.] 8 πt 8 3π t 1 . Risultato: (a) f0 = 1/(4T0 ); (b) y(t) = π 2 cos 2T0 + 9π 2 cos 2T0 ; Py = π324 1 + 81 Esercizio 5.27 Il segnale x(t) = rep2T0 [xg (t)], dove
t t xg (t) = 2Λ − 1) rect , T0 2T0
con T0 ∈ R+ ,
è filtrato con un filtro RC allo scopo di ottenere un segnale approssimativamente sinusoidale con frequenza f0 = 1/(2T0 ). Determinare la costante di tempo RC del filtro in modo che l’ampiezza della prima componente sinusoidale a frequenza superiore ad f0 del segnale filtrato sia pari ad 1/25 della fondamentale. $ 0.364 Risultato: RC = 2π1f0 68 13 ≈ f0 . Esercizio 5.28 Con riferimento allo schema in figura, si calcoli l’uscita y(t), sapendo che: (1) x(t) = cos(2π f0t), con f0 = 1 kHz; f1 = 2 kHz, f2 = 3 kHz;
254
Serie di Fourier
(2) H1 ( f ) è la risposta in frequenza di un filtro ideale passabasso avente frequenza di taglio 2 kHz e guadagno nella banda passante pari a 2; (3) H2 ( f ) è la risposta in frequenza di un filtro ideale passaalto avente frequenza di taglio 3 kHz e guadagno nella banda passante pari a 2.
-3
x(t)
-3
- H1 ( f )
6
- H2 ( f )
- y(t)
6
cos(2π f1t)
cos(2π f2t)
Risultato: y(t) = cos[2π ( f1 − f0 + f2 ) t]. =4kHz
Esercizio 5.29 Con riferimento allo schema in figura, (1) x(t) = 5 + 2 cos(2π f0t); (2) H1 ( f ) è un filtro RC avente costante di tempo RC =
1 2π f0
e guadagno in continua unitario;
(3) H2 ( f ) è un filtro ideale passabasso avente frequenza di taglio fc = 1.5 f0 e guadagno in continua unitario. Calcolare l’uscita y(t) e determinarne la potenza Py .
x(t)
u(t)
- H1 ( f )
-
(·)2
v(t)
- H2 ( f )
- y(t)
√ Risultato: y(t) = 26 + 10 2 cos(2π f0t − π /4); Py = 776. Esercizio 5.30 Con riferimento allo schema in figura, x(t) è un segnale periodico di periodo T0 ∈ R+ con coefficienti della serie di Fourier Xk , g(x) = |x|2 è una nonlinearità (quadratica) senza memoria, e H( f ) è un filtro ideale passabasso avente frequenza di taglio fc = 1.5/T0 e guadagno unitario. Si assuma che tutti i segnali ed i sistemi considerati siano reali. Determinare l’espressione del segnale di uscita z(t).
x(t)
-
Risultato: z(t) = Y0 + 2 Re{Y1 e
g(x)
j 2Tπ t 0
y(t)
-
H( f )
- z(t)
+∞ 2 ∗ }, dove Y0 = ∑+∞ k=−∞ |Xk | e Y1 = ∑k=−∞ Xk Xk−1 .