Appunti di Comunicazioni Elettriche Andrea Austa, Alberto Cuda 9 Aprile 1998
Revisione 1.1.0
AVVERTENZA Questo documento puo` essere liberamente distribuito, tramite fotocopie o in forma elettronica, nei formati PostScript e LATEX, purch´e nessuna parte, in particolar modo questa avvertenza, venga rimossa. In conformit`a con la formula shareware, se il lavoro si e` rivelato particolarmente utile e soddisfaciente, si puo` decidere di contribuire ad esso; nel caso specifico, questo lo si puo` fare in due modi: Aggiornando il presente documento (il che d`a diritto ad essere inseriti nella lista degli autori); Mettendo a disposizione i propri appunti di una qualsiasi materia ed apponendovi questa stessa nota.
1
Un particolare ringraziamento a Claudio Vacca, Felice Cifarelli, Daniele Bechis, Fabrizio Vacca, Ezio Ricca, Michelangelo de Bonis : : :
Andrea Austa email:
[email protected] homepage: http://www.cclinf.polito.it/˜s83414
Alberto Cuda email:
[email protected] homepage: http://www.cclinf.polito.it/˜s84606
Prefazione Questo fascicolo contiene gli appunti relativi al corso di Comunicazioni Elettriche Generale tenuto dal professore Guido Albertengo, svoltosi durante l’anno accademico 1996-’97 presso il Politecnico di Torino. L’idea e` nata da una nostra necessit`a di avere degli appunti ordinati, ma anche dalla convinzione che la collaborazione debba sempre svolgere un ruolo significativo nella vita di chiunque; saremo perci`o grati a chi vorr`a contribuire inviandoci segnalazioni e suggerimenti. Questo documento e` stato realizzato mediante AMSLATEX1 ; la copertina, invece, e` stata composta mediante il pacchetto FoilTEX2 ; il sistema operativo utilizzato e` Debian GNU Linux3 . Il presente testo pu`o essere liberamente distribuito tramite fotocopie o in forma elettronica, nei formati Postscript e LATEX ed e` disponibile sulla rete Internet a partire dalle nostre home page. Per contattarci, potete inviare una e-mail ai nostri indirizzi; consigliamo inoltre di visitare periodicamente le nostre home page per consultare l’errata corrige o di scriverci se volete essere avvertiti ogni volta che viene aggiornata. Siamo disponibili a fornire supporto a chiunque voglia intraprendere un lavoro di scrittura in LATEX.
ANDREA AUSTA
ALBERTO CUDA
1 Si pronuncia “late ”; l’ultima lettera va aspirata, come Ich in tedesco. 2 Copyright c 1995 IBM Corporation. 3 Abbandonate ogni altra distribuzione, questa e` l’unica veramente “GNU”.
3
Indice Prefazione
3
Capitolo 1. Teoria dell’Informazione 1. Struttura di un Sistema di Comunicazione 2. Codifica di Fano 3. Codifica di Fano-Huffman
7 7 8 9
Capitolo 2. Analisi di Segnali 1. Potenza 2. Lo Spazio delle Funzioni 3. Realizzazione di Trasmettitore e Ricevitore
13 13 16 20
Capitolo 3. Serie e Trasformata di Fourier 1. Base di Fourier 2. La Serie di Fourier delle funzioni reali. Teorema di Parseval 3. Trasformata di Fourier 4. Conversione da Serie a Trasformata e viceversa
22 22 24 25 26
Capitolo 4. Densit`a Spettrali di Energia e di Potenza 1. Definizione di densit`a spettrale di energia e di potenza 2. Densit`a di potenza di funzioni periodiche
32 32 33
Capitolo 5. Processi Casuali 1. Definizioni 2. Calcolo di media e varianza di x(t) 3. Applicazione: trasmissione con rumore termico
35 35 36 37
Capitolo 6. Il Digital Signal Processing 1. Analisi del DSP con componenti ideali 2. Analisi del DSP con componenti reali
39 39 43
Capitolo 7. Codici di Linea 1. Definizioni 2. Densit`a spettrale di potenza per simboli equiprobabili 3. Generalizzazione a simboli non equiprobabili
46 46 48 51
Capitolo 8. Segnalazioni in Banda Limitata 1. Parametri caratteristici della trasmissione in bande 2. Interferenza Intersimbolica 3. Il Primo Criterio di Nyquist 4. Il Filtro Trasversale
53 53 57 63 66
4
INDICE
5
Capitolo 9. Rumore 1. Resistore Rumoroso 2. Doppio Bipolo Rumoroso 3. Modello della temperatura equivalente 4. Catena di doppi bipoli 5. Rumore gaussiano bianco con il modello della Te
70 70 73 75 76 79
Capitolo 10. Filtro Adattato 1. Presentazione 2. Dimostrazione 3. Filtro adattato con rumore gaussiano bianco. 4. Esempio
81 81 81 83 84
Capitolo 11. Soglie, codifica Gray, Canali 1. Soglie in un NRZ 2. Soglie e probabilit`a di errore in sistemi multilivello 3. Codifica Gray 4. Canale
87 87 89 90 91
Capitolo 12. Modulazioni Numeriche 1. Banda base e banda traslata 2. On-Off Keying 3. Amplitude Shift Keying e Binary Phase Shift Keying 4. Frequency Shift Keying
93 93 96 99 100
Capitolo 13. Segnalazioni Multilivello Modulate 1. M-ASK 2. M-PSK 3. M-QAM 4. Confronto fra sistemi
103 103 104 106 108
Capitolo 14. Rumore Associato a Segnali Modulati 1. Il Rumore Modulato 2. Stazionariet`a di n(t) 3. Altre Caratteristiche Statistiche di xn (t) e yn (t) 4. Modulazione in Banda Vestigiale. AMSSB
109 109 110 112 114
Capitolo 15. Probabilit`a d’Errore in Segnali Modulati 1. Probabilit`a d’Errore nel B-PSK con Demodulazione Coerente 2. Probabilit`a d’Errore nel 4-PSK con Demodulazione Coerente 3. Probabilit`a d’Errore nell’OOK con Demodulazione Incoerente 4. Probabilit`a d’Errore nel 16-QAM con Demodulatore Coerente 5. Probabilit`a d’Errore nel M-PSK 6. Probabilit`a d’Errore nel FSK con Demodulatore Coerente 7. Union Bound 8. La Ritrasmissione
116 116 116 118 120 124 127 129 130
Capitolo 16. Quantizzazione di segnali analogici 1. Campionamento e quantizzazione 2. Rumore di quantizzazione: un primo approccio 3. Trasmissioni attraverso un BSC
133 133 134 137
INDICE
4. Rumore di quantizzazione: un approccio generale.
6
142
Appendice A. Alcune Formule Trigonometriche 1. Algebra delle Delta4 2. Alcune Relazioni Trigonometriche
147 147 150
Appendice B. Formulario 1. Teoria dell’Informazione 2. Analisi di Segnali 3. Serie e Trasformata di Fourier 4. Densit`a Spettrali di Energia e di Potenza 5. Processi Casuali 6. Il Digital Signal Processing 7. Codici di Linea 8. Segnalazioni in Banda Limitata 9. Rumore 10. Filtro Adattato 11. Soglie, codifica Gray, Canali 12. Modulazioni Numeriche 13. Segnalazioni Multilivello Modulate 14. Rumore Associato a Segnali Modulati 15. Probabilit`a d’Errore in Segnali Modulati 16. Quantizzazione di segnali analogici
152 152 152 153 154 155 155 155 156 157 157 158 158 159 159 160 161
4 Adattato da: Mencuccini, Silvestrini, Fisica II (Liguori Editore).
CAPITOLO 1
Teoria dell’Informazione 1. Struttura di un Sistema di Comunicazione Un sistema di comunicazione elettriche puo` essere schematizzato cos`ı:
z
}| {z
{
Canale trasmissivo
S
! TX !
|
Parte elettrica
! RX !
}
U
F IGURA 1 Dove: S e` la sorgente, che genera l’informazione; TX e` il trasmettitore, che converte le informazioni in segnali elettrici; RX e` il ricevitore, che esegue la trasformazione inversa; U e` l’utilizzatore; Un classico esempio e` il telefono: TX e RX sono gli apparecchi telefonici, S ed U gli utenti, il canale trasmissivo la rete telefonica. Si osservi che solo le comunicazioni fra trasmettitore e ricevitore sono di natura elettrica. Qualora si voglia classificare i sistemi di comunicazione, la prima ovvia distinzione da operare e` tra sorgente numerica (detta anche digitale) e sorgente analogica: una sorgente numerica e` discreta nel tempo ed ha un numero finito di valori significativi, mentre una sorgente analogica e` continua nel tempo ed ha un numero infinito (seppure limitato) di valori significativi. Un sistema numerico e` di qualit`a superiore (piu` immune al rumore) rispetto ad uno analogico, ma quando il rumore supera una certa soglia le prestazioni calano bruscamente, mentre un sistema analogico peggiora in maniera graduale al crescere dei disturbi. Gli esempi di sistemi digitali sono molti: Compact Disk; Telex / Telefax; Computer; GSM; ... Quelli analogici di una certa importanza, invece, sono attualmente solo due: Radio; Televisione (anche se nel 1997 e` stato approvato uno standard per la televisione digitale); 7
2. CODIFICA DI FANO
8
Storicamente i sistemi di comunicazione numerici sono stati i primi ad essere utilizzati, mentre i sistemi analogici sono entrati in scena solo grazie all’impiego dell’elettricit`a, la quale ha permesso le comunicazioni a lunga distanza. 2. Codifica di Fano Una sorgente numerica e` caratterizzata da un alfabeto A, composto da n simboli:
A = fs1; s2 ; :::; sn g Ad ogni simbolo si si associa una probabilit`a pi . In linea teorica questo dato e` incompleto, in quanto sarebbe necessario conoscere le probabilit`a congiunte, cio`e quelle di ogni sequenza di simboli di lunghezza arbitraria, in quanto gli elementi di un alfabeto non sono in generale indipendenti fra loro (ad esempio la probabilit`a che ad una T segua una Z in un testo italiano e` oltremodo bassa). Per semplicit`a qui si supporr`a sempre l’indipendenza statistica, cio`e:
fXY (sx ; sy ) = fX (sx )fY (sy ) Un simbolo e` tanto piu` rilevante quanto piu` raramente viene trasmesso; un modo per misurare questa ‘importanza’ e` dunque:
Ij / 1p
j
Ij viene detta quantit`a di informazione. Siccome e` comodo esprimerla in bit (cos`ı da assegnare al simbolo in questione una stringa di bit di tale lunghezza), la sua definizione e` : Ij = log2 1p
j
Ad esempio:
p1 = p2 = 21 ) I1 = I2 = 1 p1 = p2 = p3 = p4 = 41 ) I1 = I2 = I3 = I4 = 2
Un importante parametro della sorgente e` il valore atteso della quantit`a di informazione trasmessa:
H E fIj g = = (1)
N X j =1 N X
Ij pj = pj log2 p1 =
j =1 N X
=;
j =1
j
pj log2 pj
Il parametro H e` detto entropia della sorgente, e misura la ‘regolarit`a’ delle sue trasmissioni, ad esempio supponiamo che l’alfabeto sia costituito dai segenti
3. CODIFICA DI FANO-HUFFMAN
simboli:
9
pA = 12
A:
pB = 14
B:
pC = 18
C:
pD = 18
D: Si ottiene:
H = 21 log2 2 + 14 log2 4 + 18 log2 8 + 81 log2 8 = 1; 75 bit/simbolo
Volendo assegnare ad ogni simbolo una stringa di bit lunga come la quantit`a di informazione che porta, bisogna rispettare la regola del prefisso: nessun simbolo deve iniziare con la codifica di un altro. Il metodo piu` semplice (particolarmente appropriato a questo caso) e` usare il bit ‘1’ per indicare la fine del simbolo:
! ! ! !
A B C D
1 01 001 000
Questo alfabeto si puo` rappresentare cos`ı: {A B C D} {B C D}
1 0
{C D}
1 0
{A}
1 0
{B} {C}
{D}
F IGURA 2 Tale codifica e` detta codifica di Fano, ma puo` essere applicata solo se (2)
pj = 21j
8j < N
3. Codifica di Fano-Huffman E` estremamente raro che la condizione (2) sia rispettata: bisogna trovare un metodo che permetta di codificare i simboli anche quando non sia cos`ı; l’idea e` di partire da un albero analogo a quello illustrato in figura 2, ma costruito al contrario, cio`e partendo da insiemi formati da un singolo elemento, come in figura 3.
3. CODIFICA DI FANO-HUFFMAN
10
0,6 0,3 0,06 0,04
A B C D
F IGURA 3 Se osserviamo ancora la figura 2, notiamo che, partendo dal basso, vengono uniti i due insiemi con la probabilit`a minore di tutti. Applichiamo lo stesso principio anche qui: A B C D
0,6 0,3
0,6 0,3 0,06 0,04
0,1
F IGURA 4 A questo punto si puo` reiterare fino ad arrivare alla radice: A B C D
0,6 0,3 0,06 0,04
1 0,4 0,1
F IGURA 5 Non resta che etichettare i nodi dell’albero: A B C D
0,6 0,3 0,06 0,04
1 1 1 0
0
0
F IGURA 6 Cui corrisponde una codifica del tipo:
A B C D
! ! ! !
1 01 001 000
In questo caso la lunghezza media delle stringhe di bit non e` piu` uguale alla quantit`a media di informazione trasmessa, cio`e l’entropia; valutiamo queste grandezze:
H = ;0; 6 log2 0; 6 ; 0; 3 log2 0; 3 ; 0; 06 log2 0; 06 ; 0; 004 log2 0; 004 = = 1; 39 N = 3 0; 1 + 2 0; 3 + 1 0; 6 = 1; 5
3. CODIFICA DI FANO-HUFFMAN
11
E` sempre H 6 N , con H = N se e solo se vale la (2), ed in questo caso l’algoritmo descritto (detto algoritmo di Fano-Huffman) produce gli stessi risultati della codifica di Fano. E` da notare che in generale il simbolo ‘1’ non e` piu` il simbolo di termine sequenza, infatti l’albero puo` essere piu` complesso: A B C D
0,3 0,2 0,1 0,4
1 0 1 0
1 0
F IGURA 7 Che fornisce:
A B C D
! ! ! !
11 10 01 00
Non viene mai violata pero` la regola del prefisso. Il problema della codifica e` particolarmente sentito nella scelta del formato delle immagini; possono esserci vari approcci al problema: Un metodo ingenuo puo` essere quello di assegnare ad ogni colore lo stesso numero di bit, il che richiede N p bit (N e` il numero di pixel, mentre p e` il numero di colori); Un metodo migliore e` utilizzare proprio l’algoritmo di Fano-Huffman: non si perdono informazioni, ma non si sfrutta il fatto che difficilmente due pixel adiacenti hanno colori fortemente differenti Il metodo impiegato nella codifica JPEG e` quello di dividere l’immagine in quadrati di dimensioni 8x8 pixel, eseguire l’analisi di Fourier e filtrare le frequenze basse ed alte: si perdono delle informazioni, ma le dimensioni dei file sono particolarmente modeste. Nei file MPEG (filmati) si sfrutta anche il fatto che il colore di un pixel nel tempo non varia molto velocemente. Che rischi si corrono compattando? Supponiamo di trasmettere la sequenza A B B A D C C A Codificata in maniera usuale si ottiene:
1 01 01 1 000 001 001 1 Se un disturbo sulla linea dovesse modificare la sequenza, ad esempio se il ricevitore riconoscesse:
1 01 00 1 000 001 001 1 Questa sequenza verrebbe interpretata come
1 01 001 000 001 001 1 cio`e
3. CODIFICA DI FANO-HUFFMAN
12
A B C D C C A Un errore in B si propaga e corrompe anche A. Le possibili soluzioni a questo problema sono: Tenere molto basso il rumore Proteggere l’informazione La protezione dell’informazione puo` essere eseguita in varie maniere, tutte pero` basate sull’inserimento di una certa quantit`a di ridondanza nelle trasmissioni. Il modo piu` semplice e` aggiungere in fondo al pacchetto trasmesso un singolo bit (bit di parit`a), in modo tale che la somma di bit a ‘1’ sia sempre pari (o sempre dispari). I vantaggi sono: La ridondanza inserita e` molto modesta (solo un bit); Rileva tutti gli errori che interessano un numero dispari di bit (ed e` raro che siano gi`a due in un pacchetto); Uno svantaggio e` che, sebbene ci si accorga dell’errore, e` impossibile correggere il pacchetto, quindi e` necessaria la ritrasmissione (cosa non sempre possibile, come nel caso di sistemi a tempo reale). Quando e` necessario correggere oltre che rilevare gli errori, si puo` ricorrere a metodi piu` complessi, come quello illustrato in figura 8.
Parità ‘orizzontale’
Parità ‘verticale’ Informazione
F IGURA 8 L’unica regola che vale con questi sistemi di protezione e` che la dimensione dell’informazione codificata e protetta e` sempre minore di quella dell’informazione non codificata.
CAPITOLO 2
Analisi di Segnali 1. Potenza Sia dato un bipolo nella configurazione di figura 1. i(t) p v(t)
F IGURA 1 Valgono le note relazioni
2 p = v(t)i(t) = R(t)i2 (t) = vR((tt))
Uno strumento di misura reale non puo` fornire la potenza istantanea, ma solo quella media. La media temporale si definisce come:
Zb 1 < >= b ; a []dt a
Da un punto di vista teorico, dovrebbe essere: +T
Z 2 1 < >= T !lim+1 T T []dt ;2
ma, anche qui, visto che si parla di strumenti reali, ci si accontenta di un intervallo di tempo sufficientemente lungo. Supponiamo che il doppio bipolo sia un semplice resistore:
Se poi R = 1 : (3)
2 < p(t) >= R < i2 (t) >= < v R(t) >
< p(t) >=< i2 (t) >=< v2 (t) >
La potenza, in questo caso particolare, viene detta normalizzata, e deve la sua importanza al legame diretto con la tensione; a tale proposito va osservato che v(t) e` interpretabile come: (4)
v(t) = v0 (t)+ < v(t) >
L’informazione e` tutta in v0 (t), ragion per cui si tenta sempre di ridurre a zero la tensione media, che rappresenta solo potenza sprecata. 13
1. POTENZA
14
La potenza (normalizzata e non) gioca un ruolo fondamentale nell’analisi dei segnali, ad esempio permette di classificarli: un primo tipo (l’unico fisicamente realizzabile) e` quello di figura 2.
A Τ+τ 0
T0
F IGURA 2 Questo genere di segnale viene detto ad energia finita, mentre la sua potenza media e` nulla infatti:
< P >= T !lim+1 A T =0
Un secondo tipo di segnale e` illustrato in figura 3.
F IGURA 3 Qui l’integrale da eseguire per calcolare la media temporale della potenza diverge, dunque si parla di segnale a potenza media infinita. In figura 4 e` rappresentato un terzo tipo di segnale:
F IGURA 4
1. POTENZA
15
Essendo un segnale periodico, si puo` far tendere T ad infinito, ma con la condizione che sia sempre multiplo del periodo della funzione, quindi si ottiene
< P >= T !lim+1 CT T =C
con
C=
Z T0 0
2 (t)dt
Un’altra applicazione della potenza e` la misura del livello di disturbi presente in una trasmissione: esso normalmente si esprime come
S N
Dove S e` la potenza del segnale utile, mentre N e` la potenza del rumore. In genere il rumore introdotto e` funzione di piu` contributi
S S f = f N ; N ; ::: 1
2
Per misurare tali grandezze si e` soliti usare il decibel, definito come
PdB = 10 log10 PPx
(5)
0
dove P0 e` una potenza di riferimento; nella telefonia e` frequente l’uso del dBm, dove P0 = 1 mW o del dBW, dove P0 = 1 W. Spesso si conoscono solo le tensioni, ma, proprio per il fatto che quel che conta e` il rapporto di due potenze, il calcolo dei decibel si puo` effettuare facilmente:
Px = Vx2 =R = Vx2 P0 V02 =R V02 2 10 log10 VVx2 = 20 log10 VVx 0 0
Supponiamo ora di avere una cascata di doppi bipoli
!
!
g1
g2
!
g3
!
Ognuno di essi puo` essere caratterizzato da una impedenza di ingresso ed una di uscita, come in figura 5.
Z out
Z in
F IGURA 5 Per quale valore della resistenza di ingresso la potenza fornita ad ognuno di essi e` massima? Chiaramente deve essere un valore finito, perch´e, se Zin = 0, la tensione di ingresso e` nulla, mentre se Zin = +1, sar`a la corrente ad essere pari a zero. Si puo` dimostrare che la condizione di massimo trasferimento di potenza
2. LO SPAZIO DELLE FUNZIONI
16
(detta anche condizione di adattamento) si ha per Zin = Zout . La potenza trasferita in condizione di adattamento e` detta potenza disponibile, e vale
2 Pdu = (Zout iout )iout = 4VZout
(6)
out
Un esempio di applicazione di questa regola e` il televisore: ogni cavo coassiale ha una resistenza di 75 , dunque ogni televisore ha una resistenza di ingresso di 75 . D’ora innanzi si sottointender`a sempre, quando si parla di catene di doppi bipoli, che essi siano in condizione di adattamento. 2. Lo Spazio delle Funzioni Si puo` pensare ad una funzione (t) come ad un vettore, le cui componenti siani i valori assunti al variare di t, cio`e:
t (t)
La definizione di prodotto scalare fra funzioni risulta quindi ovvia
b X
(7)
t=a
Zb t t (t) (t)dt a
Si puo` verificare che tale definizione soddisfa i requisiti per essere un prodotto scalare e che i segnali non devono necessariamente essere reali. Due segnali si dicono ortogonali se vale la relazione
Zb
(8)
a
(t) (t)dt = 0
Sono di particolare importanza gli insiemi di funzioni a due a due ortogonali fra di loro, cio`e certe funzioni k tali che
Zb
(9)
a
i (t)j (t)dt = Ki i;j
dove i;j e` il simbolo di Kronecker, ¨ che vale uno se i = j , zero altrove (si puo` vedere come un elemento della matrice identit`a). Se inoltre Ki = 1 8i, allora i segnali sono fra loro ortonormali. Va segnalato che i Ki hanno un ben preciso significato fisico, infatti
Ki =
(10)
Zb a
ji j2 dt = Ei
Ei e` l’energia normalizzata del segnale (t) 1 . Condizione necessaria affinch´e
un insieme di segnali sia ortonormale e` dunque che siano dotati di energia finita. Supponiamo ora che una funzione u(t) sia esprimibile come combinazione lineare delle funzioni componenti la base ortogonale
= fj jj 2 N ; 1 6 j 6 N g
()
()
1 Se si interpreta t come una tensione o una corrente, 2 t e` la sua potenza normalizzata, in i i accordo con la (3). Poich´e si integra nel tempo, si ottiene l’energia fornita dal segnale dall’istante a all’istante b.
2. LO SPAZIO DELLE FUNZIONI
17
Allora esisteranno certi coefficienti aj tali che:
u(t) =
N X j =0
aj j (t)
Geometricamente questi coefficienti si possono vedere come le ‘proiezioni’ della funzione u(t) lungo i vettori della base, quindi si dovrebbero ricavare mediante il prodotto scalare; si puo` verificare che e` proprio cos`ı:
< u(t)jj (t) > = K1
Zb
j a
= K1 =
u(t)j (t)dt =
Z bX N
j a i=0 N 1 Zb X
ai i (t)j (t)dt =
ai i (t)j (t)dt = K j a i=0
N X
1
ai Kj i;j = i=0 Kj = aj =
Noti i coefficienti aj e` facile ricavare anche l’energia che il segnale trasporta:
Ew = E fw(t)g =
8N 9
E faj j (t)g =
j =0 N X j =0
jaj j2 Kj
Se vale l’ortonormalit`a: (11)
Ew =
N X j =0
jaj j2
L’equazione (11) e` di fondamentale importanza anche perch´e e` rispettata se e solo se il segnale u(t) e` completamente rappresentabile con il sistema di riferimento , altrimenti la sommatoria e` strettamente minore di Ew . Conviene peraltro ricordare che la funzione originale e quella ricostruita si equivalgono solo all’interno dell’intervallo dove l’integrale e` stato calcolato, mentre al di fuori di esso nulla si puo` dire. Come esempio consideriamo le due funzioni ortogonali di figura 6.
2. LO SPAZIO DELLE FUNZIONI
φ1
φ2
A
B
Τ/2
18
Τ/2
Τ
F IGURA 6
Per prima cosa dimensioniamo ortonormali:
Z
A e B affinch´e le due funzioni siano anche
T
A2 u(t) ; u t ; T2 K1 = 0 = A2 T2 = 1 r A= 2 2
dt =
T
Per simmetria e` evidente che affich´e sia anche ‘proiettiamo’ il segnale di figura 7.
K2 = 1 deve essere A = B .
Ora
w 3 Τ/2
Τ
-1
F IGURA 7
a1 = a2 =
ZT Z0T 0
r
w(t)1 (t)dt = 3 T2
r
w(t)2 (t)dt = ; T2
Il punto in cui si trova w(t) e` quello di figura 8. Grazie alla (11) possiamo dire che l’energia di ogni simbolo rappresentato su tale piano e` proporzionale alla sua distanza dall’origine: questo vale anche per la funzione, purch´e sia rappresentabile.
2. LO SPAZIO DELLE FUNZIONI
19
φ2
φ1
a1 a2
F IGURA 8 Possiamo controllare la completa rappresentabilit`a mediante la (11) stessa:
2 X
a2i = 9 T2 + T2 = 10 2 T = 5T i=1 E = 32 T + (;1)2 T = 10 T = 5T w
2
2
2
Che cosa succede se tale condizione non viene rispettata? Proviamo a rappresentare il segnale di figura 9. w 3 Τ/2 -1
Τ
Τ/4
F IGURA 9 Si ottiene il vettore posizione
r !
r
w~ = 32 T2 ; ; 21 T2
La funzione che si ottiene componendo i vettori della base e` in figura 10. w
3/2 Τ/2 -1
F IGURA 10
Τ
3. REALIZZAZIONE DI TRASMETTITORE E RICEVITORE
20
In effetti la (11) non e` soddisfatta:
2 X j =1
a2i = 45 T
Ew = 11 4T
3. Realizzazione di Trasmettitore e Ricevitore Sia data una sorgente numerica che fornisca due simboli (A sistema avr`a la struttura:
S
A ;!
A ! 1 (t) B ! 2 (t)
= fA; B g);
A ! A ;! ! 1((tt)) ! B 2
!
il
U
Si puo` notare che i simboli generati dalla sorgente sono concettualmente diversi da quelli trasmessi sul canale, tant’`e vero che si usano le diciture simboli della sorgente e simboli di canale rispettivamente. I simboli di canale sono quelli che abbiamo esaminato finora, e la conversione in simboli della sorgente (e viceversa) viene operata da trasmettitore e ricevitore, come descritto in figura 11. φ *1 (t) φ 1 (t)
∫
a+T a
A,B
∫
φ 2 (t)
a+T a
D E C I S O R E
A,B
φ *2 (t)
F IGURA 11 Volendo passare da una costellazione di soli due simboli ad una di quattro simboli, si possono operare varie scelte, la piu` semplice delle quali e` illustrata in figura 12.
F IGURA 12 Le modifiche concettuali sono modestissime: basta sostituire agli interruttori del trasmettitore dei moltiplicatori (amplificatori a guadagno variabile) e la logica interna del decisore del ricevitore (vd. figura 13).
3. REALIZZAZIONE DI TRASMETTITORE E RICEVITORE
φ *1 (t)
φ 1 (t)
∫
a+T a
A,B C,D
∫
φ 2 (t)
a+T a
21
D E C I S O R E
A,B C,D
φ 2* (t)
F IGURA 13 Il passaggio da quattro a otto simboli e` immediato, come anche da otto a sedici e cos`ı via, ma ci sono dei limiti pratici qualora si debba utilizzare un canale non ideale, in quanto il rumore non e` nullo, ed i simboli sarebbero troppo vicini l’uno all’altro (a meno di allontanarli sempre piu, ` ma questo richiederebbe energie sempre maggiori). Data una costellazione e` facile ricavare l’energia media spesa per trasmettere i simboli che le appartengono, ad esempio prendiamo in considerazione quella di figura 14:
1
F IGURA 14 In questo caso l’energia media (supponendo i simboli equiprobabili) e` :
E = M1
M X
Ei =
i=1 M 1 X
=M
jw~ i j2 =
i=1 1 = 8 (4 + 2 4) = 32 J La quantit`a di informazione insita in ogni simbolo e`
Ii = ; log2 18 = 3 bit
Quindi si ottiene che l’energia necessaria per trasmettere un singolo bit di informazione e` :
Eb = E3 = 0; 5 J
CAPITOLO 3
Serie e Trasformata di Fourier 1. Base di Fourier Una delle possibili basi ortogonali per il prodotto scalare (7) e` : (12)
n (t) = ej2nf0 t = ejn!0 t
dove n e` un intero relativo. Valgono le note relazioni
!0 = 2f0 = 2T 0
L’importanza di questo insieme infinito di funzioni deriva dal seguente: T EOREMA DI F OURIER . Qualunque segnale ad energia finita e` rappresentabile in manera completa mediante la base (12). Cio` significa che w(t) deve essere tale per cui:
Z +1 ;1
jw(t)j2 dt = C
Una funzione che soddisfi questa propriet`a deve essere identicamente nulla al di fuori di un certo intervallo [a; b] con a e b finiti e reali, inoltre non deve avere asintoti verticali al suo interno.
a b
F IGURA 1. Esempio di funzione che ammette Sviluppo di Fourier Prima di proiettare le funzioni e` opportuno rendere la base (12) ortonormale:
n (t) = K n(t)
Z x+T0 x
j n (t)j2 dt = 1 22
1. BASE DI FOURIER
Si ottiene:
n=
(13)
23
p1T ej2nf0 t 0
Se la funzione e` diversa da zero nell’intervallo [a; b], conviene ovviamente porre x = a e T0 > b ; a, quindi le componenti di una funzione rispetto alla base or ora introdotta sono:
Z a+T0
cn = p1
T0 a
w(t)e;jn!0 t dt
Una volta ottenute le componenti, si puo` esprimere la funzione originale come combinazione lineare delle n (t):
+1 X
w(t) = p1 c ejn!0 t T0 n=;1 n Normalmente si raggruppano le due radici esterne all’integrale e si indicano in una sola delle due formule: (14) (15)
cn = T1
w(t) =
Z a+T0
0 a +1 X
n=;1
w(t)e;jn!0 t dt
cn ejn!0 t
Poich´e l’integrale e` stato eseguito solo su di una porzione dell’asse delle ascisse, non esiste alcun vincolo che costringa la sommatoria al secondo membro ad essere identicamente nulla al di fuori di esso. Per sapere quali valori assuma in realt`a, e` opportuno indagare sulle funzioni periodiche: esse non sono ad energia finita, ma sono a potenza media finita, e, particolare essenziale, possono essere descritte completamente conoscendo il loro andamento su di un intervallo finito.
wT(t) w (t)
F IGURA 2. Funzione periodica w(t) e relativo troncamento wT (t) Data dunque una funzione periodica w(t) eseguiamo un troncamento, ovvero consideriamo la funzione wT (t) che assume i suoi stessi valori solo su di un intervallo di lunghezza pari al periodo T di w(t), mentre e` identicamente nulla al di fuori di esso.
2. LA SERIE DI FOURIER DELLE FUNZIONI REALI. TEOREMA DI PARSEVAL
24
Chiaramente wT (t) e` ad energia finita, quindi se ne puo` fare l’analisi di Fourier:
cn = T1 wT (t) =
ZT
0 0 +1 X
n=;1
wT (t)e;jn!0 t dt
cn ejn!0 t
Se pero` considerassimo un altro troncamento, a causa della periodicit`a dell’esponenziale complesso (!0 e` uguale alla pulsazione della funzione periodica), otterremmo gli stessi coefficienti cn , dunque si puo` dire che una funzione periodica e` uguale allo sviluppo di Fourier su tutto l’asse delle ascisse.
2. La Serie di Fourier delle funzioni reali. Teorema di Parseval Se la funzione in questione e` reale, i coefficienti della Serie di Fourier godono di particolari propriet`a, utili quando si devono fare delle verifiche:
w(t) Reale ;! cn = c;n w(t) Reale e pari ;! =fcn g = 0 cn = c;n w(t) Reale e dispari ;!
(16)
In altre parole:
La parte reale dei cn e` pari, mentre la parte immaginaria e` dispari; Se la funzione e` pari, i coefficienti sono reali; Se la funzione e` dispari, i coefficienti sono puramente immaginari;
Queste simmetrie permettono di accoppiare gli esponenziali a due a due, ottenendo una somma di funzioni trigonometriche:
w(t) = c0 + = c0 + = c0 + = c0 + (17)
+1 X n=1
cn ejn!0 t +
+1 X
;1 X n=;1
cn ejn!0 t
[cn ejn!0 t + c;n e;jn!0 t ]
n=1
+1 X
[(c0n + jc00n )ejn!0 t + (c0n ; jc00n )e;jn!0 t ] =
n=1
+1 X
[c0n (ejn!0 t + e;jn!0 t ) + jc00n (ejn!0 t ; e;jn!0 t )] =
n=1
= c0 + 2
+1 X
n=1
c0n cos n!0 t ; 2
+1 X n=1
c00n sin n!0 t
Come e` naturale, se w(t) e` pari, si annullano tutti i termini con il seno, mentre, se e` dispari, spariscono i termini con il coseno. Un comodo risultato e` il Teorema di
3. TRASFORMATA DI FOURIER
25
Parseval, applicazione della (11):
(18)
"X # +1 +1 1 Z a+T0 jw(t)j2 dt = 1 Z a+T0 X jn! t jm! t 0 cm e 0 dt = T0 a T0 a n=;1 cn e m=;1 +1 Z a+T0 X cn cm ej(n;m)!0 t dt = = T1 0 n;m=;1 a +1 X = n;m cn cm = n;m=;1 +1 X = jcn j2 n=;1
Questo teorema e` un’estensione del Teorema di Pitagora applicato ad uno spazio con un’infinit`a numerabile di dimensioni, ed ha la caratteristica di permettere il calcolo dell’energia di una funzione w(t) sviluppabile secondo Fourier noti solo i suoi coefficienti.
3. Trasformata di Fourier Aumentando T0 , cio`e le dimensioni dell’intervallo in cui la funzione e` diversa da zero (o, nel caso di funzioni periodiche, aumentando il loro periodo), f0 si riduce di conseguenza. Al limite per T0 tendente all’infinito, f0 diviene infinitesimale, quindi si puo` sostituire a nf0 (discreto) la variabile f (continua). Si parla allora di Trasformata di Fourier, e si indica con il seguente formalismo:
F W (f ) w(t) ;! La trasformata di Fourier e` utile per calcolare la banda di frequenze occupata da un certo segnale; le sue formule sono: (19)
W (f ) = F [w(t)] =
(20)
w(t) = F ;1 [W (f )] =
Z +1
Z;1 +1 ;1
w(t)e;j2ft dt W (f )ej2ft df
Si puo` sostituire la pulsazione alla frequenza, ma in tal caso bisogna tener conto del un fattore costante 21 da portare fuori dall’integrale: (21) (22)
Z +1
w(t)e;j!t dt ;1 Z +1 w(t) = 21 W (!)ej!t d! ;1 W (! ) =
4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA
26
Se un segnale e` reale, la parte reale della sua trasformata e` pari, mentre la parte immaginaria e` dispari. E` inoltre facile ricavare le propriet`a analoghe alle (16):
w(t) Reale ;! W (f ) = W (;f ) w(t) Reale e pari ;! = fW (f )g = 0 ! W (f ) = W (;f ) w(t) Reale e dispari ;! < fW (f )g = 0 ! W (f ) = ;W (;f )
(23)
Esiste anche una forma trigonometrica della W (f ), se reale:
W (f ) =
(24)
Z +1 ;1
w(t) cos 2fdt + j
Il Teorema di Parseval diventa:
Z +1
(25)
;1
w1 (t)w2 (t)dt =
Infatti:
Z +1 ;1
w1 (t)w2 (t)dt =
Z +1 ;1
Z +1 Z +1 ;1 Z;1 +1 Z +1
Z +1 ;1
w(t) sin 2fdt
W1 (f )W2 (f )df
W1 (f )ej2ft dfw2 (t)dt =
W1 (f )w2 (t)ej2ft dfdt = ;1 ;1 Z +1 Z +1 = W1 (f ) w2 ej2ft dtdf = Z;1 Z;1 +1 +1 = W1 (f ) [w2 (t)e;j2ft ] dtdf = ;1 ;1 Z +1 = W1 (f )W2 (f )df ;1 =
4. Conversione da Serie a Trasformata e viceversa Il passaggio da Serie a Trasformata di Fourier e` molto agevole:
Ffw(t)g = F = (26)
= =
(X +1
)
n=;1
+1 X
n=;1
+1 X
n=;1
+1 X
n=;1
cn cn
cn ejn!0 t =
Z +1 ;1 Z +1 ;1
ejn!0 t e;j2ft dt = e;j2(f ;nf0 )t dt =
cn (f ; nf0 )
4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA
27
Ricordiamo alcune propriet`a notevoli della delta di Dirac:
(x) =
Z +1
Z ;1 +1
Z +1 ;1
;1
ej2xy dy
(x)dx = 1
w(x)(x ; x0 )dx = w(x0 )
Una funzione periodica ammette dunque come trasformata un treno di delta equispaziate, e la distanza fra due delta adiacenti e` pari all’inverso del periodo della funzione nel dominio del tempo. Come esempio notevole si puo` calcolare la trasformata della sinusoide:
v(t) = A sin(!0 t) V (f ) =
Z +1
A sin(!0 t)e;j2ft dt =
;1 Z +1
=A =A
sin(!0 t)e;j!t dt = ;1 Z +1 ej!0 t ; e;j!0t ;j!t
e
dt =
2j ;1 Z Z +1 + 1 = 2Aj e;j(!;!0 )t dt ; 2Aj e;j(!+!0 )t dt = ;1 ;1
(27)
= 2Aj [(f ; f0 ) ; (f + f0 )]
A/2j
-f 0 f0
f
-A/2j
F IGURA 3. Trasformata di A sin(!0 t) Non e` difficile trovare anche la trasformata del coseno: (28)
FfA cos(!0 t)g = A2 [(f ; f0 ) + (f + f0 )]
4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA
28
A/2
-f 0
f0
f
F IGURA 4. Trasformata di A cos(!0 t)
Un’importante funzione e` il pettine di Dirac, ovvero la funzione:
w(t) =
(29)
+1 X m=;1
(t ; mT0)
Se si tenta di trasformare direttamene la (29), si ottiene:
W (f ) = (30)
Z +1 X +1
(t ; mT0 )e;j2ft dt =
;1 m=;1 +1 X = e;j2fmT0 m=;1
Intuitivamente questa funzione assomiglia molto ad un treno di delta, infatti se f = T10 l’argomento della sommatoria e` unitario (quindi W ( T10 ) ! 1), mentre per gli altri valori della f le varie armoniche dovrebbero tendere ad elidersi a vicenda. Un metodo per risolvere questo problema e` calcolare la serie ed ottenere la trasformata mediante la (26). I suoi coefficienti sono:
Z + T20 1 cn = T T0 w(t)e;jn!0 t dt = 0 ;2 Z + T20 X +1 1 = T T0 (t ; mT0)e;jn!0 t dt = T1 0 ; 2 m=;1 0 Questo perch´e fra ; T20 e + T20 c’`e solo una delta. Da questi coefficienti e` facile risalire alla trasformata: (31)
W (f ) = f0
+1 X m=;1
(f ; mf0 )
4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA
29
Dalla (31) e dalla (30) otteniamo una relazione che ci sar`a utile: (32)
+1 X m=;1
e;j2fmT0 = f0
+1 X m=;1
(f ; mf0)
Sappiamo ottenere la trasformata nota la serie: ci si puo` chiedere se sia possibile eseguire anche il passaggio inverso, cio`e, data la trasformata, trovare la serie (come e` ovvio, la trasformata deve essere un treno di delta); il nostro obiettivo e` calcolare i coefficienti cn tali che:
w(t) =
+1 X
n=;1
cn ejn!0 t
O anche, utilizzando la funzione troncata (ricordiamo che w(t) e` periodica):
+1 X
(33)
n=;1
wT (t ; nT0) =
+1 X n=;1
cn ejn!0 t
*
F IGURA 5. Esempio di convoluzione con una delta
L’idea e` di trasformare ambo i membri: per quanto riguarda quello di destra, e` presto fatto: (34)
F
(X +1
n=;1
cn e
) X +1 jn!0 t =
n=;1
cn (f ; nf0 )
La convoluzione di una funzione f (x) con una delta equivale a ‘centrare’ f (x) sull’argomento della delta stessa, come indicato in figura 5. Tutto cio` permette di
4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA
30
esprimere in modo differente la traslazione della wT nella (33):
w(t) = = = =
+1 X
n=;1
+1 X
n=;1
wT (t ; nT0 ) = wT (t) (t ; nT0 ) =
Z +1 X +1
wT ()( ; t + nT0 )d =
;1 n=;1 Z +1 +1 X ;1
wT ()
= wT (t)
+1 X
n=;1
n=;1
( ; t + nT0 )d =
(t ; nT0 )
Questo risultato si poteva immaginare anche senza il calcolo diretto: il segnale periodico e` somma di tanti segnali elementari opportunamente sfasati fra di loro di un tempo pari a T0 ; per spostare un segnale basta convolverlo con una delta, e la somma di infinite delta equispaziate e` il pettine di Dirac. Trasformando:
(
W (f ) = F wT = WT (f )F
+1 X
n=;1
(X +1
= WT (f )f0
)
(t ; nT0 ) =
)
n=;1
+1 X
n=;1
(t ; nT0) =
(f ; nf0 )
L’espressione trovata e` dunque costituita da un pettine di Dirac moltiplicato per una funzione: gli unici valori significativi che tale funzione assume sono in realt`a in corrispondenza delle ascisse in cui una delle delta e` diversa da zero, quindi si puo` scrivere:
W (f ) = f0
(35)
+1 X n=;1
WT (nf0 )(f ; nf0 )
Tornando all’equazione (33), combinando (34) con (35), si ottiene:
+1 X n=;1
f0 WT (nf0 )(f ; nf0) =
+1 X n=;1
ovvero: (36)
cn = WT (nf0 )f0
cn (f ; nf0)
4. CONVERSIONE DA SERIE A TRASFORMATA E VICEVERSA
31
Graficamente la (36) corrisponde a porre delle delta equispaziate alle ascisse multiple della f0 e con forza pari al valore che assume in quel punto la WT (f ) (scalandola di un fattore f0 ).
- f0 -2 f0
- f0
f0
2 f0
-2 f0
f0
2 f0
F IGURA 6. Due importanti esempi di applicazione della (36): il pettine di Dirac (a sinistra) e la funzione sinusoidale (a destra). In entrambi i casi la WT (f ) e` indicata a tratto discontinuo
CAPITOLO 4
Densit`a Spettrali di Energia e di Potenza 1. Definizione di densit`a spettrale di energia e di potenza La relazione di Parseval ha un importante significato fisico: (37)
Z +1 ;1
j|w1{z(t)j2} dt =
Z +1
Potenza del segnale
;1
j|W1{z(f )j}2
df
Densit`a spettrale di energia
La densit`a spettrale di energia si misura in J/Hz ed e` un parametro fondamentale nell’analisi dei segnali: indica infatti la distribuzione di energia in funzione della frequenza, ed il confronto fra le densit`a del segnale trasmesso e di quello ricevuto puo` rivelare le distorsioni subite. Se il sistema non e` ad energia finita (cio`e non ha potenza media nulla), si puo` tentare di trovare un modo per esprimere come la potenza sia distribuita al variare della frequenza. Sappiamo che: +T
P = T !lim+1 T1
Z
2
;T 2
jw(t)j2 dt
Poich´e T tende ad infinito, si puo` anche riscrivere cos`ı:
Z +1 1 P = T !lim+1 T jwT (t)j2 dt ;1 Dove con wT (t) si intende la funzione w(t) troncata all’intervallo ; T2 ; + T2 . GraZ +1 1 jWT (f )j2 df = P = T !lim+1 T ;1 Z +1 jWT (f )j2 = T !lim +1 ;1 T df
zie alla relazione di Parseval:
E` dunque ovvio definire densit`a spettrale di potenza: (38)
Pw (f ) = T !lim+1 jWTT(f )j
2
Se il segnale w(t) e` reale, allora Pw (f ): E` pari; E` sempre positiva o nulla; Se il segnale e` periodico e` costituita da un treno di delta equispaziate; Ha una delta nell’origine se e solo se esiste una componente continua; 32
` DI POTENZA DI FUNZIONI PERIODICHE 2. DENSITA
33
Le prime due asserzioni sono inoltre condizioni necessarie e sufficienti. Un grave limite della definizione (38) e` il fatto che non sempre la trasformata di wT (t) e` agevole da calcolare, anche per segnali molto semplici come la sinusoide. In tali casi e` molto piu` comodo usare la seguente formula:
Pw (f ) = FfRw ( )g
(39)
Dove Rw ( ) e` detta funzione di autocorrelazione di w(t), ed e` pari a:
Rw ( ) = w (t) w(t + )
(40)
Se il segnale e` reale, allora Rw ( ): E` pari; Assume il massimo assoluto (che coincide con la potenza del segnale) nell’origine; La sua trasformata ha le caratteristiche di una densit`a spettrale di potenza; E` periodica se e solo se anche w(t) e` periodico ed ha uguale periodo; Le prime tre asserzioni sono inoltre condizioni necessarie e sufficienti. 2. Densit`a di potenza di funzioni periodiche Come esempio di applicazione della formula precedente, supponiamo di dover calcolare la densit`a spettrale di potenza per il segnale w(t) = A sin !0 t: e` logico aspettarsi che tutta la potenza sia concentrata alla pulsazione !0 . Per prima cosa bisogna calcolare la funzione di autocorrelazione: +T
Rw ( ) = T !lim+1 T1
Z
2
;T
2
A2 sin !0 t sin(!0 t + !0 )dt =
2 Z + T2 A = T !lim +1 2T ; T2 [cos !0 ; cos(2!0t + !0 )] dt = 2 = A2 cos !0
A questo punto si puo` calcolare la sua trasformata di Fourier:
2
Pw (f ) = FfRw ( )g = A4 [(f + f0 ) + (f ; f0 )] Pw =
Z +1 ;1
2
Pw (f )df = A2
In effetti il risultato e` proprio quello che ci aspettavamo: tutta la potenza e` equipartita alle due frequenza f0 e ;f0 , in modulo pari alla frequenza della sinusoide. Come conseguenza del fatto che il termine superstite nel calcolo della funzione di autocorrelazione e` il coseno avente come argomento la differenza di t e t + , la densit`a spettrale di potenza di una cosinusoide (che e` una sinusoide sfasata di =2) e` uguale a quella calcolata precedentemente per il seno. Ci si puo` chiedere se sia possibile calcolare la densit`a spettrale di potenza nel caso in cui il segnale sia periodico e si abbiano a disposizione i coefficienti cn della
` DI POTENZA DI FUNZIONI PERIODICHE 2. DENSITA
34
Serie di Fourier: in tal caso la funzione di partenza e` esprimibile come:
w(t) =
+1 X
n=;1
cn ej2nf0 t
E, come si e` detto precedentemente, la sua trasformata sar`a:
W (f ) =
+1 X
n=;1
cn (f ; nf0)
X + +1 j 2 nf t j 2 mf ( t + ) 0 0 cn e cm e = n=;1 m=;1 +1 X j 2nf0 t j 2mf0 (t+ )
*X +1
Calcoliamo la funzione di autocorrelazione:
Rw ( ) = = = =
n;m=;1
+1 X
n;m=;1
+1 X
n=;1
cn cm < e
je
>=
cn cm ejm!0 < ejn!0 t jejm!0 t >=
jcn j2 ejn!0
Dove si e` sfruttata la relazione (41)
< e;j2nf0 t jejm!0 t >= n;m
Per finire:
Pw (f ) = F (42)
=
(X +1 n=;1
+1 X
)
jcn j2 ejn!0 =
jcn j2 (f ; nf0 )
n=;1
Quindi lo spettro e` composto da un treno di delta (spettro a righe), cos`ı come succede per la trasformata del segnale.
CAPITOLO 5
Processi Casuali 1. Definizioni Si definisce processo casuale una funzione in una o piu` variabili casuali ed una o piu` variabili deterministiche. Si dice che un processo casuale e` stazionario se le sue caratteristiche statistiche non dipendono dal tempo. I segnali sono tipici esempi di processi casuali, in cui le variabili casuali sono i valori campionati, mentre la variabile deterministica e` il tempo. La densit`a di probabilit`a in generale si indica con:
f (x; y)
dove ed sono le variabili casuali. Nel caso sopracitato, la densit`a di probabilit`a sar`a:
fn1 n2 (x; y)
con
n1 = n(t1 ) n2 = n(t2 )
Le due variabili casuali indicano, dunque, i campioni prelevati ai tempi t1 e t2 . Se il processo e` stazionario, si richiede non solo che fn1 n2 (secondo ordine) sia indipendente dal tempo, ma che lo siano anche fn1 n2 n3 , fn1 n2 n3 n4 e cos`ı via (terzo,
quarto ordine...). E` dunque particolarmente difficile dimostrare la stazionariet`a cos`ı come e` stata definita precedentemente (detta anche stazionariet`a in senso stretto), e spesso ci si accontenta di una condizione piu` blanda (detta stazionariet`a in senso lato) le cui caratteristiche sono: n(t) indipendente dal tempo Rn ( ) = n(t1 )n(t2 ) dipendente solo da = t2 ; t1 Vale la pena di ricordare che il simbolo ‘< >’ indica media nel tempo, mentre ‘’ significa media statistica. Le rispettive definizioni sono: + T2 1 (43) < x(t) > = T !lim+1 T T x(t)dt ;
Z
E f g = x(t) =
(44)
Z +1 ;1
Ad esempio consideriamo la funzione
2
xf (x)dx
x(t) = A sin(!0 t + 0 )
in cui:
A e` costante; 35
2. CALCOLO DI MEDIA E VARIANZA DI
x(t)
36
!0 e` costante; 0 e` una variabile casuale con densit`a di probabilit`a indicata in figura 1; θ 0 (θ)
−π
π
θ
F IGURA 1
Z + x(t) = 2A sin(!0 t + )d = 0 ; Rx (t1 ; t2 ) = x(t1 )x(t2 ) = = A sin(!0 t1 + 0 )A sin(!0 t2 + 0 ) = = A2 sin(!0 t1 + 0 ) sin(!0 t2 + 0 ) = 2 = A2 cos !0 (t1 ; t2 ) ; cos[ | !0(t1 +{zt2) + 20}] =
Si ottiene:
2 = A2 cos(!0 )
Mediamente nullo
Dunque il processo esaminato e` stazionario in senso lato. Va comunque segnalato il fatto che se la distribuzione fosse, ad esempio, una porta fra 0 e , la media non piu` sarebbe nulla. Si dice che un processo casuale e` ergodico se vale la relazione (45)
< x(t1 )x(t2 ) >= x(t1 )x(t2 ) 2. Calcolo di media e varianza di x(t)
Nella maggior parte delle distribuzioni e` sufficiente conoscere media e varianza (talvolta anche solo una di esse) per conoscere l’andamento esatto della fx (t). Lo scopo di questo paragrafo e` di trovare un legame fra Rx (f ) e media e varianza di x(t). Consideriamo la definizione della funzione di autocorrelazione (46)
Rx ( ) = x(t)x(t + )
Se e` sufficientemente grande, x(t) e x(t + ) diventano statisticamente indipendenti, quindi:
x(t)x(t + ) = x(t) x(t + )
3. APPLICAZIONE: TRASMISSIONE CON RUMORE TERMICO
37
Ma abbiamo richiesto stazionariet`a1 , quindi:
x(t) = x(t + ) In conclusione: (47)
h i2
x(t) = !lim +1 Rx ( )
Intuitivamente (47) indica che se due campioni infinitamente lontani sono in qualche maniera legati fra loro (cio`e la media del loro prodotto non e` nulla), deve esserci una componente continua. Un altro indizio per scoprire se il processo e` a media non nulla e` la presenza di una delta nell’origine della Px (f ). Per calcolare la varianza, va prima trovato il valore atteso di x2 (t):
x2 (t) = Rx (0) = P = Dunque: (48)
Z +1 ;1
Px (f )df
x2 = x2 (t) ; 2x = Rx (0) ; Rx (+1) 3. Applicazione: trasmissione con rumore termico
Per il teorema del limite centrale la densit`a di probabilit`a della somma di infinite variabili casuali e` una gaussiana. Questo e` proprio il caso del rumore termico, somma delle perturbazioni delle particelle atomiche, che sono in numero praticamente infinito, quindi si ha: (x;x )2 f (x) = 1 e; 2x2
p22
x
In figura 2 e` indicata la distribuzione del rumore gaussiano bianco su un canale trasmissivo.
N0/2
f
F IGURA 2 La media e` nulla, perch´e non ci sono delta nell’origine, del resto la sua antitrasformata, che rappresenta la funzione di autocorrelazione, e` una delta, che all’infinito e` nulla, mentre nell’origine e` infinita, per cui la varianza di x(t) e` infinita. 1 Peraltro la condizione di ergodicit`a tempo.
x(t) =< x(t) > ci assicura che x(t) e` indipendente dal
3. APPLICAZIONE: TRASMISSIONE CON RUMORE TERMICO
38
Questi valori fuori della norma derivano dal fatto che la banda non e` stata limitata: se questo viene effettuato tramite un filtro passabasso ideale, si ottiene una Py (f ) come quella in figura 3.
N0/2
-B
+B
f
F IGURA 3 Siccome il filtro e` un sistema lineare, se all’ingresso c’`e una gaussiana, deve uscirne una gaussiana. Si ottiene cos`ı:
y(t) = 0 y2 (t) =
Z +1 ;1
Px (f )df = N20 2B = N0 B
CAPITOLO 6
Il Digital Signal Processing 1. Analisi del DSP con componenti ideali Per elaborare dei segnali analogici in maniera agevole, si puo` discretizzarli, operare sul corrispondente segnale digitale (tramite un DSP), e quindi riconvertire il tutto in segnale analogico. La struttura che si usa in genere e` la seguente: (49)
S. anal ;;;!
C
!
num. ;S.;;; ! DSP ! D=A !
Q
R
anal. ;S.;;; !
Dove: C e` il campionatore (Sample and Hold); Q e` il quantizzatore; DSP e` il Digital Signal Processor; D/A e` il convertitore digitale/analogico; R e` il ricostruttore di segnale (detto anche filtro ricostruttore) Se il DSP non facesse nulla (cio`e lasciasse inalterato il segnale digitale), all’ingresso ed all’uscita si dovrebbe teoricamente trovare lo stesso segnale analogico. La struttura equivalente sarebbe la seguente: (50)
analogico x(t) ;S.;;;;; !
C
numerico ;S.;;;;; !
R
analogico ;S.;;;;; ! x~(t)
L’obiettivo di questo capitolo e` fare in modo da avere: (51)
x(t) = x~(t)
Prima di affrontare questo problema e` opportuno pero` aprire una breve parentesi riguardante i sistemi lineari. 1.1. Sistemi Lineari ed Invarianti. Si definisce sistema lineare ed invariante un funzionale [x(t)] che goda delle propriet`a di: Linearit`a: [a1 x1 (t) + a2 x2 (t)] = a1 [x1 (t)] + a2 [x2 (t)]; Invarianza temporale: [x(t)] = y(t) ! [x(t ; T )] = y(t ; T ) 8 T 2 R Si puo` dimostrare che un sistema lineare invariante puo` essere caratterizzato completamente dalla risposta all’impulso h(t):
(t)=(! t) (t)=h(! t) ;x;;;;; ;y;;;;; y(t) = x(t) h(t)
Y (f ) = X (f )H (f )
Se all’ingresso di un sistema lineare e` presente un segnale x(t) caratterizzato da una certa Px (f ), quale sar`a la densit`a spettrale di potenza Py (f ) del segnale 39
1. ANALISI DEL DSP CON COMPONENTI IDEALI
y(t) all’uscita? y(t)
x(t)
Px(f ) ;;! h(t) ;;! Py (f ) = T !lim+1
40
Y (f ) 2 T
T = YT (f )YT (f ) = = T !lim +1 T H ( f ) XT (f )H (f )XT (f ) = = T !lim +1 X (f ) 2 T T H (f ) 2= = T !lim +1 T = H (f ) 2 Px (f )
(52)
Un elemento di ritardo non influisce su questo risultato:
x(t) Px(f ) ;;! h(t) ;! ej!t ;! Py (f ) = H (f )ej!t 2 Px (f ) = = H (f ) 2 ej!t 2 Px(f ) = = H (f ) 2 Px(f )
Questo fatto si puo` esprimere dicendo che la potenza non dipende dalla fase. Come conseguenza, se si conoscono solo gli spettri di ingresso e di uscita e` impossibile conoscere completamente la funzione di trasferimento: ci e` dato conoscerne solo il modulo, mentre la fase e` totalmente indeterminata:
H (f ) 2 = Py (f )
Px (f )
(53)
( H (f ) = C
Un sistema non e` distorcente se valgono le relazioni
\H (f ) = ;2fTd
(54)
che mantengono inalterato il rapporto (53). Queste condizioni sono soddisfatte da
y(t) = Cx(t)
Ma anche da
y(t) = Cx(t ; )
(purch´e sia costante). Un tipico esempio e` il filtro passabasso (fig. 1). i(t)
x(t)
R
C
F IGURA 1
y(t)
1. ANALISI DEL DSP CON COMPONENTI IDEALI
41
Il sistema e` retto dalle equazioni
x(t) = Ri(t) + y(t) i(t) = C dtd y(t)
(55) E` immediato ricavare
1 1 + j ff0 1 f0 = 2RC H (f ) = p2 H (0) 0 2
H (f ) =
Il sistema distorce al crescere delle frequenze, infatti:
Il modulo decresce, ma H (f ) = p1+(1f=f )2 ' C se f f0 0 La fase decresce inf maniera non lineare, ma \H (f ) = arctan f0 ' Kf se f f0 Pero` se f f0 , Py ' C Px
1.2. Il campionatore ideale. Puo` essere schematizzato cos`ı:
x (t)=P+1 x(nT )(t;nT )
c c c x(t) n=;1 ;;;; ! ;;;;;;;;;;;;;;;;;;;;!
x?P+1 ? n=;1 (t;nTc)
e la sua mansione e` illustrata in figura 2.
Tc
F IGURA 2 E` chiaro che, affinch´e durante il campionamento non vadano perse delle informazioni preziose tali da rendere impossibile riottenere il segnale elementare, e` necessario che la funzione non vari ‘troppo’ tra un campione e quello successivo. Matematicamente questo si esprime dicendo che il segnale deve essere a banda limitata, cio`e supporremo che:
X (f ) = 0
8jf j > B
1. ANALISI DEL DSP CON COMPONENTI IDEALI
42
Come deve essere scelto B in relazione a Tc ? Per prima cosa occorre calcolare la trasformata del segnale campionato mediante l’operazione di convoluzione del segnale x(t) con il treno di delta S (t):
Xc = S (f ) X (f ) = =
Z +1 ;1
= fc =
X ()S (f ; )d =
Z +1
;1 +X 1
n=;1
X ()
+1 X n=;1
(f ; + nfc)d =
fcX (f + nfc)
Quindi la convoluzione con un treno di delta ‘trasla’ il segnale originale1 . Se il segnale e` quello descritto in figura 3, si otterr`a quello di figura 4.
-B
+B
F IGURA 3
B fc -B
fc
F IGURA 4 1.3. Il filtro ricostruttore ideale. Per riavere il segnale originario, si puo` pensare ad un filtro passabasso ideale, che agir`a come si vede in figura 5. Si vede subito che il segnale ricostruito non e` quello originale, perch´e le due ‘copie’ adiacenti non vengono filtrate. L’unico sistema e` allontanare fra di loro le ‘repliche’ campionando piu` spesso (vd. figura 6). 1 Vedi paragrafo 4 del capitolo 3.
2. ANALISI DEL DSP CON COMPONENTI REALI
43
F IGURA 5
F IGURA 6 La condizione richiesta e` : (56)
fc > 2B
2. Analisi del DSP con componenti reali Chiaramente la realizzazione della catena (49) con componenti reali richiede delle considerazioni aggiuntive, che riguardano Il campionatore; Il filtro ricostruttore. 2.1. Il filtro ricostruttore reale. Le specifiche per un filtro reale introducono delle zone che la funzione di trasferimento non deve attraversare, tipicamente come in figura 7.
F IGURA 7
2. ANALISI DEL DSP CON COMPONENTI REALI
44
Piu` le specifiche sono severe (e stretti i corridoi fra le zone non permesse), piu` complessa (e costosa) e` la progettazione e la realizzazione, ma aumentando la frequenza di campionamento un numero intero di volte la frequenza richiesta dalla (56), il filtro puo` essere meno sofisticato (vd. figura 8).
F IGURA 8 Un esempio di applicazione di questa tecnica sono i lettori CD x2: l’orecchio umano non riesce ad apprezzare suoni di frequenza superiore ai 16 KHz, ragion per cui i campionamenti su di un CD sono di 44 KHz, in modo da eliminare l’aliasing. I lettori piu` recenti interpolano i campioni, passando al filtro ricostruttore campioni a frequenza 88 KHz, cosicch´e il filtro risulta piu` semplice, meno costoso e la qualit`a del suono all’uscita e` migliore. 2.2. Il campionatore reale. Abbiamo sempre espresso l’azione del campionatore mediante delle delta di Dirac, ma non e` cos`ı: in un campionamento reale, gli ‘impulsi’ sono rappresentati come in figura 9.
τ
Tc
F IGURA 9 Poich´e il campionatore reale d`a in uscita porte anzich´e impulsi, viene chiamato S/H (Sample and Hold). Il S/H e` un sistema lineare, caratterizzato dalla funzione di trasferimento illustrata in figura 10. La funzione di trasferimento ideale e` quella tratteggiata, che non distorce (amplifica alla stessa maniera tutte le frequenze). Si vede bene che alle alte frequenze questo filtro riduce il guadagno, ma a noi interessano solo le frequenze in modulo minori di B e, per quella banda, la funzione e` sufficientemente piatta (`e del tipo sin x ), inoltre riducendo la funzione diviene sempre piu` prossima a quella ideale. x Si puo` pensare di inserire un filtro correttore Z (f ) tale che H (f )Z (f ) = 1 (almeno per le frequenze che ci interessano). Lo schema diventa:
! S=H !
! Z (f ) !
2. ANALISI DEL DSP CON COMPONENTI REALI
45
F IGURA 10 Un filtro di tal tipo e` piuttosto complicato, e spesso non e` necessario, perch´e e` sempre molto piccolo. In genere si progetta il filtro passabasso in modo tale che la sua funzione di trasferimento comprenda gi`a al suo interno la Z (f ).
CAPITOLO 7
Codici di Linea 1. Definizioni Supponiamo di voler trasmettere un segnale digitale, ad esempio 1 1 0 1 0 0 1 Il metodo piu` semplice (impiegato, ad esempio, nella trasmissione mediante fibre ottiche) consiste nel trasmettere un impulso in presenza di un ‘1’, oppure nulla in presenza di un ‘0’.
?? ?
?
Gi`a dall’esame della linea precedente si puo` notare che un problema rilevante e` la possibile perdita di sincronismo in seguito a lunghe sequenze di ‘0’. Esiste un corrispettivo elettrico di questo sistema di comunicazione, ed e` chiamato NRZ (Non Return to Zero): alla sequenza di cui sopra e` associata una forma d’onda del tipo descritto in figura 1. +V
0 1
1
0
1
0
0
1
F IGURA 1. NRZ unipolare Il segnale e` costante all’interno di una bit-cell, e non torna a zero: il nome NRZ deriva da questa caratteristica; un altro considerevole svantaggio e` il valor medio diverso da zero, che provoca lo spreco di energia senza la trasmissione di alcuna informazione1 , inoltre i trasformatori che si interfacciano al canale ricevendo una componente continua vengono saturati, isolando il secondario. Per eliminare questo difetto si puo` ricorrere all’NRZ antipodale, in cui i due livelli di tensione sono V , anzich´e +V e 0. Questo sistema funziona finch´e i due simboli sono equiprobabili in quanto le componenti positive e negative si compensano originando un segnale a media nulla. L’altro difetto dell’ NRZ, cio`e la perdita di sincronismo, puo` essere eliminato adottando una delle seguenti tecniche: Usare orologi precisi; 1 Vedi paragrafo 1 del capitolo 2. 46
1. DEFINIZIONI
47
+V
0 1
1
0
1
0
0
1 -V
F IGURA 2. NRZ antipodale
Usare pacchetti brevi (ad es. RS232C: 1 bit di start, 8 bit di informazioni, 1-2 bit di stop); Usare un altro canale per trasmettere il segnale di sincronismo; Ricorrere all’RZ (Return to Zero), dove nella bit cell di ciascun ‘1’ si torna a zero, come illustrato in figura 3. +V
0 1
1
0
1
0
0
1
F IGURA 3. RZ unipolare Anche con l’RZ si puo` eliminare la componente continua: si ricorre a tale scopo alla segnalazione RZ bipolare, in cui a ‘0’ e` sempre associata tensione nulla, mentre a ‘1’ e` associata una tensione alternativamente +V e ;V . Questo metodo veniva implementato nella realizzazione dei primi telex, ed e` indipendente dalla probabilit`a dei simboli ‘1’ e ‘0’ (vedi figura 4). +V
0
-V 1
1
0
1
0
0
1
F IGURA 4. RZ bipolare C’`e comunque il problema delle lunghe sequenze di ‘0’: a questo si puo` ovviare utilizzando l’RZ antipodale (figura 5), oppure ricorrerndo al ‘bit-stuffing’.
` SPETTRALE DI POTENZA PER SIMBOLI EQUIPROBABILI 2. DENSITA
48
+V
0
-V 1
1
0
1
0
0
1
F IGURA 5. RZ antipodare Il bit stuffing dal punto di vista del trasmettitore consiste nell’inserire un ‘1’ dopo una sequenza di ‘0’ di una certa lunghezza (stuffing); tale bit biene denominato stuff bit. Il ricevitore deve riconoscere lo stuff bit contando il numero di ‘0’ consecutivi ed eliminarlo (destuffing), ad esempio: 1 0 1 0 0 0 0 0 0 1 0 Stuffing 1 0 1 0 0 0 0 1 0 0 1 0 Destuffing 1 0 1 0 0 0 0 0 0 1 0 Evidentemente se avviene un errore che interessa un ‘0’ in quella sequenza, lo stuff bit viene scambiato per un bit significativo. 2. Densit`a spettrale di potenza per simboli equiprobabili Il segnale puo` essere considerato un processo casuale, funzione del tempo e di certe variabili aleatorie n :
x(t) =
+1 X
n=;1
n s(t ; nTs )
Consideriamo la trasmissione NRZ unipolare: in tal caso s(t) (segnale elementare) sar`a una porta di periodo Ts , mentre la distribuzione di ciascuna delle n e` :
(
n = A 0
con probabilit`a p1 con probabilit`a p0
La probabilit`a del primo ordine e` indipendente dal tempo (p0 = p1 = K , assumiamo K = 12 ), mentre la densit`a di probabilit`a del secondo ordine dipende dalla differenza dei tempi (se t2 ; t1 < Ts , la probabilit`a che il segnale assuma lo stesso valore e` maggiore, perch´e si potrebbe ricadere nella stessa bit-cell). Possiamo inoltre pensare che il processo sia ergodico: lo e` certamente al primo ordine, infatti
< x(t) >= x(t) = A2 ma non possiamo essere certi che sia cos`ı anche per quel che riguarda gli ordini superiori.
` SPETTRALE DI POTENZA PER SIMBOLI EQUIPROBABILI 2. DENSITA
49
Vogliamo ora calcolare la densit`a spettrale di potenza in una segnalazione del tipo:
x(t) =
(
(57)
+1 X n=;1
an = +A ;A
an f (t ; nTs )
con probabilit`a con probabilit`a
1 2 1 2
La segnalazione e` un NRZ antipodale con i simboli equiprobabili, quindi f (t) e` quella rappresentata in figura 6.
f(t) 1 t -T s/2
+Ts /2
F IGURA 6 E` logico troncare la funzione x(t) usando multipli di Ts , centrando nell’origine (figura 7), dunque e` :
T = (2N + 1)Ts
N
1
F IGURA 7
N
` SPETTRALE DI POTENZA PER SIMBOLI EQUIPROBABILI 2. DENSITA
50
La Trasformata di Fourier del segnale troncato xT (t) e`
XT (f ) =
+N X
n=;N
= F (f )
F (f )an e;jn!Ts = +N X n=;N
an e;jn!Ts
Il calcolo della densit`a di probabilit`a e` immediato:
2
Px(f ) = T !lim+1 jXTT(f )j
2 +N 23 2 X j F ( f ) j 4 = T !lim an e;jn!Ts 5 +1 T n=;N
L’unica parte che ci interessa, cio`e l’unica casuale, e` la sommatoria, di cui bisogna eseguire una media statistica:
X 2 +N X +N +N ane;jn!Ts = X ;j(n;m)!Ts = n=;N n=;N m=;N aname +N X +N X ;j(n;m)!Ts =
n=;N m=;N
an am e
Ancora una volta isoliamo la parte che contiene le uniche variabili casuali2 :
(
2 an am = R(k) = a| n{zam} = an = 1 an am = 0 am 2R
(58)
se n = m se n 6= m
In questo caso specifico an e` nullo (simboli equiprobabili e con segni opposti), dunque la sommatoria diviene
+N X +N X
n=;N m=;N Allora e` :
an am e;j(n;m)!Ts =
+N X +N X
n=;N m=;N
2 e;j(n;m)!Ts = 2N + 1 n;m
2
Px (f ) = T !lim+1 jF (Tf )j (2N + 1) = 2 = lim jF (f )j T = T !+1
T
2 = jF (f )j =
Ts
Ts
= Pf (f )
Dunque la densit`a spettrale dell’intero segnale e` pari a quella del segnale elementare. 2 Ipotizziamo sempre che due segnali distinti siano statisticamente indipendenti. In tal caso, appunto, an am an am .
=
3. GENERALIZZAZIONE A SIMBOLI NON EQUIPROBABILI
51
3. Generalizzazione a simboli non equiprobabili Puo` essere interessante calcolare la densit`a spettrale di potenza di un segnale rinunciando all’ipotesi (57): in tal caso
X 2# +N 1 2 ; jn!T s = Px(f ) = T !lim+1 T jF (f )j an e P+N Pn+=N;N a a e;j(n;m)!Ts jF (f )j2 = = N! lim+1 n=;N m(2=;NN+ n1)Tm s P+N P;n+N a a ejk!Ts 2 j F ( f ) j ;n;N n m = T N! lim+1 n=;N k=2N = +1 s +N P;n+N an am ejk!Ts 2 X j F ( f ) j k=;n;N = T N! lim+1 2N + 1 s n=;N "
E` opportuno constatare che, se N tende ad infinito, la sommatoria in k diviene insensibile al variare di n, quindi tutti i termini della sommatoria in n tendono ad essere uguali fra di loro ed, essendo 2N + 1, possono essere semplificati come segue:
;X n+N
2
Px(f ) = jF (Tf )j N !lim+1 s
(59)
a| n{zam} ejk!Ts =
k=;n;N R(k)
+1 2 X = jF (Tf )j R(k)ejk!Ts = s k=;1 " # ;1 +1 2 X X j F ( f ) j j!T j!T s s = T R(0) + R(k)e + R(k)e = s k=;1 k=1 " # +1 2 X j F ( f ) j R(0) + 2 R(k) cos(k!Ts ) = T s k=1
Essendo questo risultato piu` generale di quello trovato al paragrafo precedente, si puo` verificare la correttezza delle formule ricavate applicandole al caso in cui valga la (57); ricorrendo alla (58) si ottiene:
"
#
+1 2 X Px(f ) = jF (Tf )j R(0) + 2 R(k) cos(k!Ts ) = s
=
jF (f )j2
k=1
Ts [1 + 0] = 2 = jF (Tf )j = s = Pf (f ) che e` esattamente quello che avevamo ottenuto.
3. GENERALIZZAZIONE A SIMBOLI NON EQUIPROBABILI
(
Un altro caso importante e` l’NRZ unipolare:
an = 1 0
con probabilit`a con probabilit`a
52
1 2 1 2
Per calcolare la funzione di autocorrelazione occorre distinguere: Se k = 0 le possibili coppie (an ; an+k ) sono (0; 0) e (1; 1), quindi R(0) = 1 0 0 + 1 1 1 = 1. 2 2 2 Se k 6= 0 le possibili coppie sono invece (0; 0), (0; 1), (1; 0) e (1; 1), quindi R(0) = 41 0 0 + 14 0 1 + 14 1 0 + 14 1 1 = 41 . Concludendo:
(1
R(k) = 21 4
se k se k
=0 6= 0
"
#
Si ottiene immediatamente, mediante la (32):
+1 2 X Px (f ) = jF (Tf )j 21 + 2 14 cos(2fnTs) = s
jF (f )j2
"X +1
k=1
#
1 ej!kTs + 1 = = T 4 s k=;1 4 " # +1 2 X j F ( f ) j = f0 4 T (f ; kfs ) + 1 s k=;1 Che testimonia con la delta nell’origine la presenza di una componente continua. Siccome si ha spesso a che fare con variabili casuali scorrelate, si puo` cercare un’equazione generale nel caso in cui
(
2 2 2 R(k) = aan a= = a+ a = 2 kk ==6 00 n k n k
In tal caso, sfruttando ancora una volta la (32)
2
Px(f ) = jF (Tf )j N !lim+1 s
(60)
;X n+N
R(k)ejk!Ts =
k=;n;N ;X n+N
2 lim+1 2 + 2 ejk!Ts = = jF (Tf )j N ! s k=;n;N " # + 1 2 2 2 X j F ( f ) j n = T +T f;T s s n=;1 s
CAPITOLO 8
Segnalazioni in Banda Limitata 1. Parametri caratteristici della trasmissione in bande Riconsideriamo lo schema trasmissivo di figura 1: il canale trasmissivo e` normalmente suddiviso in bande, per rendere possibile a piu` sorgenti di comunicare al rispettivo utente. Per banda si intende l’insieme di frequenze occupate dalla densit`a spettrale di potenza. Un primo problema e` il fatto che la Px (f ) dipende da x(t), il quale a sua volta e` funzione dell’informazione trasportata e del segnale elementare; mentre quest’ultimo puo` essere manipolato come piu` conviene, l’informazione e` una variabile casuale, su cui non si possono fare ipotesi. Un altro problema e` il fatto che un segnale limitato in banda deve essere, secondo un noto teorema, illimitato nel dominio del tempo, cosa fisicamente irrealizzabile. In pratica e` necessario ‘troncare’ il segnale al di l`a di certi estremi, e, a seconda della regola utilizzata si distingue in: Banda null to null (o banda da zero a zero) che va dal primo zero a sinistra al primo zero a destra del punto in cui la Px (f ) e` massima; Banda a 3 dB, in cui si considera l’intervallo di frequenze in cui e` presente il massimo e gli estremi sono rappresentati dai punti in cui la Px (f ) scende a 3 dB sotto di esso; Banda assoluta, in cui non si eseguono troncamenti, perch´e il segnale e` limitato di per s´e in banda (`e chiaramente una idealizzazione); Banda a 99%, in cui si considera un intervallo di frequenze dove e` presente il 99% della potenza complessiva del segnale. Banda 99% Banda 3 dB
3 dB 99 % P Banda null to null Banda assoluta
F IGURA 1 Salvo sia diversamente specificato, ci riferiremo sempre alla banda null to null. 53
1. PARAMETRI CARATTERISTICI DELLA TRASMISSIONE IN BANDE
54
Che banda occupa il segnale elementare NRZ? Si ha che:
f (t) = u(t) ; u(t ; Ts ) fTs ) F (f ) = Ts sin(fT s 2 (fTs ) sin 2 2 jF (f )j = Ts (fT )2 s
In una segnalazione NRZ, la densit`a spettrale di potenza e` proporzionale al quadrato del modulo del segnale elementare, quindi si puo` applicare quanto detto a jF (s)j. Osservando la figura 2 si nota che tale grafico puo` essere diviso in lobi:
Lobo principale
-2/Ts
-1/Ts
1/Ts
2/Ts
Lobi secondari
F IGURA 2 scegliere la banda null to null corrisponde a considerare il solo lobo principale. L’eliminazione dei lobi secondari rende il segnale nel dominio del tempo non piu` uguale ad una porta, ma inserisce delle interferenze, generalmente trascurabili a causa della modesta entit`a della potenza che e` stata esclusa. Si e` soliti introdurre alcuni parametri che misurano l’efficienza della trasmissione, cio`e la velocit`a di trasferimento dell’informazione in relazione alle dimensioni della banda occupata. In particolare si definisce R la velocit`a di trasmissione dei simboli della sorgente, espressa in bit al secondo; D e` la velocit`a di trasmissione dei simboli di canale, espressa in simboli al secondo; B e` la dimensione della banda (nel caso specifico della banda null to null si usa il simbolo B00 ); infine e` l’efficienza spettrale, ed e` pari al rapporto fra la velocit`a di trasmissione e le dimensioni della banda considerando le sole frequenze positive (Banda unilatera):
= B R=2
(61)
00
Per codici di canale
NRZ unipolari NRZ bipolari NRZ antipodali
se non si adottano tecniche di trasmissione multilivello (che verranno trattate piu` avanti), ad ogni simbolo della sorgente corrisponde un simbolo di canale, quindi
1. PARAMETRI CARATTERISTICI DELLA TRASMISSIONE IN BANDE
55
D = R, e la durata di ciascun simbolo e` Ts , percio` R = T1
s
Osservando la figura 2 si ricava subito che
B00 = T1 s =1 Per codici di canale
RZ unipolari RZ bipolari RZ antipodali
se si suppone che il segnale torni a zero a,Ts =2 il segnale elementare e` una porta di dimensione pari Ts =2 soltanto (vd. fig. 3).
Ts
T/2 s
F IGURA 3 Come conseguenza, anzich´e ottenere il grafico di figura 2 se ne ottiene uno che ha gli zeri distanziati di 2=Ts invece di 1=Ts , il che, se non modifica R (`e sempre un bit per simbolo, e Ts non cambia), modifica , poich´e la banda si allarga:
R = T1
s
B00 = T2 s 1 =2 Per colmare questa lacuna dell’RZ si puo` aumentare il numero di simboli possibili, in modo da potere assegnare piu` bit a ciascuno di essi, ad esempio se i vari
1. PARAMETRI CARATTERISTICI DELLA TRASMISSIONE IN BANDE
56
simboli sono porte di ampiezza 0 V, 1 V, 2 V e 3 V si puo` porre
00 ! 0 V 01 ! 1 V 10 ! 2 V 11 ! 3 V
A questo punto non e` piu` vero che ad ogni simbolo di canale corrisponde un simbolo della sorgente: ne corrispondono due (R = 2D), il che modifica R, ma non B00 , e si riottiene:
R = 2 T1 ) = 1 s
Generalizzando, se ad un simbolo sono associati l bit, ovviamente sar`a
D = Rl
Per quanto riguarda l’efficienza spettrale
(
= ll
(62)
2
NRZ RZ
Chiaramente aumentare il numero di simboli di sorgente per un simbolo di canale ha delle conseguenze in termini di energia media spesa per trasmettere un bit di informazione. Nel caso in cui la corrispondenza sia 1:1, cio`e la costellazione sia quella di figura 4, si ottiene: d=2V
-V
0
φ
+V
F IGURA 4
E = 12 V 2 + (;V )2 = V 2 Se invece i simboli sono otto (fig. 5), si trova:
-7V
-5V
-3V
-V
0
+V
+3V
+5V
+7V
φ
F IGURA 5
E = 18 V 2 [49 + 25 + 9 + 1 + 1 + 9 + 25 + 49] = 21V 2 Come si vede, E cresce di molto, ed i canali reali non possono trasportare
segnali eccessivamente energetici. Si puo` scegliere di ‘comprimere’ la costellazione, cio`e di dimensionare il valore di V in figura 5 affinch´e abbia la stessa energia
2. INTERFERENZA INTERSIMBOLICA
57
media di quella calcolata in figura 4; si ottiene:
V2 = pV1
21
Questo comporta una minore immunit`a al rumore (d2 0; 2d1 ). Noto il rapporto S N e` possibile calcolare il massimo numero di simboli che si possono introdurre, infatti deve essere: dove d e` la distanza fra i simboli:
N 6 d2
d = M2V; 1 = 2l2;V 1 Il numero di bit per simbolo e` indicato con l. Con un po’ di algebra si ricava che, per un NRZ:
max = l = log2 1 + NS
(63)
2. Interferenza Intersimbolica Abbiamo precedente affermato che l’eliminazione dei lobi secondari causa delle distorsioni, generalmente trascurabili: e` giunto il momento di trattare piu` approfonditamente questo argomento. Il segnale elementare dell’NRZ e` una porta: matematicamente si ottiene che il lobo principale (l’unico che attraversa il canale) ha una forma d’onda come quella di figura 6: il punto di campionamento ottimo, cio`e quello il cui e` piu` facile discriminare fra ‘1’ e ‘0’ e` quello indicato. t0
Ts
Ts
F IGURA 6. Segnale elementare prima e dopo l’eliminazione dei lobi secondari. Scegliere t0 come punto di campionamento non garantisce pero` che il decisore riesca sempre ad interpretare correttamente il segnale ricevuto, infatti il segnale elementare cos`ı come giunge all’altro capo del canale non si esaurisce subito, ma ha una ‘coda’ (enfatizzata in figura 7) rivolta verso l’infinito positivo che rischia di fare interpretare come ‘1’ i simboli successivi, anche se sono ‘0’. Questo genere di ‘disturbo’ e` detto interferenza intersimbolica (ISI); se conduce all’errata ricezione di certe sequenze di simboli, si parla di ‘errore sistematico’, cio`e di un grave errore di progetto, che causa errori in ricezione anche in assenza di rumore: la ricerca di un modo per eliminare questo pericolo e` lo scopo di questo capitolo.
2. INTERFERENZA INTERSIMBOLICA
58
F IGURA 7 Un canale e` un sistema lineare ed invariante (almeno teoricamente), dunque e` possibile individuare una funzione di trasferimento H (f ) (e la relativa h(t)) che lo caratterizzi completamente. Se il segnale elementare e` una generica r(t)
x(t) =
+1 X
n=;1
an r(t ; nTs )
y(t) = x(t) h(t) = = =
"X +1
n=;1
+1 X
n=;1
#
an r(t ; nTs ) h(t) =
[an r(t ; nTs ) h(t)]
Se conosciamo s(t) , r(t) h(t), sar`a anche
r(t ; nTs) h(t) = s(t ; nTs )
a motivo dell’invarianza temporale.
x(t)
t0
t 0+Ts
t 0+2Ts
t0
t 0+Ts
t 0+2Ts
y(t)
F IGURA 8 Da cio` segue la semplice formula:
y(t) =
+1 X
n=;1
an s(t ; nTs )
2. INTERFERENZA INTERSIMBOLICA
59
Se consideriamo un istante t0 , i segnali ai due capi del canale saranno1 :
x(t0 ) = a0 r(t0 ) y(t0 ) =
+1 X
n=;1
an s(t0 ; nTs ) = a| 0{z s(t}) + S:utile
X
s(t0 ; nTs)
n6=0 | {z Interferenti
}
La situazione e` quella di figura 8. Una conseguenza rilevante dell’interferenza su y (t) e` che i simboli si spostano sull’asse s(t) con il tempo, come si nota in figura 9. r(t) Canale s(t) Campionamento s(t)
F IGURA 9 E` ovvio che la soglia va posta comunque nel punto medio della congiungente dei due simboli, ed e` altrettanto ovvio che la situazione che provoca errori sistematici e` quella di figura 10, in cui i due segmenti si sovrappongono parzialmente. s0
s1
F IGURA 10 Un parametro per misurare la pericolosit`a dell’interferenza intersimbolica, e` la distorsione di picco, definita come il rapporto fra interferenti e segnale utile all’istante t0 , cio`e:
P ja s(t ; nT )j Dp = n6=0 jan s(t0 )j s 0 0
(64) Noi dovremo porre: (65)
Dp 6 1 2 (;1 +1)
1 Qui useremo sommatorie con n ; anche per gli interferenti, ma bisogna ricordare che solo i termini con n negativa generano interferenza intersimbolica, mentre gli altri sono, per il principio di causalit`a, necessariamente nulli.
2. INTERFERENZA INTERSIMBOLICA
60
perch´e questo ci garantisce che, nel caso peggiore, gli interferenti abbiano modulo pari al segnale utile, ma segno opposto: in tale situazione il simbolo finisce per coincidere con la soglia, mentre in tutti gli altri casi il simbolo non puo` oltrepassare la soglia (vd. fig. 11). Interferenti -A
A 0
s0
s1
Segnale utile
F IGURA 11. Interferenza intersimbolica in una segnalazione NRZ antipodale: le due frecce rappresentano la massima ampiezza (nel caso peggiore) degli interferenti e l’ampiezza del segnale utile: il rapporto fra le loro lunghezze e` pari a Dp : se tale parametro e` pari a uno, le due regioni si toccano, ma non si sovrappongono, il che motiva la (65). Finora abbiamo parlato di un sistema NRZ antipodale: che cosa succede se il sistema e` unipolare? Come e` ovvio, e` solo il simbolo ‘1’ (associato ad una porta di ampiezza A) a provocare un’interferenza verso l’alto, mentre il simbolo ‘0’ (che non e` associato ad alcuna forma d’onda) non ne provoca, ma la subisce, come si vede in figura 12. Interferenti A
0 A/2 s0
s1
F IGURA 12. Interferenza intersimbolica in una segnalazione NRZ unipolare: qui gli interferenti non possono causare problemi durante la ricezione di un ‘1’, ma lo possono fare durante la ricezione di un ‘0’: in questo caso Dp deve essere minore di 1=2. Si ottiene:
P ja s(t ; nT )j Dp = n6=0 an s(t0 ) 0 1 0
Dove a1 = A. Nel caso peggiore sono stati trasmessi in precedenza solo degli ‘1’: affinch´e un eventuale ‘0’ possa essere ricevuto correttamente, deve essere: (66)
P s(t ; nT ) Dp = n6=0 s(t0 ) 0 6 12 0
2. INTERFERENZA INTERSIMBOLICA
61
Talvolta viene citata anche la distorsione efficace, che pero` qui non verr`a mai usata:
DE2 =
(67)
P
n6=0 [an s(t0 ; nT0 )]
[a1 s(t0 )]2
2
Veniamo dunque al punto significativo: come deve essere costruito il ricevitore affinch´e l’interferenza intersimbolica sia trascurabile? La cosa piu` ovvia da fare e` porre a monte del campionatore un filtro, detto filtro di ricezione o equalizzatore di canale, dotato di un’opportuna funzione di trasferimento. Se supponiamo che la sorgente generi un treno di delta, possiamo assegnare una funzione di trasferimento anche al trasmettitore, cio`e possiamo pensarlo come ad un filtro (detto filtro formatore) che trasformi una delta unitaria nel segnale elementare. Anche il canale, che filtra i lobi secondari, ha una funzione di trasferimento, quindi lo schema che si ottiene e` il seguente. (68)
x(t) xTX (t) xRX (t) y(t) ;;! TX [HT (f )] ;;;;! CH [Hc (f )] ;;;;! RX [HR (f )] ;;! Le equazioni sono:
x(t) = xTX (t) = xRX (t) = y(t) =
+1 X n=;1
+1 X
n=;1
+1 X
n=;1
+1 X
n=;1
an (t ; nTs ) an hT (t ; nTs) an [hT (t ; nTs ) hc (t)] an [hT (t ; nTs ) hc (t) hR (t)]
Dunque noi vogliamo che
s(t) , hT (t) hc (t) hR (t) sia priva di interferenza intersimbolica: una volta che sia stata scelta, si puo` calcolare la funzione di trasferimento dell’equalizzatore di canale mediante la formula
HR (f ) = H (fS)(Hf ) (f ) c
T
e con il vincolo che tale funzione sia fisicamente realizzabile2. 2 C’`e anche un problema aggiuntivo: un canale reale non ha una funzione di trasferimento rigorosamente costante nel tempo, ma solo lentamente variabile: e` necessario che HR f si possa calibrare adattandosi alle condizioni del sistema. Una volta tale caratteristica era molto costosa (servomotori che regolavano capacit`a di condensatori variabili...): ora non e` piu` cos`ı grazie all’impiego di filtri numerici, che risolvono anche il problema della fisica realizzabilit`a.
()
2. INTERFERENZA INTERSIMBOLICA
62
Una formalizzazione matematica della condizione di ‘assenza di interferenza intersimbolica’ e` :
(
(69)
s(t0 ; tTs ) = C n = 0 0 n 6= 0 Un esempio di funzione che soddisfi la (69) e` la funzione
s(t) = sin(ffts t)
(70)
s
in cui la costante C e` unitaria. Dall’esame della figura 13 si osserva che la larghezza di banda deve essere pari ad almeno f2s (detta frequenza di Nyquist). Per quanto riguarda l’efficienza spettrale, si trova che:
= B R=2 = 00 R = f =2 = s = 1=(2RT ) = s R = R=2 = =2
Si noti che l’efficienza spettrale trovata e` la massima raggiungibile mediante una
Ts
fs 2
F IGURA 13 sgnalazione binaria. Il segnale (70) non e` fisicamente realizzabile, perch´e non e` causale (non c’`e un istante prima del quale la funzione e` identicamente nulla). In pratica si tronca quando il segnale diventa confrontabile con il rumore, come si vede in figura 14.
F IGURA 14
3. IL PRIMO CRITERIO DI NYQUIST
63
Questa funzione ha ancora un punto di campionamento ottimo nel massimo centrale3 e non presenta interferenza intersimbolica: il suo unico difetto e` che non puo` essere trasmessa su banda limitata, perch´e, essendo a supporto compatto, ammette una trasformata di Fourier che ha banda infinita: in pratica si trasmette ugualmente usando una banda lievemente superiore a quella stimata precedentemente, introducendo delle distorsioni in genere trascurabili. 3. Il Primo Criterio di Nyquist Finora non e` stato considerato un aspetto tipico di un sistema di comunicazione reale: la possibile mancanza di perfetta sincronizzazione fra ricevitore e trasmettitore, che sposta il punto di campionamento in anticipo o in ritardo rispetto al punto di campionamento ottimo. Tale fenomeno viene detto jitter ed e` illustrato in figura 15.
Ts
F IGURA 15 L’effetto del jitter sul massimo assoluto non d`a grande fastidio, in quanto la derivata e` nulla in quel punto, per cui intervengono differenze del secondo ordine; cos`ı non si puo` dire per quanto riguarda gli zeri della funzione: l`ı la derivata non e` piu` nulla, percio` la mancata sincronizzazione puo` provocare dei problemi: come si vedr`a, si puo` fare in modo che anche negli zeri la derivata di annulli, ma bisogner`a ridurre l’efficienza spettrale. Riconsideriamo ora l’espressione (69), per ottenere una soluzione il piu` generale possibile e in modo da poter scegliere fra un ventaglio di possibili segnali elementari quello piu` adatto caso per caso. Il campionatore ideale, avendo all’ingresso il segnale elementare, fornisce all’uscita un treno di delta: +1 s(t0 +kTs )(t;t0 ;kTs ) s(t) k=;1
P
;;;;! ;;;;;;;;;;;;;;;;;;;;!
x?P+1 ? k=;1 (t;t0;kTs )
3 Si noti che la funzione e` stata troncata ai due massimi adiacenti al massimo centrale solo per chiarezza, ma che l’intervallo in cui si tronca puo` essere molto piu` ampio e comprendere anche altri lobi.
3. IL PRIMO CRITERIO DI NYQUIST
64
L’equazione (69) diventa cos`ı:
+1 X
k=;1
s(t0 + kTs )(t ; t0 ; kTs ) = s(t0 )(t ; t0 ) = C(t ; t0 )
Trasformando ambo i lati:
S (f ) T1
+1 X
s k=;1
(71)
(f ; kfs )e;j2ft0 = Ce;j2ft0
+1 1 X Ts k=;1 S (f ; kfs ) = C
Questo risultato e` detto Primo Criterio di Nyquist, e si puo` verificare facilmente che la funzione (70) lo soddisfa, come si vede in figura 16.
F IGURA 16. Esempi di segnali elementari soddisfanti il criterio di Nyquist: si noti che la prima funzione e` la trasformata della (70). Ci si puo` chiedere che differenze ci siano fra le varie funzioni rappresentate, ovvero che cosa cambia variando l’ampiezza degli intervalli in cui le varie repliche si sovrappongono. Prendiamo come esempio l’ultima delle funzioni elencate: la 2 sua antitrasformata e` nella forma sinx2 x , ed e` rappresentata in figura 17.
-2/Ts
-1/Ts
1/Ts
F IGURA 17
2/Ts
3. IL PRIMO CRITERIO DI NYQUIST
65
Questo e` proprio il risultato che desideravamo ottenere: in tutti i punti in cui avviene il campionamento la derivata e` nulla; di contro l’efficienza spettrale diventa solo unitaria in seguito al raddoppiamento della banda. Un segnale spesso impiegato e` il cosiddetto ‘coseno rialzato’, che ha una funzione, nel dominio delle frequenze pari a:
8 > <11 h i jf j < f1 j f j; f 1 S (f ) = > 2 1 + cos 2f f1 < jf j < B :0 jf j > B
(72)
Dove
f , B ; f0 = f0 ; f1
1 1/2 f1 f0 B f∆ f∆
F IGURA 18. La Trasformata del coseno rialzato I gradi di libert`a solo due, e le specifiche normalmente riguardano:
Il fattore di roll-off r Il rapporto fB0 .
, ff0 ;
Il fattore di roll-off determina la ‘dolcezza’ delle curve di salita e discesa della curva, in particolare, se r = 0, S (f ) e` una porta; se r = 1, non esiste il tratto orizzontale e la funzione e` simile ad un triangolo smussato. Per calcolare il punto di campionamento ottimo bisogna innanzitutto antitrasformare la (72):
s(t) = 2f0
sin(2f0t) cos(2ft) 2f0 t
1 ; (4ft)2
Il punto di campionamento ottimo ha due caratteristiche: E` un massimo relativo; La funzione deve essere nulla traslandola di un tratto pari a Ts . In effetti non e` difficile scoprire che in t0 = 0 e` localizzato un massimo e che, per t = 2kf0 la funzione si anulla. Se dunque poniamo fs = 2f0 , si ottiene:
D = T1 = 2f0 s
B = f0 + f = D2 (1 + r)
4. IL FILTRO TRASVERSALE
66
Dunque aumentando il fattore di roll-off, il jitter e` meno dannoso, ma la banda si allarga, come si era ricavato anche per la famiglia di curve di figura 16. Se una catena trasmissiva e` nella forma 68, si puo` porre
p
HRX = HTX = S (f )
dove S (f ) e` dato dalla (72). Poich´e il coseno rialzato e` limitato in banda, il canale non altera il segnale (almeno idealmente), e la funzione di trasferimento complessiva della catena data da trasmettitore, canale e ricevitore e` proprio S (f ). 3.1. Esempio. Supponiamo di avere a disposizione una banda unilatera B = 10 KHz e di dovere realizzare un sistema di trasmissione che garantisca una velocit`a di trasmissione di simboli della sorgente R = 10 Kbit/s. Se vogliamo impiegare una segnalazione binaria mediante coseno rialzato, sar`a
D = R = 10 KHz r = 2DB ; 1 = 1 Cambiamo ora i valori:
B = 10 KHz R = 15 Kbit/s Se continuiamo ad utilizzare una segnalazione binaria
r = 2DB ; 1 = 0; 333
Il fattore di roll-off e` sceso molto piu` di quanto sia salito R. Aumentando ulterioremente R, ad esempio portandolo a 20 Kbit/s, r diviene nullo, il che e` inaccettabile4 : dobbiamo passare ad una segnalazione multilivello, ad esempio con M = 4, che ci permette un fattore di roll-off unitario. E` da notare che una segnalazione con M = 8 livelli spreca della banda, poich´e r non puo` essere maggiore di uno. 4. Il Filtro Trasversale Una problematica sinora solo accennata e` quella relativa al fatto che le tre funzioni di trasferimento caratteristiche di un sistema di comunicazione (cio`e quella del filtro formatore, quella del canale e quella del ricevitore) sono soggette a variazioni col tempo, causate da invecchiamento, difetti di installazione o inevitabili tolleranze rispetto ai valori nominali. Va dunque posto a valle di tutta la catena un equalizzatore di canale con funzione di trasferimento Heq in grado di garantire che la funzione di trasferimento complessiva sia quella voluta.
! TX [HT (f )] ! CH [Hc (f )] ! RX [HR (f )] !
EQ [Heq ]
!
Se la taratura va eseguita una volta per tutte, basta trasmettere una sinusoide pura o una sequenza periodica di ben determinati simboli ed osservare il segnale all’uscita, spostando opportunamente poli e zeri fino ad ottenere il segnale desiderato. Questo processo puo` essere pero` realizzato solo se zeri e poli sono pochi, 4 Un valore generalmente accettato e` 0,4 o 0,5; mai meno di 0,2.
4. IL FILTRO TRASVERSALE
67
altrimenti si puo` impiegare un filtro trasversale, la cui struttura e` rappresentata in figura 19. Ritardatori
Ts
Ts
b-N
Ts
b-N+1
Ts
b-N+2
bN
Σ
xOUT
F IGURA 19 Questo sistema puo` essere utilizzato solo per elaborare segnali numerici, malgrado il filtro sia analogico. I gradi di libert`a sono 2N , cio`e tanti quanti sono i vari coefficienti bk , che vanno fissati per ottenere la funzione voluta. Questo filtro e` anche detto FIR (Finite Impulse Response), per distinguerlo dall’IIR (Infinite Impulse Response), piu` difficile da progettare. Quando tale filtro viene impiegato, si fa in modo che conglobi in s´e sia la funzione di trasferimento del ricevitore che quella dell’equalizzatore:
wc (t) xOUT (t) ! TX [HT (f )] ! CH [Hc (f )] ;;;! FIR [HR (f )] ;;;;;! Chiaramente wc (f ) e` il segnale elementare prelevato dall’uscita dal canale, mentre xOUT (t) e` il segnale desiderato, cio`e privo di interferenza intersimbolica
xOUT (t) = b;N wc (t) + b;N +1wc t ; Ts + ::: + bN wc t ; 2NTs = =
+N X
n=;N
bn wc [t ; (n + N )Ts ]
Se vogliamo che il punto di campionamento ottimo sia per cando la (69)
xOUT ( + kTs ) = (73)
= Questo e` un sistema in 2N
+N X n=;N +N X
= NTs, appli-
bn wc ( + kTs ; NTs ; nTs) =
(
bn wc [(k ; n)Ts ] = 1 k = 0 0 k 6= 0 n=;N + 1 incognite (le bk ).
4. IL FILTRO TRASVERSALE
68
1 0,5 Ts
2Ts
3Ts
F IGURA 20 Se il segnale, ad esempio, e` quello di figura e` 20, e N
2 66 66 4
1 2 1 1 2 0 0
0 1 2 1 1 2 0
0 0 1 2 1 1 2
0 0 0 1 2 1
0 0 0 0 1 2
32 b 77 66 b;;21 77 66 b0 5 4 b1 b2
= 2, cio`e il FIR ha 5 prese:
3 203 77 66 0 77 77 = 66 1 77 5 405 0
La soluzione di questo sistema e` :
[b;2 ; b;1; b0 ; b1 ; b2 ] = [0; 0; 2; ;4; 6] Il fatto che i bk siano nulli per k < 0 deriva dal fatto che i segnali sono causali,
quindi un simbolo non puo` interferire prima di essere stato trasmesso. Il segnale all’uscita si puo` facilmente ricavare, ed e` quello di figura 21.
4 3 2 1 Ts 2Ts 3Ts 4Ts 5Ts 6Ts 7Ts
F IGURA 21 Si nota che il filtro lavora bene solo per t 2 [0; 2Ts ], mentre l’interferenza intersimbolica aumenta, addirittura, per t 2 [3Ts ; 4Ts ]. Per potere risolvere questo problema sarebbero necessarie infinite prese, oppure e` necessario imporre che anche questi due campioni si annullino:
2 66 66 4
1 2 1 1 2 0 0
0 1 2 1 1 2 0
0 0 1 2 1 1 2
3 2 1 3 2 3 77 b0 66 a1 77 77 4 b1 5 = 66 a2 77 5 b2 4 a3 5 a4
4. IL FILTRO TRASVERSALE
Con la condizione:
2a 66 a12 4a 3
a4
69
3 203 77 = 66 0 77 5 405 0
Questa e` un sistema di 5 equazioni in 3 incognite, che puo` quindi essere risolto solo in alcuni casi molto particolari5 . Quello che si fa in pratica e` utilizzare metodi numerici per minimizzare i moduli di ak .
5 Si puo` dimostrare che questo succede se il sistema non ha memoria, ad esempio se c’`e un solo polo nella funzione di trasferimento, infatti il FIR puo` unicamente inserire degli zeri.
CAPITOLO 9
Rumore 1. Resistore Rumoroso Si puo` considerare rumore qualsiasi cosa che, quando e` aggiunta ad un segnale di informazione, renda piu` difficile estrarre l’informazione stessa. Esistono molti tipi di rumore, ad esempio quello termico (causato dal movimento di molecole ed atomi), oppure il rumore impulsivo (provocato da scintille e da tener in gran conto in ambito industriale). Qui si parler`a unicamente di rumori termici, in quanto la costruzione di un modello si dimostra piu` agevole. Se si considera il piu` semplice componente passivo, un resistore, si puo` osservare che, a causa dell’agitazione termica, esso si comporta come se avesse un piccolo generatore di tensione.
R
R
v(t)
F IGURA 1. Modello del resistore rumoroso con generatore di tensione di errore v (t). La potenza che puo` erogare e` comunque ridottissima (l’ordine di grandezza e` minore del pW ). Questo generatore di tensione, v (t), e` caratterizzato da una tensione casuale detta tensione d’errore: essa puo` essere considerata un processo casuale. Si dimostra che la densit`a spettrale di v (t) vale: (74) dove:
(75)
Pv (f ) = 2R
h jf j
h jf j jf j 2 + e hKT ;1
R e` la resistenza
h = 6; 2 10;34 [Js] e` la costante di Planck K = 1; 38 10;23[J=K ] e` la costante di Boltzmann
T e` la temperatura in Kelvin del resistore
L’espressione (74) non e` chiaramente molto agevole da utilizzare, ma bisogna trovare una formula approssimata che valga nel campo di valori che hanno 70
1. RESISTORE RUMOROSO
71
un interesse ingegneristico, ovvero nelle seguenti condizioni di temperatura e di frequenza:
T 2 [;50o ; 100o]C , T 2 [223; 15 ; 423; 15]K jf j < 1THz
Per i nostri calcoli, pero, ` consideriamo i valori:
T = T0 = 290K = 17oC f = 1012Hz
(76)
Pertanto il termine dell’esponenziale della (74), tenendo conto delle (76) e delle costanti (75) risulta essere:
h jf j = 6; 2 10;34 1012 0; 15 KT 1; 38 10;23 290
Poich´e per x 1 vale la seguente linearizzazione,
ex 1 + x
l’espressione (74) diventa:
!
Pv (f ) 2R h 2jf j + hhjjffjj = = 2R
h jf j
KT
2 + KT
Sempre tenendo conto delle (76) e delle costanti (75), osserviamo che h jf j si mantiene ad almeno un ordine di grandezza al di sotto di KT :
h jf j = 6; 2 10;22 KT = 4 10;21
Quindi si ottiene la formula approssimata per la densit`a spettrale di potenza della tensione di errore, dipendente dalla sola temperatura:
Pv (f ) 2RTK
(77)
In un circuito resistivo costituito da un generatore di tensione ideale e da un resistore R e da un resistore di carico RL come quello di figura 2, si puo` calcolare
R P
RL
v(t)
F IGURA 2 la potenza massima disponibile Pd , che si verifica in condizioni di adattamento in
1. RESISTORE RUMOROSO
72
potenza del carico, ovvero ponendo R = RL e ivi misurandone la potenza Pd , che risulta pari a: (78)
2 Pd = V4R(t)
La relazione (78) vale anche quando si voglia calcolare la potenza massima disponibile quando il generatore di tensione non e` un segnale deterministico, bens`ı un processo casuale:
2 Pd = v4R(t) Quindi per la propriet`a di linearit`a degli integrali, possiamo calcolare la densit`a spettrale di potenza del rumore generato dal resistore rumoroso:
(79)
Pd (f ) = P4v R(f ) = = KT 2
Pd (f) KT/2
f
F IGURA 3. Densit`a spettrale di potenza del rumore generato dal resistore rumoroso. Come si vede da figura 3, lo spettro e` uniforme, quindi abbiamo a che fare con del rumore bianco. Quindi, se nel ricevitore e` presente un filtro ideale passa-basso, la potenza normalizzata di rumore, in condizioni di adattamento:
Pn =
Z +B KT
2 df = = KT 2 2B = = KTB ;B
Possiamo calcolare la potenza normalizzata, se si suppone di essere in condizioni di adattamento, perch´e la dipendenza da R sparisce. Se non si ha l’adattamento, bisogna conoscere il valore della resistenza per determinare la Pn .
2. DOPPIO BIPOLO RUMOROSO
73
Pd (f) KT/2
-B
f
+B
F IGURA 4. Potenza di rumore con in ricezione filtro ideale passa-basso. 2. Doppio Bipolo Rumoroso Un caso piu` generale si ha per un doppio bipolo rumoroso, rappresentato in figura 5 dalla sua H (f ) e dal modello equivalente che tiene conto del guadagno disponibile gd e del contributo di rumore interno n(t). Si osservi che il nodo di somma combina il rumore interno con quello in ingresso e in questo modo i contributi sono indipendenti, pertanto vale il principio di sovrapposizione degli effetti.
non rumoroso
gd
+
H(f) n(t)
F IGURA 5 Il guadagno disponibile gd e` funzione solo dalla frequenza ed e` piu` comodo di H (f ) per caratterizzare il doppio bipolo e inoltre vale:
gd = PPdo di P gd = Pdo ((ff )) di
jf j < B jf j > B
Per quanto riguarda il contributo n(t) si calcola il seguente rapporto, detto cifra di rumore del doppio bipolo (noise figure), rapporto fra potenza Pdo disponibile all’uscita del doppio bipolo rumoroso e la potenza Pdo (f ) del doppio bipolo non rumoroso:
F (f ) = PPdo ((ff )) do
2. DOPPIO BIPOLO RUMOROSO
74
R
v(t)
F IGURA 6 Consideriamo la componente rumorosa di figura 7:
Ri
Rn
F IGURA 7
Rn e` rumorosa, e in condizioni di adattamento e` uguale ad Ri . In effetti il rumore di un doppio bipolo si misura con l’apparecchiatura schematizzata in figura 8:
R = Ri
290 K
F IGURA 8 Quindi
F (f ) = PPdo ((ff )) =
do KT0 gd (f ) + Pn (f ) = 2 KT0 gd (f )
2
>1
Questa espressione va mediata nella frequenza per poter essere semplificata. Se pero` ipotizziamo l’indipendenza di gd da f
gd (f ) = gd
3. MODELLO DELLA TEMPERATURA EQUIVALENTE
si ha
75
KT0 gd + Pn (f ) F (f ) = 2 KT 2 0 gd
F=
Z + B2
F (f )df =
; B2 KT0 gd B + P = 2KT0 gd n 2 B
Qui viene comoda una banda unilatera (larga il doppio):
0gdB + Pn = F = KTKT 0gdB P d = KT go B 0d
Ad esempio: dove l’equivalenza vale se e solo se la temperatura di Ri e del doppio
R Ri
Rn Linea
Rn T0
T0 T0
F IGURA 9 bipolo e` uguale (qui a T0 ).
F = KTPdgo B = 0d KT0 2B = KT2 g B = 0d 1 = g =L d
Cio` non dipende dalla temperatura, purch´e sia uguale. Questo risultato vale in generale. 3. Modello della temperatura equivalente Un metodo alternativo consiste nel pensare tutti i doppi bipoli come ideali, e supporre che tutto il rumore provenga dalla resistenza, posta ad una temperatira superiore, pari a con Te detta temperatura equivalente
T0 + Te
4. CATENA DI DOPPI BIPOLI
76
Ideale R
gd
T0 + Te
F IGURA 10. Modello della temperatura equivalente Il legame fra Te e F e` il seguente:
K (T + T )2Bgd F = 2 K0 e = 2 T0 gdB = T0 T+ Te e Te = T0 (F ; 1)
(80)
Questo modello e` molto utile, anche perch´e la densit`a spettrale all’uscita e` uguale a quella d’ingresso nella forma. 4. Catena di doppi bipoli Un caso piu` complesso e` il seguente: g1
g2
gn
F1
F2
Fn
geq Feq
F IGURA 11
geq = (81)
=
n Y i=1 n X i=1
gi jW = gi jdB
Per quanto riguarda Feq e Teeq , la situazione e` piu` complicata: incominciamo considerando il caso in cui i bipoli siano due.
4. CATENA DI DOPPI BIPOLI
Pdo
g1
g2
F1
F2
77
Pdi
F IGURA 12 Ovviamente vale:
geq = g1 g2 E poi
F = PPdo = do = P Pgdog = di 1 2 P = 2P+gPog1 g2 = di 1 2 P = P g2 g + P1P+gPdig g1 g2 di 1 2 di 1 2 Poich´e
F1 = P1 P+ Pgdi g1 di 1 P + F2 = 2 P Pgdi g2 di 2
Allora
F = P Pg2 g + F1 = di 1 2 F = 2g; 1 + F1 1
L’estensione a tre doppi bipoli e` immediata: g1
g2
g3
F1
F2
F3
g1
g2 g3
F1
F3 -1 g2
F IGURA 13
4. CATENA DI DOPPI BIPOLI
78
F2 + F3g;1 2 ; 1 F = F1 + = g1 = F1 + F2 g2 + (gF3g; 1) ; g2 = 1 2 g ( F ; 1) + (F3 ; 1) = 2 2 = F1 + g1 g2 = F1 + F2g; 1 + Fg3 ;g 1 1 1 2 In generale e` : (82)
F = F1 + F2g; 1 + Fg3 ;g 1 + + gFN ; g1 1
Analogamente: (83)
12
1
N
Te = T1 + Tg 2 + gTg3 + + g TN g 1 1 2 1 N
4.1. Esempio. Data una linea con fattore di attenuazione pari a L, con cifra di rumore FL = L e un amplificatore con guadagno gA = L1 e cifra di rumore FA = 3dB 2, calcolare la cifra di rumore totale nel caso in cui l’amplificatore sia posto a valle della linea e nel caso in cui sia posto a monte della linea (rispetto all’utilizzatore). Caso Amplificatore+Linea
F = FA + FLg ; 1 = A
1
gA ; 1
=2+ g = A 1 ; = 2 + g2gA = A 2A + 1 ; gA 2 g = gA2 Caso Linea+Amplificatore
F = FL + FAg ; 1 = L
= g1 + 2 ;1 1 = A gA 1 = +g =
gA
2 = 1 +g gA A
A
Ovviamente i valori di F dipendono esclusivamente dai valori assegnati ai parametri. Nel caso televisivo si preferisce utilizzare la prima soluzione, amplificatore e poi linea.
5. RUMORE GAUSSIANO BIANCO CON IL MODELLO DELLA
Te
79
5. Rumore gaussiano bianco con il modello della Te Essendo noti
Pdo (f ) = K (T02+ Te ) g P (f ) = KT0 di
2
se si pone
N0 = K (T0 + Te ) g ) N = K (T + T )g 0 0 e 2 2
I calcoli sono piu` semplici, perch´e N0 non varia nei vari punti della catena.
PN =
Z +B N0
df =
;B 2 = BN0 = = BK (T0 + Te )g
Quindi si puo` calcolare il rapporto segnale rumore all’uscita:
S
PS N O = PN = = BK (PTTX+gT )g = 0 e P TX = BK (T + T ) = S 0 e = N I
Tutto cio` purch´e si pensi che la resistenza sia a temperatura Te ha:
(t)=P+n=1;1 an r(t;nTs ) y(t) y(to +nTs ) ;x;;;;;;;;;;;;;;;; ! ;;;; ! ;;;;;;!
x n(t)? ?
x?P ? n (t;nTs)
+ T0. In pratica si
D
Si suppone che sia nulla l’interferenza intersimbolica (ISI=0)
y(t0 ) =a0 r(t0 ) ;
X
n6=0
an r(t0 ; nTs ) + n(t0 ) =
= a0 r(t0 ) + n(t0 )
Il rumore n(t0 ) e` gaussiano, quindi lo si descrive compleamente tramite Siccome e` originariamente bianco si ha:
2 ! 1
e 2 .
non e` definita
Quando si filtra, il rumore diviene colorato (non gaussiano), come si vede in figura 14.
5. RUMORE GAUSSIANO BIANCO CON IL MODELLO DELLA
Te
80
N0/2
-B
+B
f
F IGURA 14 Poich´e non ci sono delta nell’origine, la componente continua e` nulla e inoltre vale:
= n(t0 ) = 0 2 = Rn (0) = = =
Z +1 Z;1 +1 ;1
Pn (f )ej2f 0 df = Pn (f )df =
= Pn Cio`e la potenza normalizzata: Questo e` un risultato generale.
2 = N0 B
CAPITOLO 10
Filtro Adattato 1. Presentazione
x(t) r(t) ro (t) ;;! ! hRX (t) ;;;;; hTX (t) ;! hC (t) ;! heq (t) ;;;; ! S S N
N o Si consideri il processo casuale stazionario r(t), costituito dalla somma
r(t) = s(t) + n(t) di s(t) segnale elementare con n(t) rumore gaussiano bianco, all’ingresso del blocco hRX (t). Si vuole ottimizzare hRX (t), tenendo conto del fatto che non e` necessario recuperare la forma di s(t), ma interessa piuttosto decidere se s(t) e` presente o assente. Si vuole imporre che l’uscita ro (t) sia piu` grande in un determinato istante di tempo in cui s(t) e` presente, rispetto a quando e` assente. Questo vuol (84)
dire che la potenza istantanea della componente del segnale all’uscita deve essere la piu` grande possibile rispetto alla potenza media del termine di rumore, ovvero S sia migliore di S in un preciso istante di tempo t0 (istante che il rapporto N N o di campionamento ottimo). Il tipo di filtro ricercato viene detto adattato al segnale s(t) e si trova che la sua f.d.t. e` la seguente:
;
;
HRX (f ) = k PS ((ff )) e;j!t0
(85)
n
2. Dimostrazione Si consideri
h(t) = hRX (t) un sistema lineare con ingresso r(t) come definito da (84) r(t) ro (t) ;;! ! h(t) ;;;
tale per cui sia ro (t) la sua uscita. Allora valgono le seguenti:
ro (t) = so (t) + no (t) so (t) = s(t) h(t) no (t) = n(t) h(t) Campionando ro (t) all’istante t = t0 , avremo ro (t0 ) = so(t0 ) + no(t0 ) 81
2. DIMOSTRAZIONE
82
Si vuole costruire un filtro lineare, con f.d.t. h(t), in modo tale che il rapporto S sia migliore di quello all’uscita potenza segnale e potenza rumore all’ingresso N S N o in un preciso istante di tempo. Per far questo si vuole massimizzare
;
;
S
N o
(86)
= PPso =
no 2 = jso2(t0 )j no (t0 )
calibrando opportunamente t0 e h(t) variabili. Ricordando che no (t) e` stazionario e che la funzione di autocorrelazione e` definita come
Rn ( ) = n(t)n(t ; )
(87) allora vale
n2o (t0 ) = n2o (t) =
= Rno (0) = Z +1 = Pn (f ) H (f ) 2 df ;1
Per tanto riscriviamo il rapporto (86)
S
N o
= PPso = =
sno(t ) 2 o 0
=
2 Rn+o(1t0 ) 2 ;1 S (f )H (f )ej2ft0 df = R +1 2 ;1 Pn (f ) H (f ) df Nota la disuguaglianza di Schwarz (88)
Z +1 2 Z +1 2 Z +1 2 ;1 A(f )B(f )df 6 ;1 A(f ) df ;1 B(f ) df
ricordando che si ha l’uguaglianza nel caso (89) Consideriamo
A(f ) = kB (f )
p
A(f ) = H (f ) Pn (f ) j 2ft0 B (f ) = S (pf )e Pn (f )
3. FILTRO ADATTATO CON RUMORE GAUSSIANO BIANCO.
Allora
83
R +1 P (f ) H (f ) 2 df R +1 S(pf )ej2ft0 2df ;1 n ;1 Pn (f ) = R 2 + 1 N o Pn (f ) H (f ) df Z +1 S (f )e;1 j 2ft0 2 pP (f ) df = = ;1 n Z +1 S (f ) 2
S
=
Pn (f ) df
;1
se vale la (89), ovvero
j2ft0 p H (f ) Pn (f ) = k S (pf )e Pn (f ) cio`e
H (f ) = k PS ((ff )) e;j!t0 n
C.V.D.
3. Filtro adattato con rumore gaussiano bianco. Per capire meglio cosa comporti l’uso del filtro adattato, consideriamo rumore gaussiano bianco, con spettro di potenza pari a
n(t)
Pn (f ) = N20 Si puo` valutare, dalla relazione (90), come il rapporto segnale rumore all’uscita del filtro adattato sia migliore di 3dB , rispetto al filtro passabasso:
2 Z +1 S (f ) 2 df = = N o N0 ;1 Z +1 2 2 =N s(t) dt = 0 ;1 = N2 Es 0
S
(90)
Possiamo calcolare la f.d.t. del filtro adattato, in accordo con quanto appena dimostrato, che vale (91)
H (f ) = N2k S (f )e;j2ft0 0
4. ESEMPIO
Antitrasformando
Z +1 h(t) = N2k S (f )e;j2ft0 ej2ft df = = =
(92)
84
= =
0 ;1 2k Z +1 S (f )ej2f (t;t0 ) df = N0 ;1 2k Z +1 hS (f )ej2f (t0 ;t) i df = N0 ;1 2k hZ +1 S (f )ej2f (t0 ;t) df i = N0 ;1 2k s (t ; t) N0 0 4. Esempio
Consideriamo s(t) 2 R, segnale NRZ, definito come segue
(
s(t) = 1 0 < t < Ts 0
allora
altrove
h(t) = N2k s (t0 ; t) = 0; = Cs ;(t ; t0 )
per essere fisicamente realizzabile, ovvero deve rispettare la propriet`a di causalit`a, pertanto come si puo` ricavare dalla sequenza di figure 1-3 bisogna porre
t0 > Ts
s(t)
Ts
F IGURA 1. Segnale casuale Il filtro adattato, quando riceve il segnale, agisce come si vede in figura 4.
4. ESEMPIO
85
s(-t)
-Ts
F IGURA 2. Segnale non causale
s(-(t-t0))
t0
Ts+t0
F IGURA 3
2
Ts
F IGURA 4.
2Ts
h(t) s(t)
Mentre per il rumore gaussiano bianco si ha una funzione del tipo senx x
r0 (t) = r(t) h(t) = r0 (t0 ) =
Z +1 ;1
Z +1 ;1
r()h(t ; )d
r()h(t0 ; )d =
Z t0
t0 ;Ts
r()d
4. ESEMPIO
r 0(t 0+nTs )
r(t)
S/
H
RESET
δ( t 0+ nTs )
F IGURA 5. Decodificatore
86
< >
CAPITOLO 11
Soglie, codifica Gray, Canali 1. Soglie in un NRZ Consideriamo un modello di canale trasmissivo: ao r(t0 )
;;;;! ;;;;!
x? ?n(t0)
7
(
Supponiamo di essere nel caso dell’NRZ antipodale:
a0 r(t0 ) = +A = +r(t0 ) a0 = +1 ;A = ;r(t0 ) a0 = ;1 -r(t )0
O
+r(t 0)
-r(t )0
O
+r(t 0)
F IGURA 1. Sistema di riferimento e densit`a di probabilit`a (nel caso di equiprobabilit`a)
F (x) = P f < xg = X = P f < xjyk gP fyk g = k
= P f < xjy1 gP fy1g + P f < xjy2 gP fy2g Se supponiamo l’equiprobabilit`a, in questo caso e` :
F (x) =P f < xja0 r(t0 ) = +Ag P fa0r(t0 ) = +Ag + +P f < xja0 r(t0 ) = ;Ag P fa0r(t0 ) = ;Ag
La probabilit`a d’errore e` data da
P (e) =P (ej ; A)P (;A) + P (ej + A)P (+A) = = 12 (P (ej ; A) + P (ej + A) 87
1. SOGLIE IN UN NRZ
88
Non e` difficile dimostrare che l’errore e` vicino se la soglia e` posta a met`a (ma deve valere l’ipotesi di equiprobabilit`a), infatti se si sposta la sogli alla retta tratteggiata, si aggiunge la probabilit`a d’errore relativa alla zona annerita
1111111 0000000 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111
F IGURA 2 Se i simboli non sono equiprobabili, la soglia si sposta. Introducendo la funzione erfc (x), definita su una gaussiana come in figura 3 e analiticamente come segue:
2 erfc (x) = p
Z +1
x
e;y2 dy
1111111 0000000 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111 0000000 1111111
µ
µ + -d 2
F IGURA 3. L’area tratteggiata rappresenta 12 erfc
d
p22
Per calcolare la erfc (x), esiste anche una forma approssimata: (93)
erfc (x)
e;px2 x
x>4
Si puo` calcolare la P(e) in modo esatto, che in caso di soglia ottima vale:
P (e) = P (ej + A) = P (ej ; A) =
!
(94)
d = 12 erfc p2 = 2 = 12 erfc pr(t0 ) 2BN0
` DI ERRORE IN SISTEMI MULTILIVELLO 2. SOGLIE E PROBABILIT A
89
Che banda bisogna usare se non si adotta il sistema NRZ o RZ, in cui si prende la banda zero zero, ma, ad esempio, il coseno rialzato?
NoBeq =
Z +1 N0 ;1 2
jHRX (f )j2 df
Beq e` la banda equivalente di rumore. Come risultato, il filtro non e` piu` un passabasso. 2. Soglie e probabilit`a di errore in sistemi multilivello In un sistema costituito dai seguenti quattro simboli di canale equiprobabili,
s0
s1
O
s2
s3
F IGURA 4 si puo` rappresentare la densit`a di probabilit`a associata a ciascun simbolo come in figura 5. Come si vede le code delle gaussiane presentano una parziale sovrapposizione.
s0
s1
O
s2
s3
F IGURA 5. Densit`a di probabilit`a Da figura 6 si osservano tre possibili tipi di errore, avendo trasmesso
s0
s1
O
s2
s3
F IGURA 6. Densit`a di probabilit`a di s0 Pertanto si deve determinare la probabilit`a di successo (95) e le probabilit`a di errore
P (s0 Rxjs0 Tx) P (s1 Rxjs0 Tx) P (s2 Rxjs0 Tx) P (s3 Rxjs0 Tx)
che risultano essere decrescenti e decisamente minori rispetto a (95).
s0 .
3. CODIFICA GRAY
90
Si osserva che per avere in ricezione s0 , avendo trasmesso s0 con probabilit`a massima bisognerebbe spostare la soglia verso +1. Ma questo in realt`a non e` utile in quanto consentirebbe la corretta trasmissione di un solo simbolo di canale a scapito dei rimanenti. Per minimizzare la probabilit`a di errore, si considera solo il sottinsieme dei simboli adiacenti e nel caso di segnali equiprobabili, le soglie vengono poste in corrispondenza del punto medio.
s0
s1
s2
s3
F IGURA 7 Come si vede dalla figura 7 i simboli esterni sono avvantaggiati, infatti vale
P (ejSe Tx) =CP (ejSi Tx) se = Simboli esterni si = Simboli interni 1 C =2 per simmetria 3. Codifica Gray
Poich´e ogni simbolo reca 2 bit di informazione, bisogna evitare che due simboli adiacenti differiscano, nella codificata adottata, fra di loro di oltre un bit. In questo modo un eventuale errore di simbolo genera solo un errore sul bit. Per far questo si adotta una codifica di tipo Gray, caratterizzata dal fatto che simboli adiacenti differiscono di un solo bit. Un esempio di associazione simbolo secondo questa codifica e` data da:
s0 : s1 : s2 : s3 :
00 01 11 10
Si potrebbe calcolare la probabilit`a d’errore sul bit in maniera rigorosa, ma si ottengono risultati poco differenti da quelli che hanno ipotizzato che errori che coinvolgono lo stesso simbolo siano rari, quindi
Pb (e) 12 Ps (e) Nei sistemi multilivello generici a M livelli e` : (96) Pb (e) log1 M Ps (e) 2
4. CANALE
91
4. Canale Per rappresentare i canali si puo` ricorrere a tre diverse schematizzazioni: Si puo` considerare il canale affetto da rumore gaussiano bianco additivo (figura 8)
TX !
|
{z
AWGN
} ! RX
Added White Gaussian Noise
F IGURA 8
Si possono considerare i simboli di canale trasmessi e ricevuti, calcolando le rispettive probabilit`a (figura 9)
s0
P (s0 Rx/ js0 Tx)
s1
P (s1 Rx/ js0sTx)
s2
P (s2 Rx/ js0sTx)
s3
P (s2 Rx/ js0 Tx)
s0 1 2
s3
F IGURA 9 Ovvero la probabilit`a di ricevere il smbolo s0 :
P (s0 Rx) =
3 X i=0
P (s0 Rxjsi Tx) P (si Tx)
Si possono considerare i bit trasmessi e ricevuti, calcolando le rispettive probabilit`a. Analizzuamo ora un canale binario simmetrico (BSC), in cui il bit ‘0’ e ‘1’ hanno la stessa probabilit`a d’errore (figura 10). La probabilit`a di errore sul simbolo e sul bit e` :
p = Pb (e) = Ps (e) 0❖ ❖ ❖
1;p
/7 0 ❖ ❖ ❖ o o o o o p ❖ o o o o ❖ ❖ ❖ ❖ ❖ p o o ❖ ' o o /1 1
1;p
F IGURA 10
4. CANALE
92
4.1. Ridondanza. La ridondanza e` una tecnica utilizzata per diminuire la probabilit`a di errore su un canale. Consiste nell’inviare assieme ad ogni parola di bit dei bit aggiuntivi il cui valore dipende da quanto memorizzato nella parola, secondo quanto definito dal codice utilizzato. Esistono codici di correzione dell’errore e vengono usati quando non sia possibile dare un acknowledge, come ad esempio avviene nel broadcasting. Esistono codici di rivelazione dell’errore e vengono impiegati quando sia possibile ritrasmettere, come ad esempio nelle reti di calcolatori. Gli incovenienti sono dati dal fatto che: La ridondanza puo` essere eccessiva. Esiste una soglia al di sopra della quale la ridondanza peggiora la situazione.
CAPITOLO 12
Modulazioni Numeriche 1. Banda base e banda traslata Finora abbiamo sempre parlato di trasmissioni in banda base, cio`e quelle la cui densit`a spettrale di potenza occupa una banda centrata attorno all’origine. Nella realt`a e` molto piu` vantaggioso occupare bande centrate attorno ad una determinata frequenza (portante) diversa da zero, perch´e si possono effettuare su di un solo canale molte trasmissioni su diverse portanti, distanziate in modo da evitare che le bande si sovrappongano (figura 1). Quest’ultima tecnica viene detta ‘trasmissione in banda traslata’.
f
t
F IGURA 1. Frequency division multiplexing (FDM), tipica delle tramissioni analogiche e Time division multiplexing (TDM), preferita nelle trasmissioni numeriche.
La tendenza attuale e` quella di impiegare portanti a frequenza sempre maggiori, visto che quelle piu` basse sono gi`a state assegnate; questo permette di realizzare dei ricevitori con antenne molto piccole.
-B
+B
-f c-B
-f c
-f c+B
fc-B
fc
fc +B
F IGURA 2. Segnale in banda base (a sinistra) ed in banda traslata con portante fc (a destra). 93
1. BANDA BASE E BANDA TRASLATA
94
Un primo problema da affrontare e` : dato un segnale in banda base, come produrne uno in banda traslata? Avevamo visto, nel capitolo 2.2, che una delta ‘centra’ attorno alla propria fase una funzione se viene convoluta con essa. Qui dobbiamo centrare la trasformata del segnale attorno alle due frequenze con modulo pari alla portante, quindi si deve impiegare una funzione la cui densit`a spettrale di potenza sia costituita da due delta simmetriche rispetto all’origine: questa funzione e` il coseno, quindi, nel dominio del tempo, possiamo utilzzare un’apparecchiatura di questo tipo:
x(t) y(t)=x(t)cos(2fc t) ;;;; ! ;;;;;;;;;;;;!
x? ?cos(2fct)
F IGURA 3 Moltiplicando una funzione per un coseno, quindi, si creano due ‘repliche’ della densit`a spettrale di potenza, centrate alle frequenze volute, ciascuna delle quali dotata di potenza dimezzata rispetto a quella della densit`a originale. Si noti, inoltre, che la banda occupata e` doppia, quindi raddoppia anche il rumore captato dal ricevitore; e` comunque possibile ovviare questo problema, come si vedr`a nel capitolo 14. Si ricavano inoltre le seguenti relazioni:
x(t) = y(t) = =
+1 X
n=;1
+1 X
n=;1
+1 X
n=;1
an s(t ; nTs ) an s(t ; nTs )cos(2fc t) = an s0 (t ; nTs )
che dimostrano che non esistono differenze formali fra la trasmissione in banda base ed in banda traslata. Un grosso vantaggio di quest’ultima tecnica e` , inoltre, che il coseno e` ortogonale al seno, quindi si puo` introdurre un ulteriore versore e, in definitiva, raddoppiare la velocit`a di trasmissione dei simboli della sorgente:
s0 (t) = cos(2fc t) s00 (t) = sin(2fct)
Un esempio di costellazione che sfrutti la presenza di due versori e` presente in figura 4. E` possibile utilizzare la teoria che abbiamo sviluppato a riguardo della trasmissione in banda base mediante il seguente T EOREMA DELL’ I NVILUPPO C OMPLESSO . Ogni segnale pu`o essere rappresentato nella forma: (97) v(t) = < g(t)ej2nfc t
v(t)
in banda traslata
Dove g (t) e` una funzione complessa in banda base, detta ‘inviluppo complesso’.
1. BANDA BASE E BANDA TRASLATA
95
s’’(t)
s’(t)
F IGURA 4. Un esempio di costellazione: le distanze fra i vari simboli vengono sempre ottimizzate. Ottenuto l’inviluppo complesso, se ne puo` calcolare la densit`a spettrale di potenza Pg (f ), quindi ottenere la Pv (f ) mediante l’equazione (98)
Pv (f ) = 14 Pg (f ; fc ) + Pg (f + fc )
La dimostrazione del teorema e` immediata: se esprimiamo Serie di Fourier
v(t) =
+1 X
n=;1
v(t) mediante la
cn ej2nf0 t
e, come abbiamo ipotizzato, v (t) 2 <
cn = c;n
si ricava:
v(t) = c0 + = c0 + = c0 +
;1 X n=;1
+1 X
n=1
cn ej2nf0 t +
+1 X n=1
cn ej2nf0 t =
cn ej2nf0 t + c;n e;j2nf0 t =
+1 h X
n=1
; i cn ej2nf0 t + cn ej2nf0 t =
+1 X 2< cn ej2nf0 t = ( n=1 X ) +1 j 2 nf t 0 = = < c0 + 2 cn e n =1 8 9 > > > > " # +1 < = X = < > c0 + e;j2nf0 t + 2 cn ej2t(nf0 ;fc ) ej2fc t > > > {zn=1 } :| ;
= c0 +
g(t)
2. ON-OFF KEYING
96
Resta da dimostrare che g (t) e` in banda base:
+1 X ; j! t c g(t) = c0 e + 2 cn ej(n!0 ;!c )t n=1
(99)
Per prima cosa dal fatto che v (t) e` in banda limitata si ottiene che i cn sono diversi da zero solo per n che soddisfa alla condizione:
fc ; B 6nf0 6 fc + B !c ; 2B 6n!0 6 !c + 2B
mentre e` sempre c0 = 01 . Alla luce di quanto detto, nella (99) le uniche armoniche moltiplicate per un coefficiente diverso da zero sono quelle con frequenza compresa fra ;B e B . 2. On-Off Keying Grazie alle considerazioni finora riportate non e` difficile eseguire una ‘trascrizione’ del piu` semplice codice di linea: l’NRZ unipolare. Il sistema che si ottiene (riportato in figura 5) e` detto ‘On-Off Keying’ (OOK):
L
F IGURA 5 L’OOK veniva impiegato nella trasmissione telegrafica (codice Morse) e viene tuttora usato nella realizzazione dei telecomandi. Esistono due metodi per demodulare un segnale, il primo ed il piu` semplice dei quali e` il demodulatore incoerente, che non richiede neppure un campionatore: basta un filtro risonante, all’uscita del quale e` presente una tensione diversa da zero se all’ingresso viene rilevata una componente alla frequenza della portante. Lo schema completo e` riportato in figura 6. All’uscita del filtro e` presente un demodulatore di inviluppo, che, idealmente, dovrebbe ‘appiattire’ la caratteristica fornita dal filtro. In realt`a viene implementato tramite un voltmetro di cresta, la cui costante di tempo va scelta con molta attenzione, perch´e
se troppo breve, non viene fornita una caratteristica sufficientemente piatta; se troppo lunga, una sequenza ‘1’ ‘0’ puo` venire interpretata come ‘1’ ‘1’.
Un metodo piu` costoso ma piu` preciso per realizzare un demodulatore si basa ancora una volta sulla convoluzione: se il segnale viene ulteriormente moltiplicato 1 Se siamo in banda traslata, e` evidente che la componente continua deve essere diversa da zero.
2. ON-OFF KEYING
DI
97
Dec
F IGURA 6 per un segnale cosinusoidale perfettamente in fase2 con quello del trasmettitore, la densit`a spettrale subisce la trasformazione di figura 7.
F IGURA 7 2 Esistono circuiti in grado di estrapolare una data sinusoide che viene data loro in ingresso, agganciare la sua fase, e dare in uscita la stessa sinusoide perfettamente in fase con quella in ingresso: vengono detti Phase Locked Loop (PLL): sono circuiti totalmente standard, integrabili, e che richiedono poco spazio (circa 1 mmq).
2. ON-OFF KEYING
98
Dopo avere moltiplicato per il coseno e` sufficiente un filtro passabasso con frequenza di taglio pari a B per ottenere il segnale originale (dimezzato). Un demodulatore coerente e` piu` costoso, ma anche piu` immune al rumore di un demoS dulatore coerente: le prestazioni dei due sistemi sono simili solo con rapporti N molto alti.
Dec
PLL cos2πfc t
F IGURA 8. Demodulatore coerente L’OOK, per come e` stato derivato dall’NRZ unipolare, conserva molte somiglianze con questo codice, in particolare la costellazione e` la stessa, visto che differisce il solo versore, che non e` piu` una porta ma una sinusoide troncata; calcoliamo ora l’inviluppo complesso, al fine di ottenere la sua densit`a spettrale di potenza. (100)
v(t) = Am(t) cos(2fc t)
dove m(t) e` proprio una segnalazione NRZ unipolare binaria in banda base:
(
m(t) = 0
kTs 6 t 6 (k + 1)Ts
1
L’inviluppo complesso si puo` ricavare pensando che, se g (t) fosse reale:
v(t) = < g(t)ej!c t = = g(t) cos(2fcf ) Questo ci porta subito al risultato: (101) Dunque
g(t) = Am(t) 2
2
fTs )] Pg (f ) = A2 (f ) + Ts [sin( (fT )2 s
Aplicando la (98) si ottiene la funzione di figura 9. L’ampiezza della banda e` infinita, ma normalmente e` possibile rimuovere i lobi secondari senza gravi conseguenze: in seguito a tale accorgimento la banda unilatera diviene pari a 2R.
3. AMPLITUDE SHIFT KEYING E BINARY PHASE SHIFT KEYING
99
fc fc+R
F IGURA 9 3. Amplitude Shift Keying e Binary Phase Shift Keying Che cosa succede se moduliamo l’NRZ antipodale anzich´e quello unipolare? La funzione m(t) sar`a ora:
(
m(t) = +1
;1
kTs 6 t 6 (k + 1)Ts
π -A 1
0
+A
φ
0
F IGURA 10. ASK/BPSK: esempio di segnalazione e costellazione L’unico sistema di demodulare un segnale di tal fatta e` quello coerente, visto che il demodulatore incoerente vedrebbe sempre una sinusoide con la frequenza della portante. Questo stile di modulazione puo` essere visto secondo due aspetti:
come una cosinusoide che alterni un ampiezza di +A e ;A; per questo e` detta ASK (Amplitude Shift Keying); come una cosinusoide che abbia degli improvvisi ‘scatti’ di fase di rad; per questo viene chiamata anche BPSK (Binary Phase Shift Keying);
A seconda di come si vede, possiamo scrivere l’espressione analitica di tale segnalazione nelle due seguenti forme (102) (103)
v(t) = Am(t) cos(2fc t) = = A cos[2fc + Dp m(t)]
Dove Dp vale 2 rad ` detta ‘sensibilit`a del modulatore di fase’. Dp puo` avere V ed e anche valori diversi da 2 , e vale la pena di vedere che cosa succede variandone il
4. FREQUENCY SHIFT KEYING
vaore:
100
v(t) = Afcos[2fct + Dp m(t)]g = = A[cos Dp cos(2fc t) + m(t) sin Dp sin(2fct)]
In quest’espressione si distingue chiaramente una componente costituita dalla portante (il primo addendo), che non reca informazione e che si annulla per Dp = 2 , ed una componente che contiene tutta l’informazione (il secondo addendo). La portante, anche se e` uguale per entrambi i simboli, puo` essere utile in quanto aiuta il PLL a risincronizzarsi: l’energia che trasporta viene spesso misurata tramite l’indice di modulazione h, definito come3 :
h = 2
(104)
dove e` l’angolo formato dall’asse perpendicolare al versore e dal vettore posizione di ciascun simbolo, come si vede in figura 11.
Portante
∆θ
Informazione
F IGURA 11 Se h viene ridotta, i simboli si avvicinano ed e` piu` facile commettere errori, ma anche sincronizzarsi: la facilit`a di sincronizzazione si puo` osservare anche nel diagramma della densit`a spettrale di potenza4 . 4. Frequency Shift Keying Finora abbiamo considerato segnalazioni in cui il passare da un simbolo all’altro significava cambiare di ampiezza (OOK, ASK) o di fase (BPSK): resta soltanto da vedere come agisce un sistema in cui i due simboli sono rappresentati da due frequenze diverse (Frequency Shift Keying - FSK). Va subito detto che l’utilizzo di due frequenze richiede una banda doppia, il che rende questo sistema particolarmente penalizzante in termini di banda, quindi e` raro impiegarlo in trasmissioni numeriche; d’altra parte in trasmissioni analogiche e` largamente utilizzato perch´e garantisce la migliore qualit`a possibile. Una realizzazione e` quella di figura 13. In realt`a al posto di due oscillatori con un interruttore si impiega un VCO (Voltage Controlled Oscillator), cio`e un oscillatore la cui frequenza viene controllata da
. 3 Questo parametro e` chiaramente significativo solo se 4 4 La facilit`a di sincronizzazione e` proporzionale alla delta centrata alla frequenza della portante.
jj 6
4. FREQUENCY SHIFT KEYING
101
Inversamente proporzionali ad h
fc fc+R
Direttamente proporzionali ad h
F IGURA 12
f1 f2
F IGURA 13 un segnale in tensione (nel nostro caso m(t)): questa soluzione, oltre ad essere attualmente molto meno costosa, garantisce che vengano evitate delle discontinuit`a nel segnale all’uscita che finirebbero per allargare ulteriormente la banda. Per quanto riguarda il ricevitore, invece, si puo` usare sia un demodulatore incoerente che uno coerente (figura 14) e, come sempre, quello coerente e` piu` pregiato e costoso; la banda occupata e` doppia ed e` pari a 4R, inoltre bisogna fare attenzione ad evitare che le sottobande di figura 15 occupate dai due simboli non si sovrappongano, cio`e deve essere (105)
jf2 ; f1 j > 2R
Passiamo ora alle espressioni analitiche dei segnali: se usiamo due oscillatori, si ottiene
(
(106)
v(t) = A1 cos(2f1 + 1 ) A2 cos(2f2 + 2 )
L’espressione relativa alla realizzazione mediante un VCO, invece, e`
(107)
v(t) = A cos 2fc t + Df
Z +1 ;1
m()d
4. FREQUENCY SHIFT KEYING
102
DI Dec DI
PLL
Dec PLL
F IGURA 14
f1 f1+R
f2 f2+R
F IGURA 15 dove Df e` la sensibilit`a del modulatore di frequenza. Si trova inoltre v(t) = < g(t)ej!c t
(108)
g(t) = Aej(t) (t) = Df
Z +1 ;1
m()d
CAPITOLO 13
Segnalazioni Multilivello Modulate 1. M-ASK Scopo di questo capitolo e` l’analisi dei principali segnali modulati qualora si voglia associare ad ogni simbolo piu` di un bit: la segnalazione non e` piu` binaria, e bisogna elaborare costellazioni piu` complesse. Il caso piu` immediato e` la generalizzazione dell’ASK, che d’ora innanzi verr`a indicato con 2-ASK per distinguerlo da tutti gli altri componenti della famiglia M-ASK. Se vogliamo usare solo ampiezze positive, cio`e stiamo pensando all’ASK come un NRZ unipolare modulato, la costellazione piu` ovvia e` quella di figura 1.
0
A
2A
3A
φ
4A
F IGURA 1 Viene indicata come 4-ASK unipolare: la prima cosa che si nota e` che la media non e` nulla, con le conseguenze negative di cui si e` spesso parlato precedentemente; se ne puo` calcolare l’energia media normalizzata al versore ipotizzando i simboli equiprobabili:
2 2 2 E s = A + 4A4 + 9A = 72 A2 Si puo` con facilit`a passare al 4-ASK antipodale, che ha una costellazione come quella di figura 2.
-3A/2
-A/2 0 A/2
3A/2
φ
F IGURA 2 Come primo vantaggio si nota che la media non e` nulla, di conseguenza ci aspettiamo una energia media minore:
A2 9A2 5 2 E s = 4 4 + 4 = 4 A2
Ancora una volta uno svantaggio dell’ASK antipodale rispetto all’ASK unipolare sta nel fatto che la realizzazione del trasmettitore deve forzatamente essere mediante demodulatore coerente. 103
2. M-PSK
104
Aumentando via via il numero di livelli, a parit`a di R, la banda si riduce
M =2 M =4 M =8 M = 16
In generale
! ! ! !
B = 2R B=R B = 23 R B = R2
B = log2RM
(109)
2
2. M-PSK Per generalizzare il PSK e` necessario introdurre un versore supplementare, come si vede in figura 3, dunque e` impossibile realizzare tale trasmissione in banda base. φ2
0
φ1
F IGURA 3 La scelta piu` ovvia dei versori e`
(
1 (t) = cos(2fc t) t 2 [0; Ts ] 0 altrove 2 (t) = sin(2fc t) t 2 [0; Ts ] 0 altrove
(
Anche qui l’unica realizzazione possibile richiede un demodulatore coerente. Poich´e bisogna assegnare a ciascun simbolo due bit, bisogna scegliere una codifica che ci assicuri che nella maggior parte dei casi un errore di ricezione conduca a sbagliare un solo bit; in altre parole due simboli adiacenti devono essere associati ad una coppia di bit, uno dei quali sia in comune. Una costellazione che rende il ricevitore molto semplice e` quella di figura 4, infatti il primo bit dipende solo dalla riga ed il secondo dalla colonna: basta inserire due BPSK, uno per ramo.
2. M-PSK
105
φ2 01
00
φ1
0
C
BPSK
A
B
11
10
SI PO BPSK
D
Dec
PLL
PI SO PLL
Dec
F IGURA 4. Costellazione, trasmettitore e ricevitore 2-MPSK.
La distanza dei simboli dall’origine e` un parametro molto importante, per due ragioni:
Perch´e indica l’energia spesa per trasmettere il simbolo in questione; Perch´e se tutti i simboli sono equidistanti, l’energia spesa e` costante, quindi non si varia il punto di lavoro degli amplificatori collegati alla linea, il che evita spesso di entrare in non linearit`a1 .
Sotto entrambi gli aspetti il M-PSK e` migliore del M-ASK anitpodale, infatti
2
L’energia media del 4-ASK e` 54 d2 mentre nel 4-PSK e` d2 : questo perch´e i simboli piu` esterni sono portati alla stessa distanza dei piu` interni; Nel 4-PSK l’energia e` uguale per tutti i simboli, mentre nel 4-ASK no.
Indipendenza statistica fra due simboli qualunque; Equiprobabilit`a dei simboli;
La velocit`a di trasmissione R e` pari a quella del 4-ASK, cio`e uguale alla larghezza di banda. Il calcolo della densit`a spettrale di potenza richiede alcune ipotesi preliminari, cio`e
Se osserviamo la costellazione di figura 4, si puo` partizionare in due coppie di simboli la cui congiungente passa per l’origine: queste due coppie sono due ASK ortogonali, di cui conosciamo la densit`a spettrale di potenza, quindi
Pg (f ) = 12 Pg (f jA oppure C) + 12 Pg (f jB oppure D) 1 In particolare quelli ad onde progressive, largamente impiegati nei satelliti artificali.
3. M-QAM
106
Poich´e i simboli sono indipendenti, la somma delle due densit`a di potenza non crea interferenze:
2
(fTs ) Pg (f jA oppure C) = A sin(fT )2 s
2 (fTs ) Pg (f jB oppure D) = A sin(fT s )2 2 (fTs ) Pg (f ) = A sin(fT s )2
Se si vuole aumentare ulteriormente l’efficienza spettrale, si puo` ricorrere all’8PSK, in cui i simboli giacciono su di una circonferenza e sono sfasati fra loro di 8 , come si vede in figura 5. 011 010
001
110
000
100 111 101
F IGURA 5
D = R3
B00 = 2D = 23 D 2 E = d s
4 sin 28
Esattamente come nel 4-PSK si trova (110)
p
2
(fTs ) Pg (f ) = Es sin(fT )2 s
In effetti questa formula vale per ogni M-PSK. Se si vuole aumentare ulteriormente M , o si riduce la distanza fra i simboli, oppure si aumenta il raggio della circonferenza: nel primo caso ci si rende meno immuni al rumore, mentre nel secondo l’energia per simbolo cresce, percio` e` raro impiegare M-PSK con M > 8. 3. M-QAM Se e` necessario associare 4 bit per simbolo, si puo` impiegare una costellazione come quella di figura 6, che viene detta Quadrature Amplitude Modulation (QAM).
3. M-QAM
107
F IGURA 6 Le sue caratteristiche sono: Il baricentro coincide sempre con l’origine, il che elimina la componente continua; Tutti i simboli distano d; Il 4-QAM coincide con il 4-PSK; Per formare un quadrato, M deve essere una potenza di 4; Dec
4ASK PLL
SI PO
PI SO PLL
4ASK
Dec
F IGURA 7. Trasmettitore e ricevitore 16-QAM
S sufficientemente alto, la probabilit`a d’errore sul simbolo e` all’incirca Per N uguale a quella di un 4-PSK. Il QAM viene impiegato nelle DSL (Digital Subscribe Line), cio`e comunicazioni telefoniche ad alta velocit`a, come la ADSL (Asimmetrical DSL), che permette una comunicazione di 2/8 MBit/s da centrale ad utente e di 160 Kbit/s da centrale ad utente2 . Per quanto riguarda il calcolo della densit`a spettrale di potenza, si possono individuare otto coppie di simboli simmetriche rispetto all’origine di tre tipi differenti, inoltre si possono eseguire i calcoli solo su primo e terzo quadrante data la 2 In genere i segnali di comando sono quelli spediti alla centrale, mentre i dati sono quelli che riceve l’utente, di conseguenza e` necessaria una banda maggiore da utente a centrale che da centrale a utente.
4. CONFRONTO FRA SISTEMI
108
simmetria dei quadranti rispetto all’asse delle ordinate. Si trova cos`ı:
fTs) 2 = Pg (f ) = A1 + 2A4 2 + A3 sin(fT
(111)
=C
s
sin(fT ) 2
Siccome:
P=
fTs
Z +1 ;1
otteniamo
C=
s
Pv (f )df = ET s s
Es R + 1 ) Ts ;1 sin22(ffT 2 Ts2s
Questa formula e` del tutto generale: vale per ogni costellazione in cui si possano individuare M 2 coppie antipodali. In un 64-QAM (8-ASK per entrambi i rami) si ha:
D = R=3 2 = R6 B = 2D = R 00
3
4. Confronto fra sistemi Possiamo ora confrontare le efficienze spettrali delle varie segnalazioni, con NRZ e coseno rialzato, in banda traslata: BPSK ! NRZ = 12 BPSK ! CR = 1+1 r 8PSK ! NRZ = 32 8PSK ! CR = 1+3 r 4PSK ! NRZ = 1 4PSK ! CR = 1+2 r 4 16QAM ! NRZ = 2 16QAM ! CR = 1+ r
CAPITOLO 14
Rumore Associato a Segnali Modulati 1. Il Rumore Modulato Abbiamo piu` volte osservato che il rumore termico e` caratterizzato da una densit`a spettrale di potenza costante e pari a N0 =2 indipendentemente da f , ma a noi interessano solo le frequenze che impieghiamo per comunicare, quindi possiamo ‘fingere’ che il rumore occupi la sola banda B centrata attorno alla portante fc , come illustra la figura 1.
N0/2
- fc
fc -B fc fc+B
f
F IGURA 1. Rumore gaussiano bianco reale (tratteggiato) e modello di rumore impiegato (a tratto spesso). Come si nota, le due densit`a spettrali si equivalgono alle frequenze che ci interessano Dopo avere demodulato1 , le due quadre si sovrappongono a formare la porta di figura 2.
N0/2
f
F IGURA 2 1 Supporremo qui di impiegare sempre un demodulatore coerente. 109
` DI 2. STAZIONARIETA
n(t)
110
L’effetto interessante che si ottiene mediante questa visione delle cose consiste nel fatto che ora possiamo pensare che il rumore sia stato modulato dal trasmettitore assieme al segnale utile anzich´e essere stato introdotto dal canale, quindi possiamo affiancare a v (t) il processo casuale n(t), dotato anch’esso dell’inviluppo complesso: (112) n(t) = < gn(t)ej2fc t
Come avevamo gi`a fatto in precedenza, si puo` scomporre g (t) in parte reale e parte immaginaria:
gn (t) = xn (t) + jyn(t)
(113)
Combinando (112) e (113) si ottiene immediatamente (114)
gn (t) = xn (t) cos (2fct) ; yn (t) sin (2fct)
A causa della linearit`a di tutti i componenti della catena trasmissiva, xn (t) e yn(t) sono processi casuali in banda base, come lo e` gn (t). Talvolta si deve ricorrere
una coppia alternativa di variabili casuali: in luogo della parte reale e di quella immaginaria, si usano il modulo R(t) e la fase (t) di gn (t). Le quattro variabili g(t)
y (t) θ (t)
R(t) x(t)
F IGURA 3. Le variabili casuali sul piano di Argand-Gauss
(
sono legate dalle quattro consuete relazioni: (115)
p
R(t) = x2n (t) + yn2 (t) (t) = arctan xynn((tt))
Si preferisce comunque sempre la forma cartesiana a quella polare, perch´e le (115) contengono operatori non lineari, che rendono le distribuzioni associate a R(t) e (t) non piu` gaussiane. 2. Stazionariet`a di n(t)
Scopo di questo paragrafo e` di dimostrare che n(t) rappresenta un processo stazionario in senso lato se e solo se valgono le seguenti relazioni2 : (116) (117) (118)
xn (t) = yn (t) = 0 Rxn ( ) = Ryn ( ) Rxy ( ) = ;Ryx ( )
Stazionariet`a in senso lato significa 2 Supporremo qui di avere a che fare con
n(t) ergodico.
` DI 2. STAZIONARIETA
n(t)
111
n(t) = C Rn (t; t + ) = Rn ( ) Esaminiamo separatamente le due condizioni. 2.1. La Condizione n(t) = C . In base alla (114) si ottiene la forma equivalente
xn (t) cos(2fc t) ; yn (t) sin(2fc t) C
Non e` difficile convincersi che tale relazione puo` essere verificata se e solo se
8 C =0 < : xynn((tt)) 00
Peraltro tutto cio` ci permette di affermare che il segnale n(t) e` a media nulla. 2.2. La Condizione Rn (t; t + ) di scrivere
= Rn ( ).
L’ipotesi di ergodicit`a ci permette
Rn (t; t + ) = n(t)n(t + )
Sostituendo a n(t) l’espressione data da (114), si ottiene:
Rn (t; t + ) = fxn (t) cos(2fc t) ; yn (t) sin(2fct)g fxn (t + ) cos[2fc(t + )] ; yn (t + ) sin[2fc(t + )]g = =xn (t)xn (t + ) cos(2fc t) cos[2fc (t + )] + ;xn (t)yn (t + ) cos(2fct) sin[2fc (t + )] + ;yn (t)xn (t + ) sin(2fc t) cos[2fc (t + )] + +yn (t)yn (t + ) sin(2fct) sin[2fc (t + )] = =Rx (t; t + ) cos(2fct) cos[2fc (t + )] + ;Rxy (t; t + ) cos(2fc t) sin[2fc(t + )] + ;Ryx (t; t + ) sin(2fc t) cos[2fc(t + )] + +Ry (t; t + ) sin(2fc t) sin[2fc(t + )] = = 12 Rx (t; t + ) fcos(!c ) + cos[!c(2t + )]g + ; 12 Rxy (t; t + ) fsin(!c ) + sin[!c (2t + )]g + ; 12 Ryx (t; t + ) f; sin(!c ) + sin[!c(2t + )]g + + 12 Rx (t; t + ) fcos(!c ) + cos[!c(2t + )]g =
Supponiamo ora che che
(119)
8 R (t; t + ) = R ( ) > < Rxxy (t; t + ) = Rxxy ( ) (t; t + ) = Ryx( ) > : RRyx y (t; t + ) = Ry ( )
3. ALTRE CARATTERISTICHE STATISTICHE DI
xn (t) E yn (t)
112
Questa ipotesi e` giustificata dal fatto che ci conduce a dimostrare la stazionariet`a di n(t), la quale implica la stazionariet`a di xn (t) e yn (t), condizione equivalente alle (119). Con le posizioni fatte, si ricava
Rn (t; t + ) = 21 cos(!c ) [Rx ( ) + Ry ( )] +
+ 12 cos[!c ( + 2t)] [Rx ( ) + Ry ( )] + + 12 sin(!c ) [;Rxy ( ) ; Ryx ( )] + + 12 sin[!c( + 2t)] [;Ryx( ) ; Rxy ( )]
Tale espressione e` funzione della sola se e solo se valgono la (117) e la (118). 3. Altre Caratteristiche Statistiche di x n (t) e yn (t)
Nel paragrafo precedente abbiamo calcolato la media statistica di xn (t) e di yn(t): si puo` completare l’analisi calcolando anche le loro varianze x2n e y2n . Sfruttando la linearit`a dell’operatore correlazione:
(120)
Rn ( ) = 21 cos(2fc ) [Rx ( ) + Ry ( )] + ; 12 sin(2fc ) [Rxy ( ) ; Ryx ( )]
Poich´e le medie di tutti i processi i gioco sono nulle, la (48) ci dice che le varianze sono pari al valore che le rispettive funzioni di correlazione assumono nell’origine.
Rn (0) = 12 [Rx (0) + Ry (0)]
Possiamo dunque ricavare le varianze di xn (t) e yn (t) nota quella di n(t), che e` pari a
Rn (0) = n2 =
Z +1
;1 = 2N0B
(121)
P (f )df =
L’ultimo passaggio e` immediato osservando la figura 1. Combinando questo risultato con la (117) possiamo concludere che (122)
x2n = y2n = 2N0 B
La trasmissione OOK e` un esempio particolarmente semplice da analizzare:
s(t) =
A cos(2f t) c
0
‘1’ ‘0’
Facendo riferimento alla figura 4:
r0 (t) =
(
xn (t)+A ‘1’ xn2(t) ‘0’
2
3. ALTRE CARATTERISTICHE STATISTICHE DI
cos (2πfc t)
xn (t) E yn (t)
113
r0 (t)
n(t)+s(t)
D
F IGURA 4 Questo perch´e, ad esempio, se si trasmette un ‘1’:
r0 (t) = [xn (t) cos(2fc t) ; yn (t) sin(2fct) + A cos(2fc t)] cos(2fc t) = 2 = [xn (t) + A] cos | (2{zfct}) ;yn(t) cos(2 | fct{z) sin(2fct}) = 12 [cos(4fc t) +1] 21 [sin(4 | {z } | {zfct})] Filtrato via
= xn (t) + A
Filtrato via
2
Per quanto riguarda la trasmissione dello ‘0’, si procede nella stessa maniera. Le distribuzioni che si ottengono sono analoghe a quelle che si osservano quando si trasmette in banda base.
0
A
F IGURA 5 Si noti che l’area sottostante ciascuna gaussiana e` pari a un mezzo a causa della normalizzazione. Conosciamo inoltre da (122) la loro varianza. Si ottiene che
(123)
= P (e) = 12 erfc p A=2 2 2 N B 0 = 12 erfc pA 4 N0 B
E` sempre ultile relazionare la probabilit`a d’errore all’energia spesa per trasmettere ciascun simbolo di canale. Per fare cio` bisogna calcolare Es in funzione di A:
2
Es = A2 Ts 21 = 2 =A T = 4 s 2 = A4 B1
4. MODULAZIONE IN BANDA VESTIGIALE. AMSSB
Sappiamo infatti che
114
B = D = T1
(124)
s
La relazione voluta e` quindi
r
P (e) = 12 erfc 4ENs 0 Il caso dell’OOK non modulato presenta una probabilit`a d’errore
r
P (e) = 12 erfc 2ENs 0 Dunque se si modula si raccolgono piu` disturbi (si occupa infatti una banda doppia), ma questo non e` uno svantaggio ineliminabile, infatti si puo` aumentare S tramite un apparato come quello di figura 6. di 3 dB il rapporto N cos (2πfc t) n(t)+s(t)
2 cos (2πfc t)
r0 (t) D
F IGURA 6
4. Modulazione in Banda Vestigiale. AMSSB Perch´e se si modula un segnale si occupa una banda doppia rispetto al caso in cui si trasmette in banda base? Evidentemente la modulazione introduce una certa quantit`a di ridondanza, costituita dalle regioni evidenziate in figura 7.
-fc
0
fc
F IGURA 7 In effetti la densit`a di potenza e` per sua natura pari, quindi non c’`e nessuna informazione contenuta nelle regioni evidenziate che non sia anche nelle corrispettive met`a non evidenziate; questo e` uno spreco di banda, quindi si puo` pensare di dimezzarla trasmettendo solo le frequenze in modulo superiori a fc , ottenendo un segnale che puo` essere demodulato con il consueto ricevitore coerente (vd. fig. 8). Questo tipo di trasmissione viene chiamato AM-SSB (Amplitude Modulation Single Side Band) e si distingue quando si trasmette la banda laterale inferiore, la LSB (Low Side Band), da quando si trasmette la banda laterale superiore, la USB (Upper Side Band). Come sempre, pero, ` una certa quantit`a di ridondanza puo` aiutare a rendersi maggiormente immuni al rumore, quindi spesso il ‘taglio’ non e` cosi netto, ma si opta per filtraggi di forme diverse, come quello di figura 9.
4. MODULAZIONE IN BANDA VESTIGIALE. AMSSB
-fc
0
fc
-fc
0
fc
115
F IGURA 8
-fc
0
fc
-fc
0
fc
F IGURA 9 Tali tipi di filtraggi complementari vengono detti filtraggi vestigiali, e non dimezzano piu` la banda, ma ne impiegano una di ampiezza pari a
B 0 = B (1 + )
Dove e` un parametro dipendente dal filtraggio, in particolare, se e` nullo si ricade nel caso dell’AM-SSB, mentre se e` unitario non e` piu` vestigiale. Tutte queste tecniche sono utili qualora la dimensione della banda sia critica; si intenda rendere il ricevitore il piu` semplice possibile, a scapito del trasmettitore; Tali esigenze sono presenti ad esempio nella trasmissione televisiva, dove il filtraggio vestigiale e` ampiamente utilizzato, mentre in sistemi numerici, se si deve minimizzare la banda, si preferisce complicare la costellazione.
CAPITOLO 15
Probabilit`a d’Errore in Segnali Modulati 1. Probabilit`a d’Errore nel B-PSK con Demodulazione Coerente
+A cos(2f t)
L’equazione che caratterizza il B-PSK e` :
s(t) =
c
;A cos(2fct)
In base alla (123) e` facile calcolare la probabilit`a d’errore in questo sistema1 :
P (e) = 12 erfc p d=2 = 0s4N0B 1 2 = 12 erfc @ 4NA B A 0 Se si vuole esprimere la P (e) in funzione della Es , bisogna ricordare che 2 Es = A2 Ts ! A2 = 2TEs = 2Es B s 2B = 2D ! B = D = T1 s
Dunque (125)
P (e) = erfc
rE ! s
2N0
Un parametro spesso usato e` il rapporto
Eb =N
0
In questo caso ad ogni simbolo del canale corrisponde uno ed un solo bit, quindi Eb = Es . (126)
P (e) = 12 erfc
r 2
2. Probabilit`a d’Errore nel 4-PSK con Demodulazione Coerente Prima di ogni cosa bisogna decidere dove porre le soglie di decisione. Dando un’occhiata alla struttura del ricevitore 4-PSK rappresentata in figura 1, si riescono a distinguere chiaramente i due B-PSK che lavorano sui due versori ortogonali. Il 1 Si noti che, nella (123), A indica la distanza dei simboli, indipendentemente dalla loro posizione; per questo tale formula si rivela utile nell’analisi di costellazioni dotate di certi tipi di simmetrie. 116
` D’ERRORE NEL 4-PSK CON DEMODULAZIONE COERENTE 2. PROBABILIT A
117
cos
sin
F IGURA 1 ramo superiore ha come soglia l’asse delle ordinate, mentre quello inferiore l’asse delle ascisse: e` del tutto spontaneo scegliere come soglie l’unione delle due soglie, cio`e porre come regione di decisione di ciascun simbolo il quadrante cui appartiene, come si vede in figura 2.
F IGURA 2 Ad ogni simbolo e` associata una gaussiana bidimensionale, come quella di figura 3, ma non e` necessario integrare su di essa per calcolare la probabilit`a d’errore sul bit, infatti, essendo il 4-PSK uguale ad un doppio B-PSK, la probabilit`a d’errore sul bit in fuzione dell’energia per bit sar`a la stessa: (127)
Pb (e) = 12 erfc
rE ! b
2N0
Il calcolo della probabilit`a d’errore sul simbolo di canale richiede qualche passaggio in piu: `
Ps (e) = 1 ; Ps (c) = 1 ; [1 ; Pb (e)]2 = 2Pb (e) ; Pb2 (e) Es = 2Eb
Percio` (128)
Ps (e) = 21 erfc
rE ! s
4N0
` D’ERRORE NELL’OOK CON DEMODULAZIONE INCOERENTE 3. PROBABILIT A
118
F IGURA 3
Ancora una volta e` possibile individuare una relazione di proporzionalit`a inversa fra Eb e Pb : tale caratteristica e` spesso utilizzata per operare confronti fra differenti sistemi, in quanto viene rappresentata mediante diagrammi come quello di figura 4, in cui entrambi gli assi sono logaritmici e il sistema migliore ha una curva che si avvicina maggiormente all’origine.
Pb(e) Sistemi migliori
(S/N)dB
F IGURA 4
3. Probabilit`a d’Errore nell’OOK con Demodulazione Incoerente La struttura di un ricevitore incoerente e` rappresentata in figura 5: in esso si individua un demodulatore di inviluppo, solitamente costituito da un voltmetro di cresta, atto a misurare il picco del segnale che corrisponde alla variabile casuale R(t), modulo di g(t). Per la segnalazione OOK si ha
s(t) =
A cos(! t + ) c
0
c
‘1’ ‘0’
Mentre il rumore e` espresso dalla relazione (114): (129)
n(t) = xn (t) cos(!c t + c ) ; yn (t) sin(!c t + c )
` D’ERRORE NELL’OOK CON DEMODULAZIONE INCOERENTE 3. PROBABILIT A
s(t)
r(t)
n(t)
m(t)
119
Dec
DI
F IGURA 5 Attraversato il filtro risonante2
[A + x (t)] cos(! t + ) ; y (! t + ) n c c n c c r(t) + m(t) =
‘1’
cos(!c t + c) ; yn (!c t + c ) ‘0’ A questo punto bisogna stabilire la soglia: purtroppo R(t) non e` gaussiana,
(130)
ma segue la distribuzione di Rayleigh se viene trasmesso un ‘0’ oppure la ancor piu` complessa distribuzione di Rice se viene trasmesso un ‘1’:
fr0 (rjs0 ) =
(131)
fr0 (rjs1 ) =
(132)
(
(
r2 e; 2r22
0
r>0 r<0
r2 e; r22+2A2 I0 ; rA2
0
r>0 r<0
Per I0 si intende una funzione di Bessel del primo tipo non modificata:
I0 () = 21
Z 2 0
ez cos dz
Affinch´e la ricezione possa avvenire senza errori la (131) e la (132) devono essere il piu` diverse possibile, ma, al crescere del rumore, le due distribuzioni tendono a sovrapporsi e cambia anche la soglia ottima3 , motivo per il quale la ricezione incoerente non e` particolarmente immune al rumore. S e` sufficientemente alto, ovvero se A ! 1, in quanto Se pero` il rapporto N
S / A2 N / 2
2
) NS / A2 la media di fr0 (rjs0 ) e` quasi nulla, mentre fr1 (rjs1 ) assomiglia ad una delta cen-
trata in A: in tal caso la soglia si puo` porre a A 2 , come si era trovato per il ricevitore 2 Non si notano differenze fra la (129) e la (130) grazie al fatto che per noi il rumore e` nullo al di fuori delle frequenze che ci interessano: in realt`a questo e` vero solo dopo il filtro risonante (cfr. par. 1 cap. 14). 3 La soglia ottima va posta nel punto di intersezione delle due distribuzioni, poich´e il minimo della funzione f1 f0 e` necessariamente posto l`ı.
j ; j
` D’ERRORE NEL 16-QAM CON DEMODULATORE COERENTE 4. PROBABILIT A
120
fr (r|s0) 0
fr (r|s1) 0
Soglia ottima
F IGURA 6. Distribuzione di fr0 (rjs0 ) e di fr0 (rjs1 ) a confronto. coerente e si ricava4
P (e) 21 e; 8A2 = 2
= 21 e; N0 2TsB = Eb = 12 e; N0 Eb 1
(133) Poich´e
1 erfc (x) ;x;; !! 0 e;x2 2
la probabilit`a d’errore con un demodulatore coerente si avvicina a quella di un demodulatore incoerente. L’applicazione ideale del demodulatore incoerente e` la realizzazione di telecomandi, in cui non si richiede (e, per ovvi motivi, non si vuole) che il raggio di azione sia troppo ampio. 4. Probabilit`a d’Errore nel 16-QAM con Demodulatore Coerente Per prima cosa bisogna stabilire quali simboli della sorgente bisogna associare ai simboli di canale per minimizzare il numero di bit sbagliati quando il decisore compie un errore. Questo sembra essere un aspetto piuttosto problematico, in quanto bisogna, per cos`ı dire, elaborare un codice Gray ‘bidimensionale’. Nel 16QAM abbiamo a che fare con quattro bit per simbolo, e ogni riga e` costituita da quattro simboli, quindi si puo` pensare di tenere due bit fissi per ogni riga e assegnare ogni combinazione possibile dei bit rimanenti a tutti i simboli della riga. A questo punto possiamo applicare il codice Gray ‘standard’ ed il risultato e` quello di figura 7. Restano da codificare i simboli ‘–’ di ciascuna riga, con il vincolo che siano uguali di riga in riga. L’idea piu` ovvia e` di applicare il codice Gray anche verticalmente, il che permette di ottenere la codifica di figura 8. Questa e` proprio la codifica cercata, in quanto ogni simbolo e` adiacente (orizzontalmente e verticalmente) a simboli che differiscono di un solo bit, inoltre, a causa della netta separazione in due gruppi di bit, la realizzazione del ricevitore e` 4 Nell’NRZ
1 2Ts B
= 1.
` D’ERRORE NEL 16-QAM CON DEMODULATORE COERENTE 4. PROBABILIT A
10--
11--
01--
00--
10--
11--
01--
00--
10--
11--
01--
00--
10--
11--
01--
00--
121
F IGURA 7
1000
1100
0100
0000
1001
1101
0101
0001
1011
1111
0111
0011
1010
1110
0110
0010
F IGURA 8 alquanto immediata: basta combinare due 4-ASK come si vede in figura 9. Questo cos 2
Px PI 2
Py sin
F IGURA 9
SO
` D’ERRORE NEL 16-QAM CON DEMODULATORE COERENTE 4. PROBABILIT A
122
tipo di ricevitore ha come soglie quelle di figura 10, che sono peraltro le piu` ovvie, ma hanno la caratteristica di rendere le regioni di decisione di dimensioni variabili.
1000
1100
0100
0000
1001
1101
0101
0001
1011
1111
0111
0011
1010
1110
0110
0010
F IGURA 10 Tutto cio` si riflette nel fatto che le probabilit`a d’errore vanno calcolate separatamente per Simboli di vertice (i piu` avvantaggiati); Simboli di lato; Simboli interni (i piu` svantaggiati); Se chiamiamo f (x; y ) la gaussiana bidimensionale con x = y = 0 e con nota (perch´e direttamente ricavabile dalla potenza del rumore), e` facile ricavare la tabella 1. Se i simboli di canale sono equiprobabili, e` evidente che
Ps (e) =
M X i=1
P (ejSi )P (Si ) =
16 1X = 16 P (ejSi ) = i=1 = 14 [P (ejSv ) + 2P (ejSl ) + P (ejSi )]
Il calcolo di Pb (e) e` un po’ piu` complesso, ma, se si suppone che la codifica Gray ‘bidimensionale’ che abbiamo elaborato sia cos`ı efficace da garantire che quasi sempre un errore di simbolo corrompa un singolo bit, e` ovvio che
Pb 14 Ps (e) Questa e` una stima ottimistica, ma piuttosto vicina alla realt`a, specie se il rumore e` piuttosto basso5 . 5 Peraltro in genere interessa solo l’ordine di grandezza del rapporto
S N.
` D’ERRORE NEL 16-QAM CON DEMODULATORE COERENTE 4. PROBABILIT A
Simboli di Vertice
Rd Rd
2 2 P (C jSV ) = ;1 ;1 f (x; y)dxdy
Simboli di lato
R + d2 R + d2 f (x; y)dxdy P (C jSL ) = ;1 ; d2 Simboli interni
R dR d P (C jSI ) = ;+d22 ;+d22 f (x; y)dxdy
TABELLA 1. Probabilit`a d’errore delle varie categorie di simboli del 16-QAM
Applichiamo ora le informazioni raccolte in tabella 1.
P (ejSV ) = 1 ; P (cjSV ) = 1 ; (1 ; p)2 P (ejSL) = 1 ; P (cjSL ) = 1 ; (1 ; p)(1 ; 2p) P (ejSI ) = 1 ; P (cjSI ) = 1 ; (1 ; 2p)2
Dove si e` introdotto, per semplicit`a:
p , 12 erfc pd=2 2
E` sufficiente un po’ di manipolazione algebrica per ottenere: (134)
Ps (e) = 3p(4 4; 3p)
123
` D’ERRORE NEL M-PSK 5. PROBABILIT A
124
Per quanto riguarda la probabilit`a d’errore sul bit, si trova:
Pb (e) 3p(416; 3p)
(135)
Se vogliamo analizzare l’ M-QAM, e` utile pensare che tutti i simboli siano interni (peraltro, salendo di M , questi sono sempre piu` preponderanti). Si ottiene quindi:
Pb (e) 2 erfc pd=2 2 Pb (e) log2 M erfc pd=2 2 2 Come e` intuitivo, Pb (e) si riduce al crescere di M , e questo e` un innegabile vantaggio del QAM. Naturalmente non si puo` far crescere M a valori arbitrari, perch´e si finirebbe per forzare sul canale potenze eccessive o avvicinare troppo i simboli.
5. Probabilit`a d’Errore nel M-PSK Cominciamo con l’analizzare il caso M = 8: come sempre bisogna trovare le soglie ottimali. Questo non e` difficile come potrebbe sembrare, in quanto, dal punto di vista della fase, un M-PSK e` un M-ASK (vedi figura 11).
C D
B A
E
F
G
H
A
B
C
D
E
H F G
F IGURA 11 Se noi applichiamo le soglie di un 8-ASK ad un 8-PSK, si ottengono le regioni di decisione di figura 12. Purtroppo non si puo` ricorrere ai calcoli eseguiti per il M-ASK, in quanto, anche se il rumore di ingresso e` gaussiano bianco, modulo e fase non hanno distribuzione gaussiana (vedi paragrafo 1 del capitolo 14). L’unica possibilit`a e` pensare ancora in termini di xn e yn : centrata attorno ad ogni simbolo e` presente una gaussiana bidimensionale, come in figura 13.
` D’ERRORE NEL M-PSK 5. PROBABILIT A
125
C D
B
E
A
H F G
F IGURA 12
r
F IGURA 13
E` difficile integrare sulla sola area interessata, ma e` possibile eseguire un’approssimazione che puo` snellire notevolmente i calcoli: osservando la figura 14, si nota facilmente che valgono le seguenti considerazioni:
R\W =Q Ps (e) = P (sR 2 R [ sR 2 W ) = = P (sR 2 R) + P (sR 2 W ) ; P (sR 2 Q) Se introduciamo l’approssimazione6
P (sR 2 Q) 0 si ottiene la relazione
Ps (e) P (sR 2 R) + P (sR 2 W ) 6 Si noti che questa e` una stima pessimistica.
` D’ERRORE NEL M-PSK 5. PROBABILIT A
126
D R
Q W F IGURA 14 E` molto facile integrare sui domini R e W in virtu` della simmetria radiale della gaussiana: usando come sistema di riferimento il sistema di figura 15 di ottiene: +1 ; d
ZZ
R
f (; )dd = = =
Z
Z
2
;1 Z;1 +1 Z ; d2 ;1 Z;1 ; d2 ;1
f ()dd =
f ( )f ()dd =
f ( )d =
D
R
!
η
= 12 erfc pd 2 2 p y y = N0 B
η d 2
ξ Q
r
W
F IGURA 15
ξ
` D’ERRORE NEL FSK CON DEMODULATORE COERENTE 6. PROBABILIT A
127
!
Dunque abbiamo un limite superiore per la probabilit`a d’errore:
pd
Ps (e) 6 p + p = erfc
(136)
2 2y
La stima e` tanto piu` precisa quanto piu` Il rumore e` basso ( NS > 15 dB); E` grande il numero di simboli di canale (si restringe la fetta contata due volte) Se un errore interessa solo simboli adiacenti e la codifica e` Gray (cio`e un errore sul simbolo di canale corrompe un solo bit)
Pb (e) log1 M Ps (e)
(137)
2
6. Probabilit`a d’Errore nel FSK con Demodulatore Coerente La struttura del ricevitore si puo` vedere in figura 16. 2 cos 2π f1t
+ r0(t)
r (t)
D
− 2 cos 2π f2 t
F IGURA 16 Il segnale ha la forma
r(t) =
A cos(2f t) 1
A sin(2f2 t)
‘1’ ‘0’
Se f2 > f1 , gli spettri su canale, ramo superiore e ramo inferiore sono quelli di figura 17. Si nota che per evitare sovrapposizioni negli spettri, deve essere (138)
jf2 ; f1 j > 2B
+A
Se non c’`e rumore, al ricevitore si avr`a un segnale del tipo
r0 (t) =
;A
‘1’ ‘0’
Questa segnalazione e` quella di un NRZ antipodale, caratterizzato da
Ps (e) = Pb (e) = 21 erfc pA 2
Resta da calcolare ; per farlo osserviamo che, in presenza di rumore
A cos(2f t) + n (t) 1 1 r(t) =
;A cos(2f2 t) + n2 (t)
‘1’ ‘0’
` D’ERRORE NEL FSK CON DEMODULATORE COERENTE 6. PROBABILIT A
-f2
...
B 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 Sul ramo superiore 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 -f1 1 1 0 canale 0 Sul 1 1 0 0 1 1 0 0 1 1 0 0 11111 00000 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0
f1
128
f2
...
Sul ramo inferiore
F IGURA 17 La banda di n1 (t) e n2 (t) e` pari a 2B ed essendo centrati rispettivamente a f1 (t) e f2 (t), per la (138) non hanno frequenze in comune, dunque sono statisticamente indipendenti. Supponiamo di trasmettere un ‘1’: il ramo superiore fornir`a al nodo di somma il segnale ed il rumore nella banda [f1 ; B; f1 + B ]; il ramo inferiore, chiaramente, non vedr`a il segnale, ma il rumore nella banda [f2 ; B; f2 + B ] e` sempre presente, quindi anche questo contributo verr`a convogliato nel nodo di somma. Otteniamo cos`ı:
A + x (t) ; x (t) n1 n2 r0 (t) =
;A + xn1 (t) ; xn2 (t)
‘1’ ‘0’
Si definisce:
xn , xn1 ; xn2 caratterizzato dai seguenti parametri statistici:
xxn = 0 x2n = x2n (t) = = [xn1 (t) ; xn2 (t)]2 = = x2n1 (t) + x2n2 (t) ; 2| xn1 (t{z)xn2 (t}) =0
= x2n1 + x2n2 = = 4N0B
=
(Statisticamente indipendenti)
Del resto e` quello che ci si poteva immaginare: doppia banda occupata significa doppio rumore introdotto.
7. UNION BOUND
129
Per concludere, le espressioni di probabilit`a d’errore nelle varie forme sono
0s
1
2 P (e) = 21 erfc @ 8NA B A = 0
!
r
= 12 erfc 4ENb = 0 r = 12 erfc 4
(139) (140) Questo perch´e
2 Eb = Es = 2AB
(141)
Puo` essere utile confrontare le prestazioni delle varie tecniche di modulazione: Modalit`a B-PSK OOK 2FSK
P (e) 1 erfc ;p 2 p2 1 erfc 2 p2 1 erfc 2 2
Banda occupata
2R 2R 4R
Come si vede, la migliore e` il B-PSK, la peggiore il 2-FSK. L’unico vantaggio dell’FSK e` la facilit`a di sincronizzazione (`e sempre presente un sinusoide). Peraltro il bit-stuffing o lo scrambling7 ovviano a questo problema nelle altre segnalazioni, rendendo l’FSK ormai obsoleto. 7. Union Bound Uno dei problemi da affrontare preliminarmente all’analisi di ciascuna delle tecniche di modulazione descritte in precedenza e` stata la scelta delle regioni di decisione. Esiste un metodo generale per tracciare le soglie data una costellazione qualsiasi: basta disegnare il poligono costituito dagli assi delle congiungenti di ciascun simbolo con i simboli adiacenti, come si vede in figura 18.
F IGURA 18 Il calcolo della P (e) puo` essere svolto come e` stato fatto per l’MPSK: si sommano le probabilit`a di ogni semipiano definito da ogni soglia e dal lato che non 7 Tecnica che esegue una ridisposizione dei bit per evitare lunghe sequenze di bit uguali.
8. LA RITRASMISSIONE
contiene il simbolo in questione: (142)
Psj (e) 6
M 1 X
2 ii=1 6=j
erfc
130
dij =2 p
2N
Si puo` dimostrare che la minore P (e) possibile viene raggiunta rendendo tutte le dij uguali fra di loro. L’equazione (142) e` eccessivamente pessimistica, perch´e tiene conto anche dei simboli non adiacenti al simbolo in questione: questo si puo` evitare, e l’equazione che si ottiene prende il nome di Union Bound
(143)
Psj (e) 6
M 1 X
2 ii=1 6=j iadjj
erfc
dij =2 p
2N
Come esempio di applicazione si veda la figura 19.
F IGURA 19. Esempio di costellazione: congiungenti (a sinistra) e soglie (a destra) Si noti che con costellazioni di tale complessit`a (che sono quelle usate in pratica) l’unico modo per realizzare trasmettitore e ricevitore e` il calcolatore digitale. 8. La Ritrasmissione Le probabilit`a d’errore che sono state calcolate sono, in ogni caso, eccessivamente alte per potere essere tollerate in molti dei casi pratici: bisogna utilizzare un metodo alternativo che consenta di aumentare la P (c). Osservando, ad esempio, la figura 5, si osserva che, nell’ intervallo compreso fra la tensione di soglia VT e A la gaussiana di sinistra assume dei valori ancora tutt’altro trascurabili. L’idea, dunque, e` di sdoppiare la soglia come in figura 20 ed isolare l’intervallo di valori in cui le due gaussiane sono ancora confrontabili: se un simbolo cade all’interno di tale intervallo, l’informazione ricevuta viene considerata corrotta.
8. LA RITRASMISSIONE
-A
-VT
VT
131
A
F IGURA 20 Una volta scovato un errore di ricezione, l’unica possibilit`a e` chiedere la ritrasmissione. Per un’analisi delle prestazioni di un sistema di tale genere, bisogna introdurre alcuni simboli8 : Simbolo Definizione Evento + 1 P(CR) V;TV fx (xjA)dx Corretta ricezione T f (xjA)dx Errore non rilevato P(ENR) x ;1 +VT f (xjA)dx Ritrasmissione P(RIT) ;VT x
R R R
Qual e` la probabilit`a che, malgrado tutte le precauzioni, avvenga un errore ?
P (e) =
+1 X i=1
P (ENRjiT )P (iT ) =
= P (ENR)
+1 X i=1
P (it)
Per semplificare tale formula conviene guardare come evolve del numero di ritrasmissioni necessarie: Numero di ritrasmissioni P (e) 1 P (ENR) 2 P (ENR)P (RIT ) 3 P (ENR)P 2 (RIT ) ... ...
P (ENR)P i;1 (RIT )
i
Dunque
P (e) = P (ENR)
+1 X i=1
P i;1 (RIT ) =
) = 1 P;(PENR (RIT )
il numero medio di ritrasmissioni e` pari a
nr = (144)
+1 X i=1
i[1 ; P (RIT )]P i;1(RIT ) =
= 1 ; P1(RIT )
8 Qui analizzeremo il caso di segnalazione antipodale.
P (e) al variare
8. LA RITRASMISSIONE
132
La velocit`a di trasmissione R dei simboli della sorgente che vede l’utente e` ora strettamente minore di quella del caso in cui non c’era la soglia doppia:
Ru = R[1 ; P (RIT )]
In realt`a si usano tecniche differenti per rilevare gli errori che non le due soglie, anche se il risultato non cambia. Un metodo impiegato in pratica e` il bit di parit`a (vedi paragrafo 3 del capitolo 1), che rileva un numero dispari di errori su un pacchetto contenente K bit di informazione utile.
P (RIT ) = P (1E ) + P (3E ) + ::: P (ENR) = P (2E ) + P (4E ) + :::
Dove e`
P (nE ) = k +n 1 pn (1 ; p)k;n Se supponiamo che, per p > 2 P (2nE ) 0 (145) l’unico caso in cui possono avvenire errori non rilevati e` l’errore doppio su di un pacchetto, quindi (146)
Pb (e) P (e) K2
Tale stima e` Ottimistica, per via della (145); Pessimistica, perch´e non sono stati esclusi i casi in cui uno dei bit sbagliati e` quello di parit`a E` abbastanza logico considerare compensate le due stime.
CAPITOLO 16
Quantizzazione di segnali analogici 1. Campionamento e quantizzazione Supponiamo di voler utilizzare un sistema trasmissivo di tipo numerico per diffondere un segnale originato da una sorgente analogica1 : affinch´e sia possibile convertire il segnale in una sequenza di simboli di canale, occorre aggiungere due nuovi blocchi alla catena trasmissiva, che ora si presenta cos`ı:
z }| { ! RX ! N=A ! U S ! A=N ! TX ! | {z } | {z } | {z } Canale trasm.
Numerico
Analogico
Analogico
F IGURA 1 Come si era detto nel paragrafo 1 capitolo 1, la differenza fra segnale analgico e segnale numerico sta nel fatto che quest’ultimo e` discreto:
nel tempo; nei valori che puo` assumere.
Poich´e per un segnale analogico tali vincoli non sussistono, la discretizzazione nel tempo (campionamento) e nei valori (quantizzazione) sono le mansioni del blocco A/N, mentre compito del blocco N/A e` la ricostruzione del segnale originale. Vediamo separatamente le due operazioni di discretizzazione e ricostruzione. 1.1. Campionamento. Si puo` supporre che la sorgente fornisca un segnale limitato in banda, dunque sia sempre possibile trovare una frequenza di campionamento che permetta di eliminare l’aliasing. Alla luce di quanto detto nel capitolo 6, tale frequenza deve soddisfare la relazione:
fc = T1 > 2B E la struttura del blocco e` :
x (t)=P+1 x(nT )(t;nT )
c c c x(t) n=;1 ;;;; ! ;;;;;;;;;;;;;;;;;;;;!
x?P+1 ? n=;1 (t;nTc)
1 Un tipico esempio e` la telefonia GSM. 133
2. RUMORE DI QUANTIZZAZIONE: UN PRIMO APPROCCIO
134
1.2. Quantizzazione. Consiste nel partizionare la dinamica del segnale (cio`e la gamma di valori che puo` assumere) in un insieme di intervalli e di associare ad ognuno di essi un ben definito valore, che corrisponderebbe ad un simbolo di sorgente, se la sorgente fosse numerica. Chiaramente non sussiste una biunivocit`a fra il segnale prima e dopo la quantizzazione, quindi si provoca inevitabilmente una perdita di informazione. +V
-V
F IGURA 2 Siamo ora in grado di presentare la struttura del blocco A/N:
x(t) xc (t) ;;;; ! ;;;; !
x? ?
e la sua espressione matematica:
xq (t) =
+1 X
n=;1
Q
q (t) ;x;; !
Qfx(nTc)g(t ; nTc)
xq (t) e` ora un segnale numerico e, nel caso di sorgente a banda limitata, la sola quantizzazione opera una perdita di informazione che e` molto modesta. 1.3. Ricostruzione. Mira ad invertire l’operazione di campionamento compiuta dal convertitore A/N, e consiste nel consueto filtro passa-basso. 2. Rumore di quantizzazione: un primo approccio Il metodo piu` semplice per modellare la perdita di informazione causata dal quantizzatore e` sostituirlo con un nodo di somma:
xq (t) xc (t) ;;;; ! ;;;; !
x? ?nq (t)
nq (t) e` un processo casuale e viene detto rumore termico di quantizzazione. Facendo cos`ı, pero, ` e` necessario conoscere la densit`a di probabilit`a di nq (t), che si rivela essere dipendente sia da quella di xc (t) che dal simbolo da trasmettere, come
dimostra la figura 3. Nel presente paragrafo assumeremo valida la seguente ipotesi semplificativa: fxc (t) e` una distribuzione uniforme. In tal caso ci si svincola dalla dipendenza
2. RUMORE DI QUANTIZZAZIONE: UN PRIMO APPROCCIO
f x Q |s 1 (y)
f x c(t)
β’ = K β
β α
α’= K α xc
-V/2 s4
135
V/2
-V/4
V
s3
s2
s1
-3V/4 -V/4
V/4
3V/4
V/4
y
xQ
F IGURA 3. Esempio di distribuzione di xc (t) e relativa distribuzione di nq (t) se e` stato trasmesso il simbolo s1 , cio`e per x 2 (0 ; V2 ) . La dinamica del segnale e` V ed e` stata divisa in quattro intervalli di uguale ampiezza (pari a V2 ). del simbolo trasmesso ed anche dallo stile di quantizzazione: ci basta conoscere l’ampiezza degli intervalli di quantizzazione, come illustra la figura 4. f x Q |s 1 (y)
f x c(t)
2/V
1/2V
xc -V
-V/2
V/2
-V/4
V
V/4
y
F IGURA 4 Ora che conosciamo le distribuzioni di xc (t) e di nq (t) e` possibile ottenere il S: rapporto N
S
x2c (t) = N Q n2q (t) Sfruttando stazionariet`a ed ergodicit`a di nq (t), si ha che P = R(0)
La media nq (t) e` nulla per una distribuzione pari, quindi
R(0) = 2
2. RUMORE DI QUANTIZZAZIONE: UN PRIMO APPROCCIO
Percio: `
n2q (t) = =
Z +1 Z;1 + 2 ; 2 2
= 12 Basta sostituire V a 2 per ottenere x2 (t):
136
y2 fnq (y)dy = y2 1 dy =
2
x2 (t) = V3
Concludendo:
S
2V 2 = N Q
E` raro esprimere tale grandezza in funzione di V e : piu` spesso si usa il numero di intervalli di quantizzazione M :
(147)
M = 2V ) NS = M 2 Q
se si osserva il nodo di somma che abbiamo usato come modello di quantizzatore, S all’uscita di esso si nota che puo` essere piu` interessante conoscere il rapporto N 2 x (t) x2 (t) che all’ingresso, cio`e q2 piuttosto che c2 . Le differenze, specialmente se il nq (t) nq (t) rumore e` piccolo, sono generamente molto modeste: (148)
(149)
S
x2q (t) = N Q n2q (t) = number 2 (M 2 ; 1) 12 = = 2 12 = M2 ; 1 M2
Per rappresentare M livelli sono necessari
n = log2 M bit
; S anche in funzione di n: Quindi si puo` esprimere N Q S (M 2 = 22n
N Q = M 2 ; 1 = 22n ; 1
Ovvero approsimando:
S
N Q=2
2n
3. TRASMISSIONI ATTRAVERSO UN BSC
137
Oppure usando i deciBel:
S
(150)
2n
N QjdB = 10 log10 2 = = 2n10 log10 2 6; 02n
La formula (150) e` di estrema importanza quando si quantizzano i segnali, anche per la sua semplicit`a di applicazione, ad esempio i CD sono caratterizzati S 96dB. da campioni di 16 bit a 44KHz, quindi N Q Questo tipo di trasmissione garantisce una qualit`a migliore di quella analogica, in quanto l’unica distorsione e` causata dalla quantizzazione, di norma trascurabile; se pero` la probabilit`a d’errore diventa eccessivamente elevata, le prestazioni degradano rapidamente, anche perch´e se viene corrotto anche un solo bit, il campione puo` risultare stravolto. Tutto questo merita di essere approfondito.
;
3. Trasmissioni attraverso un BSC Supponiamo per semplicit`a di avere a che fare con soli quattro intervalli di quantizzazione, cui corrispondono ovviamente due bit. Se la dinamica e` V e l’ampiezza di ciascun intervallo e` uguale, allora
;V ; ; V2 ! ; 34 V V 1 ; 2 ; 0 ! ;4V
0 ; + V2 ! + 14 V V 3 + 2 ; V ! +4V
Volendo associare due bit a ciascun livello, si puo` seguire questa strada:
; 34 V = ; V2 ; V4 ; 41 V = ; V2 + V4 + 41 V = + V2 ; V4 + 43 V = + V2 + V4
Possiamo dunque dedurre le seguenti regole:
(; ;) ! 0 0 (; +) ! 0 1 (+ ;) ! 1 0 (+ +) ! 1 1
Al primo bit si associa V2 , al secondo V4 , al terzo V8 , e cos`ı via; Al ‘+’ corrisponde ‘1’, al ‘-’ corrisponde ‘0’.
3. TRASMISSIONI ATTRAVERSO UN BSC
138
Se quantizziamo in questa maniera, si puo` trovare una semplice via per esprimere analiticamente il segnale risultante:
xQ =
n V X i=1
Dove
2i ai = V
(
ai = +1
;1
n a X i i i=1 2
‘1’ ‘0’
Supponiamo di trasmettere tali bit attraverso un canale binario simmetrico, con probabilit`a d’errore pari a p, allora il segnale ricevuto sar`a:
n b X j
x~Q = Ancora
j j =1 2
(
bj = +1
;1
‘1’ ‘0’
a questo punto consideriamo le propriet`a statistiche di ai : se supponiamo i quattro simboli equiprobabili, possiamo dedurre che anche gli ai lo sono, come suggerisce la figura 5.
I bit
II bit
0
0
1
1/2
1/2 1
1/4
0
1/4 1/4
1 1/4
F IGURA 5 Sono equiprobabili anche i bj ? Basta eseguire un semplice calcolo:
P (bj = 1) = P (bj = 1jaj = 1)P (aj = 1) + P (bj = 1jaj = 0)P (aj = 0) = = (1 ; p) 21 + p 12 =
= 12 P (bj = 0) = 1 ; P (bj = 1) = = 12
3. TRASMISSIONI ATTRAVERSO UN BSC
139
Ora che sappiamo che sia gli ai che i bj sono equiprobabili, possiamo calcolare il rumore che viene introdotto dal canale:
ne = x~Q ; xQ = n b n X j ; V X ai = =V 2j 2i =V Se ne deduce che:
n2e = V 2
j =1 n b X i=1
i ; ai 2i
i=1
"X n b ; a #2 i i
= i i=1 2 n n b ;a X ai X j j = V 2 bi ; i j = 2 2 i=1 j =1 n X n X =V2 (bi ; ai )(bj ; aj ) 2i1+j i=1 j =1
Poich´e:
(bi ; ai )(bj ; aj ) = bi bj ; ai bj ; aj bi + ai aj Basta calcolare i vari addendi, ricordando che i bj e gli aj sono scorrelati:
(1
1 bi bj = 2 (+1) (+1) + 2 (;1) (;1) = 1 i = j bi bj i= 6 j Siccome i bi sono a media nulla:
bi = 12 1 + 12 (;1) Si ha che:
(
bi bj = 1 i = j 0 i 6= j Le stesse propriet`a statistiche sono applicabili agli ai , quindi possiamo esprimere il tutto nel seguente modo:
bi bj = i;j ai aj = i;j
3. TRASMISSIONI ATTRAVERSO UN BSC
140
Piu` complesso e` il ragionamento per calcolare i termini nella forma ai bj . Se
i = j allora
ai bi =(9 + 1) (+1) 21 (1 ; p) +
(;1) (;1) 12 (1 ; p) + (+1) (;1) 12 p + (;1) (+1) 12 p = 1 ; 2p
altrimenti
ai bj = ai bj = 0 Ripercorrendo a rovescio i passi finora compiuti, abbiamo:
(bi ; ai )(bj ; aj ) = i;j ; (1 ; 2p)i;j ; (1 ; 2p)i;j + i;j = = 4pi;j n X n X n2e = V 2 4pi;j 2i1+j = i=1 j =1 n X = V 2 4p 2i1+i = i=1 nX ;1 = pV 2 41i = ;i=01 n ; 1 = = pV 2 41 4 ;1 2n = 43 pV 2 2 22;n 1 = 2 = 43 pV 2 MM;2 1 S dalla sorgente all’utilizzatore bisose dunque vogliamo calcolare il rapporto N gna sommare al rumore termico che filtra nella trasmissione anche il rumore di quantizzazione, per ottenere la formula
S
S N OUT = n2q + n2e = V2
= V 2 4 3 2 M 2 ;1 = 3M 2 + 3 pV M 2 2 = 1 + 4pM (M 2 ; 1)
3. TRASMISSIONI ATTRAVERSO UN BSC
141
S si puo` ottenere maniUna forma particolarmente espressiva del rapporto N polando algebricamente la sua definizione:
S
S = = 2 N OUT nq + n2e = n2 1 n2 = q e S + S = 1 1 1 S + S n2q
n2e
S
Questa forma ricorda molto da vicino il parallelo fra due resistenze:
S kS = N OUT n2q n2e
(151)
S minore) secondo la Come e` ovvio prevale il rumore piu` forte (cio`e il rapporto N curva rappresentata in figura 6. Puo` essere interessante calcolare la soglia p :
( SN )
dB
( SN )
e
( SN )
48dB
;
p*
q
P
S F IGURA 6. Il rapporto N dB al variare della probabilit`a d’errore: se questa e` sufficientemente bassa prevale nq , che e` di norma trascurabile e, comunque, costante. Se si supera la soglia p , e` la ne a prevalere, e le prestazioni del sistema crollano. E` rappresentato il caso M = 256 e n = 8.
S
= NS
N q n2q = n2e
Da cui si ricava p : (152)
e
4 p V 2 M 2 ; 1 = 1 V 2 3 M2 3 M2
p = 4(M 21 ; 1)
p 4M1 2 = 22n1+2
p dipende dalla quantizzazione: se si usano piu` bit, la caratteristica di ;Quindi S sale, e la soglia scende, come in figura 7. N q
4. RUMORE DI QUANTIZZAZIONE: UN APPROCCIO GENERALE.
( SN )
142
n1
dB
n2
aumento bit
n3
p*1
p*2
p*3
P
F IGURA 7. Spostamento della soglia p al variare del numero n di bit del quantizzatore. Si noti che n1 > n2 > n3 . 4. Rumore di quantizzazione: un approccio generale. Nel paragrafo 2 abbiamo ipotizzato che il segnale avesse una distribuzione uniforme di valori: questa e` una supposizione molto poco fondata, specialmente nel campo della telefonia, dove questa teoria viene ampiamente applicata. Pertanto e` ben piu` realistico supporre che:
La distribuzione non sia uniforme. La distribuzione non sia stazionaria.
Cerchiamo di ovviare alla non uniformit`a: l`ı si trover`a anche la soluzione al problema della non stazionariet`a. Supponiamo che la dinamica teorica del segnale x(t) non sia V , ma che in realt`a sia sempre
x(t) 2 [;Vin ; +Vin ]
con Vin < V . Il risultato e` che impieghiamo ‘male’ i bit a disposizione, riducendo S : il rapporto N q
;
S
V2
3in2 = = V N q 3M 2 2 = VVin M < M 2
Se, ad esempio, Vin
= 109 V , allora
2 SN = 10 log10 VVin =
= Vin jdB ; V jdB 1dB
L’espressione in deciBel e` :
S
V 2 in
N q = 6; 02n ; |10 log10{z V SN
}
4. RUMORE DI QUANTIZZAZIONE: UN APPROCCIO GENERALE.
143
E` necessario dunque introdurre un blocco aggiuntivo a monte del quantizzatore che ‘rimappi’ gli intervalli, come si vede in figura 8. A questo punto i i yc ∆ ∆ xi xc
∆i xc
yc
Q
F IGURA 8 sono funzione del valore xc . Se sono sufficientemente ridotti, si puo` approssimare la curva ad una unica spezzata, ricavando la relazione
2 dy M dx xc 2i i Da cui si ottiene
i = M2 dx dy
(153)
xc 2i
Calcoliamo ora la n2q senza supporre che la distribuzione fx (x) sia uniforme:
n2q = (x ; xq )2 = = =
Z +1 ;1
(x ; xq )2 fx(x)dx =
M Z xi + 2i X i=1 xi ; 2i
(x ; xi )2 fx(x)dx
Se la distribuzione varia lentamente rispetto alla dimensione degli intervalli, cio`e:
f i si puo` pensare che f 0, cio`e che non vari all’interno dell’intervallo, come si vede dalla figura 9. In tal caso si puo` estrarre la fx dall’integrale:
4. RUMORE DI QUANTIZZAZIONE: UN APPROCCIO GENERALE.
144
Approssimazione
∆f
∆i
F IGURA 9
n2q = =
M X i=1
M X i=1
M X i=1
fx (xi )
Z xi+ 2i xi ; 2i
(x ; xi )2 dx =
3
fx (xi ) 12i = 3
pi 12i
Dove si e` ricordato che:
fx (xi )i = pi Si noti che nel caso esaminato nel paragrafo 2, l’approssimazione coincide con il risultato esatto, perch´e la distribuzione e` costante globalmente; come riprova, i due risultati sono identici. Ricordando la (153) si ottiene
Con M
!2 M X 1 dx n2q = 3M 2 pi dy x2i i=1
! 1, si ha il passaggio al continuo: n2q = 3M1 2
Poich´e
x2 = Si ottiene
2 fx(x) dx dy dx ;1
Z +1
Z +1 ;1
fx(x)x2 dx
R +1 f (x)x2 dx ;1 x N q = 1 2 R +1 fx(x) dx 2 dx 3M ;1 dy ; Il nostro obiettivo e` la costanza del rapporto S : se pero` S
dx = Kx dy
N q
4. RUMORE DI QUANTIZZAZIONE: UN APPROCCIO GENERALE.
Si ottiene
S
145
R +1 f (x)x2 dx x 3M 2 = R;1 +1 f (x)K 2 x2 dx K 2
N q = 3M1 2 ;1 x
La soluzione dell’equazione differenziale (4) e`
y = K1 ln x + C Se x < 0, si puo` adottare la curva di figura 10, che pero` non e` invertibile, dunque ci possono essere ambiguit`a a livello del ricevitore.
F IGURA 10 Una possibile soluzione consiste nel ‘raccordare’ le due curve come mostrato nella figura 11.
F IGURA 11
4. RUMORE DI QUANTIZZAZIONE: UN APPROCCIO GENERALE.
146
Esistono di fatto due differenti standard per ‘raccordare’ le curve: uno statuitense ed uno europeo:
+ jxj) (USA) ) y = ln(1 ln(1 + )
A
8 Ajxj > < 1+ln A jxj 6 A1 (Europa) ) y = > : 1+ln Ajxj 1 1+ln A A < jxj 6 1
jxj 6 1
sebbene si sia cercato di rendere, per ragioni di mercato, questi due standard il piu` incompatibili possibile, le distorsioni causate da ricevitore e trasmettitore che S e` : usano i due diversi standard, sono trascurabili. Il rapporto N q
S
;
N q = 6; 02n +
Dove assume i seguenti valori:
= 4; 77 ; 20 log10 ln(1 + ) = 4; 77 ; 20 log10 (1 + ln A)
(Sistema ) (Sistema A)
APPENDICE A
Alcune Formule Trigonometriche 1. Algebra delle Delta 1 Si e` fatto notare spesso, nelle pagine precedenti, che una delta di Dirac ha la capacit`a di traslare qualsiasi funzione: (154)
f (x) A(x ; x0 ) = Af (x ; x0 )
Questa propriet`a puo` essere sfruttata per eseguire agevolmente calcoli con funzioni trigonometriche. Per prima cosa, pero, ` bisogna introdurre le due funzioni
s(x) = 2j sin x c(x) = 2 cos x
le cui trasformate sono in figura 1. Piu` precisamente2 :
La fase della delta e` uguale all’argomento delle funzioni; La forza delle delta e` proporzionale al coefficiente per cui s(x) e c(x) sono moltiplicate
x
x
F IGURA 1 Il calcolo mediante s(x) e c(x) nel dominio delle frequenze si dimostra particolarmente agevole, infatti il prodotto di due funzioni trigonometriche, che normalmente e` piuttosto faticoso, diventa una convoluzione di delta. Come esempio si puo` cercare un’espressione equivalente a
Q = sin A cos B 1 Adattato da: Mencuccini, Silvestrini, Fisica II (Liguori Editore). 2 Per ‘delta di forza A e fase x’ di intende .
A(x) 147
1. ALGEBRA DELLE DELTA 3
148
Per prima cosa bisogna ricondurre tutto ad una funzione di s(x) e c(x)
Q = 41j [2j sin A][2 cos B ] = 41j s(A)c(B )
A questo punto si puo` trasformare e convolvere, come si vede in figura 2.
A
*
B
B-A B+A
F IGURA 2 Non e` difficile individuare due coppie di delta in configurazione simile a quella della trasformata di s(x), dunque, per la linearit`a della trasformata di Fourier
s(A)c(B ) = s(A + B ) ; s(B ; A)
Possiamo dunque dire che:
Q = 41j s(A)c(B ) =
= 41j [s(A + B ) ; s(B ; A)] = = 2j sin(A + B ) 4;j 2j sin(B ; A) = = 12 [sin(A + B ) + sin(A ; B )]
Questo sistema e` particolarmente utile per eseguire derivate o integrali, in quanto permette di passare dal prodotto di funzioni alla somma, ma si puo` agevolmente eseguire anche il procedimento inverso, quando si debbano risolvere equazioni, ad esempio:
sin(11x) = cos(7x)
1. ALGEBRA DELLE DELTA 4
149
Qui c’`e un problema aggiuntivo: se si passa direttamente a s(x) e c(x), l’espressione che si ottiene e` in parte immaginaria, ma c’`e un espediente:
sin y = ; cos(y + =2) ) cos(7x) + cos(11x + =2) = 0 1 [c(7x) + c(11x + =2)] = 0 2
Mediante la figura 3, si ricava
7x
9x+ π/4
*
11x+ π/2
2x+ π/4
F IGURA 3
1 [c(7x) + c(11x + =2)] = 1 c(9x + =4)c(2x + =4) = 2 2 = 2 cos(9x + =4) cos(2x + =4) Percio`
x = =36 + k=9 x = =8 + k=2
2. ALCUNE RELAZIONI TRIGONOMETRICHE
2. Alcune Relazioni Trigonometriche
sin(A + B ) = sin A cos B + cos A sin B sin(A ; B ) = sin A cos B ; cos A sin B cos(A + B ) = cos A cos B ; sin A sin B cos(A ; B ) = cos A cos B + sin A sin B sin A cos B = 12 [sin(A + B ) + sin(A ; B )] cos A cos B = 12 [cos(A + B ) + cos(A ; B )] sin A sin B = 12 [cos(A ; B ) ; cos(A + B )] sin A + sin B = 2 sin A +2 B cos A ;2 B sin A ; sin B = 2 sin A ;2 B cos A +2 B cos A + cos B = 2 cos A +2 B cos A ;2 B cos A ; cos B = 2 sin A +2 B sin A ;2 B sin2 A ; sin2 B = sin(A + B ) sin(A ; B ) cos2 A ; cos2 B = sin(A + B ) sin(B ; A) cos2 A ; sin2 B = cos(A + B ) cos(A ; B ) = = cos2 B ; sin2 A sin(2A) = 2 sin A cos A sin(3A) = 3 sin A ; 4 sin3 A cos(2A) = cos2 A ; sin2 A = 2 cos2 A ; 1 = 1 ; 2 sin2 A cos(3A) = 4 cos3 A ; 3 cos A
r
sin A2 = 12 (1 ; cos A) r A cos = 1 (1 + cos A) 2
2
150
2. ALCUNE RELAZIONI TRIGONOMETRICHE
sin2 A = 21 [1 ; cos(2A)] sin3 A = 14 [3 sin A ; sin(3A)] cos2 A = 12 [cos(2A) + 1] cos3 A = 14 [cos(3A) + 3 cos A]
151
APPENDICE B
Formulario 1. Teoria dell’Informazione Pag. 8, eq. (1) — Entropia di una sorgente:
H =;
N X j =1
pj log2 pj
Pag. 9, eq. (2) — Condizione necessaria per la codifica di Fano:
pj = 21j
8j < N
2. Analisi di Segnali Pag. 13, eq. (3) — Potenza normalizzata:
< p(t) >=< i2 (t) >=< v2 (t) >
Pag. 15, eq. (5) — Definizione di decibel:
PdB = 10 log10 PPx 0
Pag. 16, eq. (6) — Potenza disponibile:
2 Pdu = (Zout iout )iout = 4VZout
out
Pag. 16, eq. (8) — Condizione di ortogonalit`a per due funzioni:
Zb a
(t) (t)dt = 0
Pag. 16, eq. (9) — Ortogonalit`a di una base:
Zb a
i (t)j (t)dt = Ki i;j
Pag. 16, eq. (10) — Energia normalizzata, data la funzione:
Ki =
Zb a
ji j2 dt = Ei
Pag. 17, eq. (11) — Energia normalizzata, date le proiezioni:
Ew = 152
N X j =0
jaj j2
3. SERIE E TRASFORMATA DI FOURIER
153
3. Serie e Trasformata di Fourier Pag. 23, eq. (13) — Base normalizzata di Fourier:
n=
p1T ej2nf0 t 0
Pag. 23, eq. (14) — Coefficienti della Serie di Fourier:
cn = T1
Z a+T0
0 a
Pag. 23, eq. (15) — Serie di Fourier:
w(t) =
w(t)e;jn!0 t dt
+1 X n=;1
cn ejn!0 t
Pag. 24, eq. (16) — Propriet`a dei coefficienti per una funzione reale:
w(t) Reale ;! cn = c;n w(t) Reale e pari ;! =fcn g = 0 cn = c;n w(t) Reale e dispari ;!
Pag. 24, eq. (17) — Serie trigonometrica di Fourier:
w(t) = c0 + 2
+1 X
n=1
c0n cos n!0 t ; 2
+1 X n=1
c00n sin n!0 t
Pag. 25, eq. (18) — Relazione di Parseval per la Serie di Fourier:
+1 1 Z a+T0 jw(t)j2 dt = X jcn j2 T0 a n=;1
Pag. 25, eq. (19) — Trasformata di Fourier:
W (f ) = F [w(t)] =
Z +1 ;1
w(t)e;j2ft dt
Pag. 25, eq. (20) — Antitrasformata di Fourier:
w(t) = F ;1 [W (f )] =
Z +1 ;1
W (f )ej2ft df
Pag. 25, eq. (21) — Trasformata di Fourier nel dominio della pusazione:
W (! ) =
Z +1 ;1
w(t)e;j!t dt
Pag. 25, eq. (22) — Antitrasformata di Fourier nel dominio della pulsazione:
Z +1 1 W (!)ej!t d! w(t) = 2 ;1
Pag. 26, eq. (23) — Propriet`a della trasformata di Fourier:
w(t) Reale ;! W (f ) = W (;f ) w(t) Reale e pari ;! = fW (f )g = 0 ! W (f ) = W (;f ) w(t) Reale e dispari ;! < fW (f )g = 0 ! W (f ) = ;W (;f )
` SPETTRALI DI ENERGIA E DI POTENZA 4. DENSITA
154
Pag. 26, eq. (24) — Trasformata trigonometrica di Fourier:
W (f ) =
Z +1 ;1
Z +1
w(t) cos 2fdt + j
;1
w(t) sin 2fdt
Pag. 26, eq. (25) — Relazione di Parseval per la Trasformata di Fourier:
Z +1 ;1
w1 (t)w2 (t)dt =
Z +1 ;1
W1 (f )W2 (f )df
Pag. 26, eq. (26) — Passaggio da Serie a Trasformata di Fourier:
Ffw(t)g =
+1 X
n=;1
cn (f ; nf0 )
Pag. 27, eq. (27) — Trasformata del seno:
FfA sin(!0 t)g = 2Aj [(f ; f0 ) ; (f + f0 )]
Pag. 27, eq. (28) — Trasformata del coseno:
FfA cos(!0 t)g = A2 [(f ; f0 ) + (f + f0 )]
Pag. 28, eq. (31) — Trasformata del pettine di Dirac:
W (f ) = f0
+1 X
m=;1
(f ; mf0 )
Pag. 29, eq. (32) — Da coseno a pettine di Dirac:
+1 X
m=;1
e;j2fmT0 = f0
+1 X
m=;1
(f ; mf0)
Pag. 30, eq. (36) — Passaggio da Trasformata a Serie:
cn = WT (nf0 )f0
4. Densit`a Spettrali di Energia e di Potenza Pag. 32, eq. (37) — Densit`a spettrale di energia:
Ew (f ) = jW1 (f )j2
Pag. 32, eq. (38) — Densit`a spettrale di potenza:
Pw (f ) = T !lim+1 jWTT(f )j
2
Pag. 33, eq. (39) — Teorema di Wiener-Kintchine:
Pw (f ) = FfRw ( )g
Pag. 33, eq. (40) — Funzione di autocorrelazione:
Rw ( ) = w (t) w(t + )
7. CODICI DI LINEA
155
Pag. 34, eq. (42) — Densit`a spettrale di potenza nota la Serie di Fourier:
Pw (f ) =
+1 X
n=;1
jcn j2 (f ; nf0 )
5. Processi Casuali Pag. 35, eq. (43) — Media temporale:
Z + T2
< x(t) >= T !lim+1 T1
; T2
x(t)dt
Pag. 36, eq. (45) — Ergodicit`a:
< x(t1 )x(t2 ) >= x(t1 )x(t2 ) Pag. 37, eq. (47) — Media di un processo casuale:
h i2
x(t) = !lim +1 Rx ( )
Pag. 37, eq. (48) — Varianza di un processo casuale:
x2 = x2 (t) ; 2x = Rx (0) ; Rx (+1) 6. Il Digital Signal Processing
Pag. 40, eq. (52) — Densit`a spettrale all’uscita di un sistema lineare invariante:
Py (f ) = H (f ) 2 Px(f )
(
Pag. 40, eq. (54) — Condizione di non distorsione:
H (f ) = C \H (f ) = ;2fTd
Pag. 43, eq. (56) — Condizione necessaria per eliminare l’aliasing1 :
fc > 2B
7. Codici di Linea Pag. 51, eq. (59) — Densit`a spettrale di una trasmissione dotata di funzione di autocorrelazione R:
"
+1 2 X Px(f ) = jF (Tf )j R(0) + 2 R(k) cos(k!Ts) s
k=1
"
Pag. 52, eq. (60) — Densit`a spettrale con simboli scorrelati:
+1 2 2 2 X j F ( f ) j n Px(f ) = T + T f;T s s n=;1 s
1
B e` la banda unilatera del segnale
#
#
8. SEGNALAZIONI IN BANDA LIMITATA
156
8. Segnalazioni in Banda Limitata Pag. 54, eq. (61) — Efficienza spettrale:
= B R=2 00
Pag. 56, eq. (61) — Efficienza spettrale:
= B R=2 00
Pag. 56, eq. (62) — Efficienza spettrale di un NRZ:
=l
max = l = log2 1 + NS
Pag. 57, eq. (63) — Massima efficienza con segnalazione NRZ antipodale multilivello:
P ja s(t ; nT )j Dp = n6=0 jan s(t0 )j s 0 0
Pag. 59, eq. (64) — Distorsione di picco in una segnalazione NRZ antipodale:
P s(t ; nT ) Dp = n6=0 s(t0 ) 0 6 12 0
Pag. 60, eq. (66) — Distorsione di picco in una segnalazione unipolare:
Pag. 61, eq. (67) — Distorsione efficace:
DE2 =
P
n6=0 [an s(t0 ; nT0 )]
[a1 s(t0 )]2
2
(
Pag. 62, eq. (69) — Condizione di assenza di interferenza intersimbolica:
s(t0 ; tTs ) = C n = 0 0 n 6= 0 Pag. 64, eq. (71) — Primo criterio di Nyquist:
+1 1 X Ts k=;1 S (f ; kfs ) = C
8 > <11 h i jf j < f1 j f j; f 1 S (f ) = > 2 1 + cos 2f f1 < jf j < B :0 jf j > B
Pag. 65, eq. (72) — Coseno rialzato:
f , B ; f0 = f0 ; f1 r , ff 0 1 D = T = 2f0 s
B = f0 + f = D2 (1 + r)
10. FILTRO ADATTATO
157
Pag. 67, eq. (73) — Calcolo dei coefficienti del filtro trasversale:
(
+N X
bn wc [(k ; n)Ts ] = 1 k = 0 0 k 6= 0 n=;N 9. Rumore Pag. 71, eq. (77) — Densit`a spettrale di potenza della tensione d’errore:
Pv (f ) 2RTK
Pag. 72, eq. (79) — Densit`a spettrale di potenza di un resistore rumoroso:
Pd (f ) = KT 2
Pag. 76, eq. (80) — Relazione temperatura equivalente - cifra di rumore:
Te = T0 (F ; 1)
Pag. 76, eq. (81) — Guadagno equivalente di un catena di doppi bipoli:
n Y
i=1
gi jW
Pag. 78, eq. (82) — Cifra di rumore totale di una catena di doppi bipoli:
F = F1 + F2g; 1 + Fg3 ;g 1 + + gFN ; g1 1
12
1
N
Pag. 78, eq. (83) — Temperatura equivalente totale di una catena di doppi bipoli:
Te = T1 + Tg 2 + gTg3 + + g TN g 1 1 2 1 N 10. Filtro Adattato
Pag. 81, eq. (85) — Forma generica filtro adattato:
HRX (f ) = k PS ((ff )) e;j!t0 n
Pag. 83, eq. (90) — Rapporto segnale rumore all’uscita del filtro adattato:
S
2 N o = N0 Es
Pag. 84, eq. (91) — F.d.t. filtro adattato in presenza di rumore gaussiano bianco:
H (f ) = N2k S (f )e;j2ft0 0 2 k h(t) = N s (t0 ; t) 0
12. MODULAZIONI NUMERICHE
158
11. Soglie, codifica Gray, Canali Pag. 88, eq. (93) — Forma approssimata erfc (() x) per x > 4: erfc (x)
e;px2 x
x>4
Pag. 88, eq. (94) — Probabilit`a d’errore di un sistema NRZ in caso di soglia ottima:
P (e) = 21 erfc pr(t0 ) 2BN0
Pag. 90, eq. (96) — Probabilit`a d’errore sul bit di un sistema a M livelli con codifica Gray:
Pb (e) log1 M Ps (e) 2
12. Modulazioni Numeriche
Pag. 94, eq. (97) — Inviluppo complesso:
v(t) = < g(t)ej2nfc t
Pag. 95, eq. (98) — Calcolo della densit`a spettrale di un segnale modulato nota quella del suo inviluppo complesso:
Pv (f ) = 14 Pg (f ; fc) + Pg (f + fc )
Pag. 98, eq. (100) — Segnalazione OOK:
v(t) = Am(t) cos(2fc t)
Pag. 98, eq. (101) — Inviluppo complesso per l’OOK:
g(t) = Am(t)
Pag. 99, eq. (102) — Segnalazione ASK:
v(t) = Am(t) cos(2fc t)
Pag. 99, eq. (103) — Segnalazione BPSK:
v(t) = A cos[2fc + Dp m(t)]
Pag. 100, eq. (104) — Indice di modulazione:
h = 2
Pag. 101, eq. (105) — Condizione di non sovrapposizione delle ‘sottobande’ per l’FSK:
jf2 ; f1 j > 2R
(
Pag. 101, eq. (106) — Segnalazione FSK con due oscillatori indipendenti:
v(t) = A1 cos(2f1 + 1 ) A2 cos(2f2 + 2 ) Pag. 101, eq. (107) — Segnalazione FSK con VCO:
v(t) = A cos 2fc t + Df
Z +1 ;1
m()d
14. RUMORE ASSOCIATO A SEGNALI MODULATI
159
Pag. 102, eq. (108) — Inviluppo complesso per l’FSK:
g(t) = Aej(t) (t) = Df
Z +1 ;1
m()d
13. Segnalazioni Multilivello Modulate Pag. 104, eq. (109) — Banda richiesta dal M-ASK:
B = log2RM 2
Pag. 106, eq. (110) — Densit`a spettrale per tutte le segnalazioni M-PSK:
p
2
(fTs ) Pg (f ) = Es sin(fT )2 s
Pag. 108, eq. (111) — Densit`a spettrale per M-QAM:
fT ) 2 s Pg (f ) = C sin(fT s
C=
Es
R +1 sin2(fTs) Ts ;1 2 f 2 Ts2
14. Rumore Associato a Segnali Modulati Pag. 110, eq. (116) — Conseguenze della stazionariet`a di n(t):
8 >
:Rxxyn( ) = ;Rynyx( )
Pag. 112, eq. (120) — Funzione di autocorrelazione del rumore modulato:
Rn ( ) = 12 cos(2fc ) [Rx ( ) + Ry ( )] ; 21 sin(2fc ) [Rxy ( ) ; Ryx ( )]
Pag. 112, eq. (121) — Varianza del rumore modulato2 :
m2 = x2n = y2n = 2N0B
A p 4 N0 B rE
Pag. 113, eq. (123) — Probabilit`a d’errore per l’OOK con demodulatore coerente:
P (e) = 12 erfc
= 21 erfc 4Ns 0
2
B e` la banda unilatera del segnale non modulato, vd. figura 1 a pagina 109.
` D’ERRORE IN SEGNALI MODULATI 15. PROBABILITA
160
15. Probabilit`a d’Errore in Segnali Modulati
Pag. 116, eq. (125) — Probabilit`a d’errore per il BPSK3 :
rE ! s
Pb (e) = Ps (e) = erfc = 12 erfc
8
2N0
r 2
q
Pag. 117, eq. (127) — Probabilit`a d’errore nel 4-BPSK:
= 12 erfc 2ENb0 q = 12 erfc 4ENs0
Pag. 120, eq. (133) — Probabilit`a d’errore nell’OOK con demodulatore incoerente4 : 1 ; NEb
Ps (e) = Pb (e) 2 e
(
0
Pag. 124, eq. (134) — Probabilit`a d’errore nel 16-QAM:
Ps (e) = 41 [P (ejSv ) + 2P (ejSl) + P (ejSi )] Pb 14 Ps (e)
8
Pag. 127, eq. (136) — Probabilit`a d’errore nel M-PSK:
!
Pag. 129, eq. (139) — Probabilit`a d’errore nel FSK con demodulatore coerente:
r
Ps (e) = Pb (e) = 21 erfc 4ENb = 0 r = 21 erfc 4 Pag. 130, eq. (143) — Union Bound:
Psj (e) 6
M 1 X
2 ii=1 6=j iadjj
erfc
dij =2 p
2N
Pag. 131, eq. (144) — Numero medio di ritrasmissioni:
nr = 1 ; P1(RIT )
Pag. 132, eq. (146) — Probabilit`a d’errore di un bit in un pacchetto dotato di codice di parit`a:
Pb (e) P (e) K2
3 Il parametro
vale NE0b .
4 Si suppone che
S N
sia sufficientemente alto.
16. QUANTIZZAZIONE DI SEGNALI ANALOGICI
161
16. Quantizzazione di segnali analogici Pag. 137, eq. (147) — Rapporto segnale rumore di quantizzazione (distrib. uniforme):
x2c (t) = M 2 6n dB n2q (t) x2q (t) = M2 ; 1 n2q (t)
S
Pag. 141, eq. (151) — Rapporto segnale rumore in una trasmissione PCM:
S kS = N OUT n2q n2e
Pag. 141, eq. (152) — Probabilit`a di soglia:
p = 4(M 21 ; 1)