Politecnico di Bari Corso di Laurea in Ingegneria Elettronica e delle Telecomunicazioni
Appunti del modulo di FONDAMENTI di TELECOMUNICAZIONI
Ciro Cafforio
Anno Accademico 2011-2012
CAPITOLO 1
Generalità sui sistemi di trasmissione 1.1. Problematiche poste da un sistema di telecomunicazioni. L’obiettivo del corso è quello di studiare, a un livello elementare, le tecniche che si possono usare per far arrivare ad un utente lontano l’informazione che intendiamo trasmettergli, ad un livello di accuratezza tale da renderla utilizzabile. Si consideri, ad esempio, il caso del servizio telefonico: l’informazione da trasmettere è costituita dai suoni emessi dal parlatore. Tali suoni, cioé le onde di pressione, devono essere trasformati da un opportuno “trasduttore” (microfono) in segnali elettrici che è poi possibile far propagare lungo un opportuno mezzo trasmissivo, eventualmente dopo averli opportunamente amplificati. In ricezione il segnale in arrivo viene ritrasformato, mediante un altro trasduttore (altoparlante), in onde di pressione intellegibili dall’orecchio dell’utente. Naturalmente la qualità del suono riprodotto dipende dalla fedeltà con cui operano i due trasduttori, ma di importanza fondamentale è anche il comportamento del mezzo trasmissivo interposto. In qualsiasi sistema di trasmissione il segnale ricevuto non è mai esattamente identico a quello trasmesso: sarà sempre presente una certa degradazione. Nel seguito si ipotizzerà che il mezzo trasmissivo sia lineare, cioé che per esso valga il principio di sovrapposizione degli effetti e che le sue proprietà non cambino col tempo, o lo facciano lentamente. Un mezzo trasmissivo ideale è caratterizzato da una funzione di trasferimento con modulo costante e con fase lineare, almeno nella banda in cui sono contenute tutte le componenti spettrali del segnale da trasmettere. Un tale mezzo ripropone in uscita un segnale identico a quello immesso al terminale trasmittente, solo di ampiezza ridotta (attenuato) e ritardato. In realtà, nessun mezzo trasmissivo è esattamente ideale: il modulo della funzione di trasferimento non sarà mai costante in banda ed anche la caratteristica di fase sarà ben lungi dall’essere lineare con la frequenza. Di conseguenza il segnale ricevuto risulterà non solo attenuato e ritardato; sarà sostanzialmente diverso da quello trasmesso. Idealmente, il ricevitore può correggere gli effetti del mezzo non ideale, una volta che gli siano noti, mediante un filtraggio “inverso”: si può, cioé equalizzare il canale. Basta amplificare di più le componenti che risultano più attenuate e meno quelle che lo sono di meno e tutto torna a posto! Quando le cose sembrano andare a posto troppo bene bisogna sempre diffidare. Infatti, la procedura descritta può funzionare solo a patto che nessuna delle componenti spettrali del segnale venga attenuata troppo. Se la funzione di trasferimento del mezzo che si vuole equalizzare avesse uno zero di trasmissione in banda, il ricevitore dovrebbe provvedere un’amplificazione infinita a quella frequenza! E ciò è chiaramente impossibile. 3
4
1. GENERALITÀ SUI SISTEMI DI TRASMISSIONE
La realtà è ancora più complicata: il segnale ricevuto è costituito non solo da una copia attenuata ed eventualmente distorta (distorsione spettrale e, quindi, lineare) di quello trasmesso, ma anche da altri segnali indesiderati (disturbi ) che gli si sovrappongono. Diverse possono essere le cause di tali disturbi. Possono esserci delle interferenze provocate da altri segnali che si propagano lungo il mezzo contemporaneamente al nostro; possono esserci dei disturbi provocati da sistemi di natura diversa, ma che emettono radiazioni nell’intervallo di frequenze interessato (ad es. motori, impianti industriali e simili). Un disturbo che non manca mai e che è intrinseco in ogni sistema di trasmissione è il rumore termico generato sia nel mezzo trasmissivo, sia nelle apparecchiature. In ogni caso, al segnale ricevuto è sovrapposto del rumore ed esso sarà caratterizzato, esattamente come il segnale, da un suo spettro. L’onnipresente rumore termico sarà distribuito su tutte le frequenze. Questo vuol dire che la procedura di equalizzazione già descritta diventa ancora più delicata, in quanto non ci sarà da fare i conti solo con l’amplificazione infinita (o comunque molto alta). Bisogna tener conto della presenza del rumore ed evitare di amplificare troppo quelle componenti del segnale che risultassero tanto attenuate da essere diventate di ampiezza paragonabile o addirittura inferiore alle componenti del rumore. Inutile sarebbe la pretesa equalizzazione del segnale se poi al supposto segnale indistorto risultasse sovrapposto un disturbo di ampiezza ben maggiore! Compare in questo discorso una quantità che costituisce un parametro fondamentale di tutti i sistemi di trasmissione: il rapporto segnale/rumore. Inteso in forma integrale, come potenza di segnale su potenza di rumore, o come funzione della frequenza, come rapporto tra le densità spettrali di potenza del segnale e del rumore, esso giocherà un ruolo fondamentale in tutte le successive considerazioni. Risulta evidente, a questo punto, che in nessun caso il segnale ricevuto può essere esattamente uguale a quello trasmesso (si tenga presente che in nessun caso attenuazione e ritardo vanno considerati come causa di differenze). Diventa necessario stabilire un limite oltre il quale le prestazioni del sistema diventano inaccettabili. Tale limite non può essere unico, né univocamente determinato: ingegneristicamente si stabilisce in modo che l’utente sia ragionevolmente soddisfatto. Se il sistema funziona meglio nessuno si lagnerà, tranne chi dovrà pagare le spese, in quanto ovviamente prestazioni migliori si accompagnano a costi maggiori. In tale situazione il dimensionamento viene fatto in modo che l’utenza sia soddisfatta, ma nulla di più, tranne un sovradimensionamento dovuto esclusivamente a motivi di affidabilità (qualcosa di molto simile ai coefficienti di sicurezza dell’ingegneria civile). Chi o cosa sia da intendersi per utente dipende dal particolare segnale che si sta considerando. Tornando all’esempio del telefono, un livello di prestazione accettabile è quello che mediamente permette ad una preassegnata percentuale di utenti di effettuare una telefonata senza eccessivo “fastidio”. Ognuno di noi può sperimentare che, anche in assenza di “parlato” da parte del corrispondente, c’è sempre un certo fruscio nel ricevitore del microtelefono. Naturalmente il livello accettabile del disturbo varia in funzione della sua natura: diverso è l’effetto prodotto da un fruscio, diverso quello prodotto da un’altra conversazione in sottofondo. Di conseguenza, per ogni tipo di disturbo va stabilito il relativo rapporto segnale/rumore minimo tollerabile. Le soglie di tollerabilità vanno poi stabilite,
1.2. IL RUMORE
5
quando non sia possibile fare altrimenti, con campagne di opinione su un campione significativo dell’utenza. Per i servizi già consolidati, i requisiti di qualità vengono raccolti in raccomandazioni emesse da organismi internazionali come l’ITU. Non sempre in ricezione si ha interesse a ricostruire il più fedelmente possibile il segnale trasmesso. Tra i possibili formati che l’informazione da trasmettere può assumere c’è quello numerico: si pensi, ad esempio, ad un collegamento tra calcolatori. In questo caso l’informazione elementare da trasmettere è la cifra binaria ed in ricezione poco importa ricostruire le forme d’onda (peraltro note) che in trasmissione sono state usate per rappresentare lo 0 o l’1: basta essere in grado di decidere, con la maggiore affidabilità possibile, quale cifra binaria è stata effettivamente trasmessa. Questo porterà, come vedremo, a definire in modo particolare il rapporto segnale/rumore da utilizzare per valutare le prestazioni di tali sistemi. Le considerazioni fatte valgono per qualunque mezzo trasmissivo, sia esso ad onde convogliate (doppino telefonico, cavo coassiale, fibra ottica) o ad onde irradiate (mezzo radio). Una differenziazione notevole tra i diversi mezzi trasmissivi è rappresentata dall’intervallo di frequenze entro il quale deve essere compresa la banda di un segnale perché esso possa essere trasmesso. Il doppino telefonico è un mezzo passa-basso, così come lo è il cavo coassiale, anche se con una banda passante ben maggiore. Il mezzo trasmissivo radio, invece, è passa-banda, cioé lascia propagare un segnale con uno spettro che parte da una frequenza diversa da zero (meglio se il rapporto fra frequenza massima e minima è piccolo). Tale caratteristica è ancora più evidente per le fibre, dove lo spettro di un segnale deve essere compreso nelle frequenze ottiche per potersi propagare. Questo vuol dire che l’apparecchiatura trasmittente non può essere costituita da un semplice amplificatore, come nell’esempio di collegamento telefonico: è necessario che il segnale da trasmettere venga modificato in modo da potersi propagare e questo, normalmente, richiede la “modulazione di una portante”. 1.2. Il rumore In base a quanto già detto dovrebbe essere evidente che in un sistema di trasmissione non è importante il livello assoluto del segnale ricevuto. In assenza di qualunque disturbo, se gli amplificatori fossero in grado di amplificare un segnale senza sovrapporgli del rumore, il segnale ricevuto potrebbe raggiungere valori estremamente piccoli, dal momento che basterebbe una successiva amplificazione a riportarlo a valori accettabili. Nella realtà, però, bisogna fare i conti con il rumore che immancabilmente si sovrappone al segnale utile. Tale rumore viene in parte generato nel mezzo trasmissivo ed in parte generato internamente all’apparato ricevente. 1.2.1. Rumore termico. Ricordiamo brevemente i due tipi più comuni di rumore con statistica gaussiana. Il primo è il rumore dovuto all’agitazione termica degli elettroni in un conduttore e, quindi, in un resistore. È noto che ai morsetti di un resistore di valore R, posto a temperatura assoluta T , è rilevabile una tensione casuale generata, appunto, dal moto caotico degli elettroni in agitazione termica all’interno del resistore. La tensione termica, essendo il risultato della sovrapposizione di un gran numero di contributi elementari, ha
6
1. GENERALITÀ SUI SISTEMI DI TRASMISSIONE
statistica gaussiana; il suo valor medio è nullo e la sua densità spettrale (monolatera) è pari a 4kT R [V2 /Hz]. Ne consegue che il valore efficace della tensione di rumore, misurata con uno strumento√che "non carichi’ il resistore ed abbia una banda equivalente di rumore di B Hz, è pari a 4kT RB.
T R
vn
vn
eff
= 4kTRB
Figura 1.2.1. Tensione di rumore ai capi di un resistore. Un modo comodo di rappresentare il comportamento rumoroso di un resistore reale è quello di considerare un resistore "ideale" non rumoroso di identico valore e di mettergli in serie un generatore di tensione che imponga una tensione casuale con caratteristiche statistiche uguali a quelle della tensione termica. In modo del tutto equivalente si può considerare un resistore non rumoroso con in parallelo un generatore di corrente casuale. La statistica di questa corrente di rumore è facilmente determinabile poiché la rappresentazione parallelo deve essere del tutto equivalente a quella serie: la corrente impressa deve avere statistica gaussiana, valor medio nullo e densità spettrale pari a 4kT G [A2 /Hzl, con G = 1/R. La densità spettrale di potenza disponibile di rumore, cioé la densità spettrale della potenza reale che un resistore a temperatura T erogherebbe su un carico resistivo di pari valore (carico adattato), vale hn = kT [W/Hz] (k = 1, 38 · 10−23 Joule/Kelvin). 1.2.2. Rumore granulare. Un rumore con caratteristiche statistiche uguali a quelle del rumore termico si genera con il passaggio di corrente elettrica mediante portatori di carica elementare (ad es. elettroni e lacune nei semiconduttori), attraverso una barriera di potenziale (come quella presente in corrispondenza di una giunzione). L’istante in cui un elettrone (o lacuna) attraversa la zona di carica spaziale è casuale ed indipendente dagli istanti in cui la barriera è attraversata dagli altri portatori. Se la corrente ha valor medio I [A] e la carica elementare vale q [Coulomb], il numero medio di attraversamenti per unità di tempo vale n = I/q. La fluttuazione statistica intorno al valore I ha densità spettrale (monolatera) che vale 2qI [A2 /Hzl e, se considerata in una banda limitata, è, anche qui, somma di un numero elevato di contributi indipendenti ed ha, perciò, densità di probabilità delle ampiezze gaussiana. 1.2.3. Scostamenti dalla densità spettrale costante. Entrambe le densità spettrali considerate sono costanti con la frequenza e costituiscono, quindi, un’approssimazione valida solo fino ad una certa frequenza. Una densità spettrale costante implicherebbe, infatti, una potenza infinita. Se il calcolo della densità spettrale di potenza disponibile di rumore per un resistore viene effettuato tenendo in conto fenomeni quantistici, si ottiene
1.2. IL RUMORE
7
che tale densità vale:
hf exp (hf /kT ) − 1 che per f → 0 tende ad hn = kT , ma che poi, correttamente, tende a zero per f → ∞. h è la costante di Planck e vale 6, 625 · 10−34 joule·s. Nel caso del rumore granulare la riduzione della densità spettrale in alta frequenza è dovuta al fatto che ogni portatore produce un impulso di corrente di area q, ma di durata τ non infinitesima, poiché ha bisogno di un tempo finito per attraversare la giunzione. Si può descrivere tale situazione come un filtraggio degli impulsi mediante un filtro la cui risposta ha la forma del singolo impulso di corrente. La densità spettrale di potenza risultante può allora, come noto, ottenersi moltiplicando la densità spettrale ottenuta ipotizzando impulsi di corrente ideali, per il modulo al quadrato della funzione di trasferimento del filtro in questione. La densità spettrale della corrente sarà, perciò, sagomata come lo spettro di energia del singolo impulso ed avrà uno zero intorno alla frequenza 1/τ . La densità spettrale della corrente granulare, quindi, è costante solo per frequenze 1/τ . Nei dispositivi reali possono generarsi altri tipi di rumore, oltre al rumore termico ed al rumore granulare. Questi disturbi hanno densità spettrali non costanti, ma, soprattutto, non hanno statistica gaussiana. Per maggiori dettagli è consigliabile consultare un buon libro di elettronica. hn =
1.2.4. Composizione di più termini di rumore. Nella composizione di più termini di rumore è sempre necessario decidere se essi sono incorrelati o, in tutto o in parte, correlati. E’ evidente che quando due contributi di rumore sono il risultato di due realizzazioni distinte, anche di uno stesso processo (ad es. tensioni di rumore ai capi di due resistenze), essi sono indipendenti e, quindi, vanno “sommati in potenza”. Esempio. Si calcoli la tensione di rumore ai capi di due resistori in serie, il primo di valore R1 ed a temperatura T1 , il secondo di valore R2 a temperatura T2 . T1 R1
vn 1 vn = vn
R2
T2
1
+ vn
2
vn 2
Figura 1.2.2. Tensione di rumore ai capi di due resistori in serie. Ovviamente le tensioni di rumore ai capi dei due resistori sono statisticamente indipendenti. La totale tensione di rumore vn è, istante per istante, somma dei due termini ed il suo valore quadratico medio vale: 2 2 + E vn2 + 2 E [vn1 · vn2 ] E vn2 = E (vn1 + vn2 )2 = E vn1
8
1. GENERALITÀ SUI SISTEMI DI TRASMISSIONE
Poiché l’ultimo termine ha valore nullo per la statistica indipendenza delle due variabili, il valore quadratico medio della somma risulta uguale alla somma dei valori quadratici medi dei due addendi. Di conseguenza, la densità spettrale della tensione risultante a vuoto ai capi delle due resistenze in serie vale: hn = 4kT1 R1 + 4kT2 R2 = 4k
T1 R1 + T2 R2 (R1 + R2 ) = 4kTeq (R1 + R2 ) R1 + R2
Evidentemente, Teq = T se T1 = T2 = T , perché in tal caso le due resistenze devono essere equivalenti ad una sola resistenza di valore R1 + R2 a temperatura T . Questo discorso, come è noto, si può generalizzare: se in una rete passiva reciproca tutti gli elementi dissipativi sono alla stessa temperatura, la tensione di rumore ad una coppia di morsetti della rete si può calcolare tenendo in conto la parte reale dell’impedenza (genericamente funzione della frequenza) presentata dalla rete a quei morsetti. Esempio. Si consideri un resistore, di valore R a temperatura T , in parallelo ad un condensatore di valore C. Le perdite nel condensatore siano trascurabili. Qual è il valore efficace della tensione di rumore presente ai loro capi? ________ Un primo modo di procedere è quello di rappresentare la rumorosità del resistore con un generatore equivalente di corrente di rumore in parallelo, di calcolare la densità spettrale della tensione di rumore e, integrandola, calcolare il valore efficace della tensione di rumore. 4kTG R
C
vn
eff
Figura 1.2.3. Tensione efficace di rumore ai capi di un RC. L’impedenza del parallelo R-C vale R/(1+ωCR). La densità spettrale della tensione si ricava moltiplicando la densità spettrale della corrente in ingresso per il modulo al quadrato dell’impedenza. Perciò: Z ∞ 4kT R2 2kT kT 2 vnef f = df = [arctan x]∞ 0 = 2 2 2 R 1+ω C R πC C 0 E’ immediato verificare che lo stesso risultato si ottiene se si considera la parte reale dell’impedenza e si integra la densità spettrale della tensione di rumore così ottenuta: Z ∞ R · (1 − ωCR) kT 4kT Re df = 2 2 2 C 1+ω C R 0
1.3. RUMORE IN CATENE DI AMPLIFCAZIONE
9
1.3. Rumore in catene di amplifcazione Si consideri ora un sistema di comunicazione in cui il segnale viene ricevuto con sovrapposto del rumore gaussiano bianco. Si suppone che l’adattamento tra i vari elementi sia perfetto, per cui si considererà sempre la potenza disponibile di rumore e la relativa densità spettrale. Il rumore che arriva già sovrapposto al segnale (ad es. rumore captato) si può evidenziare mediante un generatore equivalente di rumore con densità spettrale di potenza disponibile pari a kTg . L’amplificatore che ha il compito di aumentare il livello del segnale ricevuto, normalmente troppo basso, è realizzato con dispositivi attivi ed introduce altro rumore. E’ comodo evidenziare tutti i contributi di rumore dovuti alle apparecchiature con un rumore equivalente sommato al segnale all’ingresso di un amplificatore non rumoroso (in modo del tutto equivalente a quanto fatto per un resistore). L’entità di questo rumore addizionale viene espresso tramite una temperatura equivalente di rumore, oppure tramite un “fattore di rumore”. La temperatura equivalente di rumore di un apparato (Ta ) indica l’entità del rumore che, sommato al segnale all’ingresso di un ideale apparato non rumoroso, produce all’uscita un rumore identico a quello effettivamente prodotto dall’apparato rumoroso. La somma del rumore già presente in ingresso e di quello dovuto agli apparati, cioé il totale rumore che viene sovrapposto al segnale nel particolare sistema considerato, ha densità spettrale che vale k(Tg + Ta ) [W/Hz]. Alla temperatura Ts = Tg + Ta viene dato il nome di temperatura equivalente di rumore del sistema. Tg
A Ta hn = k(Tg + Ta )
To
A F h n = FkTo
Figura 1.3.1. Rumorosità di un amplificatore quantificata mediante temperatura equivalente e fattore di rumore. La temperatura equivalente di rumore esprime correttamente il rumore introdotto dagli amplificatori mediante un termine additivo. Il fattore di rumore, invece, rappresenta la rumorosità degli apparati con un fattore moltiplicativo che, applicato alla densità spettrale del rumore presente in ingresso, esprime la densità spettrale del rumore totale. Il rumore generato negli amplificatori non dipende, però, dal rumore iniettato dal generatore d’ingresso, bensì dalle condizioni di funzionamento degli stessi. Ad evitare che il valore del fattore di rumore di un amplificatore venga a dipendere dalla temperatura di rumore del generatore, esso è definito per un ben preciso valore di tale temperatura: di solito si assume temperatura ambiente (To = 293 K). Se Tg = To le due rappresentazioni devono coincidere: F kTo = k(To + Ta ) e quindi Ta = (F − 1)To
10
1. GENERALITÀ SUI SISTEMI DI TRASMISSIONE
Se più apparati vengono messi in cascata, è abbastanza ovvio che il rumore generato da quelli che ricevono in ingresso il segnale al livello più basso sarà dominante. Infatti il segnale verrà degradato sempre meno da un rumore di entità fissata man mano che esso viene amplificato. Tale osservazione rende conto in modo molto semplice del perché, nel calcolare la temperatura equivalente di rumore di una catena di amplificatori, ogni contributo di rumore va pesato per l’inverso della totale amplificazione esistente a monte dell’effettivo punto di iniezione. Si consideri, ad esempio, la catena di tre amplificatori di figura 1.3.2. kT a1
kT a2 A1
kTa3 A2
A3
Figura 1.3.2. Catena di amplificatori rumorosi. La rumorosità dei dispositivi è evidenziata mediante il rumore equivalente (kTan ) sommato in ingresso ad ogni stadio. La temperatura equivalente di rumore della catena di amplificatori (cioé quella che moltiplicata per k dà la densità spettrale di potenza disponibile del rumore da sommare all’ingresso degli amplificatori non più rumorosi per ottenere lo stesso risultato) vale: Ta = Ta1 +
Ta2 Ta3 + A1 A1 A2
Il calcolo si può effettuare anche usando il fattore di rumore. In tal caso conviene sempre ricordarne la definizione e, nel calcolare il fattore di rumore complessivo, considerare la temperatura del generatore pari a To . Il primo amplificatore porta la densità spettrale (F2 −1)kTo
(F 1 −1)kTo kTo
A1
(F 3 −1)kTo A2
A3
Figura 1.3.3. Catena di amplificatori: uso del fattore di rumore. equivalente del rumore in ingresso al valore F1 kT o. Il successivo introduce un rumore con d.s.p. pari a (F2 − 1)kTo che, per essere riportata all’ingresso del primo, va divisa per A1 . Il fattore di rumore complessivo vale, perciò: F = F1 +
F2 − 1 F3 − 1 + A1 A1 A2
1.3. RUMORE IN CATENE DI AMPLIFCAZIONE
11
Attenuatore passivo. E’ interessante calcolare il peggioramento di prestazioni, in terrmini di rumorosità del sistema complessivo, prodotto da un attenuatore passivo posto tra il generatore di segnale ed il primo stadio di amplificazione. Tale schema descrive il caso in cui tra l’antenna e le apparecchiature riceventi venga inserito un tratto di cavo o di guida d’onda. Il dispositivo abbia un’attenuazione α (l’attenuazione è l’inverso di un guadagno ed è > 1 quando il livello del segnale in uscita è più basso di quello in ingresso) e sia a temperatura fisica ambiente. Se il generatore, che si suppone adattato, ha temperatura equivalente di rumore To , in base a quanto ricordato in precedenza (rete passiva reciproca con elementi dissipativi tutti a uguale temperatura) il rumore in uscita si può calcolare usando la parte reale dell’impedenza d’uscita. La densità spettrale di potenza disponibile di rumore a valle dell’attenuatore vale quindi, solo se Tg = To , hnu = kTo . Questo rumore è scindibile in due contributi: (1) il rumore proveniente dal generatore e ripresentato attenuato in uscita; (2) il rumore generato all’interno dell’attenuatore e la cui entità si può esprimere mediante la temperatura equivalente di rumore Tatt dell’attenuatore. Per spostare un termine di rumore dall’uscita all’ingresso dell’attenuatore bisogna moltiplicarne la densità spettrale per l’attenuazione in potenza del dispositivo. La d.s.p. di rumore in ingresso si può scrivere come: kTo + kTatt = αkTo dalla quale si ricava che la temperatura equivalente di rumore dell’attenuatore passivo a temperatura To vale: Tatt = (α − 1) To Ricordando il legame esistente tra temperatura equivalente e fattore di rumore, si verifica immediatamente che l’attenuatore ha un fattore di rumore numericamente uguale alla sua attenuazione. Esempio. Si consideri un sistema nel quale Tg = 100 K e Ta = 150 K. Calcolare il peggioramento nelle prestazioni del sistema se il collegamento tra antenna e ricevitore viene effettuato con un tratto di linea che attenua 1 dB e 2 dB rispettivamente. ———— La temperatura di sistema in assenza di perdite tra antenna e ricevitore vale: Ts1 = Tg + Ta = 250 K. Con 1 dB di perdite la temperatura di rumore del sistema diviene (ricordando che 1 dB ≡ 100,1 ∼ = 1, 26): Ts1 = Tg + Tatt + αTa = 100 + 0, 26 · 293 + 1, 26 · 150 = 365 K. Con 2 dB di attenuazione (∼ = 1, 58) la temperatura di rumore del sistema diventa addirittura di 507 K.
12
1. GENERALITÀ SUI SISTEMI DI TRASMISSIONE
Esempio. Uno stesso rumore viene inviato contemporaneamente a due filtri. La densità spettrale del rumore iniettato nel singolo filtro sia costante e pari ad hn . I due filtri abbiano funzioni di trasferimento reali e siano: un passa-basso ideale con frequenza di taglio f1 il primo; un passa-banda con frequenze di taglio f2 ed f3 il secondo. Si calcoli la densità spettrale di potenza disponibile risultante dalla somma delle uscite dei due filtri.
1
hn
h nu
f1
1 f2
f3
Figura 1.3.4. Esercizio su termini di rumore correlati e non. ———I casi possibili sono due: (1) f2 > f1 . Le due uscite non hanno componenti spettrali ad una stessa frequenza: ovviamente, la densità spettrale sarà la somma delle due perché, frequenza per frequenza, o c’è un segnale o c’è l’altro. (2) f2 < f1 . In questo caso i due segnali all’uscita dei filtri non si possono sommare né “in potenza” né “in tensione” perché i due segnali sono parzialmente correlati. Nel caso in questione, però, è banale separare i segnali in termini incorrelati e termini uguali: • nella banda 0 < f < f2 c’è contributo solo da un segnale (il primo); • nella banda f2 < f < f1 i due segnali sono uguali e, quindi, la loro somma avrà densità spettrale quadrupla di quella di ognuno dei due; • nella banda f1 < f < f3 di nuovo c’è contributo solo da uno dei segnali (il secondo). Si ottiene, in definitiva, una d.s.p. in uscita che nei due casi ha gli andamento seguenti: Nel caso più generale di due filtri con funzioni di trasferimento generiche H1 (f ) ed H2 (f ), il calcolo va fatto partendo dalla definizione di d.s.p. come trasformata della autocorrelazione del segnale. Siano s1 (t) ed s2 (t) due segnali ottenuti per filtraggio di uno stesso segnale s(t). La densità spettrale della loro somma vale, com’è abbastanza agevole verificare1: hs1+s2 = F {E [(s1 (t) + s2 (t)) (s1 (t + τ ) + s2 (t + τ ))]} = = F {E [s1 (t)s1 (t + τ )]} + F {E [s2 (t)s2 (t + τ )]} + +F {E [s1 (t)s2 (t + τ )]} + F {E [s2 (t)s1 (t + τ )]} = = hs (f ) |H1 (f )|2 + |H2 (f )|2 + 2Re {H1 (f )H2∗ (f )} 1Si
ricordi che: E
R
s(t − α)h(α) dα ·
R
s(t + τ − β)h(β) dβ = rss (τ ) ∗ h(τ ) ∗ h(−τ ).
1.3. RUMORE IN CATENE DI AMPLIFCAZIONE
13
4 hn
hn
hn f1 f2
1° caso
f3
f2 f1
f3
2° caso
Figura 1.3.5. Soluzione del problema proposto in figura 1.3.4 dove F {·} indica l’operatore trasformata di Fourier. E’ immediato verificare che la formula precedente conferma la soluzione, ottenuta per via intuitiva, dell’esercizio precedente. 1.3.1. Misura del fattore di rumore. La misura del fattore di rumore, o della temperatura equivalente di rumore, di un apparato può essere effettuata abbastanza semplicemente se si hanno a disposizione due sorgenti a temperatura nota. Nel caso di apparecchiature funzionanti a frequenze molto elevate, queste sorgenti sono realizzate con un carico adattato tenuto a temperatura ambiente o raffreddato, ad esempio, con elio liquido. Nel caso in cui l’apparato sia chiuso sulla terminazione a temperatura ambiente, la potenza che si misura in uscita vale: Pnousc = F kTo Ap Beq Per determinare F sarebbe necessario misurare, oltre che Pnousc , anche il guadagno in potenza Ap e la banda equivalente di rumore Beq , misure queste due ultime che non è semplice effettuare con sufficiente precisione. Se si ha la possibilità di portare la terminazione in ingresso ad una nuova temperatura T1 , però, con solo due misure di potenza all’uscita dell’apparato si può determinare F . Infatti, con la terminazione a temperarura T1 , la potenza che si misura in uscita vale: Pn1usc = k [T1 + (F − 1) To ] Ap Beq . Il rapporto tra le potenze misurate in corrispondenza delle due temperature del carico (che si suppone non cambi la sua impedenza con la temperatura, ovviamente!) non dipende né da Ap né da Beq , ma solo dall’incognito F e dalle due temperature della terminazione, che devono essere note. Si ricava facilmente che: 1 − T1 /To . F = 1 − Pn1usc /Pnousc Ricavare eventualmente la temperatura equivalente di rumore è, ora, banale. E’ ovvio che i conti potevano essere direttamente eseguiti utilizzando, per rappresentare la rumorosità dell’apparato, la temperatura equivalente di rumore al posto del fattore di rumore. Un altro metodo, sostanzialmente equivalente, viene utilizzato quando è possibile usare un generatore di rumore la cui temperatura equivalente può essere variata con continuità. Un tale generatore può essere realizzato con un resistore in parallelo ad un generatore
14
1. GENERALITÀ SUI SISTEMI DI TRASMISSIONE
di rumore granulare. Il resistore può essere usato per polarizzare il diodo e deve essere realizzato con tecnologia che eviti la generazione di altri termini di rumore a causa della corrente continua che lo attraversa (ad es. rumore ’l/f’). In tal modo si finisce con l’ottenere un generatore di rumore con resistenza interna R e densità spettrale di corrente di rumore 4kTo /R + 2qI. La misura viene effettuata collegando il generatore con I = 0, cioé il solo resistore a temperatura ambiente, e misurando la potenza in uscita dall’apparato in prova. Poi si dà corrente al diodo e se ne aumenta il valore fin quando la potenza in uscita non risulta raddoppiata: sia Iˆ il valore della corrente in questo caso. Adattando le formule già utilizzate si può scrivere: ˆ F kTo + q IR/2 2= F kTo e, quindi: ˆ q IR . F = 2kTo Val la pena di notare che il primo metodo richiede un misuratore di potenza con scala tarata, mentre il secondo può utilizzare qualunque strumento non tarato, se in uscita si dispone, però, di un attenuatore tarato da 3 dB. La misura si ripete inserendo l’attenuatore ed aumentando I finché non si ottiene la stessa lettura: in questo modo non è importante la taratura dello strumento. Altre osservazioni sono ovvie: la misura deve essere fatta in un tempo sufficientemente breve perché la corrente Iˆ non possa cambiare la temperatura della terminazione resistiva. Infine, tutti i discorsi relativi al tempo di transito dei portatori nel dispositivo che genera il rumore granulare vanno tenuti in conto quando la misura viene effettuata a frequenze elevate. Esempio. Si abbia un televisore con un fattore di rumore FT V = 10 dB ed un cavo di discesa, che lo collega all’antenna, che attenua 3 dB. Qual è il fattore di rumore del sistema ricevente? Come si può abbassarlo a 6 dB? ______________ α = 3 dB
F TV = 10 dB
Figura 1.3.6. Schema di sistema ricevente TV completo di linea di discesa d’antenna. Il fattore di rumore del sistema ricevente vale, ricordando che per un attenuatore passivo a temperatura ambiente il fattore di rumore ha un valore coincidente con la sua attenuazione: FT V − 1 10 − 1 Ftot = α + =2+ = 20 ⇒ 13 dB 1/α 0, 5 Ridurre l’entità di questo rumore non è possibile, ma si può fare in modo che il suo effetto sia minore aumentando il livello del segnale che ci si deve confrontare. Questo vuol
1.3. RUMORE IN CATENE DI AMPLIFCAZIONE
15
dire che il modo per tentare di ridurre il fattore di rumore del sistema complessivo è quello di utilizzare un preamplificatore, del quale interessano i parametri guadagno (A) e fattore di rumore (FA ). A, FA
α = 3 dB
F TV = 10 dB
Figura 1.3.7. Sistema ricevente TV con preamplificatore d’antenna. Il fattore di rumore complessivo diventa: α − 1 FT V − 1 19 (1.3.1) Ftot = FA + + = FA + ≤4 A A/α A dalla quale si ricavano le infinite coppie di valori A, FA che permettono di ottenere il risultato richiesto. Consideriamo adesso due possibili amplificatori, con guadagni e fattori di rumore diversi, che soddisfano la (1.3.1). Quale preferire? Ovviamente quello che ha un guadagno più basso, perché rende meno problematici possibili effetti di saturazione dell’amplificatore a causa di segnali adiacenti. Avendo acquisito i concetti necessari a valutare il livello del rumore sovrapposto al segnale, si può ora passare al dimensionamento di sistemi di trasmissione.
CAPITOLO 2
Canale trasmissivo passa basso 2.1. Introduzione L’obiettivo di un sistema di trasmissione è quello di far giungere un segnale al destinatario nel modo più fedele possibile. Lo schema di principio è il seguente hn s(t)
Tx
PT
α
Rx
^s(t)
A
Figura 2.1.1. Schema a blocchi di un sistema di trasmissione. Non è importante al momento indagare sul funzionamento delle apparecchiature di trasmissione Tx e di ricezione Rx . Esse servono esclusivamente a forzare l’informazione in una forma che si possa propagare lungo il mezzo trasmissivo. Considereremo il mezzo trasmissivo come un sistema lineare caratterizzato da una attenuazione α e da una temperatura equivalente di rumore To , che quantifica la rumorosità presente all’uscita del mezzo trasmissivo stesso, inevitabilmente sovrapposta al segnale utile. In ricezione si avrà, sovrapposta alla forma d’onda desiderata, una forma d’onda incognita che costituisce un disturbo. Tale disturbo può essere di diverso tipo: sicuramente è sempre presente del rumore termico, dovuto al moto casuale degli elettroni nei conduttori e alla natura granulare della corrente che attraversa i dispositivi attivi. Questo discorso porta alla conclusione che, alla fine del collegamento, è sempre indispensabile effettuare un bilancio di potenza. Se PT è la potenza trasmessa, la potenza ricevuta sarà PT −→ PR |dBm = PT |dBm − a|dB α Se la temperatura equivalente di rumore ai morsetti di uscita del mezzo trasmissivo è To , la potenza di rumore al terminale ricevente sarà
(2.1.1)
(2.1.2)
PR =
PN = kTo B
essendo B la banda di misura, che naturalmente non può che essere la banda occupata dal segnale. Il rapporto segnale-rumore all’uscita del mezzo trasmissivo è allora S PR (2.1.3) = N o kTo B 17
18
2. CANALE TRASMISSIVO PASSA BASSO
essendo hn = KTo la densità spettrale di potenza di rumore. Esso rappresenta il rapporto segnale-rumore che in teoria il mezzo trasmissivo potrebbe fornire. In realtà bisogna tener conto dell’apparecchiatura ricevente, che introduce ulteriore rumorosità quantificabile mediante il fattore di rumore F . Il rapporto segnale rumore ottenibile all’uscita del sistema trasmissivo è allora S PR (2.1.4) = N F kTo B Prima di proseguire il discorso facciamo la seguente osservazione. Consideriamo due canali di trasmissione identici e supponiamo di effettuare la trasmissione contemporaneamente su entrambi. hn Tx
PT
α
s(t)
Rx
^ s(t) s T (t)
hn Tx
PT
α
Rx
^s(t)
Figura 2.1.2. Due sistemi di trasmissione in parallelo. Studiamo le uscite dei due canali separatamente e vediamo in che modo l’operazione di somma modifica il rapporto segnale-rumore. I due canali sono identici, per cui le uscite saranno uguali. Sappiamo già che, all’uscita del singolo canale, si avrà PR S = (2.1.5) N o F kT oB Naturalmente si ha sT (t) = 2ˆ s(t). La potenza di segnale ricevuta in totale sarà allora PsT = 4PR , essendo PR la potenza in uscita dal singolo canale. Il rumore subirà sorte analoga al segnale, con la sostanziale differenza che l’andamento temporale della tensione di rumore all’uscita dei due ricevitori sarà diverso, al contrario di quanto avviene per il segnale. La tensione di rumore complessiva è data dalla somma delle due tensioni di rumore (2.1.6)
nT (t) = n1 (t) + n2 (t)
essendo n1 (t) ed n2 (t) rispettivamente la tensione di rumore all’uscita del canale superiore e quella all’uscita del canale inferiore. I rumori nei due canali sono realizzazioni fisicamente distinte dello stesso fenomeno, tra loro statisticamente indipendenti. Di conseguenza la potenza media della somma sarà pari al doppio della potenza all’uscita del singolo canale. Si ha cioè (2.1.7)
PnT = 2PN
In seguito si userà la dicitura somma in tensione per indicare la somma di segnali uguali e congruenti istante per istante. In questo caso la potenza della somma è pari al quadruplo
2.3. SISTEMA DI TRASMISSIONE SU CAVO COASSIALE
19
della potenza del singolo termine. Si userà la dicitura somma in potenza quando, come nel caso del rumore nell’esempio che si sta considerando, la potenza della somma è pari alla somma delle potenze. Si ottiene in definitiva che il rapporto segnale-rumore complessivo è 4PR PR S S = =2 =2 (2.1.8) N T 2PN PN N S ed è quindi pari al doppio del rapporto segnale-rumore all’uscita del singolo canale. D’altra parte la potenza trasmessa è 2PT (PT per ogni canale). Si può allora giungere allo stesso risultato semplicemente trasmettendo potenza doppia su un unico canale. 2.2. Mezzi trasmissivi passa basso Esistono due famiglie di mezzi trasmissivi: mezzi a onde convogliate o guidate e mezzi a onde irradiate. I primi impediscono alla potenza iniettata dal trasmettitore di diffondere. Il mezzo è comunque dissipativo e l’attenuazione varia esponenzialmente con la distanza, cioé in modo lineare con la distanza se misurata in unità logaritmiche. La potenza in uscita dal mezzo è legata alla potenza trasmessa tramite un fattore che diminuisce esponenzialmente con la distanza. A questa famiglia appartengono tutti i mezzi in rame (più genericamente in materiale conduttore) e le fibre ottiche. Delle fibre si parlerà in un capitolo apposito. Per i cavi in rame la variazione dell’attenuazione con la frequenza è del tipo s f (2.2.1) α (f ) = αs (unità logaritmiche) fs essendo as l’attenuazione specifica a frequenza fs e α l’attenuazione specifica a frequenza f . Tale dipendenza dell’attenuazione dalla frequenza è dovuta al fatto che all’aumentare della frequenza è sempre più sensibile l’effetto pelle. La formula (2.2.1), infatti, non vale fino alla continua, ma solo per frequenze sufficientemente elevate da rendere dominante l’effetto pelle. 2.3. Sistema di trasmissione su cavo coassiale Consideriamo un cavo lungo l chilometri con attenuazione di α dB per unità di lunghezza ad una frequenza fissata (ad esempio α = 2 dB/km @ 1MHz). Consideriamo la trasmissione analogica nel sistema schematizzato in figura 2.1.1. Supponiamo che s(t) abbia densità spettrale hs costante in banda
hS
B
Figura 2.3.1. Densità spettrale del segnale.
20
2. CANALE TRASMISSIVO PASSA BASSO
In ricezione si ha, sovrapposto al segnale, un rumore con densità spettrale hn , dovuto in parte al rumore generato nel cavo e in parte alla rumorosità dell’apparecchiatura ricevente. Naturalmente, dato che il cavo ha un’attenuazione che cresce con la frequenza, la densità spettrale del segnale in uscita dal cavo sarà diversa da quella in ingresso. All’ingresso dell’apparecchiatura ricevente abbiamo un rumore bianco con densità spettrale hn e un segnale la cui densità spettrale è stata distorta. Nel punto A di figura 2.1.1 si ha la situazione rappresentata in figura 2.3.2 hS hn
rumore
segnale
B
Figura 2.3.2. Densità spettrale di rumore e segnale all’uscita del cavo. Si rende, quindi, necessaria una equalizzazione del mezzo trasmissivo. In altri termini in ricezione è necessario un amplificatore il cui guadagno vari con la frequenza in modo tale da "spianare" la densità spettrale del segnale. Se la funzione di trasferimento in potenza del mezzo è del tipo exp(−2α (f )), l’amplificazione dovrà essere del tipo (2.3.1)
A(f ) = k exp (2α (f ))
con k coefficiente moltiplicativo arbitrario e α (f ) dato dalla (2.2.1). In questo modo ritroviamo il segnale come era stato trasmesso, ma sovrapposto ad esso troviamo un rumore amplificato, soprattutto nelle componenti in alta frequenza. Ciò può creare problemi o meno a seconda dell’applicazione. Nel caso di un segnale televisivo, per esempio, non ci sono grossi problemi perché l’occhio è meno sensibile al rumore in alta frequenza, mentre la situazione può essere inaccettabile nel caso di segnale telefonico multiplo a divisione di frequenza. Per ottenere un rapporto segnale-rumore costante in frequenza, basta fare in modo che il segnale arrivi nel punto in cui il rumore è a densità spettrale costante con tutte le componenti spettrali ad un livello relativo uguale a quello che avevano in partenza. Per far ciò basta effettuare una preenfasi del segnale, amplificandone le componenti in alta frequenza prima della trasmissione. A questo punto l’amplificatore in ricezione può essere piatto in banda. Queste considerazioni sono sempre necessarie quando si usa un mezzo trasmissivo non ideale (attenuazione non costante in banda) per la trasmissione di segnali analogici. Normalmente è necessario usare sistemi di comunicazione complessi, costituiti dalla cascata di più sistemi elementari. Se i sistemi in cascata sono tutti uguali tra loro si ottengono sistemi multitratta del tipo in figura 2.3.3. Vediamo come valutare il rapporto segnale-rumore all’uscita dell’ultima tratta. Supponiamo di equalizzare il segnale in ricezione. Gli andamenti delle densità spettrali che il
2.3. SISTEMA DI TRASMISSIONE SU CAVO COASSIALE h n2
h n1 1
α
α
A 2
h n3 α
A 4
3
21
A 6
5
7
Figura 2.3.3. Schema a blocchi di un sistema multitratta con tratte uguali. segnale ed i vari termini di rumore assumono nei vari punti del sistema sono schematizzati in figura 2.3.4. 1
2
3
4
5
6
7
s(t)
h n1
h n2
h n3
Figura 2.3.4. Densità spettrali di segnale e rumore in un sistema multitratta con tratte identiche. In definitiva si osserva che il segnale che emerge alla fine della catena è identico a quello trasmesso. Per quanto riguarda il rumore, esso viene iniettato in tutti i punti in cui il segnale si trova con le componenti in alta frequenza attenuate. All’uscita dell’ultima tratta si ottengono tutti i termini di rumore che, indipendentemente da dove siano stati iniettati, si presentano con la stessa densità spettrale. Di conseguenza, il segnale in uscita è uguale a quello in ingresso e anche a quello che si otterrebbe con una sola tratta; per quanto riguarda il rumore, si ottengono tanti termini quante sono le tratte in cascata. Quindi il dimensionamento di un sistema multitratta con tratte tutte identiche tra loro si può effettuare in modo analogo a quello di un sistema con una sola tratta, a patto di modificare la schematizzazione del sistema come indicato in figura 2.3.5, essendo m il numero di tratte. m hn s(t)
Tx
α (f)
Rx
^ s(t)
Figura 2.3.5. Schematizzazione equivalente di un sistema con m tratte identiche.
22
2. CANALE TRASMISSIVO PASSA BASSO
Il rapporto segnale-rumore all’uscita è S hs B = RB N m hn A(f )df 0 essendo A(f ) dato dalla (2.3.1). In alternativa possiamo fare in modo che il segnale si presenti con la sua densità spettrale originaria nei punti di iniezione del rumore, effettuando un’enfasi del segnale in trasmissione. Equalizzazione passiva. L’equalizzazione del mezzo trasmissivo si può ottenere mettendo in cascata al cavo, che ha attenuazione non costante in frequenza, un filtro passivo che attenui maggiormente le componenti in bassa frequenza (meno attenuate dal cavo) e, in misura minore, quelle componenti che sono già state attenuate dal cavo. Il cavo abbia impedenza caratteristica Ro . In uscita presenterà una densità spettrale di potenza di rumore disponibile kTo . In cascata si pone un filtro passivo, adattato in impedenza sia in ingresso che in uscita e che abbia tutti i dispositivi passivi a temperatura fisica T o . Se si ipotizza che anche il generatore in trasmissione abbia un’impedenza interna, anch’essa a temperatura To , che garantisca l’adattamento con la linea, ci si trova con un unico dispositivo passivo in cui tutti gli elementi dissipativi sono alla stessa temperatura To . In questo caso, e solo in questo caso, la temperatura equivalente di rumore all’uscita di tutta la catena è ancora To ed il filtro non modifica la densità spettrale di potenza di rumore in uscita dal mezzo trasmissivo, che resta la stessa sia in presenza, sia in assenza del filtro. In questo caso il discorso risulta più semplice, perché il segnale non ha più bisogno di equalizzazione. Naturalmente è necessario aumentare la potenza trasmessa. Tutto il discorso è basato sul fatto che, con l’uso del filtro passivo in cascata e con le condizioni di adattamento, si riesce a rendere l’attenuazione del cavo costante senza modificare la sagomatura del rumore in uscita. Esempio. Bisogna garantire un rapporto segnale-rumore pari a S/N=50 dB, definito come rapporto tra potenza picco-picco del segnale e potenza media del rumore. La banda del segnale è B = 5 MHz. Il cavo ha una attenuazione α = 2 dB/km @ 1MHz. Inoltre F = 10 e l = 100 km. Calcoliamo la potenza necessaria in trasmissione per ottenere il rapporto segnale-rumore richiesto. La potenza di rumore è PN = F kTo B ⇒ 10 − 174 + 67 = −97 dBm Di conseguenza Ppp = 50 − 97 = −47 dBm Dobbiamo ora calcolare la potenza necessaria in trasmissione per ottenere in ricezione -47 dBm. Calcoliamo l’attenuazione del cavo lungo l = 100 km, equalizzato passivamente.
2.3. SISTEMA DI TRASMISSIONE SU CAVO COASSIALE
23
Dato che l’attenuazione cresce esponenzialmente con la frequenza, dobbiamo considerare la frequenza massima che è 5 MHz. αs (5MHz) = 4.5dB/km L’attenuazione totale è allora α = l αs = 450dB Di conseguenza la potenza da trasmettere è PT = 403dBm ⇒ 1040,3 mW Tale potenza è troppo elevata. Dividendo il collegamento in due tratte otteniamo in uscita lo stesso segnale, ma il rumore raddoppia. Di conseguenza è necessario aumentare di 3 dB la potenza trasmessa PT . D’altra parte l’attenuazione della singola tratta diventa 225 dB e, quindi, la potenza richiesta al singolo trasmettitore sarà PSR = 403 + 3 − 225 = 181dBm Si è scoperto che si può risparmiare potenza da trasmettere dividendo il collegamento in più tratte uguali. Bisogna decidere quante tratte è conveniente usare. Se si spezza il collegamento nella cascata di n tratte uguali, all’uscita dell’ultima tratta si sovrappongono n termini di rumore ed è necessario richiedere all’uscita della singola tratta un rapporto segnale-rumore n volte maggiore. Deve cioé essere (unità logaritmiche) S S = + 10 log10 n (2.3.2) N N S
T
essendo S/N|S il rapporto S/N all’uscita della singola tratta ed S/N|T il rapporto S/N all’uscita dell’ultima tratta. L’ultimo addendo tiene conto degli n termini di rumore. Il rapporto S/N ottenibile sulla singola tratta è S PR = N ott hn B cioè α S (2.3.3) = P | − T dBm n dB − F kTo B|dBm N ott essendo α l’attenuazione complessiva del collegamento e, quindi, α/n (in dB) l’attenuazione della singola tratta. Il dimensionamento del sistema si ottiene imponendo che il rapporto segnale/rumore richiesto alla singola tratta sia minore, o al più uguale, a quello ottenibile. Cioé S S ≤ N S N ott α S (2.3.4) + 10 log n ≤ P | − T 10 dBm n dB − F kTo B|dBm N T
24
2. CANALE TRASMISSIVO PASSA BASSO
Se PT = 100 mW 50 + 10 log10 n ≤ 20 − 450/n + 97 cioé 450 67 − 10 log10 n che può essere risolta iterativamente considerando l’uguaglianza. Si ottiene n = 7, 74. Naturalmente si arrotonda ad n = 8. Verifichiamo il risultato. Per n = 7, dalla (5.5.1) si ottiene che il rapporto segnale rumore richiesto all’uscita della singola tratta è 50 + 10 log10 7 = 58.5 dB. Il rapporto segnale rumore ottenibile è invece (dalla (2.3.3)) pari a 52.7 dB e la (2.3.4) non è verificata . Si può facilmente verificare che, invece, con n = 8 il rapporto segnale/rumore richiesto vale 59 dB e quello ottenibile 60, 75 dB e la (2.3.4) è soddisfatta. Nell’esercizio si è ipotizzato di utilizzare n tratte tutte rigorosamente uguali, e questo implica che tutti i componenti (mezzo trasmissivo compreso) abbiano in ogni istante lo stesso comportamento, qualunque sia la tratta considerata. Ciò è sensato esclusivamente per mezzi ad onde convogliate, che sono sotto il nostro controllo. n≥
Vediamo cosa succede nel caso in cui le tratte siano diverse tra loro. h n2
h n1 PT
α1
A2
α2
h nN
A3
α3
αN
A
Figura 2.3.6. Schema a blocchi di un sistema multitratta con tratte diverse. L’obiettivo è, naturalmente, calcolare il rapporto segnale-rumore all’uscita (S/N|T ) in funzione della potenza trasmessa PT , essendo S/N|T = PS /PN con PS = potenza del segnale e PN = potenza del rumore all’uscita dell’ultima tratta. Vediamo separatamente cosa succede al segnale e cosa succede al rumore (abbiamo a che fare con elementi lineari e quindi è possibile separare i due discorsi). La potenza del segnale in ricezione è (in unità naturali) PS = PT
A2 A3 · · · AN α1 α2 · · · αN
La potenza di rumore è A2 · · · AN A3 · · · AN PN = B hn1 + hn2 + · · · + hnN α2 · · · αN α3 · · · αN Abbiamo quindi (2.3.5)
S 1 = hn1 B hn2 B hn3 B N T + + + ··· PT /α1 PT A2 / (α1 α2 ) PT A2 A3 / (α1 α2 α3 )
2.3. SISTEMA DI TRASMISSIONE SU CAVO COASSIALE
25
Gli addendi al denominatore rappresentano i rapporti rumore segnale che la singola tratta fornirebbe, se considerata a se stante e se al suo ingresso venisse iniettata una potenza di segnale pari a quella che effettivamente il sistema le inietta. In altri termini, la potenza in ingresso alla tratta i-esima è Qi j=2 Aj PT i = PT Qi−1 j=1 αj mentre la potenza all’uscita della tratta i-esima è Qi j=2 Aj PU i = PT Q i j=1 αj Il rapporto rumore-segnale all’uscita della tratta i-esima vale N hni B = S Si PU i In conclusione (2.3.6)
1 S = N N T X N S Si i=1
Naturalmente, se tutte le tratte sono uguali, cioè se le attenuazioni sono tutte numericamente identiche, e se la potenza iniettata in ogni tratta è la stessa (cioè se l’amplificazione è tale da bilanciare esattamente l’attenuazione che precede) si riottiene S 1 S = N N N T
essendo S/N il rapporto segnale rumore che la singola tratta potrebbe fornire se considerata da sola.
CAPITOLO 3
Canale trasmissivo passa banda Fino a questo punto si è fatto riferimento implicitamente ad un sistema di trasmissione in banda base. Se il mezzo trasmissivo, però, permette la propagazione di segnali con spettro allocato in una banda diversa da quella in cui è allocato il segnale originario, biogna ricorrere a sistemi di trasmissione in banda traslata. I segnali da trasmettere, infatti, molto spesso non godono di quelle proprietà che ne renderebbero possibile l’invio diretto sul canale. Non è, ad esempio, ipotizzabile l’invio ad un’antenna del segnale proveniente da un microfono: il segnale telefonico occupa una banda che si estende da poche decine fino a poche migliaia di hertz e le caratteristiche propagative del mezzo radio cambiano enormemente in questo intervallo di frequenze. Anche nell’ipotesi di mettere insieme un’antenna capace di avere un minimo di rendimento a tutte le frequenze interessate, il segnale ricevuto sarebbe inutilizzabile. L’assurdità di una tale ipotesi dovrebbe essere palese. Un modo di rendere con buona approssimazione ideale il canale radio è quello di utilizzarlo su una banda relativa piccola. Per banda relativa si intende il rapporto tra banda effettivamente utilizzata e frequenza centrale del canale. In caso di banda relativa piccola si può supporre che il canale radio abbia una caratteristica di trasferimento accettabile, anche se cammini multipli e vari fenomeni di affievolimento ne rendono il comportamento variabile nel tempo. Una sinusoide ha banda relativa nulla e, quindi, è il segnale ideale da trasmettere. Sfortunatamente una sinusoide non porta altra informazione che quella relativa alla sua frequenza, alla sua fase ed alla sua ampiezza; il contenuto informativo di una sinusoide è, perciò, sostanzialmente nullo. Se, però, uno o più dei parametri che caratterizzano una sinusoide vengono fatti variare in accordo con il segnale da trasmettere, cioé si modula la portante sinusoidale con il segnale da trasmettere, si riesce a legare l’informazione ad un segnale in grado di propagarsi lungo il mezzo. È chiaro che, in questo caso, la banda relativa non sarà più nulla. Poiché i parametri che caratterizzano una sinusoide sono ampiezza, frequenza e fase, i tipi di modulazione che si possono realizzare sono, appunto: modulazione d’ampiezza, di frequenza e di fase. Vedremo in seguito che le modulazioni di frequenza e di fase rientrano nella più vasta categoria delle modulazioni d’angolo.
27
28
3. CANALE TRASMISSIVO PASSA BANDA
3.1. Modulazione d’ampiezza 3.1.1. Modulazione d’ampiezza in doppia banda laterale e portante soppressa (DSB-SC). Modulare d’ampiezza una sinusoide “portante” significa renderne l’ampiezza proporzionale, istante per istante, al segnale modulante s(t), che rappresenta l’informazione da trasmettere. La sinusoide di pulsazione ω◦ , modulata in ampiezza dal segnale s(t), può essere espressa matematicamente come: st (t) = s(t) · cos ω◦ t. Questo tipo di modulazione viene denominato “modulazione d’ampiezza in doppia ban-
Figura 3.1.1. Portante modulata in doppia banda laterale. da laterale con portante soppressa” (in terminologia inglese double side-band suppressed carrier o DSB-SC). L’espressione portante soppressa sta ad indicare che nello spettro della portante modulata non è presente un impulso alla pulsazione della portante, sempre che il segnale modulante sia a valor medio nullo (in caso contrario nel suo spettro sarebbe presente un impulso a frequenza zero). Poiché il prodotto gode della proprietà distributiva, se il segnale modulante è somma di due segnali s1 (t) ed s2 (t), la portante modulata può descriversi come somma di due portanti di pari ampiezza, frequenza e fase, modulate rispettivamente da s1 (t) e da s2 (t). La modulazione d’ampiezza è, quindi, una modulazione lineare: se è nota la risposta del sistema ad un segnale modulante sinusoidale di frequenza qualsiasi, è nota la risposta del sistema ad un segnale modulante qualsiasi. È noto, infatti, che con l’analisi di Fourier un segnale può essere scomposto nella somma di sinusoidi. Nel seguito si considererà spesso, senza perdere in generalità, un segnale modulante sinusoidale. Se ωs è la sua pulsazione, la portante modulata risulta: (3.1.1)
1 2
cos ωs t · cos(ω◦ t + ϕ) = cos[(ω◦ − ωs )t + ϕ] + 21 cos[(ω◦ + ωs )t + ϕ]
ed è composta della somma di un termine a frequenza somma e di un termine a frequenza differenza, donde il termine “doppia banda laterale”. Queste componenti spettrali, a frequenze maggiori e minori della frequenza della portante, sono dette rispettivamente “banda laterale superiore” e “banda laterale inferiore”. La presenza di queste due bande laterali fa si che un segnale modulante con banda B produca un segnale modulato con una banda 2B centrata intorno alla frequenza della portante.
3.1. MODULAZIONE D’AMPIEZZA
29
L’operazione di prodotto che nei tempi realizza la modulazione corrisponde, nel dominio delle frequenze, alla convoluzione tra lo spettro del segnale e quello della portante. Una sinusoide a frequenza f◦ ha uno spettro costituito da due impulsi, uno a frequenza +f◦ ed uno a frequenza −f◦ . Un segnale modulante generico, con spettro che si estende da frequenza 0 a frequenza fm , quando modula una portante a frequenza f◦ produce un segnale con spettro come indicato in figura 3.1.2. 6 −fm
6 -
fm
6
∗
6 -
−f◦
f◦
6 −f◦
f◦
-
Figura 3.1.2. Schematizzazione in frequenza della modulazione d’ampiezza. Vettori rotanti. La possibiltà di considerare una sinusoide come tipico segnale modulante consente l’uso di una rappresentazione grafica estremamente comoda. È noto che un segnale sinusoidale può essere rappresentato mediante un vettore rotante ed un vettore, rotante con velocità angolare ω nel piano complesso, mediante un esponenziale complesso. Infatti si può porre cos(ωt + ϕ) = Re[exp{(ωt + ϕ)}]. A condizione di presupporre l’estrazione della parte reale, l’equazione (3.1.1) può essere riscritta come: 1 1 (3.1.2) cos ωs t · ej(ω◦ t+ϕ) = ej[(ω◦ −ωs )t+ϕ] + ej[(ω◦ +ωs )t+ϕ] . 2 2 jωt Nel piano complesso un esponenziale e è rappresentabile mediante un vettore di modulo unitario, la cui fase aumenta linearmente nel tempo con legge ωt. Il piano complesso di riferimento può essere scelto nel modo che risulta più utile ed in questo caso, poiché è la portante a stabilire il riferimento di fase, è utile scegliere come riferimento un piano che ruoti sincronamente con essa. In questo piano la sinusoide portante è rappresentata da un vettore fisso che può, ad esempio, identificare uno degli assi coordinati. Una sinusoide modulata d’ampiezza è rappresentabile mediante un vettore il cui modulo varia nel tempo in accordo con il segnale modulante. Se il segnale modulante è costituito da un’altra sinusoide, in base alla (3.1.2), la portante modulata è rappresentabile nel piano complesso mediante due vettori rotanti con velocità angolari rispettivamente pari ad ω◦ − ωs ed ω◦ + ωs . Nel piano rotante con velocità angolare ω◦ tali componenti, che rappresentano le due bande laterali, diventano due vettori rotanti con velocità angolari rispettivamente pari a +ωs e −ωs . È facile verificare che la risultante della loro somma è un vettore di modulo variabile nel tempo che giace sempre sull’asse che rappresenta la portante.
30
3. CANALE TRASMISSIVO PASSA BANDA
cos ω◦ t 6
−ωs t
+ωs t I @
@ @
- sin ω◦ t
Figura 3.1.3. Schematizzazione mediante vettori rotanti di una portante modulata da una sinusoide. 3.1.2. Demodulazione coerente. Per demodulazione si intende l’operazione che permette di recuperare il segnale modulante dalla portante modulata. La demodulazione coerente si basa sull’ipotesi che frequenza e fase della portante ricevuta siano note e sul fatto che il prodotto di una sinusoide per un’altra sinusoide di uguale frequenza produce un termine in continua ed un termine a frequenza doppia.
s(t) · cos(ωo t + ϕ) · 2 cos(ωo t + ϕ) = 2s(t) · cos2 (ωo t + ϕ) Figura 3.1.4. Effetto della moltiplicazione della portante modulata per una simusoide coerente in frequenza e fase. Il prodotto di una sinusoide modulata d’ampiezza per un’altra sinusoide di uguale frequenza produce: (3.1.3)
s(t) cos(ω◦ t + ϕ◦ ) · 2 cos(ω◦ t + ϕ1 ) = s(t) cos(ϕ1 − ϕ◦ ) + s(t) cos(2ω◦ t + ϕ1 + ϕ◦ ).
È evidente che un filtro passa basso in grado di isolare il termine di bassa frequenza fornirà in uscita il segnale modulante desiderato s(t). Lo schema a blocchi di un demodulatore coerente è, perciò, quello di figura 3.1.5. Per avere il massimo segnale in uscita, sarà necessario imporre che ϕ1 = ϕ◦ . Un errore di fase tra portante da demodulare ed oscillazione locale dà luogo ad una diminuzione nell’ampiezza del segnale demodulato. Va da sé che un errore di frequenza ∆f , rappresentando un errore di fase che cresce linearmente col tempo, darà luogo ad un segnale demodulato la cui ampiezza cambia nel tempo proporzionalmente ad una sinusoide di frequenza ∆f .
3.1. MODULAZIONE D’AMPIEZZA
st (t)
- ×i - 6 6
31
-
2 cos ω◦ t Figura 3.1.5. Schema a blocchi del demodulatore coerente. Nel caso di segnale modulante sinusoidale la formula (3.1.3) può essere riscritta evidenziando i contributi delle due bande laterali: cos(ωs t) cos(ω◦ t + ϕ◦ ) · 2 cos(ω◦ t + ϕ1 ) = = 21 {cos[(ω◦ + ωs )t + ϕ◦ ] + cos[(ω◦ − ωs )t + ϕ◦ ]} · 2 cos(ω◦ t + ϕ1 ) = (3.1.4) = 21 cos(ωs t + ϕ◦ − ϕ1 ) + 21 cos(−ωs t + ϕ◦ − ϕ1 )+ 1 + 2 cos([2ω◦ + ωs ]t + ϕ1 + ϕ◦ ) + 12 cos([2ω◦ − ωs ]t + ϕ1 + ϕ◦ ). Graficamente l’operazione di demodulazione può essere descritta come la proiezione, lungo la direzione che individua frequenza e fase dell’oscillazione locale, dell’ampiezza istantanea del vettore che rappresenta la portante modulata. In questa operazione le due bande laterali possono essere considerate separatamente, sommando successivamente i contributi di ciascuna, oppure esse possono essere sommate vettorialmente per calcolare poi la proiezione della loro risultante sulla retta passante per l’origine che rappresenta l’oscillazione locale. La situazione è esemplificata in figura. cos(ω◦ t+ϕ◦ ) 6 D 6 +ωs t −ωs t D D I @ @ D @D - sin(ω◦ t+ϕ◦ ) D
Figura 3.1.6. Schematizzazione geometrica della demodulazione coerente.
3.1.3. Calcolo del rapporto segnale/rumore. Rimane da considerare l’effetto del rumore. Note che siano la potenza in ricezione della portante modulata e la densità spettrale di rumore equivalente in ingresso al ricevitore, il calcolo del rapporto segnale/rumore dopo demodulazione è semplice. Bisogna tenere ben presente che le bande laterali generano, per battimento con l’oscillazione locale, termini di bassa frequenza che sono tra loro identici e che si sommano “in tensione”. Il rumore, d’altro canto, genera termini tra loro incorrelati e che, quindi, si sommano in potenza. È noto che filtrando lo stesso rumore termico con due filtri le cui funzioni di trasferimento non si sovrappongono si ottengono
32
3. CANALE TRASMISSIVO PASSA BANDA
due segnali incorrelati (e, poiché gaussiani, indipendenti). L’operazione di demodulazione coerente riporta in banda base i termini spettrali di rumore rispettivamente a destra ed a sinistra della portante. Ne consegue l’incorrelazione e la somma in potenza. Un sistema di trasmissione utilizzante la modulazione d’ampiezza può essere schematizzato come in figura. n(t) s(t)- i T×
mezzo trasmissivo
- +? i
demodulatore
- ×i - 6
-
6
6
cos ω◦ t
2 cos ω◦ t
ˆ(t) -s
Figura 3.1.7. Schema di un sistema di trasmissione che usa la modulazione d’ampiezza. L’ampiezza dell’oscillazione locale inviata al demodulatore è stata arbitrariamente posta uguale a 2, come in (3.1.3). Tale valore è comodo, ma, d’altro canto, un valore diverso modificherebbe sia l’ampiezza del segnale all’uscita del demodulatore, sia l’ampiezza del rumore riportato nello stesso punto. Il rapporto segnale/rumore risulterebbe esattamente lo stesso. Ipotizzando completa coerenza tra oscillazione locale e portante da demodulare, a valle del demodulatore coerente lo spettro del segnale avrà una densità spettrale di potenza pari a 4 volte quella di una banda laterale del segnale da demodulare, mentre il rumore in uscita avrà densità spettrale doppia di quella che aveva in ingresso. Calcolare il bilancio tra potenza di segnale e potenza di rumore prima e dopo demolulazione è, con queste premesse, estremamente semplice. Uno schema a blocchi come quello di figura si usa per descrivere il “sistema” e per valutarne le prestazioni, prescindendo da problemi di implementazione circuitale. È lecito, perciò, evidenziare i livelli assoluti dei segnali solo in punti chiave, come l’uscita del trasmettitore e l’ingresso del ricevitore, in modo da poter calcolare il rapporto S/N. Nella realtà i circuiti avranno bisogno di livelli minimi di segnale per poter funzionare e sarà necessario introdurre opportune amplificazioni. Per effettuare correttamente il calcolo del rapporto S/N è sufficiente che, nel punto dove si inietta il rumore equivalente introdotto dal sistema, il livello di potenza del segnale sia quello giusto. In sede di progetto delle apparecchiature non sarà possibile fare a meno di considerare l’effettivo livello del segnale nei vari punti dello schema a blocchi; qui basta tener conto in modo equivalente all’ingresso del ricevitore di tutto il rumore supplementare introdotto dalle apparecchiature. Esercizio. Un generico segnale s(t) modula d’ampiezza una portante e la potenza media che il trasmettitore invia sul mezzo trasmissivo è di 1 W. Il mezzo trasmissivo ha un’attenuazione costante pari a 90 dB e le apparecchiature riceventi hanno un fattore di rumore F pari a 12 dB. Calcolare il rapporto tra potenza media di segnale e potenza media di rumore all’uscita del demodulatore per una banda del segnale modulante pari a 10 kHz. ————
3.1. MODULAZIONE D’AMPIEZZA
33
La potenza media trasmessa (punto T dello schema a blocchi di figura 3.1.7) PT = 30 dBm, attenuata di 90 dB, produce una potenza media ricevuta pari a PR = −60 dBm. Il rumore che si somma al segnale ricevuto ha una densità spettrale di potenza pari a −174dBmW/Hz + 12dB = −162 dBmW/Hz. Dopo il demodulatore tale densità spettrale sarà doppia e darà una potenza di rumore pari a −162 + 3 + 10 log10 104 = −119 dBm. La portante modulata, ricevuta ad un livello di potenza media pari a −60 dBm, darà luogo ad un segnale demodulato la cui potenza media sarà il doppio (si ricordi che l’oscillazione locale si suppone di ampiezza 2). Ciò è dovuto al fatto che se un segnale s(t), di banda ipoteticamente molto inferiore alla frequenza della portante, modula d’ampiezza una sinusoide, la potenza media del segnale s(t) cos ωt sarà pari a s2 (t)/2. Dopo demodulazione si riottiene il segnale s(t), la cui potenza media vale s2 (t). Il rapporto segnale/rumore ottenibile da un tale sistema vale, perciò: S = −60dBm + 3dB − (−119dBm) = 62dB. N o 3.1.4. Modulazione d’ampiezza in banda laterale unica. È evidente, da un confronto tra le equazioni (3.1.3) e (3.1.4), che il segnale modulante può essere correttamente ricostruito, una volta note frequenza e fase della portante, da una sola delle due bande laterali. Si può, perciò, eliminare una delle due bande laterali dimezzando la banda occupata dalla portante modulata. Una modulazione di questo tipo si dice in “banda laterale unica” (BLU) o, con terminologia inglese, in Single Side Band (SSB). Si può usare solo la banda laterale superiore (USB) o solo quella inferiore (LSB). Il calcolo delle prestazioni di un tale sistema di modulazione si può eseguire molto semplicemente tenendo in conto i discorsi già fatti a proposito della modulazione d’ampiezza in doppia banda laterale (DSB-SC). Il calcolo del rapporto segnale/rumore si era effettuato tenendo in conto come si componevano, dopo il modulatore, le componenti di segnale e di rumore. Nel caso di banda laterale unica c’è un solo termine di segnale e, perciò, la densità spettrale del segnale demodulato è uguale a quella del segnale da demodulare (si suppone, al solito, un’oscillazione locale di ampiezza 2). Se prima del moltiplicatore è inserito un filtro che elimina il rumore che cade fuori banda, la stessa situazione si verifica per il rumore. Ne consegue che i rapporti S/N prima e dopo demodulazione sono uguali. L’assenza di un filtro prima del demodulatore può far peggiorare il rapporto S/N di 3 dB. Tale filtro, però, è da ipotizzare sempre presente perché se si affronta il costo aggiuntivo di un sistema in SSB, ciò è normalmente dovuto alla necessità di sfruttare al massimo la banda disponibile. Di conseguenza l’assenza del filtro produrrebbe non solo un raddoppio del rumore a valle del demodulatore, ma anche interferenza con un canale adiacente. 3.1.4.1. Equivalenza tra DSB-SC ed SSB ai fini del rapporto S/N. Le modulazioni d’ampiezza in banda laterale singola ed in doppia banda laterale sono sostanzialmente equivalenti. Se un sistema in doppia banda laterale trasmette una potenza media PT per ottenere un assegnato rapporto S/N, un sistema in SSB ha bisogno esattamente della stessa potenza media per ottenere in ricezione lo stesso rapporto S/N. Una giustificazione immediata discende dall’osservazione che trasmettere in DSB significa usare due canali in SSB,
34
3. CANALE TRASMISSIVO PASSA BANDA
sui quali si ripartisce la potenza disponibile. All’uscita del singolo canale si ottiene un certo S/N. Sommando le uscite dopo demodulazione si ottiene per il segnale un quadruplicamento della potenza, per il rumore un raddoppio. Il tutto equivale ad un miglioramento di 3 dB, esattamente quello che si sarebbe ottenuto concentrando tutta la potenza su uno solo dei due canali disponibili. Questo discorso vale esclusivamente se si considerano potenze medie. Il legame tra potenza di picco in caso di modulazione in DSB e potenza di picco con modulazione in SSB non è immediato e dipende dal particolare segnale modulante. 3.1.4.2. Generazione di un segnale modulato in banda laterale unica. Il modo più diretto e più usato per generare un segnale SSB è quello di usare un modulatore bilanciato (moltiplicatore) per modulare la portante in doppia banda laterale ed eliminare successivamente con un filtro la banda laterale indesiderata. Al filtro si richiederà una curva di selettività con un fianco molto ripido dalla parte della banda laterale che si vuole eliminare. Questo modo di procedere, che è poi quello più usato in pratica, fa capire che la modulazione d’ampiezza in banda laterale unica può essere adottata solo con segnali modulanti il cui spettro non si estenda fino a frequenza zero. Con segnali che hanno uno spettro che parte dalla continua o da frequenze estremamente basse (esempi tipici sono il segnale televisivo ed alcuni tipi di segnali usati per la trasmissione numerica) si adotta un metodo di modulazione molto simile, noto come “modulazione in banda vestigiale” di cui si parlerà più avanti. filtro USB
s(t)- i - 6
sUSB (t) -
B
ω
◦
BB -
cos ω◦ t Figura 3.1.8. Modulatore SSB con filtraggio. Se il filtro utilizzato ha i fianchi della curva di selettività asimmetrici, può essere utilizzato per realizzare un solo tipo di SSB (solo USB, come in figura, o solo LSB). Se il filtro ha fianchi simmetrici può essere usato per eliminare la banda laterale superiore o quella inferiore: è sufficiente in questo caso modificare opportunamente la frequenza della portante inviata al modulatore. Domanda Come è possibile ottenere una modulazione in banda laterale inferiore, pur avendo a disposizione un filtro con fianco ripido solo all’estremo inferiore della sua banda passante (come quello in figura)? (Suggerimento: si consideri l’uso di un convertitore di frequenza.) Un segnale in banda laterale unica può ottenersi anche con un altro sistema, eliminando la banda laterale indesiderata con una tecnica di bilanciamento. Si consideri lo schema a blocchi di figura 3.1.9. Il funzionamento del circuito in oggetto è facilmente descrivibile in termini di vettori rotanti. Bisogna osservare che i due filtri sfasatori puri non presentano uguale livello di
3.1. MODULAZIONE D’AMPIEZZA
s(t)
- ×i
sin ω◦ t
1i ? +i -
6 π
e 2 -
e
π2
35
6i 2
- ×? i
Figura 3.1.9. Modulatore SSB a sfasamento. difficoltà: mentre quello che deve ruotare di 90◦ la fase della portante è quasi banale, non altrettanto semplice è la realizzazione dell’altro filtro. Quest’ultimo, infatti, deve ruotare di 90◦ tutte le componenti spettrali del segnale s(t) ed è un filtro la cui funzione di trasferimento non è realizzabile esattamente, ma può solo essere approssimata (un pò come il filtro passa basso ideale). Si supponga, per semplicità che il segnale s(t) che modula la portante seno sia una cosinusoide di pulsazione ωs e fase ϕs ; il segnale che modula la portante sin(ω◦ t + π/2) = cos ω◦ t deve, allora, essere una cosinusoide di pulsazione ωs e fase ϕ + π/2. I segnali a valle dei due moltiplicatori saranno, perciò: 1i cos(ωs t + ϕs ) · sin(ω◦ t) 2i sin(ωs t + ϕs ) · cos(ω◦ t) Nel piano rotante a velocità angolare ω◦ , essi sono rappresentabili mediante vettori rotanti: cos ω◦ t
1i
6 +ωs t + ϕs - sin ω◦ t @ @
R −ωs t − ϕs @
cos ω◦ t 6
2i
- sin ω◦ t @ @
ωs t + ϕs
R @
−ωs t − ϕs
È allora evidente che se i segnali in 1ied in 2isono sommati tra loro, la banda laterale
36
3. CANALE TRASMISSIVO PASSA BANDA
superiore della portante sin ω◦ t verrà cancellata; ad essere cancellata sarà quella inferiore se tra i due segnali si effettua la differenza. La struttura di questo modulatore può essere ricavata in maniera molto semplice se si considera l’effetto del filtro che elimina una delle due bande laterali. Ancora una volta si consideri un segnale modulante sinusoidale, in modo da poter utilizzare la simbologia dei vettori rotanti. Quando le due bande laterali sono presenti, esse danno luogo ad una risultante che è rappresentabile con un vettore di direzione assegnata, ma di modulo e verso che cambiano nel tempo in accordo con il segnale modulante. Quando una delle due bande laterali viene soppressa, uno solo dei due vettori rotanti è presente. Esso è descrivibile come somma vettoriale delle sue componenti lungo l’asse coseno e lungo l’asse seno, cioé, con riferimento alla figura: DSB cos ω t ◦
+ωs t + ϕs
−ωs t − ϕs
6
@ I @
- sin ω◦ t
@
LSB
cos ω◦ t 6 −ωs t − ϕs - sin ω◦ t
DSB: cos(ωs t + ϕs ) · cos ω◦ t LSB:
1 2
cos[(ω◦ − ωs )t − ϕs ] = = 21 cos(ωs t + ϕs ) cos ω◦ t + 21 sin(ωs t + ϕs ) sin ω◦ t. Esattamente in accordo con lo schema di modulatore a sfasamento già descritto. 3.1.4.3. Demodulazione di un segnale in banda laterale unica. La demodulazione coerente di un segnale SSB si può ottenere con una tecnica del tutto analoga a quella utilizzata per demodulare un segnale in doppia banda laterale. L’unica differenza rispetto al caso già trattato sta nel fatto che ci sarà il contributo di una sola banda laterale, come già accennato quando si è parlato di equivalenza tra SSB e DSB. Ciò, però, ha conseguenze notevoli per quanto riguarda l’effetto di un errore tra fase (o frequenza) dell’oscillazione locale e fase (o frequenza) della portante modulata. Mentre nel caso di doppia banda laterale un errore di fase ϕ provocava una diminuzione nell’ampiezza del segnale demodulato di un fattore cos ϕ, nel caso di segnali SSB un errore di fase provoca una variazione di pari entità nella fase di tutte le componenti spettrali del segnale demodulato. Similmente un errore di frequenza (errore di fase con andamento lineare nel tempo) provoca uno spostamento in frequenza dello spettro del segnale. In entrambi i casi il segnale demodulato risulta distorto in modo inaccettabile, tranne che nel caso di trasmissione di segnale vocale con qualità telefonica. In tal caso l’utente (l’orecchio) è sensibile soprattutto alla distribuzione spettrale della potenza del segnale: infatti un errore di fase non produce nel segnale
3.1. MODULAZIONE D’AMPIEZZA
37
demodulato cambiamenti apprezzabili all’ascolto ed anche un contenuto errore di frequenza (∼ 10 Hz) può essere tollerato senza degradazione sensibile nella qualità del servizio. 3.1.5. Effetto di un filtro interposto tra modulatore e demodulatore. La modulazione d’ampiezza è una modulazione lineare e questo fatto rende estremamente semplice il calcolo degli effetti del mezzo trasmissivo (supposto lineare anch’esso e descrivibile mediante una funzione di trasferimento) frapposto tra trasmettitore (modulatore) e ricevitore (demodulatore). Si consideri una generica componente sinusoidale di pulsazione ω del segnale s(t) che modula una portante di pulsazione ω◦ : nello spettro del segnale modulato questa componente genererà due righe spettrali a pulsazioni ω◦ − ω ed ω◦ + ω. All’uscita del mezzo trasmissivo, la riga spettrale relativa alla banda laterale superiore risulterà moltiplicata per Ht (ω◦ + ω), quella relativa alla banda inferiore per Ht (ω◦ − ω). Il prodotto di s(t) per una sinusoide corrisponde nelle frequenze a prendere lo spettro S(f ) e spostarlo, centrandolo intorno alla pulsazione (positiva e negativa) della portante. Lo spettro centrato a pulsazione ω◦ è, quindi, quello relativo al segnale che modula la portante. All’uscita del mezzo trasmissivo esso risulta modificato rispetto a quello originale: è possibile definire una funzione di trasferimento equivalente che lega i segnali “modulanti” prima e dopo l’attraversamento del mezzo: Sout (f ) (3.1.5) Heq (ω) = = Ht (ω◦ + ω). Sin (f ) La funzione di trasferimento (3.1.5) non gode necessariamente di quelle proprietà di simmetria che garantiscono una risposta all’impulso reale. La mancanza di simmetria nella Ht (f ) sbilancia le due bande laterali in modo che la loro risultante non giace più sull’asse della portante. Il vettore risultante può, però, essere scomposto in due componenti, una lungo la direzione seno ed un’altra lungo la direzione coseno: s1 (t) cos ω◦ (t) ed s2 (t) sin ω◦ (t). In base a questa osservazione e tenendo conto che ≡ exp(π/2), il segnale s(t) cos ω◦ (t), dopo essere transitato per il mezzo trasmissivo, può essere rappresentato come: Re {[s1 (t) − s2 (t)] · exp [ωo (t)]} = Re {˜ su (t) exp [ω◦ (t)]} con s˜u (t) genericamente complesso. ∗ Se Heq (−ω) = Heq (ω) la risposta all’impulso del filtro è reale ed il segnale all’uscita del mezzo trasmissivo è ancora costituito dalla portante modulata da un segnale con spettro S(ω)·Heq (ω). Perché ciò accada è necessario (basta considerare l’eq. 3.1.5) che Ht (f◦ −f ) = Ht∗ (f◦ + f ), cioé che la parte reale di Ht abbia simmetria pari intorno al punto ω = ω◦ , e la parte immaginaria simmetria dispari. Questa condizione è molto restrittiva, perché implica che la parte immaginaria di Ht (f ) sia nulla alla frequenza della portante. In caso contrario, per descrivere il segnale all’uscita del mezzo trasmissivo sono necessarie due portanti in quadratura, modulate ognuna da un segnale diverso, ma ottenibile da s(t) mediante un operatore lineare. Due portanti distinte sono però, veramente necessarie per descrivere il segnale all’uscita del mezzo trasmissivo solo qualora si generi una modulazione di fase della portante (cioé
38
3. CANALE TRASMISSIVO PASSA BANDA
nel caso che il vettore risultante dalla somma delle due bande laterali cambi la sua direzione nel tempo). L’assenza di modulazione di fase è l’elemento determinante per la mancata comparsa di una portante in quadratura. Se Ht (f◦ ) = H◦ eθ◦ , la funzione di trasferimento equivalente relativa al segnale modulante si può scrivere come: Heq (f ) = H◦ eθ◦ ·
Ht (f )e−θ◦ ˜ eq (f ). = H◦ eθ◦ · H H◦
˜ eq (f ) = H ˜ ∗ (−f ), la portante all’uscita del mezzo trasmissivo risulta modulata da Se H eq cos ωot
H(f o −fs ) H(fo +fs )
ωst 1
ωst
|H(f o−fs )| |H(f o +f s )|
1 sin ωot
Figura 3.1.10. L’effetto del mezzo trasmissivo si può valutare facilmente utilizzando la schematizzazione dei vettori rotanti. ˜ eq (f ) ed, in più, risulta moltiplicata per il numero complesso un segnale con spettro S(f )H H◦ eθ◦ . H◦ è un banale fattore di scala; exp(θ◦ ) ruota la portante di un angolo θ◦ . In altre parole, i termini di fase o di ritardo di gruppo costanti in banda di Ht (f ) non hanno influenza: il primo perché finisce col ruotare di uno stesso angolo tutte le componenti spettrali (ed i relativi vettori rotanti), il secondo perché ritarda il solo segnale modulante, lasciando inalterata la fase della portante (nell’ipotesi che il ritardo di fase alla frequenza fo sia nullo. Dimostrarlo!). Risulta così evidente che il valore assunto da Ht (f ) alla frequenza della portante ha un effetto molto modesto sulle prestazioni del sistema, introducendo un fattore moltiplicativo complesso che costringe le fasi della portante in trasmissione e dell’oscillatore locale al demodulatore ad essere diverse. Ma questo non dovrebbe costituire motivo di meraviglia, dal momento che in ogni caso la propagazione della portante modulata richiede un tempo non nullo e che, perciò, il ricevitore è costretto comunque a recuperare la fase della portante da demodulare dallo stesso segnale ricevuto. 3.1.5.1. Sistemi con due portanti in quadratura. Si è osservato in precedenza come uno sfasamento di 90° tra oscillazione portante ricevuta ed oscillazione locale provochi uscita nulla dal demodulatore. Su tale osservazione si basa l’impiego di due portanti in quadratura per trasmettere due segnali contemporaneamente sullo stesso canale: in ricezione i due segnali possono essere completamente separati, a patto che si possano generare due oscillazioni rigorosamente in quadratura ed in fase con le portanti ricevute. Ovviamente questo è rigorosamente vero in un caso ideale. La presenza del mezzo trasmissivo può cambiare questa situazione creando un accoppiamento tra i due canali. La valutazione di tale interferenza è facilmente calcolabile in base alle osservazioni del paragrafo precedente.
3.1. MODULAZIONE D’AMPIEZZA
39
Va altresì tenute presente che, almeno con tecniche analogiche, è impossibile generare due sinusoidi che siano esattamente in quadratura (anche se l’errore può essere molto piccolo, non può essere nullo!). 3.1.6. Demodulazione incoerente e modulazione d’ampiezza con portante trasmessa (AM). Il tipo di demodulazione considerata finora, vale a dire quella coerente, ottiene il segnale demodulato per battimento con una sinusoide sincrona con la portante. In tal modo, se la fase della portante ricevuta cambia di 180◦ , il segnale in uscita cambia segno. Questo modo di procedere è reso necessario dal fatto che un generico segnale modulante s(t) può assumere valori sia positivi che negativi (tipico il caso di un segnale a valor medio nullo). Infatti, quando si modula la portante, il risultato del prodotto s(t) cos ω◦ t consiste in una sinusoide la cui ampiezza cambia nel tempo in accordo con il modulo del segnale, mentre il segno di s(t) è legato al segno (ovvero alla fase) della sinusoide. Un demodulatore deve, se vuole poter ricostruire correttamente il segnale modulante, misurare sia l’ampiezza che il segno della portante ricevuta. Un demodulatore che sia in grado di misurare solo l’inviluppo della portante (cioé il modulo del vettore rotante che la rappresenta) può ricostruire correttamente solo un segnale modulante che non cambi mai segno. La realizzazione circuitale di un tal tipo di demodulatore è estremamente semplice ed economica. Questo è il motivo che ha spinto, in passato, ad adottare questo particolare schema di modulazione d’ampiezza, anche se, oggiggiorno, i progressi della microelettronica hanno quasi annullato lo svantaggio economico dei demodulatori sincroni. Un demodulatore sensibile solo all’inviluppo della portante, ma non alla sua fase, viene detto “non coerente”. Un modo estremamente semplice di garantirsi che il segnale modulante non cambi segno è quello di sommargli una costante sufficientemente grande. La portante, quindi, risulta modulata non più da s(t), ma da s(t) + costante: Ap {1 + msn (t)} cos(ω◦ t + ϕ◦ ) dove sn (t) = s(t)/ |s(t)|max , cioé il segnale modulante normalizzato ad un valor massimo unitario ed m è detto indice di modulazione. m deve essere minore di 1 affinché il termine che moltiplica la sinusoide non cambi mai segno. In sede di demodulazione bisognerebbe tener conto che l’ampiezza della portante cambia, in accordo con il segnale modulante, anche all’interno di un periodo. Poiché, però, la frequenza della portante f◦ è molto più grande, di norma, della massima frequenza presente nello spettro del segnale modulante, ci si può accontentare di misurare l’ampiezza della sinusoide una volta per periodo, nell’istante in cui ciò risulti più semplice, vale a dire in corrispondenza del picco della sinusoide, quando cos ω◦ t = 1. Le misure ottenute campionando la portante modulata in corrispondenza dei picchi positivi (o negativi) possono, quindi, essere inviate ad un filtro passa basso che isoli il segnale modulante da termini residui alla frequenza della portante e relative armoniche. Per il modo in cui vengono realizzati, questi demodulatori danno in uscita idealmente il modulo del vettore che rappresenta la portante modulata. Ne consegue che usando un
40
3. CANALE TRASMISSIVO PASSA BANDA
demodulatore non coerente per demodulare un segnale DSB-SC, quello che si ottiene in uscita non è il segnale modulante s(t), bensì il suo valore assoluto |s(t)|. Riconoscere un segnale AM da un segnale DSB-SC osservando la sua forma d’onda è semplice. Basta osservarlo in corrispondenza di un istante in cui l’inviluppo si annulla: se è presente un’inversione di segno della portante il tipo di modulazione è DSB-SC; se l’inversione di segno non c’è, la modulazione è di tipo AM.
t
Figura 3.1.11. Modulazione DSB da sinusoide.
t
Figura 3.1.12. Modulazione AM da sinusoide raddrizzata. Consideriamo la modulazione d’ampiezza in doppia banda laterale (DSB-SC). Lo schema di principio è quello di figura 3.1.13. hn s(t)
A
cos ωpt
PT
^s(t)
α
2 cos ωpt
Figura 3.1.13. Schema a blocchi di sistema di trasmissione che utilizza la modulazione d’ampiezza.
3.1. MODULAZIONE D’AMPIEZZA
41
Supponiamo di dover trasmettere un segnale musicale. Dovremo allora considerare la potenza di picco; la banda del segnale è B=15kHz. Il nostro scopo è valutare la potenza di picco da trasmettere per avere un rapporto segnale-rumore (3.1.6)
S PSpicco = = 40 dB N PN media
Il fattore di rumore delle apparecchiature riceventi è F = 10 dB. L’attenuazione è α = 100 dB. Vale la pena di notare che un sistema di trasmissione in doppia banda laterale è una implementazione di un sistema a doppio canale come quello considerato nella sezione 2.1, dato che l’informazione viene allocata sia a destra, sia a sinistra della portante. Il tutto può essere visto come l’insieme di due sistemi che lavorano contemporaneamente e che usano due mezzi trasmissivi con bande passanti leggermente diverse ma adiacenti. Di conseguenza, per quanto concerne il segnale e il rumore allocati in tali bande, vale lo stesso discorso fatto in quella occasione. Noto il fattore di rumore, possiamo calcolare la densità spettrale di potenza di rumore prima del demodulatore (3.1.7)
hn = F KT0 ⇒ −174 + 10 = −164 dBmW/Hz
Il demodulatore somma i termini spettrali in posizione simmetrica rispetto all’oscillazione locale, presentandoli in uscita dopo averli trasportati in banda base. I termini di rumore in bande disgiunte sono tra loro incorrelati e indipendenti (supponiamo statistica gaussiana) e quindi si sommano in potenza. La densità spettrale di potenza di rumore all’uscita del demodulatore sarà allora (3.1.8)
hnu = 2hn ⇒ −164 + 3 = −161 dBmW/Hz
A questo punto si tratta di integrare tale densità spettrale nella banda B = 15 kHz, corrispondenti a 42 dBHz. La potenza media di rumore totale all’uscita del sistema vale allora (3.1.9)
PN u = −161 + 42 = −119 dBm
Per ottenere i 40 dB di rapporto segnale-rumore richiesti, la potenza di picco del segnale demodulato deve essere (3.1.10)
PSpicco = −119 + 40 = −79 dBm
Ricordiamo che la potenza di picco del segnale è uguale prima e dopo demodulazione, mentre la potenza media del segnale demodulato è il doppio di quella del segnale modulato. Nel nostro caso (segnale musicale) la potenza di picco resta invariata e quindi la potenza da trasmettere è semplicemente (3.1.11)
PT = −79 + 100 = 21 dBm ⇒ 126 mW
essendo α = 100 dB l’attenuazione introdotta dal mezzo trasmissivo.
42
3. CANALE TRASMISSIVO PASSA BANDA
3.2. Modulazione angolare La modulazione d’ampiezza, esaminata nel paragrafo precedente, ha il vantaggio di occupare, per la trasmissione di un segnale, la banda minima. Essa ha, però, lo svantaggio di richiedere amplificatori lineari dal momento in cui la portante viene modulata e ciò riduce notevolmente l’efficienza dello stadio di amplificazione finale, quello che fornisce la potenza da inviare sul mezzo trasmissivo. Tale requisito nasce dall’aver legato l’informazione da trasmettere proprio all’ampiezza della portante. Se si utilizza l’altro parametro caratteristico di una sinusoide, vale a dire la sua fase, si può mantenerne costante l’ampiezza e modificarne l’argomento proporzionalmente al segnale da trasmettere. In questo caso l’informazione non viene alterata anche da una non linearità (senza memoria) anche molto forte. L’amplificatore finale può lavorare tranquillamente in saturazione perché il segnale squadrato alla sua uscita risulterà un’onda quadra invece che una sinusoide, ma modulata esattamente con la stessa legge della sinusoide in ingresso. Un filtro opportuno potrà essere utilizzato per attenuare i termini spettrali indesiderati. Naturalmente questo discorso vale per un solo segnale; l’amplificazione contemporanea di più segnali richiede sempre la linearità dell’amplificatore, anche se i segnali sono sinusoidi modulate angolarmente. Per giustificare intuitivamente la tolleranza alla distorsione armonica basta osservare che l’informazione da trasmettere è codificata negli attraversamenti per lo zero della portante modulata (non è difficile rendersene conto, soprattutto se si ipotizza che la frequenza della portante sia molto più grande della banda del segnale modulante). Purtroppo, una tale modulazione non è lineare e questo ne complica l’analisi. Consideriamo dunque una sinusoide modulata d’angolo: (3.2.1)
Ap cos (ω◦ t + ϕ(t)) .
In tale espressione il termine ω◦ rappresenta la pulsazione della sinusoide portante in assenza di modulazione e ϕ(t) rappresenta la fase che è funzione del segnale modulante. Se ϕ(t) = k · s(t), cioé se ϕ(t) è direttamente proporzionale al segnale modulante, si parla di modulazione di fase. In realtà, si può ipotizzare che s(t) subisca delle preelaborazioni (filtraggi) prima di andare a modulare la fase della portante: in tal caso si parla di modulazione angolare generica. Un caso particolare molto interessante in pratica è quello in cui s(t) passa attraverso un integratore prima di modulare la fase della portante. In tal caso si parla di modulazione di frequenza ed il motivo è che a cambiare proporzionalmente al segnale modulante, in tal caso, è la frequenza istantanea della portante. La frequenza istantanea è una generalizzazione del concetto di frequenza di una sinusoide. Una sinusoide è rappresentabile come: Ap cos (ω◦ t + ϕ◦ ) = Ap cos (Φ(t)) e la sua pulsazione è pari alla derivata del suo argomento Φ(t). Generalizzando tale definizione al caso di sinusoide modulata angolarmente, si definisce pulsazione istantanea la derivata dell’argomento della (3.2.1): ωi (t) = ω◦ + ϕ(t). ˙
3.2. MODULAZIONE ANGOLARE
43
Analogamente si parla di deviazione di pulsazione (∆ω) e di deviazione di frequenza (∆f ), quantità definite come: ϕ(t) ˙ . 2π 3.2.1. Spettro di una sinusoide modulata angolarmente. La non linearità della modulazione angolare non consente il calcolo dello spettro di una portante modulata da un segnale modulante qualsiasi. Tale calcolo è agevole solo per piccolo indice di modulazione, cioé quando la deviazione di fase massima è piccola. In tal caso, infatti, la (3.2.1) può approssimarsi come: Ap Ap (3.2.3) Ap cos (ω◦ t + ϕ(t)) = cos ϕ(t) cos ω◦ t − sin ϕ(t) sin ω◦ t 2 2 Ap Ap ' (3.2.4) cos ω◦ t − ϕ(t) sin ω◦ t. 2 2 Lo spettro di una sinusoide modulata angolarmente tende, per piccolo indice di modulazione, a quello di una sinusoide modulata d’ampiezza con portante trasmessa. La differenza sta nello sfasamento di 90◦ tra la portante non modulata e quella modulata (quella che genera le bande laterali). La banda minima occupata da una sinusoide modulata angolarmente, perció, non può essere inferiore a quella che compete alla modulazione d’ampiezza con due bande laterali. Se la condizione |ϕ(t)| 1 non è verificata, lo spettro non è più calcolabile per un qualunque segnale modulante. Il suo calcolo è possibile per modulazione sinusoidale perché i termini cos ϕ(t) e sin ϕ(t) nella (3.2.4) sono esprimibili come serie di Fourier. Infatti, se ϕ(t) = ϕp cos ωs t: (3.2.2)
e
∆ω(t) = ωi (t) − ω◦ = ϕ(t) ˙
cos (ϕp cos(ωs t)) = J◦ (ϕp ) + 2
∞ X
∆f (t) =
(−1)k J2k (ϕp ) cos(2kωs t)
k=1
e sin (ϕp cos(ωs t)) = 2
∞ X
(−1)k J2k+1 (ϕp ) cos{(2k + 1)ωs t}.
k=0
Da queste relazioni è facile ricavare l’ampiezza delle righe nelle bande laterali presenti a frequenze che distano da quella della portante (in più ed in meno) di multipli della frequenza ˙ sono funzioni con andamento oscillante del segnale modulante. Le funzioni di Bessel (Jn ()) il cui valore tende a zero per argomento che tende ad infinito. Questo implica che, anche se in termini matematici lo spettro si estende su banda infinita, la banda occupata da una sinusoide modulata angolarmente da un segnale modulante sinusoidale può calcolarsi come la banda al cui interno sono contenuti i termini spettrali che rendono conto di una certa frazione della potenza totale. Va osservato, infatti, che la modulazione angolare non incide sull’escursione picco-picco della sinusoide portante e, pertanto, non ne modifica la complessiva potenza media: all’aumentare dell’indice di modulazione (cioé di ϕp ) tale potenza si diluisce su una banda sempre più ampia. Un modo conservativo di valutare la banda occupata da una sinusoide modulata angolarmente da un segnale di banda B è
44
3. CANALE TRASMISSIVO PASSA BANDA
quello di ipotizzare tutta la potenza media del segnale modulante concentrata in una riga spettrale (una sinusoide) alla massima frequenza B e di procedere come già spiegato. Una formula empirica che trova impiego per la sua semplicità è quella dovuta a Carson. Tale formula esprime la banda approssimativamente occupata da una sinusoide modulata di frequenza come: (3.2.5)
Brf = 2(∆fp + B) = ∆fpp + 2 · B
dove B è la banda occupata dal segnale modulante e ∆fp o ∆fpp rappresentano rispettivamente il valore di picco o picco-picco della deviazione di frequenza. La seconda espressione è equivalente alla prima per segnali a valor medio nullo, ma è l’unica ad aver significato per segnali per i quali non ha senso definire un valor medio (come, ad es., il segnale televisivo). Tale formula vuol solamente esprimere il fatto che per grande indice di modulazione la banda occupata tende a coincidere con quella “spazzolata” dalla frequenza istantanea della portante modulata. Questo ragionamento (regime quasi-stazionario) non ha più validità quando la deviazione di frequenza picco-picco diventa piccola: si arriverebbe all’assurdo che sarebbe possibile trasmettere un segnale di banda B in una banda piccola a piacere. In tal caso non si può più trascurare la legge con cui varia temporalmente la frequenza istantanea all’interno dei valori estremi che sono quantificati dalla deviazione picco-picco. Come abbiamo già visto, per piccolo indice di modulazione la banda occupata vale 2 · B ed a tale valore tende la banda di Carson quando ∆fpp → 0. 3.2.2. Calcolo del rapporto segnale-rumore. Il calcolo del rapporto segnale-rumore all’uscita di un sistema di trasmissione in modulazione angolare è abbastanza agevole se si utilizza, per rappresentare il rumore sovrapposto alla portante in ricezione, la schematizzazione in termini di “rumore in fase ed in quadratura” già introdotta nel caso della modulazione d’ampiezza. Si consideri una sinuoide non modulata, alla quale sia sovrapposto un rumore passa banda con densità spettrale hn costante all’interno di una banda B centrata intorno alla frequenza f◦ della sinusoide. La risultante sarà una sinusoide con ampiezza q r(t) = (A + nc (t))2 + n2s (t) e fase
(t) = arctan
ns (t) A + nc (t)
'
ns (t) . A
nc (t) ed ns (t) sono termini di rumore con densità spettrale di potenza disponibile 2hn e con potenza 2hn B; perciò la deviazione di fase dovuta al rumore ha potenza 2hn B/A2 . Il rapporto segnale rumore all’uscita di un demodulatore di fase vale, quindi: PR ϕ2e S = (3.2.6) = ϕ2e hn B N PM hn B 2 A /2 dove PR = A2 /2 è la potenza media della portante in ricezione.
3.2. MODULAZIONE ANGOLARE
45
Se si utilizza la modulazione di frequenza, in ricezione è necessario inserire un derivatore in cascata con il demodulatore di fase. Di conseguenza, nel punto in cui si ottiene il segnale proporzionale alla deviazione di frequenza ∆f (t), il rumore sarà la derivata del rumore di fase già calcolato. La densità spettrale del rumore di frequenza introdotto dal rumore additivo avrà, perciò, densità spettrale parabolica hn 2 f PR Analizziamo ora con maggior dettaglio la demodulazione angolare. Sappiamo che in ricezione è necessario misurare la fase (frequenza) istantanea della portante. Al segnale da demodulare sarà sempre sovrapposto del rumore: se non si limita la banda del rumore, si sovrappone al segnale desiderato una tensione fluttuante di rumore sempre più ampia. In questo modo ci si trova nella impossibilità materiale di effettuare una misura sensata della fase della portante. La portante modulata viene, allora, filtrata nella banda di Carson BRF = 2∆fP +2B. Possiamo, perciò, considerare il rumore passa banda e di esso possiamo dare una schematizzazione in termini di componente in fase e componente in quadratura. ns(t) nc(t)
ε
Figura 3.2.1. Modello di Rice per rumore passa-banda. Il problema si riduce al calcolo della fase della risultante. È ovvio che se il rumore viene filtrato in una banda più grande, si otterrà un errore maggiore nella misura della fase. Le ampiezze delle componenti di rumore nc (t) e ns (t) sono naturalmente casuali. Il vertice della risultante si troverà quindi in un punto qualsiasi della "nuvola" segnata in figura. Naturalmente la probabilità che tale vertice si trovi nelle vicinanze del vertice della portante sarà maggiore e andrà diminuendo man mano che ci si allontana da tal punto. È ovvio che quanto più la "nuvola" si allarga, tanto più imprecisa è la misura di fase. Può succedere che, a causa di un picco di rumore, la risultante faccia un giro attorno all’origine, dando luogo così ad un errore di 2π nella misura della fase, che in questo modo non è più attendibile. Nel caso della demodulazione di frequenza, si ottengono degli impulsi in corrispondenza dei salti di fase. Nel segnale ricostruito è quindi presente un disturbo, costituito dagli impulsi, di potenza non trascurabile. È quindi necessario assicurarsi che il demodulatore lavori sopra-soglia, sia cioè in grado di effettuare misure corrette. La soglia rappresenta il limite della rumorosità oltre il quale non è più possibile effettuare una misura attendibile. Il limite di soglia è definito come il luogo dei punti del piano S/Ni -S/No per cui la degenerazione del
46
3. CANALE TRASMISSIVO PASSA BANDA
rapporto segnale rumore in uscita al demodulatore (S/No ) rispetto a quello in ingresso al demodulatore (S/Ni ) è maggiore di 1 dB rispetto all’andamento rettilineo sopra-soglia. Un fenomeno analogo a questo si ha nella demodulazione di ampiezza mediante demodulatore a inviluppo. In questo caso il demodulatore misura l’ampiezza della risultante. Se il rumore sovrapposto alla portante è sufficientemente grande, si innescano le non linearità del circuito. Fino a quando il termine in quadratura è piccolo (3.2.7) r(t) ∼ = s(t) + nc (t) per cui il comportamento del dispositivo approssima quello del demodulatore coerente. In caso contrario si ha q (3.2.8) r(t) = [s(t) + nc (t)]2 + n2s (t) Il legame tra la misura di uscita e l’ingresso non è più lineare e quello che si ottiene è un miscuglio tra rumore e segnale. A questo punto è inutile qualunque operazione di filtraggio nella banda del segnale. Anche in questo caso quindi si avverte la necessità di filtrare il segnale prima della demodulazione e non dopo: in caso contrario il demodulatore non è in grado di funzionare. Questa è tuttavia una limitazione legata al particolare dispositivo di demodulazione (a inviluppo); nel caso della modulazione d’angolo, invece, il problema della soglia è insito nella operazione di demodulazione ed è indipendente dal particolare dispositivo usato. In definitiva, quindi, il dimensionamento di un sistema FM è complicato dalla necessità della verifica della condizione di soglia. Riconsideriamo l’esercizio 3.1.6 utilizzando la modulazione angolare invece della modulazione d’ampiezza. La densità spettrale di potenza di rumore all’uscita del demodulatore angolare è hn 2 f PR se hn è la densità spettrale di potenza in ingresso e PR è la potenza ricevuta. La potenza media di rumore all’uscita è Z B hn 2 (3.2.10) PN u = f df 0 PR
(3.2.9)
hnu =
Per quanto riguarda il segnale, all’uscita del demodulatore si ha una tensione proporzionale alla deviazione di frequenza della sinusoide in ingresso. Dovendo usare potenza di picco (segnale musicale), la potenza del segnale sarà pari al quadrato della deviazione di frequenza. Il rapporto segnale rumore dopo demodulazione sarà allora ∆fp2 PR S (3.2.11) = 3 N o B 2 hn B Tale rapporto segnale-rumore deve essere maggiore o uguale al rapporto segnale-rumore richiesto che è di 40 dB. Deve cioé essere ∆fp2 PR S (3.2.12) = 3 ≥ 104 N o B 2 hn B
3.2. MODULAZIONE ANGOLARE
47
In questa equazione ci sono le incognite PR (potenza media della portante1) pari a A2 /2, e ∆fP . Dall’ultima equazione scritta si può calcolare il prodotto PR ∆fP . La banda occupata dalla portante modulata FM è BRF = 2∆fP + 2B, essendo B la banda del segnale modulante. Per piccolo indice di modulazione, la banda della portante modulata di frequenza coincide con la banda della portante modulata in doppia banda laterale. In ogni caso è evidente che la banda occupata dalla portante modulata di frequenza coincide con la banda della portante modulata in doppia banda laterale. In ogni caso è evidente che la banda occupata dalla portante modulata aumenta all’aumentare della deviazione di frequenza, la quale non può quindi essere aumentata a piacere. Aumentando la deviazione di frequenza, infatti, e mantenendo bassa la potenza, per far passare tutta l’informazione da estrarre dalla portante è necessario allargare il filtro che si è visto essere indispensabile anteporre al misuratore di fase istantanea per poter rilevare un segnale sensato. Continuando ad aumentare la deviazione efficace, si aumenta la banda occupata e quindi aumenta la banda del filtro. Di conseguenza aumenta anche il rumore captato e si finisce sotto soglia. La condizione di soglia si impone richiedendo che il rapporto segnalerumore effettivamente presente prima del demodulatore sia sufficientemente elevato. È quindi necessario considerare la potenza della sinusoide in arrivo e confrontarla con la potenza di rumore fisicamente sovrapposta alla sinusoide stessa. (3.2.13)
PR ≥ 10 hn (2∆fp + 2B)
Il dimensionamento si ottiene dalla soluzione contemporanea della (3.2.12) e della (3.2.13). Si ottiene cioé il sistema ∆f 2 = 104 3 B 2p hPnRB
PR hn (2∆fp +2B)
= 10
(in unità naturali). Posto x = ∆fP /B si ottiene dalla seconda equazione PR 10 (2∆fp + 2B) = = 20 (1 + x) hn B B che, sostituita nella prima, fornisce 3x2 · 20 (1 + x) = 104 ovvero
x3 = 104 /60 − x2 equazione da risolvere iterativamente. Si trova x = 5, 18. Quindi ∆fP = 77 kHz. Ciò significa che non si possono usare più di 77 kHz per la deviazione di frequenza. Naturalmente se ne possono usare meno. Consideriamo allora 1La
potenza di picco deve essere riferita alla grandezza che varia in funzione del segnale e quindi, nel caso della modulazione di frequenza, alla deviazione di frequenza e non all’ampiezza della portante che deve restare costante.
48
3. CANALE TRASMISSIVO PASSA BANDA
∆fP = 75 kHz. In questo caso siamo sicuramente soprasoglia perchè abbiamo ridotto la banda e aumentato la potenza: in queste condizioni il demodulatore funziona meglio. Quindi, per avere S/No = 40 dB, deve essere PR = hn B104 /3x2 => −101dBm Quindi usando la modulazione di frequenza si ottiene che la minima potenza richiesta per ottenere S/No = 40 dB è di -101 dBm contro -79 dBm necessari per la modulazione di ampiezza. Si ha PT = −101 + 100 = −1dBm Abbiamo quindi risparmiato in potenza, pagando in banda, che non è più 30 kHz, ma è BRF = 2(15 + 75) = 180kHz La modulazione di frequenza permette di risparmiare potenza spendendo in banda. 3.3. Mezzo trasmissivo radio I mezzi trasmissivi a onde irradiate, ipotizzando che il mezzo propagativo sia non dissipativo, introducono un altro fenomeno che produce un’attenuazione del segnale ricevuto rispetto a quello trasmesso. Nel caso di antenna omnidirezionale, la potenza iniettata nell’antenna viene irradiata in tutte le direzioni. Il fronte d’onda, allontanandosi dall’antenna, tende ad aumentare di superficie, per cui la densità di potenza per unità di superficie diminuisce col quadrato della distanza. Di conseguenza anche la potenza ricevuta diminuisce col quadrato della distanza. Resta così definita l’attenuazione di spazio libero che è 4πR2 GT AR essendo GT il guadagno dell’antenna trasmittente e AR l’area efficace dell’antenna ricevente. Fino a frequenza di circa 3 GHz bisogna tener conto solo di questo termine. Per frequenze superiori non si può più considerare l’atmosfera come un mezzo senza perdite: oltre all’attenuazione dovuta alla divergenza sferica (αsl ), bisogna tener conto anche della dissipazione. In questo caso l’attenuazione torna a crescere esponenzialmente con la distanza. Oltre a tutto ciò bisogna tener conto del fatto che le antenne sono poste nell’atmosfera che è costituita da gas e che quindi è un mezzo non omogeneo, con stratificazioni tendenzialmente parallele alla superficie terrestre. αsl =
3.3.1. Affievolimenti dovuti ai cammini multipli. A causa delle disomogeineità dell’atmosfera, la radiazione emessa si propaga e raggiunge l’antenna ricevente seguendo cammini diversi, che producono attenuazioni diverse e sfasamenti casuali. La ricomposizione all’antenna ricevente genera un segnale la cui ampiezza può fluttuare anche molto fortemente. È evidente che non è pensabile di disporre di una descrizione sufficientemente accurata del mezzo propagativo tra antenna trasmittente ed antenna ricevente. Si deve ricorrere, perciò, nel descrivere quantitativamente questi affievolimenti supplementari (perché in aggiunta all’inevitabile attenuazione da spazio libero) a modelli statistici. Vogliamo valutare la statistica della potenza ricevuta.
3.3. MEZZO TRASMISSIVO RADIO
49
Figura 3.3.1. Schematizzazione dei cammini multipli. La radiazione trasmessa si propaga fino all’antenna ricevente secondo cammini diversi. Ciascun cammino fornisce in ricezione un contributo di ampiezza diversa e con fase casuale, che rappresentiamo per mezzo di un vettore rotante. cos ω ο t
R
sin ω ο t
Figura 3.3.2. Rappresentazione con componente in fase ed in quadratura della sinusoide ricevuta. Dato che i vari termini sono tutti di ampiezza comparabile, ma di fase casuale, su ogni direzione coordinata si trovano tanti termini, nessuno dei quali dominante, ognuno statisticamente indipendente dagli altri. Quando consideriamo la somma, otteniamo, su ogni direzione coordinata, una variabile aleatoria gaussiana. L’ampiezza della risultante si ottiene mediante la combinazione di queste due variabili gaussiane incorrelate secondo la legge p f (x, y) = x2 + y 2 f (x, y) ha quindi statistica di Rayleigh R R2 p(R) = 2 exp − 2 σ 2σ La probabilità di fuori servizio coincide con la probabilità che l’ampiezza della risultante sia minore di un valore minimo fissato. Ci interessa quindi calcolare la distribuzione di probabilità, cioé P (R < r). Diagrammando la probabilità della riduzione di potenza rispetto a quella attesa in spazio libero in funzione di tale riduzione (attenuazione) si ottiene un grafico come quello riportato in figura 3.3.4. Per attenuazioni molto forti l’andamento è ben approssimato da un andamento rettilineo con pendenza -1. Di conseguenza ricaviamo, nella zona asintotica log10 αs ∼ = −log10 Pf s
50
3. CANALE TRASMISSIVO PASSA BANDA p(R)
R
Figura 3.3.3. Densità di probabilità di Rayleigh. Pfs 1 −1
10 10
−2
−3
10
α [dB]
Figura 3.3.4. Distribuzione di probabilità dell’attenuazione supplementare (andamento qualitativo). o, equivalentemente, (3.3.1)
αs |dB = −10 log10 Pf s
essendo Pf s la probabilità di fuori servizio. 3.3.2. Modello ad echi. Fino ad ora abbiamo implicitamente supposto che il mezzo trasmissivo radio abbia un’attenuazione costante in banda, ma variabile nel tempo. Tale modello non è valido in termini fisici, non essendo possibile ottenere variazioni solo nel dominio del tempo e non anche in quello della frequenza. Una schematizzazione fisica semplice di un mezzo trasmissivo radio è quella fornita dal modello a echi. Il fenomeno dei cammini multipli è schematizzabile, da un punto di vista sistemistico, considerando un cammino diretto ed uno ritardato. Il segnale nel ramo derivato viene moltiplicato per un coefficiente a e ritardato di τ . Naturalmente si può considerare un numero maggiore di rami (echi). All’aumentare del numero di rami derivati aumenta la complessità del modello da adattare ai dati sperimentali. La funzione di trasferimento H(ω) = 1 + a exp (−ωτ ) p |H(ω)| = 1 + a2 + 2a cos (ωτ )
3.3. MEZZO TRASMISSIVO RADIO
51
a,τ
Figura 3.3.5. Modello ad echi. Il modulo della funzione di trasferimento di questo filtro trasversale ha andamento del tipo mostrato in figura 3.3.6. |H| 1+a
1−a
0
π
2π
ωτ
Figura 3.3.6. Funzione di trasferimento in presenza di un solo eco. I massimi si hanno per quelle frequenze per le quali un ritardo τ corrisponde ad uno sfasamento di 2π o multipli. In questo modo i segnali si sommano costruttivamente al nodo sommatore. Se invece τ corrisponde ad uno sfasamento π + 2kπ, i segnali si sommano distruttivamente al nodo sommatore. La presenza di echi fornisce quindi una funzione di trasferimento con massimi e minimi. Non è detto che tale funzione sia periodica (nel nostro caso lo è): se ci sono più ritardi, affinché la f. di t. risultante sia periodica è necessario che i ritardi stiano tra loro in rapporto armonico. In una situazione reale con più ritardi, la posizione dei massimi e dei minimi dipende dai loro valori; la distanza minima alla quale si trovano i massimi ed i minimi dipende da una maggiore o minore costante di tempo: essi si troveranno tanto più vicini quanto maggiore è il ritardo. Di conseguenza, per poter considerare il mezzo trasmissivo ideale (attenuazione costante) è necessario utilizzarlo in intervalli spettrali piccoli rispetto all’inverso del più grande ritardo nei rami derivati. Oltre a ciò bisogna tener conto del fatto che a e τ non sono variabili deterministiche, in quanto corrispondono ad una determinata stratificazione dell’atmosfera tra antenna trasmittente ed antenna ricevente. L’entità degli affievolimenti varia dunque nel tempo, variando di conseguenza anche la posizione dei massimi e dei minimi e la loro ampiezza relativa. In definitiva, se si può supporre la banda utilizzata piccola rispetto all’inverso del massimo ritardo, è corretto considerare attenuazione costante in banda ma variabile nel tempo. Se invece l’ipotesi di banda piccola non è verificata, il modello non è più valido.
52
3. CANALE TRASMISSIVO PASSA BANDA
3.3.3. Diversità spaziale e di frequenza. Il discorso effettuato fino ad ora ci ha portato a dire che l’evento affievolimento profondo è poco probabile. Volendo aumentare l’affidabilità del ponte radio, e quindi ridurre la probabilità di fuori servizio, è necessario aumentare la potenza in trasmissione. Ci sono delle situazioni particolarmente sfavorevoli per l’attenuazione: il caso caso tipico è costituito dalla presenza di uno specchio d’acqua tra le antenne. 2
1 3
Figura 3.3.7. Schema di un sistema in diversità spaziale. L’acqua è sostanzialmente uno specchio puro e quindi il cammino riflesso da essa può creare un’eco molto forte. Il problema è risolvibile mediante schermi assorbenti. In giornate tranquille si creano sul livello dell’acqua stratificazioni molto robuste e regolari, che possono creare affievolimenti molto forti. Facendo riferimento al modello ad echi, si può dire che l’affievolimento è dovuto al fatto che il segnale, passando nel ramo in derivazione, subisce uno sfasamento tale da ricomporsi in maniera distruttiva col segnale del ramo diretto. D’altra parte sappiamo che i parametri del ramo derivato dipendono dalla stratificazione del mezzo. Si pone allora un’altra antenna in ricezione (antenna 3 in figura). In questo modo si taglia la stratificazione del mezzo in un punto diverso. Inoltre, anche se le stratificazioni che danno luogo ai cammini multipli sull’antenna 2 sono le stesse che danno luogo allo stesso fenomeno sull’antenna 3, sicuramente la distanza fisica che ciascuno dei cammini deve percorrere per andare dall’antenna 1 all’antenna 2 è diversa da quella che separa l’antenna 1 dall’antenna 3. La differenza di percorso ha naturalmente senso se rapportata alla lunghezza d’onda dato che la radiazione elettromagnetica subisce un ritardo di fase di 2πd/λ radianti dopo aver percorso una distanza d: lo sfasamento dello stesso termine all’antenna 2 ed all’antenna 3 dipende dalla diversità del percorso rapportata alla lunghezza d’onda utilizzata. Se la distanza fisica tra le due antenne riceventi è tale da creare una differenza di cammino radioelettrico abbastanza grande, si può tendere ad una situazione in cui αs12 e αs13 , rispettivamente l’attenuazione supplementare sul cammino 1-2 e sul cammino 1-3, tendono ad essere variabili aleatorie indipendenti. Questo vuol dire che è possibile utilizzare il concetto della diversità spaziale in ricezione per cercare di aumentare l’affidabilità del ponte radio senza spendere ulteriore potenza. Possiamo infatti mandare all’apparecchiatura ricevente il segnale più forte tra i due captati dalle antenne in ricezione. In questa situazione, il fuori servizio del sistema, cioé l’incapacità di ricevere con sufficiente qualità il segnale trasmesso, corrisponde all’evento affievolimento profondo oltre il lecito sia sul collegamento
3.3. MEZZO TRASMISSIVO RADIO
53
1-2 che sul collegamento 1-3. La probabilità di fuori servizio complessiva Pf sT sarà data dalla composizione delle probabilità di fuori servizio Pf s12 del collegamento 1-2 e Pf s13 del collegamento 1-3 (3.3.2)
Pf sT = Pf s12 · Pf s13
Naturalmente, per probabilità di fuori servizio si intende la probabilità che l’attenuazione sia maggiore del massimo tollerabile. La (3.3.2) è valida se le antenne riceventi sono sufficientemente distanti tra loro da giustificare l’ipotesi di statistica indipendenza tra gli affievolimenti su ciascuna tratta. La (3.3.2) lascia chiaramente intuire come è possibile guadagnare in probabilità di fuori servizio senza spendere in potenza. Supponiamo infatti di volere una probabilità di fuori servizio del sistema pari a Pf sT = 10−4 . Dimensionare il sistema significa calcolare la potenza da trasmettere. Se è possibile ipotizzare la statistica indipendenza fra gli affievolimenti, e se supponiamo che la statistica degli affievolimenti sia uguale sulle due tratte (le probabilità di fuori servizio sulle due tratte sono uguali), dalla (3.3.2) segue che la probabilità di fuori servizio su ciascuna tratta dovrà essere pari a Pf s12 = Pf s13 = 10−2 . Di conseguenza, per dimensionare il collegamento con due tratte è sufficiente tenere in conto un’attenuazione supplementare di 20 dB. Se invece avessimo realizzato il collegamento con una sola tratta, cioé con una sola antenna ricevente, per ottenere Pf sT = 10−4 avremmo dovuto far fronte ad un’attenuazione supplementare di 40 dB. Effettuando il collegamento con due tratte in parallelo (diversità spaziale) si possono guadagnare 20 dB di attenuazione supplementare; si può quindi effettuare la trasmissione con una potenza di 20 dB più bassa rispetto al caso in cui non si utilizzi la diversità spaziale. Tutto il discorso vale se si usano due antenne in ricezione e non ha alcun senso pensare di ottenere risultati analoghi usando due antenne in trasmissione: in questo caso, infatti, si avrebbe semplicemente una variazione del diagramma di irradiazione dell’antenna trasmittente. Usando questa tecnica si guadagnano 20 dB, ma è necessario complicare l’apparecchiatura ricevente: bisogna posizionare due antenne a distanza pari ad un numero elevato di lunghezze d’onda. Bisogna poi usare un commutatore che non può essere posto direttamente in cascata alle antenne riceventi, dato che in questo punto si ottiene il segnale al livello più basso di tutta la catena: è necessario effettuare una preamplificazione. Abbiamo visto che per implementare il sistema in diversità spaziale è necessario che sulle due tratte ci sia diversità di cammino radioelettrico. Lo stesso scopo si può raggiungere usando due sole antenne, una in trasmissione ed una in ricezione, trasmettendo lo stesso segnale su due portanti a frequenza diversa. In questo modo non varia la distanza fisica, ma cambia la lunghezza d’onda. Si usa così la diversità in frequenza. In ponti radio analogici venivano usate un certo numero di portanti, per es. otto: su sette di esse era effettivamente trasmessa informazione, l’altra era di riserva. Quando su un canale si otteneva il massimo di attenuazione, tale canale era spostato sul canale di riserva, in virtù del fatto che i minimi di attenuazione non si verificano contemporaneamente a frequenze diverse. Naturalmente quanto detto non è applicabile se si usa tutta la banda disponibile per trasmettere un solo segnale.
CAPITOLO 4
Il sistema radar 4.1. Introduzione Lo scopo di un sistema di trasmissione analogico è normalmente quello di far giungere all’utente una forma d’onda che sia quanto più possibile simile a quella trasmessa. In altri casi lo scopo è quello di estrarre dal segnale ricevuto delle misure. Un esempio tipico è quello di un sistema radar (RAdio Detection And Ranging). Un’antenna trasmittente trasmette un segnale s(t) noto, che si propaga. Se c’è un bersaglio, una parte dell’energia irradiata viene riflessa. bersaglio
Figura 4.1.1. Sistema radar monostatico (antenna trasmittente e ricevente coincidono). Quello che serve valutare è il tempo che l’eco impiega per tornare indietro e la sua ampiezza rispetto al segnale trasmesso: tali parametri sono, infatti, legati a proprietà del bersaglio e permettono di identificare la sua presenza, la sua distanza e le sue dimensioni. Sia PT la potenza che il trasmettitore inietta nell’antenna trasmittente. Si suppone che questa non sia dissipativa (la potenza irradiata sarà pari a quella fornitale dal trasmettitore). La densità di potenza per unità di superficie che incide sul bersaglio a distanza R metri sarà PT GT 4πR2 Una parte di questa potenza viene captata e reirradiata verso il trasmettitore. Anche questa potenza subirà un’attenuazione dovuta alla divergenza sferica (1/4πR2 ). Bisogna inoltre tener conto della capacità captativa e della proprietà direzionale del bersaglio; il parametro σ = sezione radar del bersaglio (in m2 ) tiene conto del materiale, delle dimensioni, della forma del bersaglio e della sua posizione relativa rispetto all’antenna del radar. La sezione radar è definita in modo convenzionale come segue: è quella quantità che, moltiplicata per la densità di potenza incidente, fornisce una potenza complessiva che, se reirradiata in modo isotropo, permette di valutare la densità di potenza che ritorna verso l’antenna del radar. Il parametro σ ingloba, quindi, anche la funzione di direttività 55
56
4. IL SISTEMA RADAR
dell’"antenna" bersaglio. Per un dato bersaglio, σ è funzione dei due angoli θ e ϕ che identificano l’orientamento dell’oggetto rispetto alla direzione di incidenza della radiazione. Si ha in definitiva che la potenza ricevuta dal radar è PT GT AR (4.1.1) PR = σ 2 4πR 4πR2 essendo AR l’area efficace dell’antenna ricevente. A seconda del tipo di radar l’antenna trasmittente può coincidere con l’antenna ricevente o meno. In genere si può usare una sola antenna quando è possibile disaccoppiare il segnale trasmesso da quello ricevuto. 4.2. Dimensionamento Il sistema radar è un sistema difficile da dimensionare, soprattutto dal punto di vista energetico. La potenza ricevuta, infatti, che deve poi confrontarsi col rumore, varia con la quarta potenza della distanza. Di conseguenza il rapporto segnale rumore è molto peggiore di quello in un normale ponte radio (l’attenuazione cresce con la quarta potenza della distanza). Si può pensare di aumentare la potenza, che tuttavia non può superare determinati limiti. Si può allora aumentare il guadagno e l’area efficace dell’antenna sapendo che la potenza ricevuta varia con la quarta potenza delle dimensioni dell’antenna (G/A = 4π/λ2 ). È chiaro che è impensabile realizzare un sistema radar che riveli qualunque bersaglio a qualunque distanza. È ovvio, allora, che tra le specifiche di progetto deve esserci la massima distanza Rmax alla quale il radar deve essere in grado di rivelare un bersaglio e la sezione radar minima σmin che si deve essere in grado di rivelare a tale distanza. Avendo fissato questi parametri, si può utilizzare la (4.1.1) per calcolare la potenza in trasmissione a partire dalla potenza in ricezione e viceversa. Vediamo come calcolare la potenza minima necessaria per essere in grado di rivelare il bersaglio. Bisogna tener conto del fatto che il segnale ricevuto è enormemente attenuato e del fatto che l’antenna ricevente capta inevitabilmente del rumore. Il segnale deve essere amplificato e quindi si introdurrà ulteriore rumore. Ricordiamo che in ricezione non interessa ricostruire la forma d’onda ricevuta, ma solo riuscire a decidere nella maniera più affidabile possibile se il bersaglio è presente o meno. L’apparecchiatura ricevente è costituita da un blocco di amplificazione ed eventualmente traslazione a bassa frequenza, da un demodulatore d’ampiezza che misura l’ampiezza del segnale ricevuto, da un sistema di soglia il quale è responsabile della decisione sulla presenza o meno del bersaglio. hn AMPLIFIC. FILTRO
DEMODUL.
SOGLIA
Figura 4.2.1. Schema a blocchi del ricevitore radar. Consideriamo il segnale che esce dal demodulatore ed è proporzionale all’ampiezza del segnale ricevuto. Nel caso di assenza di bersaglio, non c’è eco che torna indietro e, quindi,
4.2. DIMENSIONAMENTO
57
si ha solo rumore n(t). In presenza di bersaglio si otterrà, oltre al rumore, una replica del segnale trasmesso, che sarà attenuata e traslata nel tempo di una quantità legata alla distanza R tra bersaglio e sensore ed alla velocità con cui si propaga la radiazione nel mezzo. Se tale velocità è pari alla velocità della luce c ∼ = 3 · 108 m/s, il ritardo τ è legato ad R ed a c dalla relazione R = cτ /2 Il segnale che si ottiene è quindi n(t) + ks(t − τ ). Lo scopo del sistema radar è, ovviamente, decidere se il bersaglio c’è o non c’è e valutare anche la distanza alla quale esso si trova, per mezzo del ritardo τ . Naturalmente il demodulatore di ampiezza non può essere un demodulatore coerente, non essendo nota la fase del segnale ricevuto (a causa del ritardo τ ). È necessario, quindi, usare un demodulatore ad inviluppo. Naturalmente il rumore termico è a statistica gaussiana e sarà passa banda: di esso si può dare una descrizione in termini di componente in fase e componente in quadratura. Il demodulatore fornirà in uscita la risultante. r=
p x2 + y 2 y x
r
Figura 4.2.2. Composizione delle componenti di rumore all’uscita del demodulatore non coerente. Essa, essendo la composizione di due variabili gaussiane, avrà statistica di Rayleygh. In assenza di bersaglio, quindi, la tensione all’uscita del demodulatore ad inviluppo è una variabile aleatoria con statistica di Rayleigh.
Pfa
Figura 4.2.3. Densità di probabilità di Rayleigh. Al variare della rumorosità delle apparecchiature la curva cambia. Essa è la densità di probabilità condizionata all’evento "assenza di bersaglio": l’area totale sottesa è unitaria.
58
4. IL SISTEMA RADAR
Di conseguenza, se la rumorosità diminuisce, la curva diventa più alta e più stretta, mentre, se la rumorosità aumenta, si abbassa e si allarga, mantenendo area unitaria. La decisione sulla presenza o meno del bersaglio è legata al fatto che la tensione presente all’uscita del demodulatore sia maggiore o minore di una soglia s. Naturalmente può succedere che, anche in assenza di un bersaglio, in corrispondenza di un picco di rumore la tensione all’uscita del demodulatore superi la soglia. Questo evento è indistinguibile dall’evento "effettiva presenza di un eco". È quindi definibile l’evento "falso allarme", ed è quantificabile la probabilità di falso allarme, che è la probabilità che tale evento si verifichi (area tratteggiata in figura). Tale probabilità è nota a partire dalla conoscenza della statistica del rumore e della soglia di decisione. È chiaro che, al variare della varianza del rumore, varia la curva e quindi varia l’area indicata, cioé la probabilità di falso allarme. In definitiva, nel dimensionamento del sistema, è necessario definire, oltre ai paramentri Rmax e σmin , anche la probabilità Pf a di falso allarme tollerabile. Tale probabilità dipende dalla varianza del rumore che entra nel demodulatore, dato che in funzione di questo varia la forma della curva della densità di probabilità. Fissata la curva (in funzione del rumore che è somma del rumore captato dall’antenna e della rumorosità introdotta dalle apparecchiature riceventi), la soglia resta fissata in base alla Pf a desiderata. In presenza di bersaglio, il segnale in ingresso al demodulatore di ampiezza è del tipo ks(t − τ ) + n(t). Volendo dare una schematizzazione in termini di vettori rotanti si ha quanto rappresentato in figura 4.2.4 n s (t) n c (t) k s(t−τ )
r(t)
Figura 4.2.4. Composizione di segnale e componenti di rumore a determinare l’uscita di un demodulatore non coerente. Dato che c’è una componente non trascurabile di segnale, la risultante non avrà più statistica di Rayleigh, ma statistica di Rice. La curva è centrata attorno al valore di segnale che si avrebbe in assenza di rumore1. Naturalmente l’area sottesa dalla curva è sempre unitaria. Se il termine di segnale diventa dominante rispetto ai termini di rumore, allora r(t) ∼ = k s(t − τ ) + nc (t) 1In assenza di rumore la densità di probabilità condizionata all’assenza del bersaglio sarebbe un impulso
di area unitaria nell’origine. Nel caso di presenza del bersaglio la densità di probabilità sarebbe costituita da un impulso piazzato in corrispondenza del valore xs corrispondente all’ampiezza del segnale in uscita dal demodulatore in presenza di eco.
4.2. DIMENSIONAMENTO
59
x
Figura 4.2.5. Densità di probabilità di Rice. Ma nc (t) ha statistica gaussiana e, quindi, al crescere dell’ampiezza dell’eco il valore x¯ tende a crescere e la distribuzione assume sempre più la forma di una gaussiana. Quanto più piccolo è il rumore, tanto più la distribuzione risulterà stretta attorno al valore x¯ (curva a tratto continuo). Il valore x¯ dipende dalla potenza con cui torna l’eco all’antenna del radar: più forte è l’eco, maggiore è la tensione all’uscita del demodulatore, e quindi maggiore è il valore di x¯. p(r)
Pfa
r
p(r)
Pbm
r
Figura 4.2.6. Determinazione della probabilità di falso allarme e della probabilità di bersaglio mancato. Naturalmente la soglia è la stessa sia in presenza che in assenza di bersaglio. Le aree segnate rappresentano rispettivamente la probabilità di falso allarme Pf a e la probabilità di bersaglio mancato Pbm . Naturalmente si vorrebbe Pf a = 0 e Pbm = 0, ma per avere Pf a = 0 bisognerebbe porre la soglia all’infinito e in questo caso si avrebbe Pbm = 1. Per avere Pbm = 0 dovrebbe essere Pf a = 1. È ovvio quindi che è necessario trovare un compromesso. Data la varianza del rumore (allargamento delle curve) e fissata la soglia in funzione della probabilità di falso allarme, bisogna fissare, in funzione della sezione radar minima σmin e della distanza massima di rilevazione Rmax , la potenza da trasmettere in
60
4. IL SISTEMA RADAR
maniera tale che la potenza dell’eco che torna sia sufficientemente grande (e quindi si ottenga x¯ grande) in modo che la probabilità di bersaglio mancato Pbm sia sufficientemente piccola. I parametri σmin , Rmax , Pf a , Pbm consentono il dimensionamento del sistema. Questo criterio di dimensionamento statistico della soglia di un sistema radar è il criterio di Neymann-Pearson. La decisione "presenza o assenza di bersaglio" deve essere presa nell’istante in cui l’uscita del demodulatore assume valore più alto possibile. Abbiamo visto che prima di demodulare è necessario amplificare il segnale: avendo tenuto in conto la rumorosità equivalente hn , l’amplificazione non crea problemi. D’altra parte, per ridurre la varianza del rumore, concentrando le densità di probabilità attorno al valore zero e x¯, è necessario filtrare il rumore in una banda quanto più stretta possibile attorno alla frequenza della portante. Il problema è determinare la funzione di trasferimento del filtro H(f ). Una definizione sensata del rapporto segnale-rumore nel dimensionamento di un sistema radar è la seguente PSpicco S = N PNmedia con PSpicco = potenza di picco del segnale e PN media = potenza media di rumore. Vediamo come la massimizzazione del rapporto segnale-rumore porti alla definizione ottimale della funzione di trasferimento del filtro. Abbiamo detto che il segnale in ingresso al filtro è una copia attenuata e ritardata, ks(t − τ ), del segnale trasmesso, con del rumore n(t) sovrapposto di cui è nota la densità spettrale di potenza. La funzione di trasferimento H(f ) si ottiene dalla massimizzazione del rapporto segnalerumore all’uscita. Notiamo che non ha senso non considerare il rumore, cioé calcolare la funzione di trasferimento massimizzando semplidemente il segnale in uscita: la funzione di trasferimento così trovata potrebbe massimizzare nello stesso istante non solo il segnale ma anche il rumore, abbassando così le prestazioni in termini di rapporto segnale-rumore. Supponiamo che il rumore n(t) sia bianco con densità spettrale hn . Calcoliamo il rapporto segnale-rumore.
PSpicco S = = N PNmedia
Z
+∞
−∞
2 k S(f ) exp (−ωτ ) H(f ) exp (ωtm ) df Z ∞ hn |H(f )|2 df 0
Essendo S(f ) la trasformata di Fourier del segnale s(t). Naturalmente F{ks(t − τ )} = kS(f ) exp(−ωτ ). La trasformata del segnale in uscita dal filtro è allora kH(f )S(f ) exp(−ωτ ). È necessario antitrasformare, calcolando l’antitrasformata in t = tm , quando il segnale
4.2. DIMENSIONAMENTO
61
raggiunge il suo valore massimo. Si ha 2 Z +∞ k S(f ) exp (−ωτ ) H(f ) exp (ωt ) df m S −∞ Z ∞ ≤ = N 2 hn |H(f )| df 0
Z
+∞ 2
Z
+∞
|kS(f )| d |H(f )|2 df −∞ Z ≤ −∞ = hEnR/2 hn +∞ |H(f )|2 df 2 −∞ Il passaggio è lecito essendo hn costante; il fattore 2 compare per tener conto del fatto che hn indica una densità spettrale di potenza monolatera. Per il teorema di Parseval Z +∞ ER = |kS(f )|2 df −∞
è l’energia del segnale ricevuto. Abbiamo così trovato ER S ≤ N hn /2 L’uguaglianza vale solo se H(f ) è proporzionale a S ∗ (f ). Un filtro con una funzione di trasferimento simile si dice filtro adattato. In questo caso il numeratore, cioé il segnale all’uscita del filtro, diventa Z +∞ k 0 |S(f )|2 exp [ω (tm − τ )] df −∞
L’istante in cui l’uscita del filtro è massima è tm = τ . Quindi con un filtro adattato alla forma d’onda ricevuta si ottiene il massimo rapporto segnale-rumore con un ritardo, rispetto all’istante di trasmissione della forma d’onda, pari al ritardo di propagazione. Vediamo da un punto di vista intuitivo come funziona il filtro adattato. In trasmissione si ha una descrizione del segnale attraverso il suo spettro (cioé come sovrapposizione di sinusoidi di ampiezza e fase opportuna). In ricezione non interessa ricostruire s(t), ma ottenere il risultato massimo possibile, almeno in un istante. Per fare in modo che le componenti spettrali forniscano un risultato massimo in un istante basta fare in modo che in tale istante esse abbiano tutte la stessa fase. Naturalmente si può scrivere S(f ) = |S(f )| exp (∠S(f )) Se si usa un filtro con caratteristica di fase del tipo exp (−∠S(f )) si ha un azzeramento delle fasi ed i moduli si sommano. Quindi, sostanzialmente, il filtro adattato compie un’operazione di rifasamento di tutte le componenti spettrali, rifasamento che può essere effettuato solo in un istante ben preciso. Le sinusoidi, infatti, non sono in
62
4. IL SISTEMA RADAR
rapporto armonico tra loro: se così non fosse, ci potrebbero essere più istanti in cui il rifasamento sarebbe costruttivo. Per quanto riguarda la caratteristica di ampiezza del filtro si può osservare quanto segue: lo spettro del segnale sia del tipo in figura, con del rumore sovrapposto (per ipotesi con densità spettrale costante).
|S(f)|
2
hn f
Figura 4.2.7. Schematizzazione delle densità spettrali di potenza di segnale e rumore bianco. Per massimizzare il rapporto tra ampiezza di picco del segnale e valore efficace del rumore è necessario pesare maggiormente i termini spettrali del segnale più "puliti", cioé le componenti spettrali con ampiezze maggiori. Dal discorso fatto sulle caratteristiche di fase e di ampiezza otteniamo nuovamente che il filtro adattato deve essere del tipo H(f ) = k |S(f )| exp (−∠S(f )) Il filtro così ottenuto è ottimo, nel senso che fornisce il massimo rapporto segnale-rumore a parità di energia della forma d’onda ricevuta, o, equivalentemente, a parità di potenza media del segnale ricevuto. Notiamo che il risultato decritto è stato ricavato nell’ipotesi di rumore sovrapposto bianco. Nel caso di rumore colorato è necessario pesare in misura maggiore le componenti che hanno un rapporto tra ampiezza dello spettro del segnale e ampiezza dello spettro del rumore più grande possibile. Si ha R 2 +∞ −∞ kS(f ) exp (−ωτ ) H(f ) exp (ωtm ) df S = ≤ R +∞ N h0 (f ) |H(f )|2 df −∞ n R +∞ ≤
−∞
R +∞ Z +∞ |kS(f )|2 /h0n (f ) df −∞ h0n (f ) |H(f )|2 df |kS(f )|2 = df R +∞ 0 (f ) 0 (f ) |H(f )|2 df h h −∞ n −∞ n
Il rapporto segnale-rumore massimo ottenibile, in presenza di rumore colorato, è quindi Z +∞ S |kS(f )|2 = df N h0n (f ) −∞
4.2. DIMENSIONAMENTO
63
Perché valga il segno di uguaglianza, la funzione integranda deve essere reale e positiva; deve, perciò, essere !∗ p S(f ) h0n (f ) H(f ) ∝ p h0n (f ) cioé la funzione di trasferimento del filtro deve essere del tipo S ∗ (f ) |S(f )| H(f ) ∝ 0 = 0 exp (−∠S(f )) hn (f ) hn (f ) Il discorso è del tutto analogo a quello fatto nel caso di rumore bianco. Anche in questo caso risultano pesate in modo maggiore le componenti più grandi rispetto alle componenti di rumore alla stessa frequenza. In questo caso il filtro è adattato sia al segnale che al rumore, in quanto tiene conto anche della "coloritura" del rumore. La sezione radar non può essere costante con la frequenza: dato che si può considerare il bersaglio come un riflettore composito, il segnale reirradiato verso il trasmettitore avrà ampiezza diversa a seconda di come si compongono i vari termini. D’altra parte i sistemi radar usano frequenze centrali molto alte, dell’ordine dei GHz; la banda del segnale trasmesso è di qualche decina di MHz, e, quindi, relativamente molto piccola. Di conseguenza la variazione con la frequenza della sezione radar può essere trascurata. Abbiamo visto che ai fini della capacità del radar di decidere correttamente se un bersaglio c’è o non c’è, quello che conta è, oltre alla rumorosità delle apparecchiature riceventi, la totale energia della forma d’onda trasmessa. Da questo punto di vista due forme d’onda del tipo in figura 4.2.8 possono essere del tutto equivalenti.
Figura 4.2.8. Segnali di diversa durata, ma pari energia. Fino ad ora ci siamo preoccupati della risoluzione radiometrica del radar, cioé della capacità di distinguere l’eco dal rumore. Ci occupiamo ora della risoluzione geometrica o spaziale, cioé della capacità del radar di accorgersi di due bersagli vicini. Il fascio di radiazione dell’antenna di un radar da avvistamento è sagomato in modo tale da essere molto stretto in azimut e di forma a ventaglio nella direzione verticale. L’antenna, infatti, ruota intorno ad un asse, coprendo così tutto lo spazio aereo e fornendo una descrizione bidimensionale della distribuzione dei bersagli. In questo modo si rileva la distanza radiale del bersaglio dall’antenna (R). Se si vuole rilevare anche la quota è necessario usare un altro radar in cui il diagramma di radiazione dell’antenna sia duale (stretto in verticale e largo in orizzontale). Fissata la minima distanza alla quale due bersagli devono essere distinti (in orizzontale), resta definito d θ = arctan R
64
4. IL SISTEMA RADAR
θ R in orizzontale
d
in verticale
Figura 4.2.9. Diagrammi di direttività nei piani orizzontale e verticale dell’antenna di un radar di avvistamento. cioé l’apertura angolare del fascio. La risoluzione geometrica azimutale dipende quindi dalle dimensioni geometriche dell’antenna, ovvero dall’apertura del fascio in una data direzione. Per localizzare la distanza alla quale si trova il bersaglio, è necessario misurare il ritardo col quale l’eco torna indietro: tale ritardo è infatti proporzionale alla distanza cτ R= 2 Questo nel caso di bersaglio singolo. Nel caso di due bersagli alla stessa posizione angolare, l’onda ricevuta sarà del tipo in figura 4.2.10.
impulso trasmesso
1° eco
2° eco
Figura 4.2.10. Schematizzazione di segnale trasmesso ed echi ricevuti. Man mano che i due bersagli si avvicinano, anche i picchi si avvicinano; alla fine non sarà più possibile distinguere un picco dall’altro. Ciò significa che al di sotto di una certa distanza non è possibile risolvere i bersagli. La distanza minima al di sotto della quale i due bersagli non sono più risolvibili dipende dalla forma d’onda all’uscita del filtro di ricezione: la capacità risolutiva è tanto maggiore quanto più stretta è la forma d’onda. Naturalmente non è detto che usando il filtro adattato si sia risolto anche questo problema. Interpretiamo nel tempo le operazioni fatte con il filtro adattato. L’uscita del filtro è del tipo Z SR (f ) S ∗ (f ) exp (ωtm ) df Nel tempo questa operazione equivale ad effettuare la autocorrelazione del segnale ricevuto. In realtà, siccome il filtro è adattato al segnale che ci si aspetta di ricevere e, dato che il segnale effettivamente ricevuto sarà in genere diverso, in effetti si calcola la correlazione tra il segnale ricevuto ed il segnale di riferimento memorizzato localmente. Nel caso di forma d’onda rettangolare, in uscita dal filtro adattato si otterrà una forma d’onda triangolare.
4.2. DIMENSIONAMENTO
T
65
2T
Figura 4.2.11. Rettangolo e sua autocorrelazione. Vediamo qual è la capacità risolutiva geometrica del radar nel caso di forma d’onda rettangolare. È chiaro che due bersagli sono distinguibili fino a quando sono distinti i triangoli in uscita dal filtro adattato.
risolvibili
risolvibili
non risolvibili
Figura 4.2.12. Distinguibilità dei bersagli con forme d’onda trasmesse rettangolari e filtro adattato in ricezione. I bersagli sono risolvibili, anche quando i triangoli si sovrappongono, fino a quando la forma d’onda complessiva mantiene evidenti i picchi. Quando la sovrapposizione è tale da non rendere più distinguibili i picchi, i bersagli non sono più risolvibili. Quindi, con forme d’onda trasmesse rettangolari di durata T (o a inviluppo rettangolare) e con filtraggio adattato in ricezione, la capacità di discriminare nel tempo è T . Ad una capacità di discriminare echi distanti nel tempo T secondi l’uno dall’altro, corrisponde una capacità discriminatoria R = cT /2 nello spazio (essendo R la distanza tra i bersagli). Di conseguenza, per avere un radar con la capacità di discriminare bersagli molto vicini, è necessario preoccuparsi della durata della forma d’onda trasmessa. Tale durata è, peraltro, ininfluente nei riguardi della capacità del radar di accorgersi o meno della presenza di bersagli (dipendente questa dall’energia della forma d’onda trasmessa), fino a quando non sia necessario considerare durate troppo piccole allo scopo di aumentare la capacità risolutiva geometrica. Per mantenere costante l’energia complessiva della forma d’onda trasmessa (e quindi di quella ricevuta), se si riduce la durata della forma d’onda è necessario aumentare la potenza di picco. Tale potenza non è peraltro aumentabile a piacimento. I dispositivi amplificatori non possono lavorare con un duty-cycle piccolo a piacere. Il periodo di ripetizione degli impulsi tp dipende dalla portata del radar: è infatti necessario attendere l’eco del bersaglio più lontano prima di trasmettere un nuovo impulso. Deve quindi essere ctp Rmax = 2 essendo Rmax la distanza del bersaglio più lontano. Il duty-cicle è quindi dato dal rapporto tra il tempo in cui il trasmettitore trasmette ed il tempo di ripetizione degli impulsi. Non è possibile pensare di ridurre troppo il rapporto T /tp . Di conseguenza non si può scendere al di sotto di certi livelli di risoluzione in distanza, non riuscendo a rendere sufficientemente piccola la durata della forma d’onda trasmessa. Riassumendo, la risoluzione radiometrica dipende dall’energia in ingresso al filtro (adattato) in ricezione, mentre la risoluzione geometrica dipende dalla forma d’onda in uscita
66
4. IL SISTEMA RADAR
T
tp
Figura 4.2.13. Durata e periodo di ripetizione dei segnali trasmessi da un radar impulsato. da tale filtro. Se la forma d’onda in uscita dal filtro deve essere molto stretta, al fine di aumentare la risoluzione geometrica, il suo spettro dovrà essere molto largo. Dato che il filtro non può aumentare la banda del segnale al suo ingresso, anche tale segnale dovrà avere spettro molto largo. In questo modo, però, si va contro il requisito relativo alla risoluzione radiometrica, che richiederebbe forme d’onda lunghe nel tempo al fine di massimizzare l’energia convogliata. In realtà si possono avere forme d’onda a elevata energia in ingresso al filtro di ricezione e contemporaneamente con autocorrelazione stretta all’uscita dello stesso. Si sovrappongono alla forma d’onda trasmessa delle variazioni quanto più complicate possibile in modo da ampliare la banda del segnale trasmesso (ricordiamo che la banda è proporzionale all’informazione trasmessa). Naturalmente questo ampliamento deve essere effettuato in modo da poterne trarre vantaggio: in altri termini, questa modulazione aggiuntiva sovrapposta alla sinusoide deve essere tale che, dopo il filtraggio adattato, la correlazione sia quanto più stretta possibile attorno al massimo. La cosa più semplice da fare sarebbe usare come forma d’onda trasmessa un rumore bianco filtrato nella banda che si vuole utilizzare nel sistema. Dato che l’autocorrelazione del rumore bianco fornisce un impulso, l’autocorrelazione del rumore bianco filtrato sarà una funzione molto stretta, tendente all’impulso al crescere della banda in cui il rumore è filtrato. Si può ricorrere a segnali che hanno proprietà che li rendono simili al rumore bianco. Si può per esempio trasmettere, nel periodo T , una sinusoide la cui fase vari di 180◦ a passo regolare con una frequenza sufficientemente elevata: in altri termini si effettua contemporaneamente una modulazione di ampiezza della portante con un rettangolo di durata molto lunga, e una modulazione di fase della stessa portante con una forma d’onda rettangolare molto più stretta. In questo modo è chiaro che la banda si allarga.
Figura 4.2.14. Esemplificazione della modulazione di fase dell’impulso trasmesso. In realtà non è possibile usare un segnale perfettamente periodico come un’onda quadra per la modulazione di fase. Se così fosse, infatti, all’uscita del filtro di ricezione si
4.2. DIMENSIONAMENTO
67
otterrebbe una forma d’onda molto appuntita, ma dei massimi secondari abbastanza consistenti che diventano via via più piccoli e che generano comunque del fastidio, creando una moltiplicazione dei bersagli sullo schermo.
Figura 4.2.15. Uscita dal filtro adattato in presenza di una modulazione di fase con rettangoli di segno alternato. I lobi secondari vengono eliminati facendo in modo che diventi sostanzialmente impossibile la perfetta coincidenza delle due forme d’onda su intervalli parziali e, quindi, facendo in modo che il passaggio da 1 a −1 della forma d’onda modulante avvenga non con regolarità ma in modo pseudo-casuale. L’ideale sarebbe che tale passaggio avvenisse in modo del tutto casuale, in quanto si avrebbe la perfetta coincidenza solo quando le due forme d’onda fossero a regime; ma questo vorrebbe dire che il ricevitore non potrebbe conoscere la forma d’onda effettivamente trasmessa. Si prendono, perciò, delle sequenze di 1 e −1 in modo tale che la forma d’onda risultante abbia funzione di autocorrelazione quanto più stretta possibile, compatibilmente col numero di periodi elementari considerati, e che abbia le code che decadono quanto più velocemente possibile. + − − −
−
Figura 4.2.16. Modulazione di fase con codice di Barker a 5 slot e uscita dal filtro adattato. Una soluzione che ha un costo minore consiste nell’allargare la banda del segnale trasmesso mediante una modulazione angolare molto più regolare, utilizzando un segnale chirp: la portante viene modulata di frequenza in modo che la sua frequenza istantanea fi vari linearmente nella durata dell’impulso trasmesso (vedi figura 4.2.17). Anche in questo modo si ottiene uscita massima solo quando le due forme d’onda sono perfettamente sovrapposte nel tempo. A questo punto non conta più la durata della forma d’onda, bensì l’inverso della banda. La formula che fornisce la risoluzione in distanza non è più cT /2 ma c/2B. Se si hanno
68
4. IL SISTEMA RADAR
fι
t
Figura 4.2.17. Legge di variazione della frequenza istantanea per un segnale “chirp”. impulsi molto stretti si possono rilevare bersagli molto vicini. Se si usa una forma d’onda molto lunga, con la banda allargata mediante una modulazione aggiuntiva sovrapposta alla portante, la risoluzione temporale è molto alta; d’altra parte, prima di poter cominciare ad elaborare gli echi che ritornano è necessario finire di trasmettere la forma d’onda. Si crea così una zona morta attorno all’antenna che si allarga al crescere della durata dell’impulso trasmesso. Notiamo che è possibile effettuare il filtraggio adattato in banda base o, in modo equivalente, a radiofrequenza: l’operazione di traslazione in frequenza non cambia infatti il contenuto informativo del segnale. Fino ad ora abbiamo implicitamente fatto riferimento ad un demodulatore incoerente, tipicamente un demodulatore a inviluppo. Abbiamo infatti detto che non è possibile in un sistema radar effettuare una demodulazione coerente, dato che il segnale arriva con una fase che non è possibile conoscere, essendo variabile il ritardo cui esso è sottoposto. In realtà è possibile effettuare una demodulazione coerente, utilizzando uno schema del tipo in figura, con due portanti in quadratura. Se serve effettuare una demodulazione ad inviluppo basta calcolare p r = i2 + q 2 La fase è θ = arctan(q/i) Se si è semplicemente interessati all’inviluppo può non essere conveniente usare un sistema di questo tipo: basta infatti usare un semplice demodulatore a inviluppo. Teniamo comunque presente che, per piccoli segnali, il comportamente dei due circuiti può essere molto differente. Può quindi essere più sicuro usare in ogni caso il circuito con due portanti in quadratura. Oltre a ciò, mediante l’uso dell’inviluppo complesso, si tiene conto non solo dell’ampiezza, ma anche della fase del segnale in arrivo cio può essere molto utile. Fino ad ora non si è tenuto conto del fatto che la conformazione territoriale intorno al radar può creare disturbi: la presenza di montagne, o altri ostacoli riflettenti, crea echi indesiderati. Effettuando una semplice demodulazione ad inviluppo dell’eco, il bersaglio sarà indistinguibile dai bersagli fissi (montagne). All’interno dell’eco molto forte dato dal terreno si può identificare l’eco del bersaglio in movimento confrontando non l’ampiezza dell’eco tra due scansioni successive, ma la sua fase. L’eco del terreno immobile sarà
4.2. DIMENSIONAMENTO
69
i(t) s(t)
sin ω t q(t)
cos ω t
cos ω t
q r sin ω t
θ i
Figura 4.2.18. Schema di principio della demodulazione I-Q utilizzata in un radar coerente. sostanzialmente uguale in due scansioni successive (nell’intervallo tra la trasmissione di due impulsi successivi l’antenna si è spostata di pochissimo), mentre varierà la fase dell’eco relativo al bersaglio mobile. Effettuando la differenza, tenendo conto della fase, tra i segnali ottenuti da due scansioni successive, è possibile cancellare l’eco dei bersagli fissi, riuscendo così ad isolare l’eco del bersaglio in movimento. Si noti che il discorso è valido solo nel caso in cui il bersaglio abbia una componente di velocità radiale: se la traiettoria è circolare intorno all’antenna, l’eco non subirà variazioni di fase in due scansioni successive e, quindi, verrà cancellato assieme all’eco relativo ai bersagli fissi. Il bersaglio, anche se mobile, sarà quindi invisibile al radar. Il sistema di cui si è parlato prende il nome di moving target indicator (indicatore di bersaglio mobile). 4.2.0.1. Shift Doppler. Fino ad ora abbiamo considerato il filtro adattato come filtro di ricezione. In realtà, in applicazioni normali, non è sempre sensato procedere come descritto. Non abbiamo infatti tenuto con-to del fatto l’antenna del radar e il bersaglio non sono in posizione relativa stazionaria. In generale il bersaglio saraà in movimento. La distanza bersaglio sensore sarà allora una funzione del tempo, del tipo R(t) = R0 + vR t R(t) = R0 − vR t
(se il bersaglio è in allontanamento) (se il bersaglio è in avvicinamento)
essendo R0 la distanza iniziale all’instante t = 0. Il termine di variazione della distanza vR t è evidentemente funzione della componente di velocità del bersaglio in direzione radiale, cioé lungo la congiungente antenna bersaglio. Questo crea dei problemi. Il ritardo di propagazione, cioé il tempo necessario al segnale per propagarsi, riflettersi sul bersaglio e
70
4. IL SISTEMA RADAR
tornare indietro, diventa una funzione del tempo Ro + vR t τ (t) = 2 c L’operatore ritardo è un’operatore lineare e la sua funzione di trasferimento è Ro + vR t exp (−ωτ ) = exp −2ω c dove ipotizziamo che la velocità radiale del bersaglio rispetto al sensore sia costante. Possiamo scrivere la funzione di trasferimento come segue Ro vR t exp (−ωτ ) = exp −2ω · exp −2ω c c Possiamo cioé interpretare l’operatore ritardo come la cascata di un ritardo fisso e di un ritardo variabile col tempo. Consideriamo la singola componente sinusoidale dello spettro (non è restrittivo, dato che comunque abbiamo sempre considerato segnali a banda relativa stretta). Quando moltiplichiamo una sinusoide per un numero complesso, otteniamo una variazione nell’ampiezza e una rotazione della fase. Nel nostro caso, però, effettuiamo una moltiplicazione per una funzione del tempo di tipo sinusoidale (secondo fattore nell’ultima espressione scritta) e quindi effettuiamo praticamente il battimento tra più sinusoidi. L’operatore exp(−ω2vR t/c) esegue una traslazione di pulsazione di entità ∆ω = −2ωvR /c. Questo è appunto quanto accade nell’effetto Doppler : se una sorgente sinusoidale si muove rispetto all’osservatore, questo percepisce la sinusoide spostata in frequenza. In definitiva il segnale che torna al radar ha le componenti spettrali traslate in frequenza di una quantità che dipende da vR /c e da ω. Quindi non si ha una semplice traslazione dello spettro: le varie componenti spttrali vengono traslate di entità diverse a seconda della loro frequenza. Di fatto, quindi, l’effetto Doppler cambia completamente la forma del segnale. Se però la banda relativa è piccola, l’effetto si può assimilare a una semplice traslazione in frequenza. In base alle ultime osservazioni possiamo allora dire che il filtro di ricezione, se implementato come visto, sarà adattato solo se il bersaglio si muove lungo una traiettoria circolare centrata nell’antenna. Segue allora che è necessario implementare in altro modo il filtro di ricezione. Possiamo valutare il massimo shift Doppler in avvicinamento o in allontanamento (velocità solo radiale), ovvero possiamo valutare l’intervallo dello shift Doppler (∆ωmax ). In ricezione, invece di usare un solo filtro, che non sarà mai adattato, uso una batteria di filtri, ciscuno adattato a una diversa versione del segnale trasmesso, ottenuta sottoponendo il segnale e entità discrete di shift Doppler all’interno dell’intervallo atteso ∆ωmax . Il segnale utile viene poi prelevato dal filtro che presenta uscita maggiore rispetto altre altre. In questo modo otteniamo una duplice stima: una stima ottimale della distanza, perché l’uscita più alta è relativa al filtro che è più vicino all’adattamento e, contemporaneamente, una stima abbastanza precisa dell’entità dello shift Doppler. Dalla misura dello shift Doppler possiamo valutare la componente radiale della velocità del bersaglio.
CAPITOLO 5
Sistema di trasmissione numerico La differenza fondamentale tra un sistema di trasmissione analogico ed un sistema di trasmissione numerico consiste nel fatto che, mentre nel primo è necessario utilizzare apparecchiature adatte al tipo di segnale da trasmettere, nel secondo caso si trasmettono sempre simboli numerici che possono rappresentare qualunque tipo di segnale. Il vantaggio è innegabile. La numerazione utilizzata è quella binaria. Il problema è sempre quello di far pervenire l’informazione al ricevitore. Come nel caso analogico non si può pensare di far arrivare al ricevitore esattamente la stessa forma d’onda trasmessa, così nella trasmissione numerica la sequenza di numeri ricevuta potrà non coincidere con quella trasmessa: si potranno commettere degli errori. Si vedrà, però, che la probabilità che tali errori vengano commessi può essere resa così bassa da renderne l’effetto sostanzialmente trascurabile. Inoltre, mentre nel caso analogico, per aumentare il rapporto segnale-rumore di 10 dB bisogna aumentare 10 volte la potenza del segnale (o ridurre 10 volte la potenza del rumore), nel caso digitale l’incremento di potenza trasmessa richiesto per ridurre di un fattore 10 la probabilità d’errore è molto contenuto. I simboli numerici non possono essere inviati direttamente sul canale trasmissivo: è necessario associare ad essi delle forme d’onda. Nel caso più banale si può pensare di non trasmettere nulla per lo 0 ed una forma d’onda per l’1, come esemplificato nella figura 5.0.1.
0
1
0
0
1
0
Figura 5.0.1. Esempio di segnale numerico. In ricezione non interessa ricostruire la forma d’onda trasmessa (peraltro già nota al ricevitore), ma serve decidere se la forma d’onda è stata trasmessa o no, perché serve ricostruire la sequenza di simboli trasmessi il più fedelmente possibile. Anche nel caso di trasmissione numerica, come nel caso del sistema radar, ci si trova nella necessità di effettuare al terminale ricevente una decisione binaria: presenza di segnale con rumore (1) o presenza di solo rumore (0). s(t − nT ) + n(t) n(t) 71
nel caso di 1 nel caso di 0
72
5. SISTEMA DI TRASMISSIONE NUMERICO
La differenza fondamentale con il radar sta nel fatto che le forme d’onda in ricezione, se ci sono, si possono presentare solo ad intervalli regolari di tempo mentre, nel caso del radar, gli echi tornano indietro con ritardi casuali. A parte questa differenza, si può procedere in maniera analoga a quanto già visto: per minimizzare la probabilità di errore bisogna fare in modo che, almeno in un istante tm (diverso per ogni forma d’onda) il segnale sia quanto più grande possibile rispetto al rumore. Lo schema a blocchi di un sistema di trasmissione numerica può essere quello in figura 5.0.2. rumore
bit
generatore forme d’onda
mezzo trasm.
filtro
decisore
bit
Figura 5.0.2. Schema a blocchi di un sistema di trasmissione numerico in banda base. In ricezione si usa un filtro, progettato con la stessa filosofia che, nel caso del segnale radar, ha portato alla definizione del filtro adattato come filtro ottimo. Si ricordi che il filtro adattato è ottimo nel senso che fornisce il massimo rapporto segnale-rumore all’uscita a parità di energia per simbolo (potenza media del segnale trasmesso) se il rumore sommato al segnale è bianco. Le forme d’onda trasmesse si susseguono ad intervalli di T secondi e l’uscita del filtro adattato viene campionata con lo stesso passo temporale. In base a tali misure si effettuano le decisioni che devono portare a decidere quali siano stati i simboli trasmessi. Nel caso del radar l’algoritmo di decisione è stato definito ricorrendo ad una schematizzazione di tipo statistico; in questo caso si procede in maniera analoga. Si noti che in un sistema di trasmissione numerico vi è una casualità di duplice natura: da un lato c’è la casualità legata al valore del simbolo numerico che di volta in volta si trasmette e dall’altro c’è la casualità legata al fatto che il rumore non è descrivibile in termini deterministici. Il ricevitore non può sapere se sta ricevendo un 1 od uno 0. La trasmissione di informazione va vista come eliminazione di incertezza nel ricevitore: se il ricevitore sapesse cosa gli si sta trasmettendo non ci sarebbe trasmissione di informazione, Nel caso del segnale radar si avevano due diverse densità di probabilità dell’ampiezza della tensione all’uscita del filtro di ricezione: in assenza di segnale (cioé di bersaglio) si otteneva una distribuzione di Rayleigh, in presenza di segnale si otteneva una distribuzione di Rice. Tale diversità era dovuta alla demodulazione ad inviluppo: in un caso l’ingresso al demodulatore era costituito da rumore passa banda (assenza di bersaglio), nell’altro da rumore passa banda sommato al segnale (presenza di bersaglio). Nel caso di trasmissione numerica può non essere necessaria alcuna operazione di demodulazione. In assenza di segnale, all’uscita del filtro di ricezione si ottiene rumore termico filtrato. Il rumore termico, se ha statistica gaussiana prima del filtro, conserva tale statistica anche dopo il filtraggio. In definitiva, in assenza di segnale, la densità di probabilità della tensione v nell’istante di campionamento è una gaussiana centrata al valore v = 0: in assenza di rumore, infatti, si otterrebbe v = 0 (sempre nell’ipotesi di trasmissione di
5. SISTEMA DI TRASMISSIONE NUMERICO
73
0, cioé di assenza di segnale). All’aumentare della rumorosità sovrapposta, la curva tende ad allargarsi. In assenza di segnale bisogna considerare quindi p(v/0), cioé la densità di probabilità della tensione v, condizionata al fatto che sia stato trasmesso 0. Se è stato trasmesso 1, è stata inviata sulla linea una forma d’onda (presenza di segnale). Il filtro opera su tale forma d’onda facendo in modo che nell’istante di misura (istante di massimo), in assenza di rumore si rilevi una tensione v1 . In presenza di rumore a tale tensione si somma una tensione casuale, per cui p(v/1), la densità di probabilità condizionata alla trasmissione di 1, è una gaussiana centrata sul valore v = v1 , più o meno allargata a seconda dell’entità del rumore sovrapposto. Il modello statistico è, in definitiva, quello rappresentato dalle due densità di probabilità condizionate di figura 5.0.3. p(v/1)
p(v/0)
v0
s
v1
v
Figura 5.0.3. Modello statistico della decisione. Le due densità di probabilità sono identiche a meno del valor medio: il rumore sommato in entrambi i casi al segnale è una variabile casuale a valor medio nullo. Per uniformità di notazione chiamiamo vo il valor medio di p(v/0). Una volta misurata la tensione in ricezione, è necessario decidere se è stato trasmesso 1 oppure 0. Un qualunque valore di tensione v può essere interpretato come v0 + n0 o come v1 + n1 . Poiché il rumore è a statistica gaussiana, sarà da considerare più probabile, tra i due campioni di rumore, quello di modulo minore. È ragionevole, quindi, dividere la retta orientata, che rappresenta tutti i possibili valori di tensione misurabili, in due semirette (una relativa alle misure derivanti dalla trasmissione di uno 0 e l’altra relativa alle misure derivanti dalla trasmissione di un 1) mediante una soglia s: quando v > s si dirà che è stato trasmesso 1, mentre se v < s si dirà che è stato trasmesso 0. È chiaro che, con rumore avente statistica gaussiana non si avrà mai probabilità zero di sbagliare, cioé di decidere che è stato trasmesso 1 quando è stato trasmesso 0 o viceversa. Si osservi che la probabilità di decidere che è stato trasmesso 1 quando è stato trasmesso 0 è data dall’area a tratteggio obliquo in figura. Viceversa, la probabilità di decidere che è stato trasmesso 0 quando è stato trasmesso 1 è data dall’area a tratteggio incrociato. Si può generalizzare lo schema del sistema di trasmissione numerica, supponendo di trasmettere una forma d’onda s0 (t) per lo 0 ed una forma d’onda diversa s1 (t) per l’1. È necessario modificare la struttura del ricevitore usando due filtri adattati, l’uno ad s0 (t) e l’altro ad s1 (t).
74
5. SISTEMA DI TRASMISSIONE NUMERICO
H 0 (f) > <
0 1
H 1 (f)
Figura 5.0.4. Ricevitore ottimo. La decisione va effettuata confrontando le due uscite e verificando quale delle due è maggiore dell’altra. È evidente che questa struttura di ricezione è ottimale solo se è stata effettuata in maniera ottimale la scelta delle due forme d’onda s0 (t) ed s1 (t). Si possono scegliere s0 (t) ed s1 (t) e, quindi, i relativi filtri adattati, in maniera tale che quando un’uscita è massima, l’altra è nulla. Questo tipo di codifica di linea va sotto il nome di codifica ortogonale. Si può fare qualcosa di meglio, a parità di potenza trasmessa, facendo in modo che quando un’uscita è massima e positiva, l’altra è massima e negativa. Questo tipo di codifica di linea si chiama codifica antipodale. Il modo più semplice per ottenere una codifica antipodale è usare la stessa forma d’onda per la trasmissione di 1 e 0, cambiandone il segno per la trasmissione di uno dei due simboli ed usandola così com’è per l’altro. Si ottiene la struttura in figura 5.0.5. −H(f) > <
0 1
H(f)
Figura 5.0.5. Ricevitore ottimo per codifica antipodale. Quando si trasmette −s(t) (per 0) si ottiene massima uscita positiva nel ramo superiore e massima uscita negativa nel ramo inferiore e viceversa per la trasmissione di s(t). Tale struttura è tuttavia ridondante: la struttura ottimale del ricevitore torna ad essere quella in figura 5.0.2 (a patto che i due termini di rumore all’uscita dei due filtri siano, come sono, identici). È intuitivo capire che, mediante codifica antipodale, diminuisce la probabilità di errore a parità di potenza di picco. Ciò risulta più evidente considerando che la figura 5.0.3 si riferisce, in pratica, ad un tipo di codifica ortogonale (non si trasmette nulla per 0 e si trasmette una forma d’onda per 1). Nel caso di codifica antipodale la curva della densità di probabilità p(v/0) viene centrata attorno al valore −v1 , a distanza maggiore da quella centrata al valore v1 rispetto al caso di codifica ortogonale. È evidente che, a parità di varianza del rumore, le aree sottese dalle code delle gaussiane, rappresentative delle probabilità di errore, sono molto più piccole rispetto al caso di codifica ortogonale in figura 5.0.3.
5. SISTEMA DI TRASMISSIONE NUMERICO
75
p(v/1)
p(v/0)
−v1
s
v
v1
Figura 5.0.6. Modello statistico di decisione nel caso di codifica antipodale. 5.0.1. Interferenza intersimbolica. La scelta delle forme d’onda all’uscita del filtro di ricezione (e, quindi, anche delle forme d’onda in trasmissione) deve essere accurata. Per rendersi conto delle problematiche poste dalle forme d’onda, si supponga che la forma d’onda all’uscita del filtro di ricezione sia quella rappresentata in figura 5.0.7.
(n+2)T nT (n+1)T
t
Figura 5.0.7. Forma d’onda con interferenza intersimbolo. Tale forma d’onda assume il valore massimo nell’istante nT relativo al simbolo cui tale forma d’onda si riferisce, ma assume valori diversi da zero anche negli instanti in cui si dovranno effettuare le misure che serviranno a decidere gli altri simboli. Quando a determinare il valore di tensione misurato in un istante di decisione concorrono le forme d’onda relative ai simboli adiacenti, si dice che c’è interferenza intersimbolo. Nel caso in figura, se all’istante (n+1)T si trasmette 0 (forma d’onda nulla), in ricezione si ottiene comunque un valore di tensione, che non è rumore, dovuto alla forma d’onda relativa al simbolo precedente. È chiaro che questa situazione è intollerabile, essendo l’interferenza impredicibile in modo deterministico, perché essa dipende dalla combinazione di simboli trasmessi precedentemente. Poiché un sistema reale è causale, potrebbe bastare tener conto degli ultimi simboli trasmessi per valutare e cancellare l’interferenza. Poiché il ricevitore ha a disposizione le sue stime di tali simboli, la cosa può funzionare finché non si verifica un errore. In tal caso si parla di sistemi ad intersimbolo controllato. Nello scegliere le forme d’onda da utilizzare e nel progettare il filtro di ricezione, oltre a sfruttare al massimo l’energia della singola forma d’onda (considerazione che porta al
76
5. SISTEMA DI TRASMISSIONE NUMERICO
concetto di filtro adattato), è necessario preoccuparsi che all’uscita del filtro di ricezione vi siano delle forme d’onda ad intersimbolo nullo, tali cioé da annullarsi nei punti di campionamento relativi agli altri simboli e, quindi, a zeri equidistanti.
(n+1)T nT
(n+2)T
t
Figura 5.0.8. Forma d’onda a zeri equidistanti. Una funzione è a zeri equidistanti (a distanza T ) se il suo spettro, periodicizzato a passo 1/T , fornisce una costante.1 Forme d’onda a zeri equidistanti sono, per esempio, quelle della famiglia di Nyquist. Una di queste funzioni è la funzione sin(fs t)/fs t avente spettro rettangolare rappresentata in figura 5.0.9. s(t)
S(f)
−
fs 2
fs 2
f
−1 fs
1 fs
t
Figura 5.0.9. Forma d’onda di Nyquist con roll-off nullo. Nel tempo si ottiene una forma d’onda di durata infinita e, quindi, irrealizzabile. Poiché lo spettro ha una discontinuità di valore, nel tempo la funzione decade come 1/t. Se la discontinuità fosse di derivata prima, la funzione nel tempo decadrebbe come 1/t2 . Si può pensare a tutta una famiglia di curve (famiglia di Nyquist), il cui spettro (di tipo passa-basso) passa con gradualità dal valore 1 al valore 0 con un raccordo cosinusoidale . L’estensione del raccordo in frequenza viene quantificato con il cosiddetto roll-off (che sarà indicato con il simbolo δ). Come la figura 5.0.10 indica, lo spettro rettangolare ha δ = 0; lo spettro a coseno rialzato ha δ = 1. Il roll-off quantifica, sostanzialmente, la banda utilizzata. Se con B si indica la banda occupata dalle forme d’onda, si può scrivere B = (1 + δ)fs /2 1Ovviamente,
se una funzione è a zeri equidistanti a distanza T e viene campionata con periodo T1 , il suo spettro periodicizzato a passo 1/T1 non darà luogo ad una costante.
5. SISTEMA DI TRASMISSIONE NUMERICO
77
0
δ= 0,5 1
δ=1
0
δ=0,5 δ=0
fs 2
fs
f
t
Figura 5.0.10. Spettri delle forme d’onda di Nyquist. Infatti
δ = 0 → B = fs /2 (rettangolo) δ = 1 → B = fs (coseno rialzato) All’aumentare del roll-off aumenta la banda utilizzata ed aumenta la velocità di decadimento a zero della funzione nel tempo. Si ottengono, in ogni caso, delle funzioni che tendono asintoticamente a zero e, quindi, di durata infinita; esse possono tuttavia ritenersi nulle quando il loro valore sia sceso al di sotto di un valore sufficientemente basso (non si dimentichi l’onnipresenza del rumore). Se SR (f ) è lo spettro della forma d’onda in uscita dal mezzo trasmissivo, lo spettro della forma d’onda che esce dal filtro di ricezione, per ipotesi adattato, è |SR (f )|2 . Bisogna fare in modo che tale spettro soddisfi le condizioni che garantiscono una forma d’onda ad intersimbolo nullo ma, in questo modo, resta fissata la forma d’onda in ingresso al filtro di ricezione. In realtà rimane da determinare la fase di SR (f ). Infatti, imporre lo spettro all’uscita del filtro significa imporre che |SR (f )|2 = Su (f ). La cosa non deve meravigliare, ricordando che il filtro adattato elimina tale fase. Si può scegliere la fase in modo che la relativa forma d’onda abbia il fattore di picco più piccolo possibile.
Figura 5.0.11. Forme d’onda con componenti armoniche ruotate di 90◦ . La potenza media delle due forme d’onda è la stessa, dato che le sinusoidi componenti sono le stesse ed hanno quindi la stessa potenza media. Quello che cambia è la potenza
78
5. SISTEMA DI TRASMISSIONE NUMERICO
di picco. È evidente che variando la fase relativa delle componenti spettrali si modifica la forma della funzione nel tempo, modificando così il fattore di picco. Quello che bisogna fare è cercare di minimizzare il fattore di picco (rapporto tra potenza di picco e potenza media) per evitare di saturare gli amplificatori. 5.1. Dimensionamento Dimensionare il sistema vuol dire, una volta che il tipo di sistema sia stato scelto, valutare la potenza da trasmettere per ottenere le prestazioni desiderate. Il dimensionamento verrà effettuato considerando il rumore termico come l’unico disturbo presente. Nel caso analogico si considerano determinate le prestazioni del sistema una volta fissate due caratteristiche: la banda passante B, cioé la banda del segnale da trasmettere e la qualità con cui esso deve essere ricevuto, cioé il rapporto segnale rumore S/N. Anche nel caso di un sistema di trasmissione numerico è necessario specificare la quantità d’informazione per unità di tempo e la qualità con cui detta informazione deve arrivare al ricevitore. Alla banda B corrisponde fs , frequenza di cifra o di simbolo binario, mentre l’equivalente del rapporto segnale-rumore è P (ε), la probabilità di errore ossia la probabilità che il simbolo ricevuto differisca da quello trasmesso. La responsabilità dell’errore deve essere imputabile unicamente al disturbo (rumore) sovrapposto al segnale, lo stesso disturbo che nel caso analogico faceva si che la forma d’onda ricevuta fosse diversa da quella trasmessa. Lo schema a blocchi dell’apparato ricevente è ripetuto in figura 5.1.1. hn PR 1
H R (f)
2
soglia
P( ε)
Figura 5.1.1. Schema a blocchi del ricevitore. I requisiti fs e P (ε) fanno ovviamente riferimento al punto terminale del sistema di trasmissione. Si tratta di valutare la potenza da trasmettere PT perché P (ε) non superi il valore massimo tollerabile. In ricezione ci si può trovare nelle due seguenti situazioni: si riceve la forma d’onda relativa allo 0, con rumore sovrapposto, oppure si riceve la forma d’onda relativa all’1, con rumore sovrapposto. Si ha cioé s0 (t) + n(t) s1 (t) + n(t)
0 trasmesso 1 trasmesso
Questa situazione è descrittiva di ciò che avviene all’ingresso del ricevitore (punto 1). Il circuito di decisione è un circuito a soglia al cui ingresso arriva il segnale filtrato dal filtro di ricezione e campionato nell’istante di massimo (punto 2): un campione di segnale (v0 o v1 ) con sovrapposto un campione di rumore (n0 o n1 ). Si ha cioé v 0 + n0 v 1 + n1
0 trasmesso 1 trasmesso
D’altra parte n0 ed n1 sono variabili casuali che risultano dal campionamento, in istanti diversi, di uno stesso processo ergodico e, quindi, stazionario. Pertanto no ed n1 sono
5.1. DIMENSIONAMENTO
79
campioni di rumore a pari varianza σn2 , con valor medio nullo. All’uscita del filtro di ricezione si ottiene rumore non bianco ma pur sempre gaussiano. In definitiva si ottengono delle variabili gaussiane che si sommano alle quantità deterministiche: v0 per 0 e v1 per 1. Si ha allora la situazione rappresentata in figura 5.1.2, dove v è la tensione all’uscita del campionatore.
P(v>s/0)
P(v
s
v1
v
Figura 5.1.2. Modello statistico della decisione. Il decisore esegue un’operazione di soglia: se v > s è stato trasmesso 1, altrimenti 0. Nell’effettuare questa operazione si può naturalmente sbagliare se, per esempio, v > s anche quando è stato trasmesso 0. La probabilità di questo evento è Z ∞ Z ∞ (v − v0 )2 ) 1 √ (5.1.1) P (ε/0) = P (v > s/0) = p(v/0) dv = exp − dv 2σn2 2πσn s s Analogamente (5.1.2)
Z
s
P (ε/1) = P (v < s/1) = −∞
(v − v1 )2 ) 1 √ exp − dv 2σn2 2πσn
La probabilità di errore P (ε) è P (ε) = P (ε/0)P (0) + P (ε/1)P (1) con P (0) = probabilità di 0 trasmesso e P (1) = probabilità di 1 trasmesso. Il dimensionamento di un sistema numerico consiste nel minimizzare, a parità di costo, cioé di potenza trasmessa, la probabilità di errore P (ε). Supponiamo che i simboli siano equiprobabili, cioé P (1) = P (0) = 0.5: in questa ipotesi si ha P (ε) = 0.5(P (ε/0) + P (ε/1)) In questo caso il valore ottimale di soglia è quello in cui si intersecano le curve relative alla densità di probabilità condizionata a 0, p(v/0), e alla densità di probabilità condizionata a 1, p(v/1): s = (a0 + a1 )/2 In questo caso, se il rumore ha densità di probabilità simmetrica intorno al valor medio, come nel caso di rumore gaussiano, si ha che P (ε/0) = P (ε/1). Segue allora che P (ε) = P (ε/0) = P (ε/1). Si noti che questo risultato non dipende affatto dalla equiprobabilità dei simboli, ma solo dall’aver piazzato la soglia a metà e dal fatto che la densità di probabilità
80
5. SISTEMA DI TRASMISSIONE NUMERICO
p(v/1)
p(v/0)
a0
v
a1
s
Figura 5.1.3. Soglia ottimale nel caso di simboli equiprobabili. della variabile casuale tensione all’uscita del campionatore abbia un andamento simmetrico attorno al valor medio. L’equiprobabilità dei simboli fornisce indicazioni solo riguardo alla ottimalità o meno della scelta della soglia. Cioé se la soglia è a metà, P (ε/0) = P (ε/1). Affinché questa scelta sia ottimale nel senso di minimizzazione della probabilità di errore medio, i simboli devono essere equiprobabili. Il problema è valutare ora P (ε/0) e P (ε/1), una volta piazzata la soglia a metà. Si tratta di calcolare gli integrali della (5.1.1) e (5.1.2). È disponibile in forma tabulata l’integrale rappresentativo dell’area di una coda di gaussiana di valor medio nullo e di varianza unitaria 2 Z ∞ 1 x √ exp − Q(x) = dx 2 2π x Un’altra funzione tabulata è la funzione errore, relativa all’area, tra −x e x, di una gaussiana con varianza σ 2 = 1/2 e valor medio nullo, o la sua complementare. p(x)
0
x
Figura 5.1.4. Funzione errore complementare. Si ha erfc(x) = 1 − erf(x), e vale: erfc(x) = 2
Z x
∞
1 √ exp −x2 dx π
5.1. DIMENSIONAMENTO
81
Calcoliamo l’integrale nella (5.1.1). Posto y = (v − v0 )/σn , la (5.1.1) diventa 2 Z ∞ 1 y s − v0 √ exp − P (ε/0) = dy = Q s−a0 2 σn 2π σn Oppure, posto
x − a0 z= √ 2σn
si ha, sempre dalla (5.1.1) Z
∞
P (ε/0) = s−a √ 0 2σn
1 1 √ exp −z 2 dz = erfc 2 π
s − v0 √ 2σn
Sia in un caso che nell’altro si ottiene che la quantità che determina la probabilità d’errore nel caso di trasmissione di 0 è il rapporto s − v0 γ0 = σn Analogamente nel caso di trasmissione di 1 si ha v1 − s γ1 = σn Se la soglia è a metà tra v0 e v1 , cioé s = (v0 + v1 )/2, v1 − v0 γ0 = γ1 = γ = 2σn Tutto questo a valle del campionatore. Vediamo ora cosa succede a monte del campionatore, ipotizzando che il sistema usi forme d’onda antipodali. In questa ipotesi si ha v0 = −a, v1 = +a e quindi s = 0. Di conseguenza γ = a/σn . All’uscita del campionatore si hanno campioni +a o −a, con sovrapposto un campione di disturbo, che è una variabile casuale con valor medio nullo, varianza σn2 e statistica gaussiana. Se in uscita si vuole una certa probabilità di errore P (ε), bisogna fissare un valore di γ a valle del campionatore (punto 2 in fig. 5.1.1). Quindi, in definitiva, sapendo che il rumore è gaussiano, la soglia è a metà ed il sistema è antipodale, possiamo richiedere un dato rapporto tra valore campionato della forma d’onda in assenza di rumore e deviazione standard del rumore. Bisogna ora collegare queste quantità alle rispettive quantità a monte del campionatore: bisogna cioé passare dalle misure istantanee alle forme d’onda in uscita dal filtro di ricezione. A monte del campionatore, ad a corrisponde il valore di picco Vpicco della tensione v in assenza di rumore. Si tratta ora di vedere a cosa corrisponde la deviazione standard di rumore sn o, in altri termini, a cosa corrisponde la varianza dei campioni di rumore. È nota la densità spettrale di rumore in ingresso, e quindi anche la densità spettrale del rumore all’uscita del filtro di ricezione. Infatti, se all’ingresso la densità spettrale è hn (f ), all’uscita del filtro di ricezione sarà hnu (f ) = hn (f )|HR (f )|2 .
82
5. SISTEMA DI TRASMISSIONE NUMERICO
Ma la densità spettrale di un processo è la trasformata di Fourier della sua funzione di autocorrelazione. La funzione di autocorrelazione del rumore filtrato è definita come segue (5.1.3)
Rnu,nu (τ ) = E [n(t)n(t + τ )]
La funzione di autocorrelazione del processo rumore campionato è allora (5.1.4)
Rnc,nc (kT ) = E [n(jT )n(jT + kT )]
Si noti che la (5.1.3) dovrebbe essere in teoria una funzione di t e τ . D’altra parte il rumore termico è stazionario, almeno fino alla statistica del secondo ordine. In base a quanto detto si ha Rnc,nc (kT ) = Rnu,nu (kT ) cioé la funzione di autocorrelazione dei campioni di rumore all’uscita del campionatore è numericamente uguale al valore della funzione di autocorrelazione del rumore prima del campionamento, presa per ritardi discreti pari a multipli di T . Naturalmente tutto ciò non sarebbe valido nel caso di processo non stazionario. In base a quanto detto, la varianza del rumore all’uscita del campionatore è (processo a valor medio nullo), σn2 = Rnc,nc (0) In altri termini la varianza dei campioni di rumore è uguale alla varianza del processo rumore filtrato all’uscita del filtro di ricezione. Siccome il rumore, oltre che stazionario, è un processo ergodico, è possibile legare la varianza della variabile casuale rappresentata dal valore del rumore campionato in un istante qualsiasi, ad una quantità che è una media temporale, cioé alla potenza media del rumore. In definitiva, per la stazionarietà si ha 2 2 σnu = σnc
Poiché il rumore all’uscita del filtro di ricezione è anche ergodico, si ha 2 2 σnu = σnc = Pmedia nu
con Pmedia nu = potenza media del rumore all’uscita del filtro di ricezione. Si noti che il processo costituito dai campioni del rumore (rumore campionato) non è stazionario: se infatti nella (5.1.4) si usa un generico t al posto di jT , si ottengono risultati diversi a seconda che t cada in un istante di campionamento (t = jT ) o meno. Riassumendo: si era stabilito un collegamento tra valore del segnale campionato all’uscita del filtro di ricezione e valore di picco della forma d’onda all’uscita del filtro stesso. Ora si è stabilito un legame di uguaglianza tra varianza dei campioni di rumore dopo il campionatore e potenza media del rumore che esce dal filtro di ricezione. Si ha allora, a monte del campionatore Vpicco /VN ef f .
5.1. DIMENSIONAMENTO
83
Se dal rapporto di tensioni si passa al rapporto di potenze si ottiene il rapporto segnale rumore al campionatore. 2 S Ppicco = N u PN media Deve essere S (5.1.5) = γ2 N u Quindi si è legato, nel caso di forme d’onda antipodali, il valore di γ al rapporto segnale rumore all’uscita del filtro di ricezione. A questo punto è possibile dimensionare la potenza di segnale necessaria all’ingresso del filtro di ricezione. Per passare dal rapporto segnalerumore all’uscita del filtro, S/N|u , a quello all’ingresso, S/N|R , è necessario ovviamente considerare il filtro. Abbiamo già visto, quando abbiamo trattato il sistema radar, che se si vuole usare come filtro di ricezione quello che sfrutta al meglio la forma d’onda ricevuta è necessario usare il filtro adattato. Tale filtro si deve adattare non solo alla forma d’onda ricevuta, ma anche alla densità spettrale del rumore sovrapposto. Se il rumore è bianco, come supposto fino ad ora, il filtro è il classico filtro adattato. Ricordiamo che, usando il filtro adattato, il massimo rapporto segnale-rumore all’uscita è esprimibile in funzione dei parametri all’ingresso del filtro attraverso il rapporto tra l’energia della forma d’onda ricevuta e la densità spettrale bilatera della potenza di rumore disponibile S ER = N u hn /2 Dividendo numeratore e denominatore per T, l’ultima espressione si può scrivere S PS media (5.1.6) = N u hn fs /2 Si ottiene così al numeratore la potenza media di segnale, e al denominatore la potenza media del rumore all’ingresso, ma misurata in una banda equivalente pari a fs /2. A questo punto, avendo la tabella della funzione Q(x) o della erfc(x), si può determinare il valore di γ a partire dalla probabilità di errore. Per la (5.1.5) si può calcolare S/N|u e quindi, ipotizzando di usare il filtro adattato, dalla (5.1.6) si può calcolare la potenza media necessaria in ricezione. Tutto il discorso è stato fatto ed è valido per un sistema antipodale, per il quale ha senso chiamare la quantità ER /T potenza media del segnale, in quanto in ogni periodo si presenta esattamente la stessa forma d’onda, positiva o negativa. Quindi per il simbolo relativo ad ogni periodo arriva lo stesso contributo di energia: quando si effettua la media si trova in effetti la potenza media. Vediamo cosa succede se, invece, si usa una codifica ortogonale, trasmettendo una forma d’onda per 1 e niente per 0. Si ha allora v0 = 0 e v1 = b. Si lascia la soglia a metà, 2In
tutto il corso si dice che la potenza è pari al quadrato della tensione ipotizzando unitario il livello di impedenza.
84
5. SISTEMA DI TRASMISSIONE NUMERICO
supponendo che possa essere una scelta sensata: in mancanza di una conoscenza dettagliata della statistica dei simboli l’unica ipotesi sensata è che siano equiprobabili. Supponiamo che la probabilità di errore sia la stessa, e che quindi anche γ sia uguale. Questa volta però si ha b/2 γ= σn Di conseguenza all’uscita del filtro di ricezione si ha Vpicco /2 VN ef f Passando al rapporto segnale-rumore si ha S PS picco = N u 4 PN media Se vogliamo confrontare ciò che si ottiene con i due tipi di codifica ortogonale e antipodale dobbiamo usare uno stesso filtro (che supponiamo adattato) in entrambi i casi: solo così siamo sicuri che il rumore all’uscita del filtro di ricezione è lo stesso e non varia al variare della forma d’onda inviata in linea. In questa ipotesi dall’ultima equazione scritta si ottiene ER ER /T S = = N u 4hn /2 4hn /2T ER è l’energia ricevuta quando c’è la forma d’onda, cioé nel caso di trasmissione di 1. La quantità ER /T non rappresenta più la potenza media del segnale in ricezione, essendo il rapporto tra energia della forma d’onda ricevuta e periodo di ripetizione dei simboli, non periodo di ripetizione della forma d’onda. Nell’ipotesi di simboli equiprobabili, P (0) = P (1), la quantità ER /T rappresenta il doppio della potenza media del segnale ricevuto e si può scrivere S 2PS media PS media = = N u 4hn fs /2 hn fs Dal confronto con la (5.1.6) si evince che, per ottenere da un sistema con codifica ortogonale la stessa probabilità di errore che si ottiene con codifica ortogonale, è necessario trasmettere una potenza media 3 dB superiore.3 Questo significa che, per avere la stessa probabilità d’errore, deve essere necessariamente b = 2a; in altri termini la tensione di picco in uscita dal filtro di ricezione, nel caso di codifica di linea ortogonale, deve essere doppia rispetto al valore di picco nel caso di codifica antipodale (cosa ovvia dato che ciò che conta è la distanza tra i valori medi delle gaussiane). Verifichiamo quanto affermato. Si noti che a e b non sono le ampiezze dei rettangoli in ricezione, bensì le massime uscite del filtro adattato in ricezione. Nel caso di codifica ortogonale, se Vo è il valore di picco del segnale, la potenza media è V02 /2, mentre nel caso di codifica antipodale è Va2 (se Va è il valore di picco del segnale). 3Se
i simboli non sono equiprobabili la differenza non è più 3 dB.
5.1. DIMENSIONAMENTO
85
Per quanto detto la potenza media nel caso ortogonale deve essere doppia rispetto a quella nel caso antipodale, cioé deve essere Vo2 /2 = 2Va2 , cioé Vo = 2Va . Quindi il valore di picco della forma d’onda rettangolare nel caso di codifica ortogonale deve essere pari al valore picco-picco della forma d’onda nel caso di codifica antipodale. La differenza di 3 dB tra le potenze medie nei due casi dipende dal fatto che la forma d’onda nel caso ortogonale è uguale a quella nel caso antipodale cui è però sovrapposta una continua che avrà una certa potenza. Quindi con la codifica antipodale è possibile risparmiare la spesa di inviare in linea una potenza media costante (tensione continua), che non porta informazione ed è del tutto inutile per il funzionamento del sistema di trasmissione. Esercizio. Si debbano trasmettere 100 Mb/s con una probabilità d’errore non superiore a P (ε) = 10−7 su 100 km di cavo che attenua 1 dB/km a 1 MHz, equalizzato passivamente. Dimensionare il sistema.
hn 14,5 dB
H R (f)
14,5 dB
−7
P( ε)=10
Figura 5.1.5. Dimensionamento della parte ricevente. È necessario calcolare il rapporto segnale-rumore all’uscita del campionatore che garantisca P (ε) = 10−7 : bisogna passare da P (ε) a γ. Si ipotizza rumore gaussiano (rumore termico) e soglia a metà. In queste ipotesi P (ε) = Q(γ). La funzione Q(γ) varia fortemente con γ. Per probabilità di errore da 10−3 a 10−9 si può dire approssimativamente che per cambiare di un ordine di grandezza la probabilità di errore ci vuole un cambiamento di γ di 1dB. Cioé affinché P (ε) diminuisca di un fattore 10, è necessario che γ aumenti di 1 dB. Ricordando che a P (ε) = 10−6 corrisponde γ = 13.5 dB, si possono stimare tutti gli altri valori. Nel nostro caso P (ε) = 10−7 e si ottiene γ = 14.5 dB. Si supponga di usare una codifica antipodale. Si può porre Ppu γ2 = → 14, 5 dB Pnu essendo Ppu = potenza di picco del segnale all’uscita del filtro di ricezione e Pnu = potenza media di rumore nello stesso punto. Bisogna ora passare a monte del filtro di ricezione. Si supponga di utilizzare un filtro adattato; in tal caso PRmedia → 14, 5 dB hn fs /2 Nota la rumorosità delle apparecchiature riceventi, si può valutare la minima potenza media necessaria in ricezione per rispettare i dati di progetto. La potenza media in ricezione deve essere PRmedia = 14.5 + (−174 + 10 + 10 log10 (50 · 106 )) = −72.5dBm
86
5. SISTEMA DI TRASMISSIONE NUMERICO
avendo ipotizzato un fattore di rumore di 10 dB. A questo punto si tratta di valutare l’attenuazione del mezzo trasmissivo, sommarla e trovare la potenza media in trasmissione. Il collegamento è lungo L = 100 km con un cavo con attenuazione α = 1 dB/km a 1 MHz. Le forme d’onda all’uscita del filtro di ricezione devono avere intersimbolo nullo e, se si ipotizza di adottare forme d’onda di Nyquist, si deve decidere il roll-off. Siccome quanto più piccolo è il roll-off, tanto minore è la banda occupata e poiché l’attenuazione del cavo cresce esponenzialmente con la radice quadrata della frequenza, non è del tutto equivalente usare δ = 0 o δ = 1. Nell’ipotesi di equalizzazione passiva, l’attenuazione effettiva da tenere in conto è s fmax √ αt = 1 = 100 = 10 dB frif avendo posto δ = 1. Occorrerebbe far fronte ad una attenuazione di 1000 dB e ciò è assurdo. Multitratta analogico. Come già visto, si deve ricorrere ad un sistema multitratta, spezzando il cavo ogni tanto ed inserendo delle apparecchiature di amplificazione. Ipotizzando che la potenza che ogni singolo trasmettitore può trasmettere sia PT = 100 mW, che le tratte siano tutte uguali e ricordando che all’uscita dell’ultima tratta serve un rapporto segnale-rumore S/N = 14.5 dB, si può calcolare quante tratte servono. Se si considera ognuna delle n tratte, deve essere αtot hn fs 14, 5 + 10log10 n ≤ PT |dBm − − n dB 2 dBm 14, 5 + 10log10 n = 20 − n=
1000 + 87 n
1000 ⇒n∼ = 13 92, 5 − 10log10 n
Multitratta rigenerativo. Si può, però, in questo caso, pensare di effettuare alla fine di ogni tratta tutte le operazioni che permettono di tornare ai simboli binari. In altri termini, invece di usare per ogni tratta apparecchiature di pura amplificazione, si usano apparecchiature rigenerative: si torna ai simboli binari in ogni apparecchiatura intermedia. Questo potrebbe essere necessario, ad esempio, per estrarre l’informazione strada facendo. Vediamo come si modifica il progetto del sistema. Ogni tratta è sostanzialmente un sistema di trasmissione numerico a sè stante: su ciascuna si potranno verificare degli errori, ma sarà praticamente impossibile (in effetti la probabilità non sarà nulla, ma molto piccola rispetto alla probabilità che il bit venga sbagliato solo in una tratta) che su più tratte si sbagli lo stesso bit. Si può allora dire che, mettendo in cascata tratte rigenerative, di tratta in tratta aumenta il numero medio di bit sbagliati, in quanto ai bit sbagliati su una tratta si aggiungeranno quelli sbagliati sulle tratte successive. Se la probabilità di errore è abbastanza piccola e se
5.2. ESTRAZIONE DEL TIMING
87
gli errori di tratta in tratta sono statisticamente indipendenti, si può dire che la probabilità di errore complessiva è pari alla somma delle probabilità di errore sulle singole tratte X Ptot () ∼ Pi () = i
Nel caso precedente di tratta in tratta si sommava il rumore. Siccome il rapporto segnale-rumore richiesto all’uscita era fissato in funzione della probabilità di errore desiderata, alla singola tratta era richiesto un rapporto segnale-rumore n volte più grande. In questo caso, siccome di tratta in tratta si sommano le probabilità di errore, il dimensionamento del sistema richiede che alla singola tratta venga richiesta una probabilità di errore n volte più piccola di quella complessiva. Questo vuol dire che il dimensionamento di ogni tratta va inteso come il dimensionamento di un sistema di trasmissione numerico al quale si deve richiedere la stessa velocità di cifra, ma probabilità di errore n volte più piccola. Il calcolo del numero di tratte si effettua imponendo che il rapporto segnale-rumore ottenibile sia maggiore o al più uguale ad un rapporto segnale-rumore corrispondente ad una probabilità di errore 10−7 /n. In definitiva si ha αtot hn fs − ≥ 14, 5 + log10 n n 2 Infatti se a P (ε)/10 corrisponde un aumento di 1dB = log10 10 nel rapporto segnale rumore, a P (ε)/n corrisponderà un aumento di log10 n. Si trova n = 11. Con l’uso di tratte rigenerative si ha un certo guadagno in quanto, ad ogni fine tratta, si ripulisce il segnale e si ritrasmette un segnale esente da rumore. Questo si traduce in una minore probabilità d’errore. La ragione del guadagno che si ottiene con l’uso di tratte rigenerative piuttosto che tratte di pura amplificazione risiede nel fatto che la probabilità d’errore dipende in maniera molto critica dal rapporto segnale-rumore: nel caso di tratte di pura amplificazione, di tratta in tratta si somma il rapporto tra rumore e segnale, mentre nel caso di tratte rigenerative si somma la probabilità d’errore. PT −
5.2. Estrazione del timing Tutto il discorso fatto si basa sulla condizione che il campionatore effettui il campionamento nel momento in cui il segnale in uscita dal filtro di ricezione raggiunge il massimo. Si pone allora il problema di far chiudere il campionatore nel momento giusto. Si può pensare di usare un oscillatore che oscilli alla frequenza desiderata e che comandi l’interruttore. Questo modo di procedere, tuttavia, non è sensato, dato che è impossibile fare oscillare due oscillatori, in ricezione ed in trasmissione, alla stessa frequenza. Anche ammettendo che le due frequenze di oscillazione possano essere identiche, sarebbe necessario che le fase dell’oscillatore in ricezione fosse in grado di identificare, all’interno del periodo di cifra, l’istante preciso di campionamento. La fase dell’oscillatore nel ricevitore dipende non solo da quella dell’oscillatore nel trasmettitore, ma anche dal ritardo subito dal segnale nel propagarsi lungo il mezzo trasmissivo.
88
5. SISTEMA DI TRASMISSIONE NUMERICO
In effetti si può usare un oscillatore al terminale ricevente, ma la sua fase dovrà essere agganciata a quella (riferimento di tempo assoluto) estratta dallo stesso segnale ricevuto. Vediamo come estrarre dal segnale ricevuto l’informazione di temporizzazione. Supponiamo che le forme d’onda siano rettangolari e supponiamo di fare una codifica NRZ (non ritorno a zero). In altri termini consideriamo delle forme d’onda rettangolari che mantengono il livello alto per tutto il periodo T (periodo di cifra) pari a T = 1/fs (fs = frequenza di cifra). Questo tipo di codifica ha il vantaggio che, a parità di valore di picco, l’energia della forma d’onda relativa a un simbolo è massima (si ricordi che l’uscita del filtro adattato è proporzionale all’energia della forma d’onda ricevuta, e quindi di quella trasmessa). Supponiamo allora di fare una codifica ortogonale NRZ. L’informazione di temporizzazione è contenuta nel segnale: le transizioni 1-0 e 0-1 avvengono infatti in istanti ben precisi.
T
t
Figura 5.2.1. Forme d’onda NRZ. Si può pensare di mandare questo segnale in un filtro passa banda molto stretto centrato attorno ad 1/T ; quello che ci aspettiamo all’uscita è qualcosa di simile ad una sinusoide a frequenza 1/T . In realtà in questo modo non si ottiene praticamente nulla all’uscita del filtro passa banda. Infatti il filtro fornirà in uscita una sinusoide a frequenza 1/T se e solo se nello spettro del segnale all’ingresso c’è una riga a frequenza 1/T . Il segnale che abbiamo considerato non potrà mai avere nel suo spettro una riga a frequenza 1/T , dato che lo spettro della singola forma d’onda (rettangolo), preso a se stante, è nullo a frequenza 1/T ed armoniche (sin(πf T )/πf T ). Di conseguenza ponendo tale forma d’onda direttamente all’ingresso del filtro passa banda si ottiene qualcosa solo perché la banda passante non può essere infinitesima e si raccattano componenti spettrali vicine alla frequenza 1/T che il filtro lascia passare. Si può pensare allora di usare forme d’onda rettangolari di durata τ < T . In questo
τ
T
t
Figura 5.2.2. Forme d’onda RZ. modo lo spettro della singola forma d’onda è tale da non essere nullo in 1/T . La riga
5.2. ESTRAZIONE DEL TIMING
89
spettrale può esserci o meno: tutto dipende da come si combinano le componenti spettrali, relative a frequenza 1/T e armoniche, quando si considerano le forme d’onda nel loro complesso. Ricordando che lo spettro della forma d’onda rettangolare centrata a zero è sin(πf t)/πf t, si ha che lo spettro di una forma d’onda traslata sarà del tipo sin (πf τ ) exp (−ωnT ) πf τ Visto che la singola forma d’onda ha spettro non nullo a frequenza 1/T e che gli spettri delle forme d’onda ritardate di nT differiranno per un fattore exp (−ωnT ), le componenti a frequenza 1/T e armoniche degli spettri delle forme d’onda ripetute regolarmente a distanza T si combineranno costruttivamente poiché k exp (−ωnT ) = exp (−2πf nT ) = exp −2π nT = 1 T mentre le altre finiranno con l’annullarsi (ricordiamo che lo spettro di un segnale periodico è a righe). Nel caso di un sistema di trasmissione numerica il segnale non è perfettamente periodico e quindi lo spettro non potrà essere solo a righe, pur essendo queste presenti nello spettro. Nell’esempio che si sta considerando, infatti, i fronti di salita e di discesa della forma d’onda non sono più regolarmente a distanza T , per cui le sollecitazioni al filtro non sono più tali da sollecitarlo con pari probabilità ad oscillare in fase ed in controfase ed una oscillazione a frequenza 1/T si mantiene, anche se di ampiezza variabile nel tempo. Lo spettro in definitiva è costituito da una parte a righe e da una parte continua: si ha un impulso a frequenza zero perché il valor medio del segnale è non nullo, e delle righe di ampiezza da determinare a frequenza 1/T e armoniche. Sovrapposta si ha una parte di spettro continuo dovuta al fatto che non c’è regolarità nella ripetizione delle forme d’onda
f
Figura 5.2.3. Spettro misto (a righe con componente continua). La codifica di linea di cui abbiamo appena parlato è del tipo RZ (ritorno a zero). Con essa si ha sicuramente una penalizzazione in termini di energia della singola forma d’onda (a parità di valore di picco) e, oltre a ciò, si ha anche una perdita in termini di banda occupata, dato che la banda occupata da un impulso di durata τ è sicuramente maggiore di quella occupata da un impulso di durata T > τ . Ne consegue che è preferibile non usare forme d’onda di questo tipo, a meno che non si possa fare altrimenti.
90
5. SISTEMA DI TRASMISSIONE NUMERICO
In ogni caso non è sempre vero che basti usare codifica RZ per assicurarsi della presenza della riga a frequenza 1/T . Basts considerare una codifica RZ antipodale (impulso positivo per 1 ed impulso negativo per 0).
t
Figura 5.2.4. Forma d’onda RZ antipodale. In questo caso, se i simboli 1 e 0 sono equiprobabili, il fatto che la singola forma d’onda non vada a zero a frequenza 1/T non basta a garantire la presenza della riga nel segnale di uscita. Se S(f ) è lo spettro della singola forma d’onda (positiva), si ha che S(1/T ) è non nullo. D’altra parte lo spettro del rettangolo negativo è −S(f ). Se i simboli sono equiprobabili, si ha in media la stessa probabilità di avere rettangoli positivi o negativi, ovvero la stessa probabilità di avere S(fs ) oppure −S(fs ). Quando si effettua la media (filtraggio passa banda) non si ottiene nulla in uscita: la riga dello spettro non c’è perché viene cancellata quando si effettua la media sui simboli. Il filtraggio è necessario perché bisogna estrarre il timing (l’istante di campionamento) sganciandosi dai fastidi generati dal rumore sovrapposto: l’unico modo per eliminare il rumore è filtrare con un filtro molto stretto attorno alla frequenza 1/T . Notiamo, d’altra parte, che, dato che lo spettro del segnale è sia a righe che continuo, usando un filtro molto largo si considera non solo la riga a frequenza 1/T di interesse, ma anche quella parte di spettro continuo che rappresenta il comportamento pseudocasuale dipendente dalla successione di 1 e 0 in trasmissione. È chiaro che tale termine di spettro continuo crea lo stesso fastidio di un rumore sovrapposto alla portante in FM: il rumore passa banda può essere rappresentato come una sinusoide di frequenza pari alla frequenza centrale, modulato in ampiezza e fase in modo casuale. Questo significa che la fase della sinusoide sarà sporcata e quindi gli istanti di campionamento (di attraversamento dello zero) saranno spostati. È quindi necessario che il filtro che deve estrarre la sinusoide (la riga dello spettro), sia quanto più stretto possibile, in modo da lasciar passare la riga spettrale ma eliminando quanto più possibile sia il rumore che la parte continua dello spettro del segnale. Un tale filtro deve avere una risposta all’impulso che si smorza molto lentamente e, quindi, un’inerzia temporale estremamente lunga: è quindi un filtro che effettua una media sulle sollecitazioni provenienti da numerose forme d’onda adiacenti. Vale la pena di osservare che nel caso di codifica antipodale è possibile ricondursi ad una quasi perfetta periodicità del segnale (se non fosse per il rumore) mediante un raddrizzatore a doppia semionda: a meno del rumore si ha, infatti, uno spettro a righe. Un raddrizzatore a singola semionda permetterebbe di presentare al filtro solo gli impulsi positivi e, in questo modo, evitare la cancellazione della riga a frequenza fs . In questo
5.2. ESTRAZIONE DEL TIMING
91
caso, però, anche in assenza di rumore il segnale non è più perfettamente periodico ed il suo spettro è in parte a righe ed in parte continuo. Tornando al problema di trovare un segnale di comando per il campionatore, si può procedere come in figura 5.2.8. H(f)
m.t.
raddrizz.
filtro
soglia
sfasatore
trigger
Figura 5.2.5. Schema a blocchi dell’estrattore del timing. Il segnale ricevuto viene inviato ad un raddrizzatore (a singola o a doppia semionda), e quindi in un filtro passa banda molto stretto. All’uscita del trigger si ottiene un impulso molto stretto in corrispondenza degli attraversamenti dello zero (con pendenza positiva) della sinusoide. Con tali impulsi si può comandare il campionatore. Tali impulsi saranno perfettamente sincroni con la frequenza di trasmissione fs , e saranno anche in relazione di fase fissa rispetto alle forme d’onda ricevute e quindi alle forme d’onda in uscita dal filtro di ricezione. Non è però garantito che la suddetta relazione di fase sia tale da far combaciare gli impulsi con i massimi delle forme d’onda in uscita: il segnale ed i sincronismi percorrono infatti strade diverse, per cui è necessario prevedere uno sfasamento temporale relativo tra le forme d’onda di comando e quelle in uscita dal filtro di ricezione. In altri termini è necessario poter inserire un ritardo arbitrario, regolabile dall’operatore. Si può pensare di mandare la forma d’onda di comando in un ritardatore regolabile, ma ciò significa applicare ad una forma d’onda a banda larga (impulsi stretti nel tempo) un operatore che richiede un’ampiezza della funzione di trasferimento costante ed una fase rigorosamente rettilinea. È molto più semplice applicare un ritardo ad una sinusoide perché in questo caso è importante solo la caratteristica del filtro alla frequenza della sinusoide stessa. È per questi motivi che, per spostare la posizione relativa tra gli impulsi di comando e le forme d’onda che escono dal filtro di ricezione, si inserisce uno sfasatore in cascata al filtro passa banda (dal quale esce una sinusoide) e prima del circuito di trigger.4 A questo punto si tratta di regolare lo sfasamento in modo che il campionamento avvenga nell’istante di massimo. Si può usare un oscilloscopio, in cui l’asse orizzontale sia sincrono con gli impulsi di comando, in modo da vederli fissi sullo schermo. Nel caso di codifica antipodale, all’uscita del filtro di ricezione, si ottiene una forma d’onda che è massima nel generico istante di campionamento ed è nulla negli istanti vicini. In ciascun istante tale forma d’onda sarà positiva se è stato trasmesso 1, negativa se è stato trasmesso 0. Mandando tali forme d’onda a comandare l’asse verticale di un oscilloscopio triggerato con gli impulsi di campionamento, si ottiene qualcosa del tipo 4Si
ricordi che solo per una sinusoide sfasamento equivale a ritardo.
92
5. SISTEMA DI TRASMISSIONE NUMERICO
t −T
T
0
Figura 5.2.6. Diagramma a occhio
In questo modo si verifica innanzitutto che gli impulsi di controllo sono sincroni con la forma d’onda in ricezione: in caso contrario non sarebbe possibile vedere il diagramma ad occhio, in quanto si otterrebbe una figura instabile. La regolazione dello sfasatore si effettua come segue: su un canale dell’oscilloscopio a doppia traccia si visualizzano gli impulsi di comando e sull’altro l’andamento delle forme d’onda. Lo sfasatore viene regolato fino a quando gli impulsi non si spostano in corrispondenza dei massimi delle forme d’onda. Naturalmente in quanto si è detto si è ipotizzato che il rumore sovrapposto fosse nullo e che il filtro di ricezione fosse ben progettato, in modo che le code dei segnali che precedono siano smorzate. In caso contrario, cioé in presenza di rumore e di intersimbolo non nullo, ogni forma d’onda avrà andamento dipendente dai simboli precedenti e seguenti: non si ottengono delle tracce nitide, ma più spesse. È chiaro che quanto più le tracce si inspessiscono, tanto meno il sistema è vicino al comportamento ideale. L’apertura verticale dell’occhio diminuisce, avvicinando così i valori di tensione relativi ad un simbolo a quelli relativi all’altro simbolo. In definitiva, l’apertura verticale dell’occhio permette di valutare la immunità al rumore del sistema. L’apertura orizzontale, invece, permette di valutare di quanto può essere sbagliata la posizione dell’impulso di campionamento senza che si commettano errori di interpretazione dei simboli, ovvero permette di valutare l’immunità al jitter. La valutazione di questo parametro è importante per il motivo che segue. La banda del filtro di ricezione non potrà essere infinitesima, ragion per cui esso prenderà in considerazione non solo la riga spettrale desiderata, ma anche parte dello spettro circostante, che, anche nel caso di spettro a righe (segnale perfettamente periodico), è costituito da rumore.
f
Figura 5.2.7. Filtraggio della riga spettrale.
5.2. ESTRAZIONE DEL TIMING
93
Il segnale in uscita dal filtro è rappresentabile, in termini di vettori rotanti, da un vettore rappresentante la sinusoide pulita, con in aggiunta del rumore, rappresentabile come termine in fase e termine in quadratura (ricordiamo che tale scomposizione è valida per qualunque segnale passa banda). Queste componenti sono casuali, e quindi in uscita dal filtro passa banda si ottiene una sinusoide che ha un termine di modulazione casuale, la cui ampiezza dipende dal termine di disturbo sovrapposto alla riga spettrale. Di conseguenza gli istanti di attraversamento dello zero della sinusoide variano attorno ai valori teorici desiderati. Questo significa che non è mai possibile campionare a passo regolare, avendo sempre una certa fluttuazione attorno agli istanti teorici (jitter). Risulta quindi evidente che è necessario che l’apertura orizzontale dell’occhio sia sufficientemente larga, in modo da non commettere errori a causa del jitter. Torniamo alle forme d’onda della famiglia di Nyquist. Abbiamo visto che forme d’onda con valori diversi di roll-off differiscono fra loro per la velocità con cui le code vanno a zero. Anche riuscendo a sintetizzare forme d’onda con roll-off nullo, esse non sarebbero comunque utilizzabili avendo code che decadono tanto lentamente da rendere infinitesima l’apertura orizzontale dell’occhio: basta quindi sbagliare di pochissimo l’istante di campionamento per far tendere a 0, 5 la probabilità di errore. È quindi evidente che, usando δ = 1, si paga in banda, che diventa più larga, guadagnando però una certa immunità dal jitter. Normalmente forme d’onda del tipo RZ si usano in contesti nei quali la banda non è costosa. Nel caso di trasmissione su cavo o per ponte radio si usano invece forme d’onda NRZ. Abbiamo visto che è necessario forzare le forme d’onda ad essere più corte per poter estrarre il sincronismo. Tale risultato è raggiungibile usando un derivatore. Il segnale in uscita al derivatore è mostrato in figura 5.2.8.
Figura 5.2.8. Risposta di un “derivatore” alla forma d’onda di figura 5.2.1. Si ottengono così delle forme d’onda RZ che sono però antipodali, nel senso che per ogni forma d’onda positiva ce n’è una negativa, per cui inviandole in un filtro passa banda non si ottiene la riga desiderata. Raddrizzando le forme d’onda negative, si riesce ad ottenere una maggiore regolarità, anche se non la perfetta periodicità (ragion per cui nel filtro arriverà sempre uno spettro a righe con una parte continua). Quando però ci sono più simboli uguali di seguito, vengono a mancare alcuni impulsi, ovvero il filtro passa banda non viene sollecitato. L’oscillazione tende allora a smorzarsi e la fase varia. Fino a quando ci sono delle sollecitazioni regolari e frequenti, il filtro passa banda fornisce una sinusoide che mantiene la coerenza con la sequenza di ingresso; se però esso viene lasciato oscillare
94
5. SISTEMA DI TRASMISSIONE NUMERICO
senza sollecitazioni, la fase varia. Si pone allora il problema di trovare delle forme d’onda da mandare in linea, tali che il fenomeno descritto si mantenga ad un livello tollerabile. Si usano particolari codici di linea, come il codice AMI (Alternated Mark Inversion). Si trasmette una forma d’onda per 1 e niente per lo zero. La forma d’onda relativa a 1 viene trasmessa alternativamente positiva e negativa.
0
1
0
0
1
NRZ binaria
1
0
0
t
0
1
0
0
1
1
0
0
t
AMI
Figura 5.2.9. Codice AMI. Naturalmente abbiamo aumentato la complessità, ma abbiamo anche garantito che, anche in presenza di una sequenza di simboli 1, ci siano sempre delle discontinuità. Abbiamo, infatti, derivando e raddrizzando, quanto mostrato in figura 5.2.10.
Figura 5.2.10. Estrazione del timing con codifica AMI. (da confrontare con la figura 5.2.8 Questo codice unisce al vantaggio di semplificare la temporizzazione, il fatto che ha valor medio nullo, permettendo così la telealimentazione (l’alimentazione in continua può essere facilmente separata dal segnale mediante un semplice trasformatore di disaccoppiamento). In questo modo si abbiamo ovviato all’inconveniente relativo alla trasmissione di più 1 di seguito. Resta ancora da risolvere l’analogo problema relativo alla trasmissione di più 0 consecutivi. Si passa allora al codice HDB-3 (High Density Binary Code). Esso si pone l’obiettivo di evitare che per più di tre periodi di cifra successivi non arrivino impulsi al circuito di estrazione del timing. Questo codice è una evoluzione del codice AMI. Supponiamo di voler trasmettere 100000011... Col codice AMI si ha quanto mostrato in figura 5.2.11 Col codice HDB-3, dopo tre zeri si invia un impulso. Se tale impulso rispettasse la regola dell’alternanza, il ricevitore lo interpreterebbe come un 1. Gli impulsi vanno quindi inseriti in modo tale che il ricevitore possa distinguerli da quelli effettivi di segnale: essi devono quindi violare la legge di alternanza. Si ha cioé quanto mostrato in figura 5.2.12
5.2. ESTRAZIONE DEL TIMING
1
0
0
0
0
1
0
0
95
1
t
AMI
Figura 5.2.11. Esempio di codifica AMI:
1
0
0
0
0
1
0
0
1
t
HDB3
Figura 5.2.12. Esempio di codifica HDB3. Questa procedura, tuttavia, porterebbe, in presenza di una sequenza molto lunga di 0, a variare localmente il valor medio. In questo caso si procede come mostrato in figura 5.2.13.
1
0
0
0
0
0
0
0
0 ?
0
t
HDB3
Figura 5.2.13. Esempio di codifica HDB3 in presenza di lunga seuenza di zeri. In questo modo il codice, per poter essere decodificato, ha bisogno di mantenere memoria degli ultimi quattro simboli ricevuti. Nel caso in figura il quinto simbolo è 0 perché dello stesso segno dell’ultimo impulso. Per decidere se il sesto simbolo è 0 o 1, bisogna aspettare di avere il nono simbolo: essendo questo impulso dello stesso segno, allora sia il sesto che il nono simbolo sono 0. Analogamente per decimo simbolo. Nel caso della figura 5.2.14 si ha una situazione totalmente diversa.
1
0
0
0
0
1
0
0
0 1
0
t
HDB3
Figura 5.2.14. Esempio di codifica HDB3 da confrontare con la figura 5.2.13 La decisione sul sesto simbolo dipende dalla forma d’onda relativa al decimo simbolo, come nel caso precedente. In definitiva, per trasmettere una sequenza di zeri si continua
96
5. SISTEMA DI TRASMISSIONE NUMERICO
ad immettere impulsi ai quali si fa violare la legge di alternanza. Un altro codice di linea usato è il codice Manchester, che è il codice RZ più usato. In esso i simboli 1 e 0 sono distinti da una transizione in salita o in discesa a metà del periodo.
1
0
0
1
1
0
t
Figura 5.2.15. Codice Manchester. Per la sincronizzazione si usa la trasizione che è sempre presente a metà periodo.5 Naturalmente, nella realtà, gli istanti di campionamento non sarammo mai quelli desiderati: sarà sempre presente il jitter del quale bisogna tener conto quando si valutano le prestazioni del sistema. 5.3. Rinuncia al filtraggio adattato. Il dimensionamento è stato effettuato usando la relazione secondo la quale il rapporto segnale-rumore al campionatore è pari a S ER = N c hn /2 Si badi che questa relazione lega una quantità all’uscita del filtro di ricezione (primo membro) ad una quantità all’ingresso dello stesso filtro (secondo membro): essa non è dunque valida sempre, ma vale solo se il filtro utilizzato in ricezione è il filtro adattato. A questo punto bisogna chiedersi se questo modo di procedere è il meglio che si possa fare. In realtà il filtro adattato non è l’ottimale. Ricordiamo infatti che è necessario che il segnale all’uscita del filtro appartenga alla famiglia di Nyquist (forma d’onda a intersimbolo nullo). Fissato il roll-off, resta vincolato il modulo dello spettro del segnale in ingresso al filtro. Questo significa che, a meno della caratteristica di fase, in trasmissione si è costretti a trasmettere delle forme d’onda con una ben precisa fisionomia: in caso contrario il filtro di ricezione non è più adattato e le forme d’onda all’uscita non sono più a intersimbolo nullo. S T (f)
H T (f)
S R (f)
oc
* R
S (f)
oc
S R (f)
2
Figura 5.3.1. Ricevitore con filtro adattato. Inoltre un progetto effettuato in questo modo sarebbe ottimo solo nel caso in cui il sistema ponesse vincoli in termini di potenza media: infatti il filtro adattato è ottimo nel senso che fornisce il massimo rapporto segnale-rumore (o equivalentemente garantisce la 5Si
ricordi che la mancanza della riga nello spettro può essere determinata da due diverse situazioni. Nel caso di forma d’onda NRZ è assente perché il sin(f )/f è nullo alla frequenza di interesse. Nel caso di forme d’onda RZ antipodali, lo spettro relativo allo 0 e quello relativo all’1 possono combinarsi in modo da fornire risultato nullo.
5.3. RINUNCIA AL FILTRAGGIO ADATTATO.
97
minima probabilità d’errore) a parità di potenza media ricevuta (e se il rumore sovrapposto è bianco). D’altra parte il parametro limitante nel dimensionamento di un sistema di trasmissione non è generalmente la potenza media ma la potenza di picco. L’unica forma d’onda che permette di usare con il massimo di efficienza un amplificatore è una forma d’onda rettangolare, che oscilla tra due valori di tensione estrema. A seguito di tali considerazioni, il filtro adattato non risulta più ottimo: se infatti non è la potenza media il parametro limitante, non ha più senso fare un progetto che tenta di ottimizzare le prestazioni in funzione della potenza media. Vediamo cosa succede in questa nuova situazione e paragoniamo le prestazioni che si potrebbero ottenere col filtro adattato con quelle che si ottengono con un generico filtro in ricezione. Stiamo praticamente imponendo che in trasmissione ci sia una ben precisa forma d’onda (rettangolo) e quindi non possiamo più usare un filtro adattato. Otteniamo allora hn S T (f)
H T (f)
H R (f)
Figura 5.3.2. Generico filtro di ricezione. ST (f ) è relativo a forme d’onda rettangolari di altezza a e durata τ , cioé si ha ST (f ) = aτ
sin (πf τ ) πf τ
Il nostro scopo è calcolare il rapporto segnale-rumore all’uscita del generico filtro di ricezione e confrontarlo con quello che si otterrebbe nell’ipotesi che si potesse usare il filtro adattato. La potenza di picco del segnale all’uscita del filtro di ricezione è Z +∞ 2 Pp = ST (f )HT (f )HR (f ) exp (ωtm ) df −∞
essendo tm l’istante in cui l’uscita del filtro di ricezione assume valore massimo. Il rapporto segnale-rumore si ottiene dividendo la potenza di picco del segnale per la potenza media di rumore. Indicando con hn la densità spettrale monolatera di rumore (supposto bianco), si ha R 2 +∞ sin(πf τ ) −∞ aτ πf τ HT (f )HR (f ) exp (ωtm ) df S = = R hn +∞ N |HR (f )|2 df 2 −∞ 2
=
a hn /2T
R +∞ τ 2 −∞
sin(πf τ ) HT (f )HR (f ) exp (ωtm ) πf τ R +∞ T −∞ |HR (f )|2 df
2 df
98
5. SISTEMA DI TRASMISSIONE NUMERICO
Otteniamo quindi (5.3.1)
S a2 = exp (−2αe ) N hn fs /2
essendo il rapporto tra gli integrali un rapporto adimensionale e quindi esprimibile come una generica attenuazione equivalente. Nel caso di filtro adattato l’espressione del rapporto segnale rumore era (5.3.2)
S PRm = N hn fs /2
Il denominatore è uguale nei due casi. Al numeratore della (5.3.2) si ha la potenza media ricevuta, mentre nella (5.3.1), a2 rappresenta la potenza di picco trasmessa, essendo a l’ampiezza del rettangolo trasmesso. D’altra parte, generalmente si usano forme d’onda NRZ, per cui τ è pari al periodo di cifra T e quindi la potenza di picco coincide con la potenza media. αe dipende dalla forma d’onda trasmessa (in questo caso da τ , dalla forma d’onda all’uscita del filtro di ricezione (cioé dal roll-off δ se tale forma d’onda appartiene alla famiglia di Nyquist), e dalle caratteristiche del mezzo trasmissivo. Vediamo come deve essere fatto HR (f ). Naturalmente tale filtro è univocamente determinato, una volta fissata la forma d’onda alla sua uscita (prima del campionatore) e la forma d’onda all’ingresso del mezzo trasmissivo (e quindi all’ingresso del filtro stesso). Il filtro può essere realizzabile o meno. Esso non è realizzabile quando la forma d’onda desiderata all’uscita ha bisogno di una componente spettrale non nulla ad una frequenza in corrispondenza della quale lo spettro del segnale in ingresso è nullo. Nel nostro caso la forma d’onda in trasmissione ha spettro del tipo sin (πf τ ) /πf τ con τ ≤ T e, quindi, in ingresso al filtro ha uno spettro che, qualunque sia il valore di τ , avrà il primo zero non prima di fs = 1/T , sempre che il mezzo trasmissivo non introduca lui degli zeri in frequenza.. Nel caso di progetto alla Nyquist, all’uscita del filtro, al variare del roll-off γ, si ottiene una delle forme d’onda in figura 5.0.10. Ci servono quindi in uscita componenti non nulle a tutte le frequenze tra 0 ed fs . In corrispondenza della frequenza fs , qualunque valore assuma δ, sicuramente ci va bene che l’uscita abbia spettro nullo. Questo significa che, qualunque sia il valore di τ , facendo un progetto alla Nyquist, il filtro è sempre e comunque realizzabile. Si noti che il valore di τ rappresenta un grado di libertà, non essendo stato fissato in alcun modo. La situazione migliore dal punto di vista del rendimento in termini di rapporto segnale rumore all’uscita in funzione dell’ampiezza della forma d’onda rettangolare trasmessa si avrà quando la forma d’onda ha durata pari al periodo di cifra e quindi τ = T . Il filtro di ricezione deve svolgere due funzioni (concettuali): deve equalizzare il mezzo trasmissivo e deve sagomare l’impulso ricevuto in modo che assuma la "forma" desiderata (spettro di Nyquist). Da un punto di vista esclusivamente concettuale esso è quindi rappresentabile come in figura 5.3.3 Supponendo di riuscire a equalizzare perfettamente il mezzo trasmissivo (mediante −1 HT (f )), si riottiene il rettangolo trasmesso, con spettro del tipo sin(πf τ )/πf τ .
5.3. RINUNCIA AL FILTRAGGIO ADATTATO. a
a τ
HT (f)
−1
τ
H T (f)
99
aτ
πfτ sin π fτ
SU (f)
a τ SU(f)
Figura 5.3.3. Schema a blocchi di mezzo trasmissivo e filtro di ricezione. La funzione di trasferimento che segue deve trasformare un impulso rettangolare in un impulso di Nyquist e può concettualmente essere scomposta in due filtri: uno deve piazzare un impluso dove prima c’era un rettangolo, cioé deve fare diventare piatto lo spettro, e quindi deve essere un filtro sbiancatore con funzione di trasferimento del tipo πf τ / sin(πf τ ). Naturalmente se il rettangolo aveva area aτ , l’area dell’impulso all’uscita, nella stessa posizione temporale del rettangolo, deve essere at. Il secondo filtro deve avere funzione di trasferimento pari allo spettro del segnale desiderato in uscita. Naturalmente questa è solo una schematizzazione concettuale: le funzioni HT−1 (f ) e πf τ / sin(πf τ ) prese a sè stanti sono infatti irrealizzabili. La prima perché richiederebbe una equalizzazione a banda infinita e la seconda perché richiederebbe di riempire lo spettro in quelle frequenze dove sicuramente all’ingresso c’era uno zero. La catena complessiva è invece implementabile dato che c’è il filtro con funzione di trasferimento Su (f ), che è una funzione di trasferimento di tipo passa basso (nel caso del progetto alla Nyquist) che si estende al massimo fino a frequenza fs . Di conseguenza, qualunque cosa possano fare i blocchi precedenti, non si otterrà in ogni caso nulla a frequenze superiori a fs . La limitazione di banda rende quindi realizzabili anche le funzioni di trasferimento precedenti. Ricordiamo che in realtà non si dovrà mai pensare di implementare separatamente le tre funzioni. Su (f ) deve essere uno spettro della famiglia di Nyquist. Sarà uno spettro reale e pari e quindi nel tempo si otterrà ancora una funzione reale e pari con massimo nell’origine. Noi campioniamo nell’istante di massimo e quindi ci serve l’antitrasformata di Su (f ) nell’istante zero: per una delle proprietà della trasformata di Fourier,si ha Z +∞ su (0) = Su (f ) df −∞
Nel nostro caso, qualunque sia il roll-off scelto, l’area sottesa dalla trasformata vale 1/T e quindi si ottiene su (0) = aτ /T . In definitiva bisogna porre HR (f ) =
πf τ H −1 (f ) Su (f ) sin (πf τ ) T
Per quanto riguarda il dimensionamento nel caso di un generico mezzo trasmissivo con una data funzione di trasferimento, nota la densità spettrale bilatera in ricezione hn /2, si può calcolare la potenza media di rumore nella banda fs /2. Il rapporto segnale rumore al campionatore è ottenibile dalla (5.3.1) una volta valutata l’attenuazione equivalente. Sappiamo che il filtro adattato è ottimo nel senso che, fissato un certo rapporto segnalerumore, fornisce la minimizzazione della potenza in ricezione, ed è ottimo quando il rumore è bianco.
100
5. SISTEMA DI TRASMISSIONE NUMERICO
Nel nostro caso non ci interessa minimizzare la potenza media in ricezione, ma al più la potenza media in trasmissione. Non è detto che un processo di ottimizzazione che minimizza la potenza media in ricezione corrisponda a una effettiva minimizzazione della potenza media in trasmissione. Questo è sicuramente vero solo se il mezzo trasmissivo è ideale (effettua una semplice moltiplicazione del segnale trasmesso per una costante molto minore di 1). Ricordiamo che lo scopo del discorso è fare un confronto tra filtro adattato e filtro non adattato. Per metterci in un contesto in cui il filtro adattato è ottimo dobbiamo ipotizzare che il mezzo trasmissivo sia ideale, cioé abbia funzione di trasferimento del tipo HT (f ) = exp (−αT ) con αT costante. In questa ipotesi la (5.3.1) diventa (5.3.3)
S a2 exp (−2αT ) = exp (−2αF ) N hn fs /2
perché la funzione di trsferimento del mezzo, essendo costante, può essere portata fuori dall’integrale. Tutto il resto può confluire in un fattore adimensionale che dipende solo dalle forme d’onda trasmesse ed all’uscita del filtro di trasmissione. Nella (5.3.3) tale fattore è rappresentato dall’esponenziale exp(−2αF ): esso può, pertanto, denominato come fattore di forma. Il numeratore rappresenta la potenza di picco ricevuta. Se τ = T , tale quntità coicide con la potenza media ricevuta. A questo punto abbiamo ottenuto una formula molto simile alla (5.3.2), cioé al rapporto segnale-rumore nel caso di filtro adattato. La differenza è costituita dalla presenza del fattore di forma che rappresenta la perdita di disadattamento del filtro di ricezione. Per effetture il confronto dobbiamo valutare l’entità del fattore di forma e confrontarla con quanto si guadagna in termini di efficienza dell’amplificatore in trasmissione. Se è grande, può convenire trasmettere forme d’onda ben precise e non rettangoli. Normalmente essa vale circa 0.5 dB. Di conseguenza la riduzione in termini di efficienza del sistema trasmissivo nel caso in cui non si usa il filtro adattato è tanto piccola da essere comparabile con fluttuazioni non controllabili del sistema. D’altra parte, a fronte di una riduzione dell’ordine di 1 dB, si può contare un incremento di efficienza del trasmettitore dell’ordine anche di 10dB (trasmettendo rettangoli si possono mandare gli amplificatori in saturazione). Non va, d’altro canto, trascurato il fatto che forme d’onda rettangolari occupano una banda più larga delle forme d’onda richieste da un progetto con forme d’onda ad intersimbolo nullo all’uscita di un filtro di ricezione adattato. La scelta va effettuata, di volta in volta, scegliendo il compromesso migliore che deve tener conto dei vincoli posti dal mezzo trasmissivo utilizzato. Può sorgere il dubbio che tutto il discorso sia valido solo nel caso in cui il mezzo trasmissivo sia ideale a tutte le frequenze. In realtà a noi non interessa che il mezzo trasmissivo sia ideale fino a frequenza infinita: basta che esso sia ideale, cioé abbia attenuazione costante pari ad αT , solo fino alla massima frequenza presente nello spettro del segnale all’uscita del filtro di ricezione (fino a fs se δ = 1, fino a fs /2 se δ = 0). In realtà il numeratore
5.4. EFFETTO DI DISTURBI GENERICI
101
della (5.3.3) non rappresenta l’effettiva potenza di picco dell’onda in ricezione: infatti se il mezzo trasmissivo non è ideale fino a banda infinita, in ricezione otteniamo forme d’onda rettangolari deformate. Tale numeratore rappresenta allora la potenza di picco che si avrebbe sotto forma di onde rettangolari se il mezzo trasmissivo avesse attenuazione αT fino a frequenza infinita. Il discorso effettuato resta comunque valido purché il mezzo trasmissivo abbia attenuazione costante fino a frequenza (1 + δ)fs /2. Se così è, si può procedere come se esso fosse ideale con attenuazione costante pari ad αT . A questo punto si può procedere nel dimensionamento imponendo che PST = γ 2 exp (2αe ) hn fs /2 La totale attenuazione equivalente αe è valutabile se si ha a disposizione una conoscenza dettagliata della funzione di trasferimento del mezzo trasmissivo. PST è la potenza di picco trasmessa. Se abbiamo un mezzo trasmissivo ideale con attenuazione αT , bisogna porre PSR = γ 2 exp (2αF ) hn fs /2 e in questo caso PSR rappresenta la potenza di picco in ricezione.6 Quindi in definitiva non ci sono molte differenze rispetto al dimensionamento effettuato col filtro adattato: basta saper valutare numericamente l’attenuazione equivalente o l’attenuazione dovuta al fattore di forma. Un discorso analogo a quello fatto per il mezzo trasmissivo vale per le forme d’onda in trasmissione: non è infatti necessario che esse siano rettangolari con i fronti esattamente verticali, ma basta che esse abbiano spettro tra 0 e (1 + δ)fs /2 coincidente con lo spettro della forma d’onda rettangolare. 5.4. Effetto di disturbi generici Trasmettendo segnali numerici su doppini nello stesso cavo è molto facile che su un doppino si induca, per accoppiamento capacitivo e induttivo, del disturbo generato non dal moto casuale dei portatori di carica, ma dalla corrente transitante nel doppino vicino che fa riferimento a un altro sistema di trasmissione. Oltre a ciò, nel caso di trasmissione numerica è molto importante la presenza di rumore impulsivo: nel caso di trasmisione analogica, infatti, un disturbo localizzato nel tempo è sopportabile, mentre nel caso di trasmissione numerica può avere effetti molto più deleteri, soprattutto se molto frequente. Vediamo allora come tenere in conto disturbi di altra natura rispetto al rumore termico. È ovvio ipotizzare che tali disturbi siano noti in termini di parametri statistici. Supponiamo allora che il disturbo d(t) abbia densità di probabilità p(d) nota. Si potrebbe pensare di sommare le potenze medie relative al rumore termico e al disturbo d(t) e procedere come già fatto nel caso di presenza di solo rumore termico. Questa operazione è tuttavia lecita solo nel caso in cui il disturbo d(t) abbia statistica gaussiana: 6Generalmente
si usano forme d’onda rettangolari di durata pari al periodo di cifra, per cui potenza di picco e potenza media coincidono.
102
5. SISTEMA DI TRASMISSIONE NUMERICO
normalmente questo non si verifica e pertanto è del tutto errato procedere come descritto. Quello che bisogna fare è innanzitutto riportare equivalentemente il disturbo d(t) all’uscita del filtro di ricezione. n(t)
d(t) H R (f)
Figura 5.4.1. Schema a blocchi del ricevitore con il disturbo inserito a monte del campionatore. Supponiamo un sistema di trasmissione binario antipodale. In assenza di rumore il sistema campionerebbe una tensione di segnale di valore +a nel caso di 1, −a nel caso di 0. Dato che la soglia è posta a metà, si può dire che la probabilità d’errore è a (5.4.1) P (ε) = Q σn In presenza del disturbo d(t), ma in assenza di rumore termico, non si misura più +a o −a, ma +a + d nel caso di 1 e −a + d nel caso di 0, essendo d il valore che assume una variabile casuale legata al campionamento del processo d(t) in un certo istante. Di conseguenza, avendo assunto d positivo, si passa dalla situazione ideale a quella della figura 5.4.2. p
−a −a+d
+a +a+d
v
Figura 5.4.2. Modello statistico di decisione con disturbo di valore +d aggiunto. Naturalmente la soglia non può essere spostata in funzione del valore di d essendo questa una variabile casuale. Se il valor medio di d è nullo, l’unica cosa da fare è lasciare la soglia fissa a zero. Naturalmente se il disturbo fosse deterministico pari a d, basterebbe spostare di d la soglia per riportarsi nelle condizioni iniziali. Nel nostro caso la probabilità d’errore aumenta: la (5.4.2) non è più vera perché la soglia non si trova più a metà. Prima infatti si aveva: a a a = P (0) Q + P (1) Q P (ε) = Q σn σn σn
5.5. SISTEMA DI TRASMISSIONE MULTILIVELLO
103
Nel caso di presenza del disturbo d si ha, invece: a−d a+d P (ε) = P (0) Q + P (1) Q σn σn È facile rendersi conto che in totale si ha un incremento della probabilità d’errore: a fronte di una traslazione delle gaussiane di una quantità pari a d, si è lasciata infatti fissa la soglia. Questo naturalmente equivale a lasciare fisse le gaussiane e traslare la soglia della quantità d nella direzione opposta. Ma ciò determina un aumento della probabilità d’errore. A questo punto, siccome ci interessa valutare la probabilità media d’errore, l’unica cosa che si può fare è valutare la probabilità d’errore condizionata al verificarsi di un certo evento e mediare rispetto a tale evento.. Se il processo di disturbo è continuo, si ha Z P (ε) = P (ε/d) p(d) dd 5.5. Sistema di trasmissione multilivello Dato un mezzo trasmissivo con banda passante di B Hz, la massima frequenza di cifra binaria teorica che può transitare su di esso (cioé la massima velocità teorica di trasmissione) è fs = 2B. Fino ad ora abbiamo fatto il progetto preoccupandoci solamente della limitazione in banda: abbiamo usato tutta la banda disponibile calcolando la potenza necessaria per ottenere determinate prestazioni. Ci chiedamo ora se, avendo esuberanza di potenza, essa possa essere sfruttata per aumentare la velocità di trasmissione. Supponiamo di avere un sistema binario antipodale. Se, avendo esubero di potenza, trasmettessimo le stesse forme d’onda ad un livello di potenza molto maggiore, per esempio dieci volte più grande, in uscita dal filtro di ricezione non troveremmo più i valori +a e −a, ma troveremmo +b e −b, congruamente maggiori. Questo vuol dire che le gaussiane si sposterebbero, allontanandosi, e quindi la probabilità d’errore subirebbe una notevole diminuzione, nel nostro caso di un fattore circa 10−10 . p
− 10 a
−a
+a
+ 10 a
v
Figura 5.5.1. Sistema binario con sovradimensionamento in potenza di un fattore 10. Questa situazione, con le gaussiane molto lontane tra loro, si presta a un possibile aumento di velocità di trasmissione, dato che non ci serve una probabilità d’errore così bassa, ma ci basta che resti invariata rispetto al caso precedente, in cui trasmettevamo un
104
5. SISTEMA DI TRASMISSIONE NUMERICO
livello di potenza inferiore. Ricordiamo che la probabilità d’errore dipende dalla varianza del rumore (apertura delle gaussiane) e dalla distanza tra i livelli di restituzione in assenza di rumore. Dato che per avere la probabilità d’errore desiderata basta una distanza 2a, tra livelli di restituzione molto distanti si può pensare di inserire altri livelli, purché almeno a distanza 2a tra loro e dai precedenti, ottenendo così un sistema che ha una capacità di trasmettere maggiore informazione per unità di tempo. Quanto detto equivale a usare le quattro forme d’onda della figura 5.5.2-b invece delle due forme d’onda della figura 5.5.2-a. 00 0
01
10
11
1
a
b
Figura 5.5.2. Livelli in trasmissione per sistema binario (a) e a quattro livelli (b), Se il ricevitore è in grado, con affidabilità sufficiente, di discriminare quale tra le quattro forme d’onda è stata trasmessa, si è ottenuto un sistema che permette di decidere, per ogni periodo di simbolo trasmesso (baud rate o frequenza con cui vengono inviate in linea le forme d’onda) quale forma d’onda è stata trasmessa. Naturalmente, per identificare le quattro possibili configurazioni sono necessarie due cifre binarie. Riuscendo a decidere quale forma d’onda è stata inviata, resta identificata una coppia di bit, e non più un solo bit. In questo caso, quindi, la frequenza di ripetizione delle forme d’onda in linea è diversa dalla frequenza di cifra binaria, in quanto ad ogni singola forma d’onda è associata una coppia di bit. In base a quanto detto, se la velocità della forma d’onda è x baud, la frequenza di cifra del sistema sarà 2x bit/sec. Vediamo ora come dimensionare un sistema multilivello che soddisfi l’utenza, ovvero che non superi una fissata probabilità d’errore.
−3c −2c
−c
0
+c +2c +3c
Figura 5.5.3. Modello statistico della decisione per un sistema a 4 livelli.
5.5. SISTEMA DI TRASMISSIONE MULTILIVELLO
105
Naturalmente non ha senso considerare i livelli a spaziatura diversa tra loro, dato che la varianza del rumore e la sua statistica non variano al variare della forma d’onda in arrivo. Le soglie sono poste come in figura. La probabilità d’errore è la probabilità di sbagliare livello, ovvero di ottenere in uscita un livello diverso da quello trasmesso. Se per esempio è stato trasmesso un livello che in ricezione dovrebbe produrre un valore−3c, e in ricezione si campiona il valore −1.9c, si deciderà per il livello −c, chiaramente errato. Chiamiamo p la probabilità di sbagliare livello; nell’esempio fatto essa è data dall’area segnata in figura. A noi interessa calcolare la probabilità media che il livello che dovrebbe arrivare venga confuso con un altro; tale probabilità vale (M − 2)2p + 2p M −1 (5.5.1) P (livello sbagliato) = = 2p M M essendo M i livelli. Per ogni livello interno è possibile confondere il livello trasmesso col precedente o col seguente, mentre per i livelli estremi c’è una sola possibilità d’errore. L’obiettivo è calcolare la probabilità media d’errore sul singolo bit. Naturalmente esiste una probabilità non nulla di confondere il livello trasmesso non con uno contiguo ma con uno più distante. Tale probabilità è data dall’area con tratto verticale nella figura 5.5.4.
−c
0
+c
+2c
+3c
Figura 5.5.4. Particolare del calcolo della probabilità di confondere un livello interno con un altro. È chiaro che tale probabilità è enormemente più piccola rispetto a quella relativa alla confusione del livello con uno contiguo (area tratteggiata).7 A rigore sarebbe quindi necessario calcolare non solo la probabilità dell’evento "confusione con livello contiguo", ma anche quella relativa agli eventi "confusione con livello a distanza 4c da quello trasmesso", "confusione con livello a distanza 6c da quello trasmesso", ecc... È evidente, però, che la probabilità di questi eventi è più piccola di alcuni ordini di grandezza rispetto a quella relativa all’evento "confusione con un livello adiacente", che risulta pertanto dominante rispetto agli altri. In base a quanto appena detto, è lecito ritenere che la probabilità p coincida con la probabilità di sbagliare con un livello contiguo (area tratteggiata in figura). In questa ipotesi, e nell’ulteriore ipotesi di associare a ciascuna forma d’onda una configurazione binaria secondo la numerazione Gray (che è un codice a distanza unitaria), è possibile 7Si
noti che la probabilità p non coincide con la probabilità data dall’area tratteggiata, ma è data dalla somma delle aree segnate in figura.
106
5. SISTEMA DI TRASMISSIONE NUMERICO
collegare l’evento "errore sul livello ricevuto" con l’evento "errore su un bit". Trascurando infatti gli eventi relativi a errori con livelli non contigui, l’evento "errore di livello" coincide con l’evento "errore con un livello contiguo"; dato che la configurazione binaria fra livelli contigui è fatta in maniera da differire al massimo per un bit, l’evento "errore di livello" coincide con l’evento "errore di un bit su n". La probabilità di sbagliare livello in ricezione, cioé di sbagliare un bit, è data dalla (5.5.1); la probabilità media d’errore per un sistema multilivello è allora 2p(M − 1) P (ε) = M log2 M Se prendiamo c = a, essendo a il livello in uscita dal filtro di ricezione, in presenza di una trasmissione binaria antipodale, che garantiva la probabilità d’errore desiderata, p coincide con la probabilità d’errore per un sistema binario antipodale con i livelli in ricezione posti in +a e −a.8Nell’ipotesi c = a, si ha quindi che p è la probabilità d’errore del sistema binario antipodale equivalente, ovvero di un sistema di trasmissione binario antipodale che, tra le quattro possibili forme d’onda in considerazione, utilizza semplicemente le due più interne. Aggiungendo a un sistema binario antipodale che garantisce la probabilità d’errore richiesta, delle forme d’onda di ampiezza via via più grande, in modo tale che in ricezione si ottengano all’uscita dello stesso filtro valori (negli istanti di campionamento) che distano di una quantità 2a, pari alla distanza fra i due livelli originali, si passa a un sistema multilivello che consente approssimativamente la stessa probabilità media d’errore sul bit, con una velocità log2 M volte maggiore. Questa maggiore velocità si paga naturalmente in termini di potenza, oltre che con una maggiore complessità sia in ricezione che in trasmissione. Vediamo quanto si paga in termini di potenza. Usando M livelli, l’ampiezza della forma d’onda più grande sta in un rapporto con l’ampiezza della forma d’onda relativa al binario equivalente pari a M − 1. Se PB è la potenza che si trasmetteva nel caso di sistema binario antipodale, la potenza di picco che bisogna trasmettere nel caso di sistema multilivello a M livelli è allora PpM = (M − 1)2 PB La potenza media è invece9 PmM = PB (M 2 − 1)/3 Si noti che non sempre, pur avendo a disposizione potenza in sovrappiù, conviene passare da un sistema binario antipodale a un sistema multilivello. In genere è necessario tener conto del mezzo trasmissivo con cui si ha a che fare. La presenza di echi nel segnale ricevuto può essere particolarmente deleteria. Tale tipo di interferenza assume molta più importanza nel caso di un sistema multilivello che non nel caso di un sistema binario. 8È
ovvio che le gaussiane sono sempre uguali, in quanto si ipotizza di usare lo stesso mezzo trasmissivo e le stesse apparecchiature. Si passa semplicemente da due possibili livelli di ampiezza della forma d’onda trasmessa a quattro. Si usano quindi le stesse forme d’onda, che avranno stessa banda, e, di conseguenza, anche la varianza di rumore rimane la stessa. 9Nel caso binario antipodale, con forme d’onda rettangolari, potenza media e potenza di picco coincidono.
5.5. SISTEMA DI TRASMISSIONE MULTILIVELLO
107
Si noti ancora che, anche nel caso in cui i bit non sono equiprobabili, si può fare in modo che lo diventino. Non è possibile, infatti, permettere che una particolare configurazione di simboli binari possa creare problemi. In questi casi si effettua una operazione di scrambling, ovvero si mischiano i bit in modo tale che, dopo questa operazione, essi diventino equiprobabili. Sarebbe utile poter effettuare tale operazione in maniera assolutamente casuale: in questo modo, però, non sarebbe più possibile ricostruire il messaggio trasmesso. Si ricorre, quindi, a sequenze con funzione di autocorrelazione quanto più corta possibile: sequenze che sono dette pseudocasuali. In tali sequenze le variazioni da 1 a 0 e viceversa avvengono in maniera deterministica e, quindi, ricostruibile sia da parte del trasmettitore sia da parte del ricevitore. In questo modo, effettuando uno XOR tra una sequenza pseudocasuale del tipo descritto e una qualsiasi sequenza in ingresso, si ottiene una sequenza pseudocasuale. Al ricevitore è disponibile la stessa sequenza pseudocasuale con cui è stato effettuato lo XOR al trasmettitore: effettuando uno XOR tra questa sequenza e la sequenza pseudocasuale ricevuta, si può ricostruire la sequenza originale. Con le sequenze pseudocasuali descritte è quindi possibile "mischiare" in modo recuperabile i bit e fare in modo che anche una sequenza in cui i bit fossero fortemente non equiprobabili, alla fine emerga con simboli equiprobabili.
CAPITOLO 6
Modulazione numerica 6.1. Introduzione Finora si è considerato un mezzo trasmissivo passa-basso. Vediamo ora quali modifiche richieda un canale trasmissivo passa-banda. Il comportamento passa-banda del canale non altera in alcun modo le considerazioni che hanno portato al filtro adattato: una funzione di trasferimento SR∗ (f ) per il filtro di ricezione sarebbe ancora in grado di garantire il miglior rapporto S/N in uscita. Di difficile implementazione, però, una funzione di trasferimento che sia adattata alla effettiva caratteristica di fase dello spettro del segnale ricevuto! Anche l’assenza di intersimbolo — assicurata da uno spettro che, ripetuto a passo 1/T , dia luogo ad una costante — non è a priori incompatibile con una funzione di trasferimento del mezzo trasmissivo (e, quindi, con uno spettro delle forme d’onda ricevute) di tipo passabanda. Per rendersene conto, basta considerare una forma d’onda con spettro rettangolare come quello di una forma d’onda di Nyquist con δ = 0, ma traslato in frequenza. La figura 6.1.1 ne dà la rappresentazione in frequenza e nel tempo: gli zeri a distanza T sono, ovviamente, al loro posto, ma il valore per t = 0 può non corrispondere al richiesto massimo. Ne consegue che la teorica possibilità di usare forme d’onda ad intersimbolo nullo |SR(f)|
f
Figura 6.1.1. Spettro rettangolare passa-banda e forma d’onda corrispondente. di tipo passa-banda si scontra con la necessità che lo spettro sia spostato di una frequenza legata al baud rate ed abbia un termine di fase appropriato! In ogni caso risulterebbero molto più stringenti i requisiti di precisione per l’estrattore del timing e le conseguenze di un sia pur piccolo errore. 109
110
6. MODULAZIONE NUMERICA
6.2. Modulazioni numeriche Tali complicazioni, però, sono inutili, alla luce di quanto visto nel capitolo 3. Per applicare le considerazioni del capitolo precedente a sistemi trasmissivi numerici passa-banda è sufficiente far ricorso a tecniche di modulazione. Tutto quanto studiato con riferimento alle modulazioni d’ampiezza o angolare analogiche si può applicare anche al caso della trasmissione numerica, tenendo ben presenti le peculiarità di tali sistemi. Cominciamo dalla modulazione di ampiezza, che modifica l’ampiezza della portante trasmessa in accordo con la forma d’onda da trasmettere. Nel caso numerico si parla di ASK (Amplitude Shift Keying). L’estensione del semplice esempio di figura 5.0.1 è riportato in figura 6.2.1: in corrispondenza della trasmissione di un 1 si trasmette la portante, mentre per la trasmissione di uno 0 non si trasmette niente. Questo modo di procedere è descrivibile come una modulazione d’ampiezza della portante da parte di una forma d’onda costituita da rettangoli positivi quando si deve trasmettere degli 1 e nulla quando si devono trasmettere degli 0. Questo tipo di modulazione è detta del tipo “tutto o niente” (OOK on-off keying) ed il modulatore può essere implementato mediante un semplice interruttore che mette a massa l’uscita dell’oscillatore che genera la sinusoide portante.
Figura 6.2.1. Modulazione OOK. Nel contesto della trasmissione numerica un tale tipo di codifica di linea si è detta ortogonale e si è visto che non rappresenta il meglio dal punto di vista dello sfruttamento della potenza trasmessa. Meglio sarebbe una codifica antipodale, che invii sul mezzo trasmissivo forme d’onda identiche, a meno del segno. È il caso di osservare che le forme d’onda da considerare, per giudicare se si tratta di codifica antipodale o meno, sono esclusivamente quelle che si propagano lungo il mezzo trasmissivo. Un semplice modo di trasformare l’esempio precedente in un esempio di codifica antipodale consiste nell’usare rettangoli positivi per trasmettere gli 1 e rettangoli negativi per trasmettere gli 0. L’ASK è utilizzabile anche con forme d’onda modulanti di forma qualsiasi, come mostrato nella figura 6.2.2.
Figura 6.2.2. Modulazione ad inviluppo costante e ad inviluppo non costante.
6.2. MODULAZIONI NUMERICHE
111
In entrambi i casi si può quindi parlare di modulazione di ampiezza. È ovvio, però, che tra questi due casi c’è una differenza sostanziale: nel caso di modulante rettangolare in uscita si ottiene una sinusoide che cambia solo la fase ogni volta che il segnale modulante cambia segno. Nel caso di segnale modulante qualsiasi, invece, si ha ancora una variazione di fase della portante in corrispondenza dei cambiamenti di segno del segnale modulante ma, in più, si ha una variazione anche dell’ampiezza della portante in accordo all’andamento del segnale modulante. Nel primo caso, perciò, si può parlare di modulazione numerica di fase o PSK (Phase Shift Keying), mentre nel secondo caso si deve parlare propriamente di ASK. 6.2.1. Efficienza spettrale e modulazioni multilivello. Nella trasmissione su canale passa-basso si è visto come sia teoricamente possibile inviare 2B forme d’onda al secondo su un canale con banda B. Se si ricorre alla modulazione d’ampiezza si ha una penalizzazione di un fattore 2, legata al fatto che lo spettro della portante modulata occupa una banda doppia di quella del segnale modulante, essendoci la banda laterale superiore e la banda laterale inferiore. Per ovviare a questo inconveniente si potrebbe pensare di usare la modulazione in banda laterale unica (SSB), dato che il contenuto informativo delle bande laterali inferiore e superiore è lo stesso. Per poter utilizzare la SSB è tuttavia necessario che lo spettro del segnale non si estenda fino alla continua, essendo necessario, in fase di modulazione, isolare una banda rispetto all’altra. Ma nel caso di trasmissione numerica lo spettro delle forme d’onda utilizzate deve partire da frequenza 0: è quindi evidente che non si può usare la SSB. In casi come questi si può pensare di usare la modulazione in banda laterale parzialmente soppressa (VSB). Si ricordi, però, che ogni volta che si usa un sistema di modulazione di ampiezza in cui non c’è bilanciamento tra le bande laterali, sbagliando la fase dell’oscillazione locale non si ottiene solo qualche dB di perdita nel rapporto segnale/rumore, ma si ottiene una forma d’onda che cambia in funzione dell’errore di fase. In questo modo non si riesce più a controllare l’intersimbolo. Usando la modulazione in banda laterale parzialmente soppressa si diventa troppo sensibili agli errori di fase in sede di demodulazione. Si preferisce utilizzare metodi di modulazione d’ampiezza in cui le due bande laterali rimangono, nel segnale trasmesso, perfettamente bilanciate; in questo caso, infatti, un errore di fase si traduce semplicemente in un peggioramento del rapporto segnale-rumore, che può essere compensato con un opportuno sovradimensionamento del trasmettitore. Un sistema di modulazione d’ampiezza in doppia banda laterale, peraltro, si presta all’utilizzo di due portanti in quadratura. La demodulazione di un segnale modulato DSB si effettua moltiplicandolo per una sinusoide sincrona con la portante, con un successivo filtraggio passa basso che permette di ricostruire il segnale modulante. Questa operazione funziona solo se l’oscillazione locale è perfettamente sincrona con il segnale in arrivo; in caso contrario in uscita dal filtro passa basso si ottiene un segnale attenuato o addirittura nullo, nel caso in cui lo sfasamento sia di 90o . Per comodità si
112
6. MODULAZIONE NUMERICA s(t) cos ω t °
cos ω t °
Figura 6.2.3. Effetto della moltiplicazione di una portante modulata d’ampiezza per una oscillazione locale coerente. ripetono calcoli già fatti. Se la portante è in fase col segnale s(t) cos ωo t2 cos ωo t = 2s(t) cos2 ωo t = s(t) + s(t) cos 2ωo t Se invece c’è uno sfasamento ϕ s(t) cos ωo t2 cos(ωo t + ϕ) = = 2s(t) cos(ωo t) (cos(ωo t) cos ϕ − sin(ωo t) sin ϕ) = = 2s(t) cos2 (ωo t)cosϕ − s(t) sin(2ωo t) sin ϕ = = s(t)cosϕ + s(t) cos ϕ cos(2ωo t) − s(t) sin ϕ sin(2ωo t) = = s(t)cosϕ + s(t)cos(2ωo t + ϕ) Il segnale in uscita dal filtro passa basso dipende quindi da cos ϕ, ed è nullo per ϕ = 90o . Questa osservazione (il segnale in uscita dal filtro è nullo se l’oscillazione è in quadratura con la portante), permette la realizzazione del sistema seguente. ^s (t) 1
s 1(t)
sin ω t °
sin ω t °
mezzo trasmissivo
^s (t) 2
s2 (t)
cos ω t °
cos ω t °
Figura 6.2.4. In esso si fa propagare contemporaneamente, sullo stesso mezzo trasmissivo, una portante seno e una portante coseno, modulate da due segnali differenti. In questo modo si riesce a realizzare sullo stesso canale fisico e quindi all’interno della stessa banda occupata, la trasmissione di una quantità di informazione doppia. Tale tipo di modulazione non si usa normalmente nel caso di segnali analogici, in quanto non si riesce a garantire l’assoluta ortogonalità tra le due portanti e, quindi, una parte del segnale che modula una portante finisce all’uscita del demodulatore dell’altra portante. Nel caso di trasmissione numerica ciò crea un po’ di interferenza tra un canale e l’altro ma, finché tale interferenza è sufficientemente piccola da garantire una buona discriminazione dei livelli, non ci sono problemi. In questo caso è quindi possibile l’uso di due portanti in quadratura.
6.2. MODULAZIONI NUMERICHE
113
Vediamo come si possano schematizzare in modo più diretto i tipi di modulazione numerica che utilizzano portanti in quadratura. Si usa la rappresentazione mediante vettori rotanti: una portante modulata d’ampiezza è rappresentabile, in un piano che ruota sincronamente con la sinusoide di riferimento, mediante un vettore che giace sull’asse della portante e la cui ampiezza varia in accordo con il segnale modulante. cos ω t ° s 2(t)
s 1(t)
sin ω t °
Figura 6.2.5. Schematizzazione medionte vettori rotanti della modulazione QAM. Nel caso di trasmissione con due portanti in quadratura (QAM = Quadrature Amplitude Modulation), si ha la trasmissione simultanea di due sinusoidi (convenzionalmente cos ωo t e sin ωo t) con il contemporaneo invio sullo stesso mezzo di due segnali modulanti s1 (t) e s2 (t). Se i segnali modulanti sono rettangolari, l’ampiezza della sinusoide risultante è costante ed il risultato è che per ogni periodo di cifra si trasmette una sinusoide di pulsazione ωo , ma con fase 45o , 135o , 225o o 315o , a seconda della combinazione di rettangoli antipodali che modula le due portanti. A questo punto risulta evidente come, nel caso di trasmissione numerica, non sia ben delineato il confine tra modulazione di ampiezza e modulazione di fase, se si usano in trasmissione forme d’onda rettangolari. Dato che l’ampiezza è costante, effettuando una modulazione d’ampiezza all’uscita del modulatore si ottiene una sinusoide con inviluppo costante il cui segno cambia in funzione del bit da trasmettere. Ma cambiare il segno a una sinusoide equivale a cambiare la sua fase di π. Quindi, sostanzialmente, si giunge ad una modulazione di fase: BPSK o 2-PSK. Lo sfasamento di π tra la forma d’onda relativa a 0 e quella relativa a 1 è ottimale in ricezione, dato che corrisponde al massimo sfasamento possibile (in questo modo si ha minore possibilità di errore nel riconoscimento). Nel caso di modulazione di fase da parte di un segnale analogico si possono usare deviazioni di fase maggiori di π, e anche di 2π perché la regolarità di un segnale analogico di banda limitata consente poi di risolvere l’indeterminazione di 2π insita nella misura di fase di una sinusoide. Nella modulazione numerica, il discorso relativo alla deviazione di fase massima di π è legato all’uso di segnali che possono avere brusche transizioni e, ancor più, al fatto che le decisioni in ogni istante di campionamento sono svincolate dalla storia passata del segnale (nel caso analogico si "insegue" la fase). In modo analogo, la modulazione con due portanti in quadratura modulate da forme d’onda rettangolari si può considerare come QAM o come 4-PSK (Modulazione di fase = PSK; modulazione di fase multilivello = M-PSK ) con trasmissione di una portante di
114
6. MODULAZIONE NUMERICA
ampiezza costante la cui fase può assumere uno tra quattro possibili valori, equidistribuiti sull’angolo giro. Naturalmente il discorso si può estendere a più livelli: 8-PSK o 16- PSK. Per motivi di efficienza non si va oltre la 16-PSK. 6.2.2. Dimensionamento. Per dimensionare un sistema PSK o ASK binario si possono applicare le considerazioni già viste per sistemi passa-basso, utilizzando il legame esistente tra potenza media o potenza di picco dei segnali prima e dopo demodulazione ed il legame tra densità spettrale di rumore prima e dopo demodulazione. In tali calcoli converrà supporre ampiezza dell’oscillazione locale pari a 2. Ciò che conta è la distanza tra i livelli misurati al campionatore nel caso di trasmissione di 1 e di trasmissione di 0. Se si usano due portanti in quadratura in modo da implementare due sistemi indipendenti, le considerazioni relative ad un sistema che usa una sola portante si possono applicare separatamente alle due portanti. La potenza complessiva sarà pari alla somma delle potenze delle singole portanti. Quando si usano due portanti in quadratura, però, non sempre ci si può ricondurre a due sistemi indipendenti coesistenti. Nei sistemi multilivello ogni forma d’onda convoglia una informazione pari a log2 M bit, se M sono i livelli. Nel caso di quattro fasi si possono supporre le corrispondenze in figura 6.2.6. L’operazione di decisione del ricevitore corrisponde ad una ripartizione in sottospazi: nel caso di figura 6.2.6 i sottospazi corrispondono ai quattro quadranti. Il ricevitore, per decidere quale sia la configurazione ricevuta, verifica in quale sottospazio cade il punto identificato dalle due misure ottenute dai due campionatori (si ricordi che i due assi coordinati rappresentano la misura sul canale coseno e sul canale seno, rispettivamente). Tale criterio corrisponde a un criterio di "distanza minima" da uno dei quattro ”punti” ottenibili in assenza di rumore: i punti del primo quadrante, per esempio, sono a distanza minima dalla configurazione 01. In assenza di disturbo la decisione è esente da errore. In caso contrario, alla portante modulata è sovrapposto un rumore passabanda (è amplificato solo il rumore presente nella banda del segnale), rappresentabile come somma di un termine in fase ed uno in quadratura e, quindi, come vettore di ampiezza e fase casuale, sovrapposto al segnale. Il vettore risultante, somma del segnale e del rumore, può assumere un’ampiezza e una fase con componenti casuali non trascurabili.
00
01
10
11
Figura 6.2.6. Schematizzazione 2-D di segnale più rumore.
6.2. MODULAZIONI NUMERICHE
115
Si può effettuare una rappresentazione tridimensionale delle densità di probabilità della coppia (v1 , v2 ), essendo v1 e v2 le tensioni all’uscita del canale seno e coseno rispettivamente, nell’istante di campionamento. p(v1 ,v2 )
v2
v1
Figura 6.2.7. Si ottengono quattro densità di probabilità condizionate alla trasmissione di 00, 01, 11, 10. In assenza di disturbo si hanno quattro impulsi di area unitaria; in presenza di rumore gaussiano passabanda si ottengono gaussiane bidimensionali a simmetria circolare (dato che i canali sono simmetrici e la varianza del rumore sovrapposto a v1 è uguale a quella del rumore sovrapposto a v2 ). Questo è un modo di generalizzare a 2 dimensioni quanto fatto per il calcolo della densità di probabilità nel caso binario. La probabilità d’errore, a questo punto, è valutabile come il volume della densità di probabilità condizionata fuori dal quadrante di competenza della coppia di bit considerata. In realtà, però, per valutare la probabilità d’errore basta considerare il rapporto tra la distanza tra i vertici di due vettori contigui ed il valore efficace del rumore. Con riferimento alla figura 6.2.8, si consideri un sistema “binario equivalente” ottenuto estraendo due vettori contigui dalla costellazione dei possibili segnali (in questo caso si è partiti da un sistema QAM). Un sistema che utilizzi queste due sinusoidi è un sistema 2-PSK malamente dimensionato, perché la componente c non varia con il bit da trasmettere e, quindi, non convoglia informazione. L’unica componente utilizzabile per distinguere le due forme d’onda è la componente d, ottenibile con un solo demodulatore con una oscillazione locale identificabile con una retta parallela alla congiungente i due vertici. Il sistema equivale, perciò, ad un sistema binario in cui con la tensione di rumore deve confrontarsi la distanza tra i due livelli (appunto d). Per passare alla probabilità d’errore di un sistema multilivello, visto che è sempre lecito trascurare la probabilità di confondere un livello con livelli più lontani di quelli contigui, si possono utilizzare formule simili a quella ottenuta per il sistema multilivello passa-basso (e, quindi, monodimensionale). In particolare, per un sistema M-PSK con codifca di Grey (livello sbagliato ≡bit sbagliato), la probabilità d’errore media è pari al doppio di quella del sistema binario equivalente considerato (2 · Q(d/2σn )). La figura 6.2.9 è una schematizzazione dello spazio dei segnali nel caso 8-PSK, con la relativa ripartizione in sottospazi. Dato che il rumore è sempre lo stesso, se la potenza della portante rimane la stessa, all’aumentare del numero di livelli le "nuvolette" si accavallano, aumentando la probabilità di errore. Si ricordi che il rumore è gaussiano e quindi le nuvolette non sono ben delimitate,
116
6. MODULAZIONE NUMERICA d c
Figura 6.2.8. Sistema binario equivalente per un sistema QAM.
Figura 6.2.9. ma in realtà si estendono su tutto il piano: non è quindi mai nulla la probabilità di errore. Bisogna fare in modo che le "linee di confine" taglino le code delle gaussiane dove esse hanno un livello sufficientemente basso. Se la rumorosità è fissata (dalla frequenza con cui si inviano forme d’onda in linea, cioé dal baud rate), è fissata la dimensione delle nuvole. Se si vuole aumentare la velocità usando più livelli è necessario aumentare il numero di livelli rappresentativi ma, per mantenere costante la probabilità di errore è necessario mantenere costante la distanza fra i vertici di due vettori contigui, cioé è necessario usare vettori più lunghi, ovvero aumentare la potenza. A questo punto, però, si usano solo dei punti su un cerchio di raggio molto grande: tutto ciò che è all’interno del cerchio è inutilizzato. Questo è il motivo per cui, quando la complessità del multilivello sale, non si usa più il PSK: si arriva ad un massimo di 16-PSK, in quanto oltre l’efficienza del sistema in termini di potenza non è più accettabile. L’alternativa è cercare di usare anche l’interno del cerchio, sfruttando il fatto che ciò che conta, al fine di mantenere costante la probabilità di errore, è la distanza tra i valori rappresentativi. Invece di usare M-PSK si usa M-QAM, cioé un multilivello sull’ampiezza. Per la 4-QAM si usano due portanti in quadratura modulate a due livelli. Per ottenere più livelli è possibile ricorrere al multilivello sia su una portante che sull’altra. Mentre nel 16-PSK si trasmettono sedici possibili sinusoidi con ampiezza costante e fase k · 360o /16, nel caso del QAM a 4 livelli per portante (16 QAM), i possibili segnali trasmessi sono quelli indicati in figura 6.2.10. Dando per assodato che quello che conta è la distanza tra livelli contigui, si arriva a costellazioni del tipo in figura 6.2.11. Ogni punto individua un’ampiezza della portante seno ed una della portante coseno. Nel passaggio da M-PSK a M-QAM non si ha più inviluppo costante: la lunghezza dei vettori
6.2. MODULAZIONI NUMERICHE
117
Figura 6.2.10. 16-QAM.
Figura 6.2.11. è infatti variabile. La maggiore efficienza nell’uso della potenza trasmessa si paga con l’impossibilità di usare amplificatori in saturazione (non essendo più l’inviluppo costante). Si noti che in M-QAM, M è potenza di 4, in quanto vengono raddoppiati i livelli su entrambe le portanti. Le configurazioni che determinano il valore della potenza di picco che l’amplificatore deve trasmettere sono quelle relative ai vertici del quadrato. Visto che le limitazioni si hanno sulla potenza di picco, sarebbe meglio riempire nel migliore dei modi un cerchio. Infatti, per configurazioni numerose (ad es. 256-QAM), invece di trasmettere tutte le possibili configurazioni (16 in orizzontale e 16 in verticale), le configurazioni vicino ai vertici si spostano vicino ai punti medi dei lati (si cerca di ottenere un cerchio): la cosa importante è mantenere un passo regolare fra i punti del reticolo. Si può ancora notare che la distanza fra due punti estremi della diagonale è maggiore della distanza fra due punti estremi di un lato del quadrato per cui si può pensare ad altre tecniche di riempimento in modo che ogni punto sia equidistante da quelli che lo circondano. L’adozione di tali tecniche deve sempre andare di pari passo con una valutazione della complessità che esse possono indurre nel ricevitore. 6.2.3. Inviluppo costante. La modulazione PSK produce una forma d’onda a inviluppo costante: l’informazione è unicamente legata alla fase della portante, cioé ai suoi attraversamenti per lo zero. Una tale forma d’onda ha il vantaggio che, essendo a inviluppo costante, permette l’utilizzo di un amplificatore spinto fino alla saturazione. L’amplificatore, in questo caso, invece di fornire in uscita una sinusoide, fornisce una sinusoide squadrata,
118
6. MODULAZIONE NUMERICA
al limite anche un’onda quadra, che conserva gli istanti di attraversamento dello zero della forma d’onda in ingresso. Una sinusoide modulata da forme d’onda rettangolari ha uno spettro con andamento del tipo sin(f )/f centrato alla frequenza della portante. Naturalmente le code del sin(f )/f sono molto estese ma, potendolo fare, si può limitare la banda mediante un filtraggio: in ricezione, infatti, il filtro che deve fornire all’uscita forme d’onda a intersimbolo nullo taglierà tutti i termini spettrali al di fuori del lobo principale dello spettro. Il segnale all’uscita dell’amplificatore in saturazione ha uno spettro contenente anche repliche alle armoniche della frequenza della portante. Se la legge di modulazione non
f
°
f
f
°
2 f°
3f
°
f
Figura 6.2.12. Spettro di una portante modulata PSK all’ingresso ed all’uscita di un amplificatore spinto alla saturazione è stata alterata, basta usare un filtro passa banda centrato attorno al termine spettrale desiderato per recuperare il segnale di partenza. Un discorso simile è valido anche nel caso in cui si usi come portante un’onda quadra al posto di un’oscillazione sinusoidale, nel qual caso la legge di modulazione è sicuramente indistorta. Nel caso in cui il segnale modulante (d’ampiezza) la portante sia qualsiasi, invece, il risultato è sensibilmente diverso: nello spettro della portante squadrata ci saranno ancora le armoniche, ma il segnale che le modula non sarà più quello di partenza, in quanto le sue variazioni d’ampiezza saranno distorte dalla non linearità. La PSK, quindi, sembra autorizzare l’uso di amplificatori in saturazione, perché basta un filtro con selettività non eccessiva per eliminare le armoniche della portante. Questo schema di squadratura e filtraggio passabanda funziona bene se lo si usa una sola volta. Se lo si applica più volte sorgono dei problemi. In sede di generazione si può pensare di squadrare il segnale (ovviamente non sarà possibile ottenere un’onda perfettamente rettangolare) e poi farlo passare attraverso un filtro passa banda: ci si aspetterebbe una sinusoide modulata solo di fase. In realtà non è possibile ottenere tale sinusoide perché risulterebbe modulata in ampiezza da una forma d’onda rettangolare ed una forma d’onda rettangolare ha bisogno di una banda infinita per essere veramente rettangolare. Filtrare passa-banda la portante corrisponde al filtraggio passa-basso del segnale modulante. Quando si filtra con un passabasso un’onda rettangolare si ottiene un’onda con gli spigoli smussati e, quindi, la portante che emerge dal filtro passa banda non sarà ad inviluppo costante. Siccome l’amplificatore in saturazione non è un comparatore ideale, la sinusoide in ingresso non diventa in uscita un’onda quadra, ma diventa una sinusoide tagliata che, all’uscita del filtro passa-banda produrrà una sinusoide modulata anche d’ampiezza. Al variare dell’ampiezza della sinusoide che entra nel limitatore varia la forma d’onda che ne emerge. Se si squadra ancora il segnale ottenuto, il taglio dell’amplificatore non avverrà più negli stessi istanti, ma
6.2. MODULAZIONI NUMERICHE
119
si sposterà in funzione dell’ampiezza della sinusoide. Quando si amplifica e si squadra un segnale che non ha più un inviluppo costante si ha una trasformazione della modulazione di ampiezza in modulazione di fase spuria. 6.2.4. Offset temporale tra canali in quadratura. È ora il caso di considerare le densità spettrali di potenza generate dalle diverse forme di modulazione numerica. Un formato di modulazione può essere preferibile rispetto ad un altro, a parità di prestazioni, se il segnale che si invia in linea ha una banda più compatta. È necessario che il livello di potenza trasmessa che finisce nei canali adiacenti sia sufficientemente basso, in modo da non degradarne le prestazioni. Anche se il filtro di ricezione finirà con lo scartare tutto ciò che si trova fuori della banda fo − fB ÷ fo + fB (con fB che indica il baud rate), questo problema non è risolvibile con un semplice filtraggio in trasmissione perché sarebbe necessario un filtro troppo selettivo, irrealizzabile. Ciò che provoca l’allargamento in banda sono le transizioni brusche. Per il PSK binario queste sono indotte dagli indispensabili salti di fase di π. Anche per il 4-PSK il salto di fase massimo riname della stessa entità. Si può pensare a un modo di procedere equivalente a quello già visto, che fornisce le stesse prestazioni, ma permette l’invio sul mezzo trasmissivo di un segnale con banda più compatta. Tale sistema prende il nome di modulazione in quadratura con offset (O-QAM ). D Q bit
CK1
CK1
cos ω t D Q
CK2
CK2 2/fs
sin ω t
Figura 6.2.13. Un commutatore invia i bit di posizione pari su un canale e quelli di posizione dispari sull’altro. All’ingresso dei canali ci sono due registri comandati con due clock di frequenza metà rispetto all’ingresso e sfasati di 180o . I registri possono essere dei flip-flop di tipo D. Questi flip-flop in corrispondenza del fronte attivo del clock memorizzano e presentano all’uscita il livello presente all’ingresso. Se la sequenza di bit in ingresso è a frequenza fs , il clock avrà frequenza fs /2 e quindi il suo periodo sarà 2/fs . I fronti attivi dei due clock, perciò, saranno spostati uno rispetto all’altro di 1/fs . I segnali in uscita dai flip-flop saranno a frequenza fs /2 ed i fronti di transizione saranno sfasati di mezzo periodo (1/fs ). Questo implica che in un particolare istante potrà cambiare segno soltanto una delle due portanti e, quindi, che il salto massimo di fase nella portante effettivamente trasmessa (somma delle due) è solo di 90o . Se invece le transizioni sono contemporanee sulle due portanti, la portante trasmessa potrà avere un salto massimo di 180o , quando entrambe le sinusoidi cambiano segno. Avendo ridotto l’ampiezza delle discontinuità sfasando temporalmente le due commutazioni, l’entità dei termini spettrali più larghi è dimezzato.
120
6. MODULAZIONE NUMERICA
6.2.5. FSK. Anche la modulazione di frequenza è utilizzabile come modulazione numerica (FSK Frequency Shift Keying): si usano sinusoidi a diversa frequenza per rappresentare 0 e 1. Si considera cioé una sinusoide a frequenza fo come forma d’onda rappresentativa di 0 e una sinusoide a frequenza f1 come forma d’onda rappresentativa di 1. Il modulatore FSK può essere realizzato in due modi diversi. Si possono usare due oscillatori, uno a frequenza fo e l’altro a frequenza f1 e, a seconda del bit da trasmettere, si seleziona uno o l’altro, mediante un commutatore. L’alternativa è quella di usare un oscillatore controllato in tensione (VCO) al cui ingresso è inviata una forma d’onda rettangolare. f0 VCO f1
Figura 6.2.14. Nel primo caso, alla transizione tra una oscillazione e l’altra corrisponderà un salto di tensione dovuto al fatto che normalmente non si riesce a commutare esattamente in corrispondenza di uno zero. Ciò introduce nel segnale una discontinuità di valore e, nello spettro, un termine che decade al massimo come 1/f . Tali salti di fase non portano informazione, ma producono un allargamento sgradito della banda occupata. Nel caso si usi il VCO quanto descritto non si può verificare. La frequenza dell’oscillazione viene, infatti, variata agendo sull’anello di reazione dell’oscillatore ma, anche se l’azione è istantanea, nella tensione generata dall’oscillatore si avrà un transitorio in cui la forma d’onda è distorta, ma saranno assenti salti di tensione. Questi due modi di realizzare il modulatore FSK, che concettualmente portano allo stesso formato di trasmissione in linea, danno luogo a segnali che possono avere spettri anche sensibilmente diversi. Inoltre i due segnali, oltre ad avere una diversa occupazione di banda, pur convogliando la stessa informazione, sono diversi per quanto rigurda la demodulazione. Il ricevitore ottimo è costituito da due filtri le cui risposte all’impulso somiglino alle forme d’onda per le quali sono usati: il filtro relativo al canale zero sarà un filtro passabanda centrato attorno alla frequenza fo e quello relativo al canale 1 sarà un filtro passabanda centrato attorno alla frequenza f1 . Confrontando le ampiezze delle uscite dai due filtri si può ricostruire la sequenza di bit trasmessi. Lo schema del demodulatore è quello riportato in figura 6.2.14 che, si osservi, non richiede demodulazione sincrona. filtro f0
rivelatore inviluppo
>< filtro f1
rivelatore inviluppo
Figura 6.2.15.
0/1
6.2. MODULAZIONI NUMERICHE
121
La demodulazione FSK e’ quindi molto semplice. La codifica di linea che usa la modulazione FSK non potrà mai essere antipodale ma, al limite, potrà tendere all’ortogonalità. Il PSK è allora sicuramente più efficiente dell’FSK di almeno 3 dB, in quanto permette una codifica antipodale (il riferimento, come già osservato, è alle forme d’onda inviate in linea). 6.2.5.1. La modulazione CP-FSK. Per garantire l’ortogonalità delle forme d’onda trasmesse, le frequenze da adottare per la trasmissione dello 0 e dell’1 devono essere scelte in modo che: Z T (6.2.1) cos (2πf0 t) cos (2πf1 t) dt = 0 se f0 6= f1 0
Poiché cos (2πf0 t) cos (2πf1 t) =
1 1 cos (2π [f0 + f1 ] t) + cos (2π [f1 − f0 ] t) 2 2
la (6.2.1) è verificata se T T 1 sin (2π [f1 − f0 ] t) 1 sin (2π [f0 + f1 ] t) + =0 2 2π [f0 + f1 ] 2 2π [f1 − f0 ] 0 0 Il primo termine si azzera se f0 + f1 = il secondo se
n 2T
m 2T La (6.2.1) è verificata, quindi, se sia f0 sia f1 sono multipli diversi di 1/2T . La Minimum Shift Keying si ottiene scegliendo la minima differenza tra f1 ed f0 , cioé 1 f1 − f0 = 2T La portante modulata diventerebbe, in tal modo X t − mT 2π cos 2πfp t + bm t rect T 4T m f1 − f0 =
dove fp = (f0 + f1 ) /2 e bm vale +1 o −1 in funzione del bit da trasmettere. In questo modo si garantirebbe l’ortogonalità tra le forme d’onda, ma non si garantirebbe la continuità di fase per la portante modulata perché delle due forme d’onda una avrebbe un numero intero di periodi in T , ma l’altra ne avrebbe 1/2 in più (o in meno). Come mostra la figura 6.2.16, la giustapposizione di tali forme d’onda non garantirebbe in ogni caso l’assenza di salti di fase. Ma se, in funzione della sequenza di bit da trasmettere, in presenza di salti di fase si cambiasse segno alla forma d’onda da aggiungere, tali discontinuità di fase non si verificherebbero più. In tal caso, questo modo di procedere non distruggerebbe l’informazione da trasmettere (come nel caso della modulazione BPSK) perché l’informazione è legata alla frequenza, non alla fase della portante.
122
6. MODULAZIONE NUMERICA
0
0
200
400
600
800
1000
Figura 6.2.16. Forme d’onda MSK. L’espressione della portante va modificata, quindi, nel seguente modo X 2π t − mT cos 2πfp t + bm t + φm rect 4T T m dove φm assume valore 0 o π in modo da impedire salti di fase.
0
0
200
400
600
800
1000
Figura 6.2.17. Forme d’onda MSK con continuità di fase. In questo modo si riesce ad ottenere l’ortogonalità e la continuità di fase con il minimo valore di deviazione di frequenza (donde il nome di questo tipo di modulazione). La natura compatta dello spettro del segnale MSK diventa più comprensibile se se ne considera la rappresentazione mediante somma di due portanti in quadratura opportunamente modulate: X 2π t − mT cos (2πfp t) cos bm t + φm rect + 4T T m − sin (2πfp t)
X m
t − mT 2π sin bm t + φm rect 4T T
visualizzate in figura 6.2.18.
0
0
200
400
600
800
1000
Figura 6.2.18. Segnali modulanti due portanti in quadratura nel caso di modulazione MSK.
6.3. DEMODULAZIONE COERENTE
123
6.3. Demodulazione coerente La maggior efficienza del PSK si paga con la necessità di usare una demodulazione coerente. È necessario, in altri termini, un riferimento di fase locale, ovvero bisogna generare localmente una oscillazione sincrona con la portante. L’informazione relativa alla fase deve essere estratta direttamente dal segnale ricevuto. Si potrebbe pensare di filtrare il segnale PSK con un filtro molto stretto centrato attorno alla frequenza fo , considerando così l’oscillazione all’uscita come oscillazione locale. In realtà all’uscita del filtro non si ottiene niente: infatti, con probabilità 0.5 "diciamo" al filtro di dare in uscita una sinusoide con fase 0 e con probabilità 0.5 gli "diciamo" di dare in uscita una sinusoide con fase 180o . Dato che il filtro ha una banda molto stretta e quindi media i comandi in ingresso su un intervallo temporale molto lungo, alla fine fornirà in uscita zero. Basta però raddrizzare la portante; si ottiene un segnale che non presenta più discontinuità di fase.
Figura 6.3.1. Raddrizzamento ad onda intera. Anche non effettuando un raddrizzamento ad onda intera, ma a semplice semionda, si hanno delle sollecitazioni, quando ci sono, che sono coerenti e mantengono in un risonante le oscillazioni alla frequenza 2fs , come nel caso di raddrizzamento a doppia semionda.
Figura 6.3.2. Raddrizzamento a mezz’onda. Meglio di un raddrizzamento sarebbe effettuare una quadratura. Infatti, in assenza di rumore: 1 1 cos2 (2πfo t + ai π) = + cos(4πfo t + ai 2π) 2 2 ed un semplice filtraggio può isolare la sinusoide a frequenza 2fo . La procedura si può iterare per modulazioni di fase multilivello. L’operazione per estrarre il riferimento della portante richiede allora una elevazione al quadrato del segnale e un filtraggio passabanda molto stretto con filtro centrato a frequenza doppia della portante. All’uscita del filtro si ottiene una sinusoide a frequenza 2fo . Dato che serve una oscillazione sincrona con la portante, cioé una oscillazione a frequenza fo , è necessario effettuare una divisione per due. Una possibile modalità può essere quella di squadrare la sinusoide per poi mandarla in un flip-flop come in figura 6.3.3. Il flip-flop fa cambiare valore all’uscita ad ogni fronte attivo del segnale in ingresso. Le forme d’onda all’ingresso e all’uscita sono schematizzate in figura 6.3.4.
124
6. MODULAZIONE NUMERICA
D Q raddrizzatore
filtro passa−banda
trigger
1
Q
2
Figura 6.3.3. 1
2
Figura 6.3.4. Si ottiene così la divisione per due della frequenza. C’è, però, un problema dovuto al fatto che, essendo il dispositivo dotato di memoria, innescherà una sequenza di alternanze 1-0 con la fase segnata in 2 o con fase opposta in funzione dello stato iniziale (arbitrario). Ciò che determina l’una o l’altra fase è lo stato del circuito all’inizio di tutta la procedura. Si riesce quindi, ad ottenere un’oscillazione a frequenza 2fo e, per ottenerne una a frequenza fo si paga con una indeterminazione di fase pari a 2π/d, essendo d il numero per cui bisogna dividere (d = 2 nel caso di 2-PSK, d = 4 per 4-PSK etc.). Questo sistema può fornire un’oscillazione coerente con fase 0 o con fase 180o , con il risultato di ricostruire la corretta sequenza di bit, o una sequenza complementata, in cui tutti gli 1 sono cambiati in 0 e viceversa. Il problema non è risolvibile, essendo intrinseco del tipo di modulazione (il ricevitore non può sapere quale delle due fasi con cui vede arrivare la portante è quella relativa a fase zero!). Il PSK ha, quindi, bisogno di tutta la circuiteria per l’estrazione della portante, e in uscita non si è neanche sicuri di aver ottenuto la sequenza esatta o la sua negata. Si può allora trasmettere all’inizio, o di tanto in tanto, delle configurazioni binarie sicuramente riconoscibili (unic words) note sia al trasmettitore, sia al ricevitore. Il ricevitore, quando riconosce tali configurazioni, verifica se esse hanno il segno giusto o sono negate. In quest’ultimo caso cambia il segno all’oscillazione locale, riottenendo così il sincronismo esatto. 6.3.1. Modulazioni differenziali. Ci si può svincolare dalla fase assoluta della portante mediante la codifica differenziale (DPSK: Differential PSK). Infatti, anche se non si ha accesso alla fase assoluta, nel segnale in ingresso si può misurare in modo affidabile la presenza di salti di fase. Se si lega l’informazione non al valore assoluto della fase della portante, ma al fatto che in essa sia presente o meno una transizione di fase, ci si svincola dalla necessità di conoscere anche il segno della oscillazione locale (vedi figura 6.3.5. In corrispondenza della trasmissione di un 1 si fa cambiare la fase della portante rispetto alla fase del periodo precedente; in corrispondenza della trasmissione di 0 la fase resta immutata rispetto a quella del periodo precedente. Per ottenere la prima forma di codifica (informazione legata alla fase), si mandava all’ingresso del moltiplicatore un rettangolo di durata T , di valore positivo, per ottenere
6.3. DEMODULAZIONE COERENTE
125
informazione nella fase
informazione nelle variazioni di fase
0
1
1
0
Figura 6.3.5. Codifica PSK e DPSK. fase 0 e un rettangolo negativo per ottenere fase π. Per ottenere il secondo tipo di codifica (DPSK) è necessario mandare all’ingresso del moltiplicatore non più un rettangolo positivo o uno negativo in funzione della trasmissione di 1 o 0, ma un rettangolo dello stesso segno del periodo precedente per la trasmissione di 0, e un rettangolo con segno opposto rispetto a quello del periodo precedente per la trasmissione di 1. Per ottenere la modulazione DPSK si può utilizzare un modulatore PSK tradizionale, a patto di modificare opportunamente la sequenza binaria. In funzione del bit da trasmettere bisogna eseguire o meno una complementazione del bit inviato al modulatore nel periodo precedente. Questa operazione è una negazione condizionata, realizzabile mediante uno XOR. La figura 6.3.6 mostra lo schema del codificatore DPSK. 1
2 al modulatore numerico T
Figura 6.3.6. In ricezione bisogna fare l’operazione duale, verificando la permanenza o la variazione della fase tra due periodi successivi. A valle di una demodulazione PSK (la fase dell’oscillazione locale è ininfluente) bisognerà ricostruire la sequenza di bit di informazione, come indicato in figura 6.3.7. A
x(n)
dal decisore T
x(n−1)
Figura 6.3.7. Bisogna confrontare l’ultimo bit con il precedente: se sono uguali è stato trasmesso 0, se sono diversi è stato trasmesso 1. Ci si è quindi sganciati dalla indeterminazione di fase.
126
6. MODULAZIONE NUMERICA
Questo vantaggio si paga col fatto che, se il decisore commette un errore, tale errore è quanto meno duplicato, in quanto il bit sbagliato interviene in due successivi intervalli T . Questo discorso si generalizza al PSK a più fasi. Nel 4-PSK, per esempio, bisogna generare un riferimento sincrono col coseno e uno sincrono col seno. In questo caso, però, le fasi sono quattro. Facendo passare un segnale 4-PSK attraverso un quadratore, si ottiene una sinusoide a frequenza doppia, ma che contiene ancora casuali salti di fase di 180o : serve un ulteriore quadratura per arrivare ad una fase costante. Nel 4-PSK si può quindi far comparire una riga ad una frequenza che è quattro volte la frequenza della portante. Naturalmente dopo sarà necessaria una divisione per quattro e serviranno due stadi di flipflop in cascata. Dividendo per 4 si ottiene un’ambiguità nella fase pari ad un multiplo di 2π/4 = π/2. Ci si ritrova allora nella condizione del PSK a due fasi, cioé si può confondere una configurazione binaria con qualsiasi altra. Una codifica differenziale può risolvere il problema: basta legare la coppia di bit non più al valore assoluto della fase, ma al fatto che da un periodo al successivo si abbia una variazione di fase di oo , 90o , 180o , 270o . Anche in questo caso è possibile sganciarsi dalla indeterminazione nella identificazione della fase, fermo restando che si paga con una moltiplicazione di errori. Esempio. Vediamo come dimensionare un ponte radio per la trasmissione numerica di 100 Mb/s, con P (ε) = 10−7 , su una distanza di 100 km. Si consideri la possibilità di spezzare il collegamento in due tratte di 50 km (per questioni di visibilità). A P (ε) = 10−7 , visto che si considera la presenza di solo rumore termico e supponendo che il decisore abbia la soglia a metà tra i livelli, corrisponde un rapporto segnale rumore al campionatore γ = 14.5 dB. Dato che non si hanno limitazioni in banda, si può utilizzare la modulazione più efficiente in termini di potenza, cioé la PSK. Ciò implica una codifica di linea antipodale e un rapporto segnale/rumore prima del campionatore numericamente uguale a γ 2 . A
S N in
filtro di ricezione
S N out
γ
D
P( ε)
2 cos ω t °
Figura 6.3.8. Rapporti segnale-rumore in punti diversi della catena ricevente. Se a valle del filtro di ricezione è S/N |out = 14.5 dB, a monte si avrà S/N |in = 15 dB, a causa del disadattamento del filtro (PSK implica forme d’onda modulanti rettangolari). Tale rapporto segnale/rumore si deve avere a valle del demodulatore e (assumendo attenuazione del mezzo trasmissivo costante in banda) è definito come rapporto tra ampiezza di picco al quadrato e hn fs /2, cioé S/N |in = a2 /(hn fs /2). Si tratta ora di valutare un rapporto segnale rumore, definito opportunamente, a monte del demodulatore. La potenza di picco prima e dopo demodulazione è la stessa, pari ad a2 . La potenza media della sinusoide ricevuta (teoricamente a inviluppo costante) di ampiezza a vale a2 /2.
6.3. DEMODULAZIONE COERENTE
127
Il rumore è hn /2 (se dopo demodulazione vale hn ). Ne risulta: S 1 a2 1 S a2 /2 = = = N A hn fs /2 2 hn fs /2 2 N in A questo punto basta quantificare hn , densità spettrale di rumore equivalente, per poter calcolare quale deve essere la potenza media in ricezione. Supponendo un fattore di rumore F = 10 dB, la densità spettrale del rumore prima del demodulatore vale F kTo e, quindi, fs = −174 + 10 + 3 + 10log10 50 · 106 = −84 dBm 2 Perciò la potenza minima della portante ricevuta deve essere pari a PRmin 15 − 3 − 84 = −72 dBm. Per valutare la potenza della portante da trasmettere bisogna valutare l’attenuazione del mezzo trasmissivo. L’attenuazione di spazio libero dipende dalla distanza e dalle antenne. Supponendo che le antenne siano uguali in ricezione ed in trasmissione ed abbiano un guadagno di 30 dB alla frequenza di 1 GHz (che si suppone sia la frequenza centrale del canale radio a disposizione), l’attenuazione di spazio libero vale (c sia la velocità della luce): hn
αsl =
4πR2 GA
L’area efficace di un’antenna è legata al suo guadagno dalla relazione G/A = 4π/λ2 . Nel caso in esame, perciò, l’area efficace vale A=
Gc2 = 7, 16 m2 ⇒ 8, 5 dBm2 4πf 2
L’attenuazione di spazio libero vale, in definitiva αsl = 10log10 (4πR2 ) − 30 − 8, 5 = 72, 5 dB La potenza da trasmettere risulta pari a 0, 5 dBm, cui si deve aggiungere l’attenuazione supplementare dovuta ai cammini multipli che, per un fuori servizio pari a 10−3 si può valutare in 30 dB. In conclusione bisogna trasmettere 30, 5 dBm. Si consideri, adesso, la realizzazione con due tratte in cascata. Si ripropone il problema di considerare delle apparecchiature intermedie di pura amplificazione (che si limitano a ricevere il segnale, amplificarlo e ritrasmetterlo sulla tratta successiva) o di rigenerazione (che ricostruiscono localmente la sequenza di bit e, in base ad essa, rigenerano le forme d’onda da inviare sulla tratta successiva). Limitiamoci a considerare il secondo caso. Si hanno due sistemi di trasmissione numerica in cascata. Poiché la probabilità d’errore richiesta è bassa, si può trascurare la probabilità dell’evento "simbolo sbagliato sia dalla prima tratta che dalla seconda tratta" e quindi i bit sbagliati alla fine sono la somma dei bit sbagliati dalla prima tratta e di quelli sbagliati dalla seconda. Questo discorso porta alla valutazione approssimata della probabilità di errore in un sistema multitratta come la somma delle probabilità di errore delle singole tratte.
128
6. MODULAZIONE NUMERICA
Nella trasmissione via cavo ciò porta a richiedere che la probabilità di errore di ogni tratta sia M volte più piccola della probabilità di errore totale (se M è il numero di tratte). Nella trasmissione via radio, invece, non si può procedere in questo modo, in quanto ogni tratta si comporta differentemente dalle altre per la presenza dei cammini multipli. La situazione tipica è che una delle M tratte attenua di più delle altre. Pochi dB di differenza causano, però, una differenza enorme in termini di probabilità d’errore. Ne risulta che la probabilità d’errore totale PT (ε) è circa uguale alla probabilità d’errore singola PS (ε), intesa come probabilità d’errore della tratta che in quel momento è la più sfavorita. In altri termini, la maggior parte dei bit sbagliati alla fine del collegamento provengono da una sola tratta, quella che si trova con un multipath tale da dare un’attenuazione più grande di tutte le altre. Il dimensionamento della singola tratta va quindi effettuato nel caso peggiore, quello in cui essa sia la tratta peggiore: in questa ipotesi il dimensionamento va effettuato in modo che la sua probabilità d’errore sia pari a quella complessivamente richiesta a tutto il sistema. Nel passaggio, quindi, dal sistema alla singola tratta la probabilità di errore resta la stessa. Con questo modello si può trasferire il concetto di fuori servizio del sistema al concetto di fuori servizio della singola tratta: se una tratta sbaglia più del consentito (e, quindi, è fuori servizio) è fuori servizio sicuramente anche il sistema complessivo, ma se la tratta peggiore ha una probabilità d’errore inferiore a quella massima richiesta al sistema, il sistema è funzionante perché gli errori delle altre tratte sono percentualmente trascurabili. In conclusione, la probabilità di fuori servizio della singola tratta coincide con la probabilità dell’evento "probabilità d’errore della singola tratta maggiore della probabilità d’errore richiesta a tutto il sistema". Cioé Pf si ≡ P (Ps (ε) > P (ε)) Questo evento si può definire in modo identico per tutte le tratte. La probabilità di fuori servizio di tutto il sistema diventa X Pf sT = Pf si i
poiché l’evento "fuori servizio globale" è costituito dall’unione degli eventi indipendenti "fuori servizio della i-ma tratta" e dato che si è considerato di probabilità nulla l’evento "due tratte contemporaneamente fuori servizio".1 Segue, visto che si suppone uguale la statistica degli affievolimenti per tutte le tratte Pf si = Pf sT /M essendo Pf sT la probabilità di fuori serivizio dell’intero sistema ed M il numero delle tratte. Se la probabilità di errore della singola tratta è uguale a quella di tutto il sistema, i discorsi fatti in termini di rapporto segnale-rumore restano gli stessi. La potenza minima che deve essere presente all’ingresso di ogni singolo demodulatore è numericamente uguale 1Attenzione
a non confondere tra probabilità d’errore e probabilità che la probabilità d’errore superi un determinato valore.
6.3. DEMODULAZIONE COERENTE
129
a quella già calcolata. Poiché le tratte sono due, però, la distanza tra le antenne si è dimezzata e l’attenuazione di spazio libero è diventata 1/4. Cambia anche l’attenuazione supplementare da considerare, non tanto perché è cambiata la distanza tra le antenne (il valore dell’attenuazione supplementare cambia se cambia la statistica degli affievolimenti dovuti ai cammini multipli e questa si può supporre che non cambi passando da 100 a 50 km), ma perché adesso viene richiesta una probabilità di fuori servizio di valore dimezzato. Ciò corrisponde ad un raddoppio dell’attenuazione supplementare. Ne consegue che la potenza da trasmettere in ogni tratta è la metà di quella calcolata per il collegamento in una sola tratta. Si osserva che il guadagno in potenza è nullo: mezza potenza trasmessa da due trasmettitori porta ad una potenza complessiva inalterata.
CAPITOLO 7
Sistemi in fibra ottica 7.1. Mezzo trasmissivo, sorgenti e rivelatori I sistemi di trasmissione in fibra ottica lavorano a frequenze dell’ordine di 1014 Hz. Una fibra ottica è formata da un cilindro di materiale dielettrico con indice di rifrazione n1 , chiamato nucleo e da un involucro dielettrico con indice di rifrazione n2 diverso da n1 , che evita alla radiazione di uscire e che è chiamato mantello. r n2
n2 n1
n1 n
n2
n2
Figura 7.1.1. Fibra ottica “step index”, Sappiamo che un’onda piana che incide con angolo θ1 su una superficie di discontinuità emerge con un angolo θ2 tale che n1 sin θ1 = n2 sin θ2 n1
θ1
θ2 n2
Figura 7.1.2. Legge di Snell. Da ciò si ricava che la radiazione tende ad allontanarsi dalle zone meno dense. Esiste un angolo limite in corrispondenza del quale la radiazione che emerge si propaga lungo la superficie di discontinuità dei due materiali. Se l’angolo di incidenza diventa ancora più grande si ha la riflessione totale della radiazione. All’interno del nucleo si realizza allora l’intrappolamento dei raggi che incidono con angolo maggiore di quello critico. Tutta la radiazione che incide con angolo minore di quello critico viene trasmessa nel mantello e si perde. 131
132
7. SISTEMI IN FIBRA OTTICA
Se il materiale del nucleo è tale da dare attenuazione molto bassa, cioé non ci sono perdite per diffusione della radiazione o per effetto Joule, si ha un’attenuazione molto più bassa di quella che si avrebbe in un cavo. Le proprietà del mezzo cambiano quando c’è una variazione percentuale sensibile della banda: nel caso in esame, avendo una portante di 1014 Hz, si può ritenere che le variazioni di banda relative siano piccole e, quindi, le proprietà del mezzo risultano pressoché costanti. Si è detto che rimane intrappolata nel nucleo tutta la radiaziona luminosa che incide con angolo superiore a quello critico. La distanza percorsa da ogni raggio cambia in funzione dell’angolo di incidenza. Dato che la velocità di propagazione dei raggi nel mezzo è costante (l’indice di rifrazione è costante), ogni raggio uscirà dal nucleo con un ritardo di propagazione diverso in funzione del numero di riflessioni che esso ha subito. Applicando le equazioni di Maxwell, si ottiene che le modalità di propagazione della radiazione, ognuna delle quali viene designata come modo propagativo, non sono in numero infinito. Il ritardo differenziale con cui i modi emergono dalla fibra dà luogo alla dispersione modale misurata in nsec/km. Questo effetto fa si che, pur avendo un mezzo con bassissima attenuazione, esso non possa essere usato per trasmettere a velocità molto alta. La dispersione sarà tanto più grande quanto più lunga è la fibra. L’elemento limitante della capacità trasmissiva nelle fibre ottiche, perciò, non è l’attenuazione ma la dispersione modale. Per minimizzare gli effetti della dispersione modale, in commercio si usano fibre ottiche con drogaggio variabile, in modo che l’incurvamento del raggio non avvenga bruscamente nel passaggio da un mezzo all’altro, come nelle fibre step index fino ad ora considerate, ma in modo più graduale (fibre graded index ). r
n
Figura 7.1.3. Fibra “graded index”. Facendo variare l’indice di rifrazione con continuità (più alto al centro del nucleo e più basso verso il mantello), le traiettorie dei raggi non sono più delle spezzate, ma si incurvano. I percorsi più lunghi sono quelli che portano il raggio a passare per le regioni estreme del nucleo; quelli più corti sono quelli che si mantengono più vicini all’asse della fibra. Dato che la velocità di propagazione dei raggi è inversamente proporzionale alla radice quadrata dell’indice di rifrazione, al centro della fibra essa sarà più bassa di quella alla periferia. I raggi che viaggiano più vicini all’asse della fibra percorrono meno strada, ma a velocità più bassa rispetto a quelli che viaggiano più lontani dall’asse, che hanno un percorso più lungo, ma a velocità mediamente minore. Si può allora scegliere il profilo di drogaggio in modo tale da minimizzare gli effetti della dispersione modale. Un’altra possibilità consiste nel fare in modo che tutti i modi siano evanescenti tranne uno (fibre monomodo). Questo
7.1. MEZZO TRASMISSIVO, SORGENTI E RIVELATORI
133
richiede la riduzione del diametro del nucleo a meno di 10 µm. Lo svantaggio è che risulta poi difficile, con un diametro così ridotto, l’iniezione della potenza ottica. Si pone cioé il problema dell’efficienza di iniezione, in modo particolare per le fibre monomodo, dovuto al fatto che comunque ci sarà una quota parte della radiazione incidente che non penetrerà nel nucleo, ma andrà persa nel mantello. Altro problema è quello relativo alle giuntature, anch’esso molto più sentito per fibre monomodo. È infatti necessario, nell’affacciare due capi, fare in modo di allineare quanto più possibile i nuclei. Oltre alla dispersione modale, di cui sono state esaminate caratteristiche e mezzi per ridurla, bisogna tener conto della dispersione cromatica, dovuta al fatto che la velocità di propagazione della radiazione varia al variare della frequenza (varia l’indice di rifrazione). Questo significa che le componenti spettrali di un segnale si propagano con velocità diverse. La loro ricomposizione in ricezione fornirà allora un segnale diverso da quello trasmesso. Altro termine di dispersione è dovuto al fatto che la superficie di discontinuità tra nucleo e mantello non è perfettamente cilindrica, ma presenta delle irregolarità. Si può fare in modo da ottenere il bilanciamento di questi due ultimi termini di dispersione. Eliminando queste limitazioni si giunge ad una fibra con banda sostanzialmente illimitata. Con le fibre ottiche il costo della banda (una volta installate) è sostanzialmente nullo. Bisogna preoccuparsi però dell’attenuazione. Il suo andamento in funzione della lunghezza d’onda è del tipo in figura 7.1.4. α
[dB]
1
Ι
0,2 0,8
ΙΙ
ΙΙΙ
1,33 1,55
λ [nm]
Figura 7.1.4. Finestre di attenuazione per fibre in silice. Esso è caratterizzato da picchi di attenuazione in corrispondenza delle lunghezze d’onda corrispondenti al massimo assorbimento di alcuni componenti la cui presenza è inevitabile nel vetro. Il picco più importante è quello relativo all’ossidrile OH, cioé il picco di assorbimento dovuto all’acqua. È quindi necessario proteggere la fibra dall’umidità. I tre minimi locali a 0.8 µm, 1.33 µm e 1.55 µm identificano rispettivamente le cosiddette prima, seconda e terza finestra, con le relative attenuazioni. La prima finestra è stata usata per prima; infatti l’energia del fotone corrispondente ad una lunghezza d’onda di 0.8 µm è sufficiente a ionizzare atomi di silicio. In questo modo potevano funzionare fotodiodi e LED al silicio. All’aumentare della lunghezza d’onda non si possono più utilizzare dispositivi al silicio. Per poter emettere in terza finestra è stato necessario sviluppare semiconduttori di tipo ternario. Data la bassissima attenuazione, è possibile realizzare con le fibre ottiche collegamenti su lunga distanza senza apparecchiature rigenerative intermedie. D’altra parte, a fronte di attenuazioni così piccole, diventano rilevanti le attenuazioni dovute alle giunzioni. Queste
134
7. SISTEMI IN FIBRA OTTICA
ultime, oltre a presentare attenuazione, costituiscono discontinuità che provocano l’innesco di ulteriori modi anche nelle fibre monomodo, causando così perdite di potenza. Prima di passare al dimensionamento del sistema bisogna considerare le proprietà delle sorgenti : il LED e il laser. La largezza di banda della radiazione emessa da un LED è di circa 100 MHz. Il laser è costituito da un meccanismo di generazone di luce all’interno di una cavità risonante, chiusa agli estremi da due specchi semiriflettenti. La radiazione rimbalza su tali specchi, acquistando potenza a ogni passaggio. Quando la potenza è sufficientemente alta la radiazione emerge. Il meccanismo funziona in corrispondenza di tutti i possibili modi di risonanza della cavità. Dato che per avere una certa efficienza di generazione della luce il laser deve essere lungo parecchie lunghezze d’onda, le frequenze di risonanza sono abbastanza vicine fra loro. Effettuando infatti un’analisi spettrale, si ottiene una concentrazione di potenza su bande di frequenza molto strette ma molto ravvicinate fra loro.
λ
°
λ
λ
°
λ
Figura 7.1.5. Densità spettrale di potenza del segnale messo da un LED e da un LASER. Per ripulire la radiazione si possono realizzare sulla superficie del canale attivo delle rugosità in modo che le risonanze a frequenza diversa dalla fondamentale vengano fatte interferire distruttivamente. Questi laser vengono detti DFB (laser a feedback distribuito) e con essi si riescono a ottenere bande di ∼ 10 MHz e quindi bande relative molto piccole. La velocità di trasmissione nelle fibre ottiche è limitata dalla capacità delle sorgenti, in particolare del LED, di essere pilotati da segnali con transizioni molto rapide. 7.2. Dimensionamento Un sistema in fibra ottica è costituito da un trasmettitore T (generatore di luce), che generalmente effettua una modulazione del tipo OOK. In corrispondenza della trasmissione di 1 viene quindi trasmessa una certa potenza ottica PT . Essa si propaga lungo la fibra e arriva attenuata al terminale ricevente. Qui c’è un rivelatore che trasforma la potenza ottica in arrivo in un segnale elettrico a valle del quale abbiamo il solito sistema filtrocampionatore-decisore. PT
PIN
filtro
decisore
Figura 7.2.1. Schema a blocchi di un sistema di trasmissione in fibra. Il rivelatore svolge dunque una funzione analoga a quella del demodulatore nei sistemi a microonde; la differenza sta nel fatto che nel caso del demodulatore si ottiene una risposta proporzionale all’ampiezza del campo elettrico incidente, mentre nel rivelatore la risposta è
7.2. DIMENSIONAMENTO
135
proporzionale alla potenza del campo incidente. Si ricordi inoltre che nei due casi è diversa la frequenza di lavoro. Alle frequenze di lavoro dei sistemi di trasmissione in fibra ottica è necessario tener conto degli effetti quantistici. Una prima conseguenza di ciò è che non dobbiamo più tener conto del rumore termico che incide sul rivelatore insieme al segnale. Si ricordi infatti che la densità spettrale di rumore termico è in effetti hν exp (hν/kT ) − 1 e quindi tende a zero per frequenze molto grandi. Vediamo come funziona il rivelatore. Esso sfrutta la capacità ionizzante della radiazione che si propaga lungo la fibra di creare coppie lacuna elettrone nella zona di svuotamento di un diodo a giunzione polarizzato inversamente. Perché ciò accada l’energia del singolo fotone deve essere maggiore o al più uguale a quella necessaria a ionizzare il singolo atomo. Non tutti i fotoni che arrivano ionizzano un atomo. La probabilità che il fotone in arrivo crei una coppia lacuna elettrone dipende dal volume a disposizione della radiazione per trovare atomi disponibili alla ionizzazione. Si usano allora diodi PIN, in cui è presente una zona intrinseca tra la zona p e la zona n. In questo modo aumenta la zona di svuotamento e quindi l’efficienza, cioé il numero di fotoni, tra quelli che arrivano, che creano una coppia lacuna elettrone. A tale aumentata efficienza, però, corrisponde una maggiore lentezza nella risposta del dispositivo al singolo fotone: la coppia lacuna elettrone impiegherà infatti più tempo ad attraversare la zona di svuotamento e la banda del dispositivo risulterà perciò ridotta. In ogni caso si otterrà un impulso di corrente nel circuito esterno, di area pari alla carica del portatore. Supponiamo ora di trasmettere luce per 1 e niente per 0. In ricezione è necessario verificare l’arrivo di almeno un fotone, per decidere se è stato trasmesso 1. Ci poniamo momentaneamente in un caso ideale in cui trascuriamo la corrente di buio che causerebbe la generazione di impulsi di corrente anche in assenza di luce incidente (trasmissione di 0). Ne deriva che la probabilità d’errore nel caso di trasmissione di 0 è, in questo caso ideale, nulla. D’altra parte è possibile sbagliare nel caso di trasmissione di 1, dato che il numero di fotoni in arrivo è sicuramente inferiore rispetto a quelli trasmessi, a causa dell’attenuazione. I fotoni arrivano in modo del tutto indipendente e in modo casuale. Il processo fotoni in arrivo in seguito alla trasmissione di potenza PT è un processo di Poisson. La probabilità che nel periodo T arrivino k fotoni è P (k) =
(ΛT )k exp (−ΛT ) k!
essendo Λ il numero medio di fotoni che arrivano nell’unità di tempo. Ovviamente ΛT è il numero medio di fotoni che arrivano nel periodo di cifra T corrispondenti alla trasmissione di 1. Si ha allora P (ε/0) = 0 e P (ε/1) = P (k = 0) = exp(−ΛT ). La probabilità media d’errore è P (ε) = P (ε/0)P (0) + P (ε/1)P (1). Se i simboli sono equiprobabili si ha P (ε) = 0.5 exp(−ΛT )
136
7. SISTEMI IN FIBRA OTTICA
Fissata P (ε) si può ricavare il numero minimo di fotoni per periodo di cifra che si deve mediamente richiedere in ricezione per avere P (ε) assegnata 1 N1 = ΛT = ln 2P (ε) Se P (ε) = 10−9 , N1 = 20. Servono quindi mediamente 20 fotoni per periodo di cifra relativamente alla trasmissione di 1. Se i simboli sono equiprobabili, come già supposto, il numero medio di fotoni per simbolo è N = N1 P (1) = 10 che indica il costo medio della trasmissione di informazione. Tutto ciò nel caso ideale. In realtà nel discorso precedente si ipotizza innanzitutto che la temporizzazione sia fissata ed esatta e ciò non è vero. È inoltre necessario considerare una certa efficienza quantica η che lega il numero di fotoni efficaci a quelli che non lo sono. Naturalmente η < 1. Oltre a ciò, a causa dell’agitazione termica, casualmente qualche atomo si ionizza da solo, e quindi si ha sempre una certa corrente di buio. Si tenga inoltre presente che la piccola corrente creata dalla ionizzazione deve essere amplificata. L’amplificazione introduce nuovamente quel rumore termico che avevamo trascurato per effetti quantistici. Vediamo allora il dimensionamento di un sistema reale. Il fotone è portatore di una energia elementare E = hν, con h = 6.6 · 10−34 Joule·secondo (costante di Planck). Il numero medio di fotoni in arrivo per unità di tempo è dato dal rapporto tra potenza ottica e energia E. Il numero di fotoni efficaci è PR Λ=η hν Questo è il numero medio di fotoni per unità di tempo che creano una ionizzazione e quindi un impulso di corrente di area q. La corrente media che esce dal fotodiodo rivelatore è allora PR (7.2.1) I = qΛ = qη = ρPR hν essendo ρ la responsività. L’impulsino di corrente è generato in modo casuale: quindi dal rivelatore non emerge un segnale deterministico, con del rumore sovrapposto, ma un processo stocastico con statistica di Poisson. In tale processo media e varianza sono uguali. Avendo un processo di Poisson all’uscita del rivelatore e dovendo questo essere filtrato attraverso il filtro di ricezione, non sappiamo cosa si ottiene all’uscita. Solo nel caso di statistica gaussiana, infatti, sappiamo che essa resta tale nel passaggio attraverso un filtro. In tutti gli altri casi, per calcolare la statistica del primo ordine all’uscita del filtro è necessario conoscere la statistica di tutti gli ordini del processo in ingresso. A questo punto non si potrebbe dunque procedere nel dimensionamento. In realtà si può procedere in modo un pò forzato, dimostrando che di fatto il processo che emerge dal filtro è approssimativamente gaussiano. Possiamo infatti dire che comunque è necessario più di un fotone in ricezione per vedere un 1 trasmesso. Ogni impulsino di corrente del rivelatore viene amplificato e filtrato da HR . All’uscita esso avrà quindi una banda che è circa fs , indipendentemente da quanto grande fosse inizialmente. Se nel periodo di cifra
7.2. DIMENSIONAMENTO
137
T = 1/fs abbiamo più di un fotone (100 − 1000) possiamo dire che il processo di Poisson, che era rappresentato da impulsini che arrivavano casualmente nel tempo in numero Λ per secondo, una volta filtrato è tale che al posto di ogni impulsino si hanno le risposte all’impulso del filtro, che vanno sommate. All’uscita si ha la combinazione, con pesi più o meno paragonabili, di un gran numero di impulsini. Se allora 1 1 (7.2.2) Λ fs cioé la distanza temporale media tra due impulsi è molto piccola rispetto al periodo di cifra, si sovrappongono molte risposte all’impulso. Allora il processo in uscita (cioé la variabile casuale ottenuta campionando il processo di Poisson filtrato), è istante per istante la combinazione lineare di un gran numero di variabili indipendenti e pesate in modo che nessuna sia dominante rispetto alle altre. Invocando il teorema del limite centrale si vede dunque che il processo è quasi gaussiano. In realtà per avere una buona gaussiana bastano pochi contributi nella parte centrale, mentre nelle code ci vogliono molti contributi. Poiché vogliamo sbagliare con bassa probabilità, metteremo la soglia proprio dove gli eventi che ci fanno sbagliare hanno bassa probabilità, cioé sulle code. Ci interessa quindi la distribuzione, l’andamento della densità di probabilità proprio dove forzare il teorema del limite centrale non è del tutto corretto, cioé sulle code. In realtà per avere code che vanno a infinito dovrei sommare infiniti termini. Sommandone un numero finito si ha un segnale con code che decadono più velocemente. Quindi ipotizzare che la statistica sia di Gauss è conservativo. Ipotizzando dunque valida la (7.2.2) e supponiamo che la statistica sia di Gauss. Al termine dei conti si dovrà poi verificare che la (7.2.2) sia valida. Per effettuare il dimensionamento si deve schematizzare il sistema e in particolare il ricevitore: a parte l’amplificatore e il filtro, si deve schematizzare il rivelatore. Ricordiamo che il sistema è come in figura 7.2.2. sorgente
fibra 14
10 Hz
hn HR
rivelatore
decisore
banda base
Figura 7.2.2. Schema a blocchi utile per il dimensionamento. Il rivelatore si può schematizzare come un generatore di corrente. Il segnale (la parte "desiderata" del processo all’uscita del rivelatore) è il valor medio di corrente I già calcolato nella (7.2.1). Il disturbo è dato dalle fluttuazioni attorno a tale valore. Abbiamo un termine di rumore quantico iq che schematizziamo con un generatore di corrente di rumore. Si dovrebbe poi aggiungere la corrente di buio (sommandone il valor medio a I e la variazione a iq ) che però trascuriamo. Bisogna inoltre tener conto che per polarizzare inversamente il diodo rivelatore è necessario un circuito di polarizzazione
138
7. SISTEMI IN FIBRA OTTICA
e quindi un resistore. Tale resistore dovrà essere realizzato non in granuli di carbonio, ma con tecnologia tale da non far comparire il flicker noise: all’uscita del rivelatore interessano infatti le basse frequenze. +V
Figura 7.2.3. Circuito di polarizzazione del fotodiodo. Si avrà quindi una resistenza di polarizzazione R che sarà responsabile di un’ulteriore corrente di rumore con densità spettrale (rumore termico gaussiano) hnt = 4KTo /R. Dobbiamo poi considerare l’amplificatore in ingresso al filtro con una sua resistenza interna e una rumorosità equivalente riportata in ingresso. Possiamo inglobare dunque in R la parte resistiva dell’impedenza d’ingresso dell’amplificatore. Riportando equivalentemente all’ingresso la sua rumorosità si ha hnt = 4F KTo /R. Il diodo polarizzato inversamente avrà un comportamento capacitivo di cui teniamo conto con una capacità C in cui inglobiamo anche la parte reattiva dell’impedenza di ingresso dell’amplificatore. La densità spettrale del rumore quantico è hnq = 2qI. In totale si ha hn = hnt + hnq = 4F KTo /R + 2qI. Lo schema del rivelatore è allora I
h nq
h nt
R
C
Figura 7.2.4. Identificazione termini di rumore in ingresso al ricevitore. Fissata P (ε) a valle del decisore, resta definito γ a monte del decisore e, quindi, il rapporto segnale rumore a monte del campionatore. Poiché la codifica è OOK, essa è di tipo ortogonale. Quindi S Ppicco = = 4γ 2 N Pmedia Questo a valle del filtro di ricezione. Considerando la perdita di disadattamento del filtro dovuta al fattore di forma (0.5dB), si può passare al rapporto segnale rumore a monte del filtro di ricezione. In definitva si ha Pp = 4γ 2 100,05 hn fs /2
7.2. DIMENSIONAMENTO
139
Il segnale all’uscita del rivelatore e, quindi, all’ingresso del filtro, è I; la potenza di picco del segnale è allora PP = I 2 . Il rapporto segnale rumore all’ingresso del filtro è S I2 = = 4γ 2 100,05 N (2qI + 4kTo F/R) fs /2 La seconda uguaglianza è un pò forzata. È qui infatti che affermiamo che il rumore, la cui densità spettrale appare al denominatore del primo membro, ha statistica di Gauss. Questo non è vero perché sommando due variabili indipendenti se ne sommano anche le varianze, ma senza che, però, il risultato abbia la statistica di una delle due, cioé in quasto caso sia gaussiano. La seconda uguaglianza non è, perciò, vera. Il nostro scopo è, ritenendo valida l’approssimazione relativa al teorema del limite centrale, di calcolare il minimo numero medio di fotoni da ricevere per periodo di cifra e confrontarlo col valore N = 10 calcolato in precedenza nel caso ideale. Posto fs = 1/T si ha (7.2.3)
S = N
1 2
I 2T = 4γ 2 100,05 4kTo F 2qI + R
I 2 T è l’energia della forma d’onda rettangolare all’uscita del rivelatore. Dobbiamo decidere il filtro RC la cui frequenza di taglio non può essere fissata a caso. Sarebbe desiderabile avere R quanto più grande possibile, per rendere trascurabile il rumore termico. In essa è inoltre inglobata la resistenza di polarizzazione del diodo, che vogliamo elevata in modo che sia maggiore la quota parte di corrente (segnale) che circola nell’amplificatore. D’altra parte R interviene nella determinazione della frequenza del polo del parallelo RC. Se tale polo è a frequenza troppo bassa (R elevata), non permette di trasmettere ad una frequenza di cifra sufficientemente elevata. Bisogna quindi fissare R in modo che consenta una velocità di trasmissione pari ad fs . Facciamo allora in modo che tale polo si trovi a una frequenza vicina a fs , ma non troppo minore. Poniamo cioé 1 = ξfs 2πRC con ξ circa unitario. Sostituendo nella (7.2.3) si ottiene (7.2.4)
I 2 T = 2γ 2 100,05 (2qI + 4kTo F 2πCξfs )
Moltiplicando ambo i membri per T e risolvendo rispetto a IT , con q = 1.610−19 Coulomb, k = 1, 38 · 10−23 J/K si ottiene IT = 4 · 10−15 . Il numero medio di fotoni per unità di tempo è IT /q = 25000. Sicuramente, quindi, esso è molto maggiore di 10. In base a questo risultato possiamo ritenere valida l’ipotesi secondo la quale abbiamo considerato il rumore quantico approssimabile con un rumore gaussiano a valle del filtro di ricezione (considerando quindi valido il teorema del limite centrale). Dal risultato ottenuto si deduce inoltre che il rumore termico è dominante rispetto al rumore quantico. Il rumore quantico non è eliminabile nei sistemi in fibra ottica perché è legato al modo di funzionare del rivelatore. Il rumore termico è invece una conseguenza della bassa qualità dell’implementazione pratica.
140
7. SISTEMI IN FIBRA OTTICA
Si può ridurre il rumore termico modificando la tecnologia del rivelatore. Si cerca allora di migliorare l’efficienza del fotorivelatore usando l’effetto valanga. Si ottengono i cosiddetti fotomoltiplicatori. In questi dispositivi si impone una polarizzazione inversa, cioé un campo elettrico locale sufficientemente alto in modo che i portatori di carica conseguenti alla ionizzazione di un atomo da parte di un fotone incidente, acquistino energia sufficiente a provocare ionizzazioni secondarie. In definitiva, in corrispondenza di un solo fotone incidente si ottiene un numero G > 1 di impulsi di corrente. La corrente media in uscita da un diodo a valanga è dunque pari a G volte quella in uscita da un normale diodo PIN. Possiamo schematizzare il comportamento di un diodo a valanga considerando in cascata a un diodo PIN un dispositivo che amplifica la corrente e contemporaneamente aumenta anche la rumorosità. Tale dispositivo è un amplificatore con guadagno (in potenza) G e fattore di rumore che si può verificare sperimentalmente valere G2a . Il rumore viene quindi amplificato di G2a . Tale amplificazione, tuttavia, riguarda solo il rumore quantico, dato che il rumore termico è iniettato solo a valle del rivelatore. In virtù del fatto che il segnale, a valle del rivelatore, è amplificato di G, nulla cambia se, invece di considerare il segnale amplificato consideriamo il rumore termico attenuato di G e il segnale invariato. In definitiva, per il dimensionamento con un diodo a valanga, si ha I 2T 0.05 ≥ 4γ 2 10 4πkTo F ξCfs qIG2α + G Si ha un grado di libertà in più rispetto al caso col fotodiodo, dato che G dipende da come è realizzato il diodo e dall’intensità del campo acceleratore che instauriamo nella zona di svuotamento. Il guadagno di valanga G, e quindi il corrispondente aumento di rumore quantico è cioé regolabile. Naturalmente nel dimensionamento ci interessa ottenere le stesse prestazioni col valore più basso possibile di corrente media all’uscita del fotodiodo, ovvero col livello più basso possibile di potenza ottica in ricezione (e quindi in trasmissione). Variamo allora G in modo da minimizzare i requisiti in termini di potenza ottica in ricezione, a parità di probabilità d’errore. Si risolve l’ultima equazione scritta rispetto a I, tenendo G come parametro, e poi si minimizza I rispetto a G. Esiste una valore ottimale del guadagno. Se G è grande si ottiene un rumore quantico molto forte. Se G = 1 si torna al diodo PIN, col rumore termico che limita le prestazioni. Esiste una situazione ottimale che fissa il punto di funzionamento del sistema in modo che i pesi del rumore termico e del rumore quantico siano confrontabili. In questo caso il disturbo non è più del tutto gaussiano. Si ottiene una riduzione del numero di fotoni necessari in trasmissione, ma esso è comunque molto maggiore di 10. Non ci sono altri margini di miglioramento. Se lo schema resta di modulazione OOK in trasmissione e rivelazione diretta in ricezione non ci sono altri gradi di libertà, quando si sia reso il rumore quantico confrontabile col rumore termico. Si può allore pensare di usare un sistema di modulazione più efficiente come il PSK: in questo modo la codifica di linea è antipodale.
7.2. DIMENSIONAMENTO
141
L’uso del PSK, però, richiede una demodulazione coerente in ricezione. Vediamo come si procede. La modulazione si effettua mediante un modulatore elettroottico. Esso è costituito da materiale piezoelettrico le cui caratteristiche variano in funzione del campo elettrico applicato. Controllando, per mezzo del campo elettrico, la costante dielettrica del materiale, è possibile controllare la velocità di propagazione della radiazione. Facendo variare la velocità e, quindi, il ritardo di una mezza lunghezza d’onda a seconda che si voglia trasmettere 1 o 0, si ottiene una modulazione PSK. Per quanto riguarda la demodulazione, i segnali sono passabanda e il fotorivelatore fornisce in uscita una corrente che è proporzionale alla potenza ottica incidente, cioé una corrente proporzionale al quadrato dell’ampiezza della radiazione incidente. Il rivelatore è quindi quadratico. Sia s(t) cos(ωP t+ϕP ) la portante modulata da s(t). A questa portante ottica sommiamo un’oscillazione locale di pulsazione ωL e mandiamo la somma dei segnali al fotodiodo. La corrente in uscita è proporzionale al quadrato della ampiezza istantanea della radiazione incidente. Cioé i(t) ∝ [s(t) cos (ωp t + ϕp ) + AL cos (ωL t + ϕL )]2 = = s2 (t) cos2 (ωp t + ϕp ) + A2L cos2 (ωL t + ϕL ) + +2AL s(t) cos (ωp t + ϕp ) cos (ωL t + ϕL ) = s2 (t) s2 (t) A2 A2 + cos (2ωp t + 2ϕp ) + L + L cos (2ωL t + 2ϕL ) + 2 2 2 2 +AL s(t) cos [(ωp − ωL ) t + ϕp − ϕL ] + AL s(t) cos [(ωp − +ωL ) t + ϕp + ϕL ] =
ωP e ωL sono le pulsazioni delle portanti ottiche. Esse avranno quindi valori elevatissimi: i termini a frequenza doppia daranno allora automaticamente contributo trascurabile alla corrente d’uscita. Stesso discorso per il termine a frequenza somma. Si ha allora s2 (t) A2L + + AL s(t) cos [(ωp − ωL ) t + ϕp − ϕL ] 2 2 La somma dei segnali si effettua mediante uno specchio semiriflettente come in figura i(t) ∝
fascio incidente
specchio
oscillazione locale
Figura 7.2.5. Somma coerente di fasci luminosi.
142
7. SISTEMI IN FIBRA OTTICA
Il termine a frequenza differenza nell’ultima equazione scritta è un termine a frequenza più bassa a patto che le fasi ϕP e ϕL siano costanti. In caso contrario si ottiene una sinusoide modulata di fase: non si ha più una traslazione del segnale alle basse frequenze, ma una modifica dello spettro del segnale. Sappiamo infatti che, in una demodulazione coerente, un errore di fase e dell’oscillazione locale produce nel segnale in uscita una attenuazione pari a cos ϕ. Se l’errore di fase è funzione del tempo, all’uscita del demodulatore si ottiene un segnale modulato per cose(t). In questo caso sarebbe possibile effettuare ancora una demodulazione coerente a patto di essere in grado di generare localmente la stessa modulazione di fase, in modo da avere, istante per istante, ϕP (t) = ϕL (t). Nel nostro caso la modulazione di fase è il risultato della realizzazione di un processo casuale e quindi non è riproducibile localmente. Se la sorgente in trasmissione è a spettro largo, non è pensabile traslare in frequenza il segnale ottico, allo scopo di modularlo o demodularlo. Perché questo concetto possa essere significativo è necessario, per forza di cose, usare una sorgente con una riga spettrale molto stretta rispetto allo spettro del segnale modulante. Oltre al problema della fase, nel caso di fasci luminosi bisogna tener conto anche dei fronti d’onda, che possono o meno combinarsi costruttivamente. È quindi necessario che le due oscillazioni arrivino sulla superficie sensibile del LED non solo con fase uguale, ma anche con fronti d’onda allineati: non basta cioé una coerenza temporale (fasi uguali) ma è necessaria anche una coerenza spaziale (fronti d’onda perfettamente sovrapposti). Se la lrgezza della riga spettrale dei laser non è tale da permettere una demodulazione, può, però, consentire multiplazioni di frequenza con bande molto più strette di quelle consentite da normali filtri ottici.
CAPITOLO 8
Teoria dell’informazione 8.1. Misura dell’informazione Scopo della teoria dell’informazione è valutare i limiti teorici dell’informazione che si può trasmettere su un canale preassegnato. In questo modo si possono stabilire dei parametri comuni per confrontare le prestazioni di sistemi reali. Consideriamo una sorgente discreta, che emetta una successione di possibili simboli di un alfabeto. Supponiamo che i simboli siano equiprobabili ed emessi in modo statisticamente indipendente dai precedenti. Per descrivere al ricevitore gli M possibili simboli ho bisogno di n = log2 M bit/simbolo. Tale quantità rappresenta dunque la quantità di informazione emessa dalla srgente. Se i simboli non sono equiprobabili il discorso precedente non vale più. In questo caso è, infatti, più ragionevole usare una codifica a lunghezza variabile che associ ai simboli più frequenti un numero di bit minore e ai simboli meno frequenti un numero di bit maggiore. In questo modo si ha una quantità media di bit per unità di tempo più bassa. Si può definire una quantità di informazione media pari a X (8.1.1) I(x) = P (xi ) ni bit/simbolo i
essendo P (xi ) la probabilità che la sorgente emetta il simbolo xi ed ni il numero di bit necessari alla sua codifica. Per calcolare in questo caso il valore teorico dell’informazione emessa dalla sorgente si usa il teorema dell’equipartizione. Supponiamo che la sorgente sia ergodica. Questo significa che le sue proprietà statistiche non variano nel tempo (la sorgente è stazionaria) e che, osservando una sola realizzazione per un tempo via via crescente, siamo sicuri che la sorgente passerà attraverso tutti i suoi possibili stati. Ne consegue che è possibile ricavare tutte le proprietà statistiche della sorgente da una sola realizzazione. Questo ci consente di dire che, considerando un messaggio formato da N simboli, con N molto grande, al suo interno ci saranno, con probabilità uno, N P1 simboli x1 , N P2 simboli x2 ecc. Infatti, per definizione di ergodicità, per N tendente a infinito, le frequenze relative N Pi /N dei vari simboli devono tendere alle rispettive probabilità. Dato che i simboli vengono emessi in modo indipendente l’uno dall’altro, la probabilità del messaggio di N simboli descritto è Pmess = P1N P1 P2N P2 P3N P3 . . . Non tutti i messaggi sono possibili. Alcuni di essi avranno probabilità zero di verificarsi (per esempio il messaggio con tutti simboli x1 ). D’altra parte, per la supposta ergodicità della sorgente, i messaggi possibili sono tutti equiprobabili. Il numero di tali messaggi è 143
144
8. TEORIA DELL’INFORMAZIONE
ovviamente M = 1/Pmess . Il numero di bit necessari alla sorgente per descrivere uno di questi messaggi è n = log2 M = −log2 Pmess bit/messaggio Il numero medio di bit necessari per descrivere il singolo simbolo è allora N N Y X n 1 1 N Pi H(x) = = − log2 Pmess = − log2 Pi =− Pi log2 Pi N N N i=1 i=1
Cioè (8.1.2)
H(x) = −
N X
Pi log2 Pi
i=1
H(x) è l’entropia della sorgente (quantità di informazione media per simbolo). Dal confronto con la (8.1.1) si deduce che −log2 Pi rappresenta il numero minimo teorico di bit necessari per descrivere un simbolo. L’entropia rappresenta allora il minimo numero medio di bit per simbolo necessari per trasmettere l’informazione. Dal discorso effettuato risulta evidente che se vogliamo avvicinarci al limite teorico dato dalla H(x) bisogna ricorrere a codifiche a lunghezza variabile. Esempio. Codifica di Huffmann. Supponiamo di avere una sorgente che emetta i simboli A, B, C, D con probabilità rispettivamente 0.6, 0.25, 0.1, 0.05. Il metodo consiste nell’ordinare i simboli in ordine di probabilità decrescente e considerare la coppia di simboli meno probabili. A 0,6
1
B 0,25
1
C 0,1
0,4
0
1 0,15 0 0
D 0,05
Figura 8.1.1. Codifica di Huffman. Si procede accoppiando sempre le due probabilità più piccole. La codifica è evidentemente la seguente: A B C D
− − − −
1 01 001 000
Per valutare l’efficienza del codice basta confrontare la quantità media d’informazione I(x) data dalla (8.1.1) con l’entropia della sorgente data dalla (8.1.2). Si ha I(x) = 1 · 0.6 + 2 · 0.25 + 3 · 0.15 = 1.55 bit/simbolo
8.1. MISURA DELL’INFORMAZIONE
145
mentre H(x) = −0.6log2 0.6 − 0.25log2 0.25 − 0.1log2 0.1 − 0.05log2 0.05 = = 1.49 bit/simbolo La codifica di Huffmann è molto efficiente perché porta all’uso di un numero medio di bit per simbolo ragionevolmente vicino all’entropia, che è la quantità minima teoricamente indispensabile per descrivere i messaggi emessi dalla sorgente. Esempio. Trasmissione mediante fax-simile. La sorgente emette due simboli: bianco (B) o nero (N). Normalmente la probabilità del bianco è enormemente più alta della probabilità del nero. Supponiamo di avere le seguenti probabilità: pn = 0.1 e pb = 0.9. Consideriamo inoltre la seguente codifica: B = 0 e N = 1. Si ha quindi un’informazione media pari a I(x) = 1 bit/simbolo a fronte di un’entropia pari a H(x) = −0.9log2 0.9 − 0.1log2 0.1 = 0.47 bit/simbolo. Un grafico dell’entropia della sorgente in funzione della probabilità di uno dei simboli è del tipo H(p) 1
0
1
0.5
p
Figura 8.1.2. Entropia H(p) per 0 < P > 1. Nel nostro caso, in cui un simbolo è molto più probabile dell’altro, si ha H(x) < 1. In questo modo sprechiamo il 53% dell’informazione trasmessa. Possiamo ricorrere ad una codifica a coppia di simboli, ipotizzando che la sorgente emetta i simboli in modo indipendente l’uno dall’altro: in questo modo la probabilità della coppia è data dal prodotto delle probabilità dei simboli costituenti la coppia. BB 0,81
1
0,1 1 0,19
NB 0,09 BN 0,09 NN 0,01
0
0 1 0
Figura 8.1.3. Codifica di Huffman di coppie di simboli. La codifica è la seguente BB = 1 N B = 00 BN = 011 N N = 010
146
8. TEORIA DELL’INFORMAZIONE
Il numero medio di bit necessari per codificare una coppia è 1.29 bit/coppia. Il numero medio di bit/simbolo è allora 0.645 bit/simbolo. Mediante una codifica a blocchi si ottiene ancora una volta un valore più vicino all’entropia. Si possono considerare blocchi più lunghi a patto che la complessità circuitale lo permetta: conviene aumentare la dimensione dei blocchi fino a quando l’incremento di efficienza che si ottiene diventa piccolo rispetto all’incremento della complessità circuitale. Naturalmente con una codifica a lunghezza variabile sorgono dei problemi. In primo luogo nasce un problema relativo al sincronismo tra trasmettitore e ricevitore. Con un codice a lunghezza fissa, infatti, una volta stabilito il sincronismo il ricevitore è in grado di distinguere una parola dall’altra, dato che ogni parola contiene un nuemro fissato di bit. Nel caso di codifica a lunghezza variabile ciò non è più vero. Affinchè la decodifica possa essere univoca e immediata è necessario che nessuna parola di codice costituisca prefisso di una parola di codice diversa. Con la codifica a lunghezza variabile, inoltre, si ha lo spiacevole inconveniente che un errore su un bit comporta un errore non solo sulla parola ad esso relativa, ma anche sulle parole successive. Altro problema è legato al tasso di informazione che, nel caso di codifica a lunghezza variabile, non è più costante nel tempo. Il problema è che il mezzao trasmissivo può accettare informazione solo a tasso costante (in caso contrario si hanno problemi di intersimbolo). È allora necessario equalizzare il tasso di generazione dei simboli mediante un dispositivo che accetti i bit a tasso variabile e li emetta a tasso fisso. Una perfetta equalizzazione si avrebbe se tale dispositivo fosse in grado di accumulare tutti i bit da trasmettere per poi ritrasmetterli alla velocità desiderata. In questo modo, però, si avrebbe un aumento indefinito del ritardo medio con cui l’informazione giunge al destinatario. Il dispositivo di cui si è parlato può essere una memoria a doppia porta, in cui si possa scrivere a velocità variabile e leggere a velocità costante. Naturalmente la capacità di tale memoria non può essere infinita e viene fissata in modo tale che introduca un ritardo tollerabile nella trasmissione, e soprattutto sia possibile gestire le due situazioni estreme di memoria vuota (non ci sono più bit da trasmettere) e memoria piena (overflow, ulteriori bit vengono persi). Se la memoria è vuota si ricorre al cosiddetto bit stuffing: si trasmettono bit a caso, privi di informazione, facendo ovviamente in modo di avvisare il ricevitore che si tratta di bit falsi. Tutto ciò con l’unico scopo di tenere occupato il canale. In caso di overflow, invece, si cerca di abbassare il tasso di informazione all’ingresso della memoria, degradando momentaneamente la qualità con cui si descrive l’informazione (limitando cioè il numero di bit/campione). Ovviamente è necessario informare di ciò il ricevitore: in caso contrario esso non è più in grado di effettuare la decodifica. Fino ad ora si sono supposti i simboli statisticamente indipendenti. E’ evidente che questa ipotesi è restrittiva. Tale ipotesi ha portato alla definizione di entropia che, nel
8.1. MISURA DELL’INFORMAZIONE
147
caso in cui i simboli non sono statisticamente indipendenti, non rappresenta più il contenuto informativo della sorgente. La statistica dipendenza costituisce infatti informazione aggiuntiva, ma nota a priori, di cui non si terrebbe conto nel calcolo del’entropia fino ad ora definita. Quello che cambia, nel discorso fino ad ora effettuato, è il calcolo della probabilità del singolo messaggio. Resta valido l’approccio, che è alla base della teoria di Shannon, di considerare una sequenza di simboli molto lunga per stabilire le prestazioni limite di un sistema. Nel caso di statistica dipendenza non consideriamo più le probabilità dei singoli simboli, ma le probabilità condizionate al verificarsi di un simbolo precedente p(xi |sj ). L’entropia del primo ordine è allora X H (X|sj ) = − P (xi |sj ) log2 P (xi |sj ) i
Essa è l’entropia relativa all’emissione del messaggio x, costituito dai simboli xi , quando in precedenza si è verificato sj . Mediando rispetto a tutte le situazioni condizionanti, si ottiene l’entropia condizionata X X H (X|S) = − P (sj )H (X|sj ) = − P (xi , sj ) log2 P (xi |sj ) j
i,j
Tenendo conto della statistica dipendenza tra i simboli si possono ottenere prestazioni notevolmente migliori. È quanto si fa per esempio nella codifica run lenght. Tale codifica è utilizzabile nella trasmissione mediante fax. In questo caso, infatti, non è corretto, come invece si è fatto nell’esempio precedente, supporre la statistica indipendenza tra gli eventi: una volta che si è verificato l’evento nero, infatti, è molto probabile che se ne verifichi un’altro, dato che la traccia della scrittura ha un suo spessore. Tale discorso è ancora più valido nel caso del bianco data la spaziatura fra i caratteri, fra le parole, o lo spazio inutilizzato. In questo caso, al posto di trasmettere una lunga sequenza di 0 (quando per esempio ci si trova in una zona bianca) si contano i simboli 0 e si invia al ricevitore un messaggio (run lenght) che lo informa di quanti sono i simboli 0. In questo modo si ottiene un numero medio di bit per simbolo molto minore dell’entropia, che sembrava essere il limite minimo necessario per la descrizione della sorgente; abbiamo semplicemente sfruttato la statistica dipendenza tra i simboli. L’entropia condizionata rappresenta l’ulteriore contenuto informativo dopo che si è giunti alla conoscenza dell’uscita della sorgente fino a un certo punto. È necessario valutare l’entropia "vera" della sorgente, ossia l’entropia di ordine superiore. La differenza tra una entropia del primo ordine e una di ordine superiore sta nel fatto che, mentre nel primo caso si considera la probabilità p(xi ) del singolo simbolo emesso, nel secondo caso si considera la probabilità di simboli compositi, cioè la probabilità congiunta p(xi , xi+1 , · · · ). Man mano che si considerano eventi multipli, cioè si considera p(xi , xi+1 , · · · ), se c’è statistica dipendenza con i simboli precedenti, tale dipendenza si esaurisce all’interno del simbolo complessivo.
148
8. TEORIA DELL’INFORMAZIONE
Considerando entropie di ordine via via superiore si osserva che, all’aumentare del numero di simboli considerati, l’entropia tende ad un valore minimo. Ciò è giustificabile in quanto non c’è dipendenza tra i simboli oltre una certa distanza. Se i simboli sono indipendenti l’entropia del primo ordine coincide con l’entropia di ordine superiore. Quando si parla di entropia della sorgente, si intende riferirsi a quel limite cui l’entropia di ordine via via crescente tende e che tiene conto della dipendenza tra simboli emessi successivamente. Una volta quantificata l’entropia, ossia caratterizzata la sorgente dal punto di vista del contenuto informativo emesso, il problema è quello di utilizzare un canale che trasmetta tale informazione al destinatario. 8.2. Canale digitale Nel caso di canale reale i simboli in uscita dal mezzo trasmissivo sono in parte sbagliati. Possiamo considerare l’insieme della sorgente (che emette un messaggio x) e del canale come un’unica sorgente che emette un messaggio y. sorgente
X H(X)
mezzo tr.
Y H(Y)
Figura 8.2.1. Uscita del canale trasmissivo come sorgente. Essa può a sua volta essere caratterizzata da una entropia H(y). Se il canale fosse ideale H(y) = H(x). Nel caso di canale reale H(y) contiene anche informazione non corretta, prodotta cioè da bit sbagliati. L’informazione in uscita dal canale non è quindi H(y), ma H(y) depurata dell’equivocazione, ovvero di quella parte di informazione falsa che il canale introduce a causa del rumore. L’informazione vera che emerge dal canale è quindi I(x, y) = H(y) − H(y|x) essendo H(y|x) l’equivocazione, cioè quella parte di informazione dovuta alla non idealità del canale. L’informazione vera appena calcolata può essere vista anche in altro modo. Essa può intendersi anche come l’informazione generata dalla sorgente meno quell’incertezza che permane relativamente alla conoscenza del messaggio x generato dalla sorgente, anche una volta che si abbia a disposizione il messaggio emesso dal canale. Si può cioè scrivere I(x, y) = H(x) − H(x|y) I(x, y) dipende sia dal canale che dalla sorgente. Cambiando la statistica della sorgente il canale potrà essere più o meno adatto a trasmettere l’informazione. Si definisce capacità del canale C = max I(x, y) X
Il massimo è preso rispetto alle statistiche di tutte le possibili sorgenti. C è una misura della quantità di informazione massima "vera" che può transitare sul canale; essa fa quindi riferimento ai bit per unità di tempo o ai bit per simbolo che transitano correttamente nel canale.
8.2. CANALE DIGITALE
149
Calcoliamo ora la capacità del canale con riferimento a esempi particolari. Consideriamo un canale di trasmissione binario. Esso abbia in ingresso i simboli x1 e x2 e in uscita i simboli y1 e y2 . Supponendo di considerare rumore gaussiano e soglia a metà, la probabilità di confondere x1 con x2 è uguale alla probabilità di confondere x2 con x1 . Sia p tale probabilità d’errore. Descriviamo il canale per mezzo di un grafo. Le transizioni da uno stato in ingresso a uno di uscita sono rappresentabili mediante un costo che è proprio la probabilità d’errore. Questo è il canale binario simmetrico. x1
1−p p p
x2
1−p
y1 y2
Figura 8.2.2. Canale binario simmetrico. C = maxX I(x, y) = maxX [H(y) − H(y|x)] H(y) = −
P
i
P (yi )log2 P (yi )
P H(y|x) = − i P (yi , xi )log2 P (yi |xi ) Calcoliamo le probabilità condizionate e congiunte. Sia p(x1 ) = a e p(x2 ) = 1 − a. P (x1 y1 ) P (yi |xi ) x1 y1 α (1 − p) 1−p x1 y2 αp p x2 y1 p (1 − α) p x2 y2 (1 − α) (1 − p) 1−p La probabilità congiunta è pari al prodotto delle probabilità. Ciò è dovuto al fatto che l’evento errore è statisticamente indipendente dal simbolo che entra nel canale. Per calcolare la probabilità congiunta, inoltre, non basta conoscere le proprietà statistiche del canale, ma bisogna conoscere anche le proprietà statistiche della sorgente (α). L’equivocazione vale H(y|x) = −α (1 − p) log2 (1 − p) − αplog2 p+ −p (1 − α) log2 p − (1 − α) (1 − p) log2 (1 − p) = = −plog2 p − (1 − p) log2 (1 − p) H(p) è l’entropia di una sorgente binaria in cui la probabilità d’errore vale p. Osserviamo che H(y|x) non dipende dalla statistica della sorgente (α). Tale proprietà deriva dal fatto che abbiamo considerato la soglia a metà e che quindi la transizione x1 − y2 costa quanto la transizione x2 − y1 . Se il canale non fosse simmetrico avremmo L’equivocazione dipenderebbe da p1 e p2 (cioè dalla statistica del canale) e anche dalla statistica della sorgente a. E’ ora evidente perchè stiamo calcolando la capacità del canale
150
8. TEORIA DELL’INFORMAZIONE 1−p1
x1
p1 p2
x2
1−p2
y1 y2
Figura 8.2.3. Canale binario asimmetrico. massimizzando H(y) − H(y|x) e non H(x) − H(x|y): H(y|x) non dipende dalla statistica della sorgente. Calcoliamo ora H(y). Abbiamo che P (y1 ) = α (1 − p) + (1 − α) p = α + p − 2αp P (y2 ) = αp + (1 − α) (1 − p) = 1 − p − α + 2αp H(y) = − (α + p − 2αp) log2 (α + p − 2αp) + − (1 − p − α + 2αp) log2 (1 − p − α + 2αp) Bisognerebbe annullare la derivata di H(y) rispetto ad α e ricavare, quindi, α. In realtà abbiamo a che fare con una sorgente binaria (y) e si può procedere più velocemente: per essa, infatti, l’entropia in funzione della probabilità di uno sei simboli ha l’andamento ripetuto in figura 8.2.4. H(p) 1
0
0.5
1
p
Figura 8.2.4. Massimo dell’entropia per un canale binario simmetrico. La sua entropia è massima quando i simboli sono equiprobabili. Basta allora porre α + p − 2αp = 1 − p − α + 2αp = 1/2 Da una delle due uguaglianze si ricava α + p − 2αp = 1/2 α = 1/2 Segue che la massima quantità di informazione che un canale binario simmetrico può far pervenire si ha quando la sorgente che lo alimenta è a simboli equiprobabili. Si ha allora C = 1 − H(p) Per p = 1/2 si ha H(p) = 1 e quindi C = 0. Viceversa se p tende a zero o a uno, la capacità C tende a 1. Quando C = 1, la capacità C coincide con la frequenza di simbolo
8.2. CANALE DIGITALE
151
binario fs . In tutti gli altri casi si ha C < fs a causa della presenza di bit errati. Si può allora dire che la capacità di canale espressa in bit/sec è la massima velocità di trasmissione dell’informazione sul canale, teoricamente ottenibile senza commettere errori. NOTA: L’entropia e la capacità di canale hanno ciascuna due diverse unità di misura: bit/simbolo e bit/sec. Per passare dall’una all’altra basta considerare il numero di simboli emessi o trasmessi per unità di tempo (simboli/sec). Consideriamo ora un sistema multilivello. Si può riproporre il discorso appena fatto per il calcolo della capacità di canale. 00 x 1
y1 00
01 x2
y2 01
10 x3
y3 10
11 x4
y4 11
Figura 8.2.5. Canale multilivello (tratteggiate le transizioni quasi impossibili). Bisogna descrivere le proprietà statistiche del canale in funzione delle probabilità di transizione fra le configurazioni. La probabilità di confondere un livello con uno adiacente è molto maggiore della probabilità di confonderlo con uno non adiacente. Usando una codifica di Gray, questo equivale a assegnare probabilità nulla a una transizione che corrisponde a un errore su due bit (linee tratteggiate). Se la soglia è a metà tra due livelli rappresentativi, si possono esprimere le probabilità di transizione in funzione della probabilità d’errore del sistema binario equivalente. Un esempio di sistema multilivello è il seguente. y0
p1 x0
p
p2
p(xo ) = a e p(x1 ) = 1 − a
p1
3
p2
x1 p
1
y1 y2
Figura 8.2.6. Esempio di sistema multilivello. y2 è uno stato in cui non siamo in grado di decidere nè per xo nè per x1 . In pratica questo equivale a inserire una regione di indecisione nell’intorno della soglia. p1 è la probabilità di fare una scelta giusta. p3 è la probabilità di sbagliare e corrisponde la probabilità di confusione con un livello non contiguo. p2 è la probabilità di non riuscire a prendere una decisione. Supponiamo soglie in posizioni simmetriche ripetto ai livelli rappresentativi.
152
8. TEORIA DELL’INFORMAZIONE
x0 y 0 x0 y 1 x0 y 2 x1 y 0 x1 y 1 x1 y 2
P (xi , yi ) P (xi |yi ) αp1 p1 αp3 p3 αp2 p2 (1 − α) p3 p3 (1 − α) p1 p1 (1 − α) p2 p2
H(y|x) = −αp1 log2 p1 − αp3 log2 p3 − αp2 log2 p2 + − (1 − α) p3 log2 p3 − (1 − α) p1 log2 p1 − (1 − α) p2 log2 p2 = = −p1 log2 p1 − p2 log2 p2 − p3 log2 p3 Ancora una volta, dato che il canale è simmetrico, H(y|x) non dipende da α (statistica della sorgente). Calcoliamo H(y). Si ha p(yo ) = αp1 + (1 − α)p3 p(y1 ) = αp3 + (1 − α)p1 p(y2 ) = αp2 + (1 − α)p2 = p2 H(y) = − [αp1 + (1 − α)p3 ] log2 [αp1 + (1 − α)p3 ] + − [αp3 + (1 − α)p1 ] log2 [αp3 + (1 − α)p1 ] − p2 log2 p2 −p3 + = − (p1 − p3 ) log2 [αp1 + (1 − α)p3 ] − p1ln 2 p3 −p1 − (p3 − p1 ) log2 [αp3 + (1 − α)p1 ] − ln2 = 0
∂H(y) ∂α
αp1 + (1 − α)p3 =0 αp3 + (1 − α)p1 αp1 + (1 − α)p3 =1 αp3 + (1 − α)p1 αp1 + (1 − α)p3 = αp3 + (1 − α)p1 1 α= 2 (p1 − p3 ) ln
Segue che
C = H(y)|α=0,5 + p1 log2 p1 + p2 log2 p2 + p3 log2 p3
8.3. Canale analogico AWNG (Additive White Gaussian Noise) C’è una sorgente che invia i simboli x. Possiamo suppore che il processo all’uscita della sorgente sia discreto nei valori. Ad esso si somma del disturbo che ipotizziamo essere gaussiano bianco. L’uscita del canale è somma del processo discreto generato all’ingresso del canale e del rumore additivo: y=x+n. L’equivocazione è in questo caso identificabile nel rumore perchè, una volta fissato il livello trasmesso, le variazioni rispetto a questo sono dovute a fluttuazioni generate dal rumore. L’entropia è Z +∞ (8.3.1) H(α) = − p(α) log2 p(α) dα −∞
8.3. CANALE ANALOGICO AWNG (ADDITIVE WHITE GAUSSIAN NOISE)
153
essendo p(a) la densità di probabilità. Vogliamo sapere quale densità di probabilità deve avere una sorgente che trasmetta il massimo contenuto informativo. Dobbiamo massimizzare l’integrale nella (8.3.1) rispetto a p(a). Bisogna però imporre dei vincoli. Innanzi tutto la densità di probabilità deve essere tale, cioè Z +∞ p(α) dα = 1 −∞
Si tenga inoltre presente che al variare della varianza, in una stessa densità di probabilità, i risultati sono diversi. Ad esempio, nell’ambito di tutte le densità di probabilità gaussiane, quella che fornisce maggiore informazione è quella più uniforme possibile; il massimo dell’informazione sarebbe infinito, relativamente a una variabile di varianza infinita. Bisogna allora vincolare la potenza media del processo Z +∞ α2 p(α) dα = σ 2 −∞
Per massimizzare l’integrale nella (8.3.1) si crea la seguente funzione composita Z +∞ −p(α) log2 p(α) + µα2 p(α) + λp(α) dα (8.3.2) −∞
La massimizzazione di questo integrale, con λ e µ opportuni secondo i vincoli, garantisce la massimizzazione dell’integrale nella (8.3.1). Dato che la funzione integranda è positiva, massimizzare l’integrale equivale a massimizzare la funzione integranda f (α). ∂f (α) p(α) 1 = −log2 p(α) − + λ + µα2 = 0 ∂p(α) ln2 p(α) lnp(α) + 1 + λ + µα2 = 0 ln2 lnp(α) + 1 = λ + µα2 ln2 lnp(α) = λ + µα2 ln2 − 1 p(α) = exp µα2 ln2 exp (λln2 − 1) Posto a = exp(λ ln 2 − 1) e b = µ ln 2 si ha p(α) = a exp bα2 −
Imponendo il soddisfacimento dei vincoli si ha R a exp (bα2 ) da = 1 R +∞ −∞
α2 a exp (bα2 ) da = σ 2
=⇒
a=
√1 2πσ
b = − 2σ1 2
Ne consegue che fra tutte le possibili sorgenti continue con varianza fissa σ 2 , quella che fornisce la massima entropia è una sorgente con statistica gaussiana. Calcoliamone l’entropia. Z +∞ 1 α2 H(α) = − p(α) log2 √ exp − 2 dα = 2σ 2πσ −∞
154
8. TEORIA DELL’INFORMAZIONE +∞
Z =−
−∞
Z
+∞
= −∞
Z
+∞
1 α2 p(α) − 2 dα = ln 2 2σ −∞ Z +∞ p(α) 1 1 log2 2πσ 2 dα + α2 p(α) dα = 2 ln 2 2σ 2 −∞
1 p(α) log2 √ dα − 2πσ
Z
+∞
1 1 1 = log2 2πσ 2 + log2 e = 2 ln 2 2 2 −∞ 1 = log2 2πeσ 2 2 Il nostro problema è al solito il calcolo della capacità =
1 2
p(α) log2 2πσ 2 dα +
C = max {H(y) − H(y|x)} p(x)
Occupiamoci dell’equivocazione. Essa è dovuta alla sovrapposizione del rumore che, avendolo supposto gaussiano, a densità di probabilità simmetrica, configura un canale simmetrico. H(y|x), allora, non è altro che l’entropia di una variabile gaussiana di varianza σn2 e non dipende dalla statistica della sorgente. 1 H(y|x) = log2 2πeσn2 2 Poichè abbiamo visto che per avere massima entropia y deve essere gaussiana, e poichè il rumore è gaussiano, dato che y = x + n, non può che essere anche x gaussiana. Inoltre, poichè i due processi gaussiani sono tra loro statisticamente indipendenti, dato che uno ha a che fare con la generazione dell’informazione della sorgente e l’altro col rumore, si può scrivere σy2 = σx2 + σn2 Si ha allora 2 1 1 σy 1 2 2 C = log2 2πeσy − log2 2πeσn = log2 = 2 2 2 σn2 2 1 σx + σn2 1 σx2 1 S = log2 1 + 2 = log2 1 + = log2 2 σn2 2 σn 2 N In virtù dell’ergodicità possiamo uguagliare la varianza con la potenza media: questo giustifica l’ultima uguaglianza, in cui il rapporto segnale rumore è evidentemente definito dal rapporto tra potenza media di segnale e potenza media di rumore all’uscita del canale. La quantità calcolata è misurata in bit/simbolo. Se vogliamo misurare la capacità in bit/sec, dobbiamo considerare la banda del canale. Se essa è B, in condizioni limite teoriche il baud-rate è 2B. Si ha allora 1 S S C = 2B log2 1 + = B log2 1 + bit/sec 2 N N Si noti che il passaggio da una unità di misura all’altra, tanto nel caso della capacità del canale quanto dell’entropia, è un processo deterministico.
8.4. TEOREMA FONDAMENTALE DI SHANNON
155
Si è visto infatti che, per qualificare un canale trasmissivo bisogna darne una duplice descrizione: una è una descrizione detrministica e ha a che vedere con la banda passante del canale. Note le limitazioni di banda, è nota la massima frequenza temporale con cui è possibile far transitare delle forme d’onda (simboli) in modo tale che in ricezione sia possibile riottenere l’informazione convogliata da ogni singola forma d’onda, ovvero ottenere all’uscita del filtro di ricezione delle forme d’onda ad intersimbolo nullo. Per il teorema di Nyquist, su un canale passa basso di banda B è possibile far transitare 2B simboli per unità di tempo. Questa è la descrizione deterministica che definisce il numero di simboli per unità di tempo. C’è poi la caratterizzazione statistica legata al rumore. Esso può sommarsi costruttivamente o distruttivamente al campione della forma d’onda nell’istante di campionamento e decisione causando un errore. Il passaggio da una unità di misura all’altra è legato alla descrizione deterministica e quindi è un processo deterministico. Da quanto trovato si osserva che, anche con limitazione in banda, se il rapporto segnale rumore tende a infinito, anche la capacità C tende all’infinito. Il risultato non sorprende perchè sappiamo di poter sfruttare due cose in un canale: la banda e il rapporto segnale rumore. Se abbiamo banda possiamo infilare deterministicamente più forme d’onda per unità di tempo, pur conservando l’intersimbolo nullo. Se invece abbiamo un alto rapporto segnale rumore, vuol dire che abbiamo un’alta capacità di discriminare livelli vicini all’uscita del canale e quindi possiamo passare ad un sistema multilivello, velocizzando il canale. 8.4. Teorema fondamentale di Shannon Ricordiamo che la capacità C espressa in bit/sec è diversa dalla frequenza di cifra di un sistema di trasmissione reale perchè C rappresenta il numero di bit non errati che arrivano ogni secondo al ricevitore. Se C è maggiore o uguale a H(x), allora l’informazione emessa dalla sorgente può pervenire al ricevitore senza subire alterazioni. Vediamo in modo più dettagliato. Consideriamo H(x), H(y) e H(y|x) espresse in bit/sec. Consideriamo un tempo T di osservazione molto lungo. Le quantità T H(x), T H(y), T H(y|x) rappresentano allora rispettivamente il numero di bit emessi in media dalla sorgente in T secondi, il numero di bit emessi in media dal canale e, infine, il numero di bit dovuti all’equivocazione. Il numero di possibili configurazioni di durata T che la sorgente può generare sono 2T H(x) ; quelle all’uscita del canale sono 2T H(y) . 2T H(y|x) sono il numero medio di configurazioni che il canale, a causa della sua rumorosità, può presentare in uscita in corrispondenza di una particolare configurazione in ingresso. Se consideriamo una configurazione di n bit e lunga T secondi, che quindi è mediamente costituita da T H(x) bit, non tutti i bit arrivano esatti, ma ci potrà essere qualche errore. Naturalmente l’errore non viene commesso sempre nella stessa posizione; si potrà cioè verificare che a fronte di una certa configurazione in ingresso se ne potranno avere diverse in uscita. La quantità 2T H(y|x) rappresenta allora il numero medio di configurazioni in uscita che corrispondono alla stessa configurazione in ingresso. Se vogliamo fare in modo che nessuna configurazione in uscita possa essere generata mediante errore da più di una configurazione in ingresso, il numero di configurazioni distinte
156
8. TEORIA DELL’INFORMAZIONE
in uscita deve essere 2T H(x) 2T H(y|x) . In altri termini, se ad ognuna delle M configurazioni in ingresso corrispondono, a causa degli errori del canale, N configurazioni in uscita, e se all’uscita vogliamo poter ricostruire esattamente le M configurazioni, è necessario che le M N configurazioni di uscita siano l’una distinta dall’altra. Se infatti il risultato dell’equivocazione su due o più sequenze diverse è lo stesso non è più possibile riconoscere la sequenza di partenza. TH(y|x)
2
}
NO!
TH(x)
2
2
TH(y)
Figura 8.4.1. Schematizzazione dei messaggi in ingresso ed all’uscita di un canale trasmissivo. Se si vuole avere la possibilità di fare una trasmissione senza errori è necessario che sia verificata la seguente disuguaglianza 2T H(x) 2T H(y|x) ≤ 2T H(y) H(x) + H(y|x) ≤ H(y) H(x) ≤ H(y) − H(y|x) ≤ C Quindi se si vuole che l’informazione emessa da una sorgente passi inalterata attraverso un canale, il tasso di informazione deve essere minore o uguale alla capacità del canale.
CAPITOLO 9
Codici 9.1. Introduzione Consideriamo dapprima un canale discreto, schematizzato come in figura 0
0 1
1
Figura 9.1.1. Schematizzazione di un canale numerico binario. È un canale in cui la probabilità d’errore è descrivibile, mediante i metodi della teoria dell’informazione, dal fatto che le transizioni incrociate non sono a probabilità zero. Quello che vogliamo fare è spendere un po’ dei bit che possono transitare sul canale, con una probabilità d’errore non nulla„ per proteggere l’informazione trasmessa. Vediamo cosa significa con un esempio. Supponiamo di codificare ogni campione di un segnale con una parola di 8 bit, utilizzando tutte le 28 = 256 possibili configurazioni binarie. È chiaro che, in questo caso, se c’è un errore si ottiene ancora una configurazione valida, ma errata. Il ricevitore non può, ovviamente, riconoscere l’errore. Per mettere il ricevitore in grado di accorgersi di un errore bisogna fare in modo che il trasmettitore non utilizzi tutte le configurazioni possibili. Anche in questo caso, tuttavia, il trasmettitore sarebbe in grado di accorgersi che si è verificato un errore in quanto ha ricevuto una configurazione proibita, ma non sarebbe in grado di sapere esattamente quale bit è errato né, tanto meno, di correggere l’errore. Un modo di procedere più efficiente è quello di usare bit di parità: si aggiunge alla parola di codice (per esempio 8 bit) un bit aggiuntivo, il cui valore viene deciso secondo una regola nota sia al trasmettitore che al ricevitore. Si può avere una parità pari o dispari. Il ricevitore calcola sui primi 8 bit il valore che dovrebbe assumere il bit di parità e lo confronta col valore effettivamente ricevuto. Se il valore calcolato coincide non si può comunque affermare con certezza che la parola ricevuta sia corretta; si può solo dire che, se si sono verificati errori, essi sono in numero pari. Dato che si suppone che il canale trasmissivo abbia una bassa probabilità di errore e che, quindi, a fronte di una probabilità P (ε) di sbagliare un bit, si ha una probabilità proporzionale a P 2 (ε) di sbagliare una coppia di bit, se il bit di parità è esatto, si può concludere che la parola ricevuta è esatta, essendo molto piccola la probabilità di errori doppi. 157
158
9. CODICI
Per lo stesso motivo, se il bit di parità non coincide, si può considerare errata la parola ricevuta, con un solo bit sbagliato. Con questa procedura ci si può semplicemente accorgere di un errore, ma non lo si può correggere, in quanto non è possibile localizzarlo con esattezza. In pratica ciò che si è fatto è stato aggiungere un bit alla parola passando da 8 a 9 bit e, quindi, da 256 a 512 possibili configurazioni. Il nono bit non può essere scelto a piacere, ma è fissato dalla regola della parità. In questo modo si è proibito al trasmettitore di usare 256 delle 512 configurazioni possibili: si sono abolite tutte quelle configurazioni che differissero dalle altre in una sola posizione. Codici a rivelazione d’errore, in cui cioé ci si accorge dell’errore ma non si è in grado di correggerlo, sono utili e utilizzabili solo nel caso in cui sia possibile attivare una procedura ARQ, cioé di richiesta automatica di ritrasmissione. È ovvio che in questo caso è necessario che il collegamento sia bidirezionale, cioé ci sia almeno un canale di servizio, anche se a bassa velocità, che consenta al ricevitore di comunicare al trasmettitore che c’è stato un errore e che, quindi, è necessaria una ritrasmissione. Il costo dell’ottenimento di una trasmissione con errori molto meno probabili è rappresentato da un termine costante, cioé dai bit in più necessari per mettere in piedi il codice a rivelazione di errore e da una parte variabile, legata alle ritrasmissioni necessarie a correggere gli errori che il codice ha rilevato. Nell’esempio considerato, se il canale non commette errori la velocità di trasmissione è pari ad 8/9 della frequenza di cifra originariamente disponibile. Nel momento in cui, però, il canale comincia a commettere errori, la frequenza media di trasmissione tende a calare, dato che ogni volta che ci si accorge di un errore bisogna richiedere una ritrasmissione. Se le prestazioni del collegamento crollano e la probabilità di errore sale, si può arrivare al caso limite di un errore ogni 9 bit e questo implicherebbe richiedere ogni volta la ritrasmissione, senza mai riuscire ad ottenere la configurazione esatta. A questo punto la velocità di trasmissione tende a zero. Non sempre, tuttavia, è possibile o è conveniente implementare il canale di ritorno. In questo caso, se si vuole abbassare la probabilità di errore, cioé se si vuole mettere in piedi una procedura che ci consenta di muoverci verso i limiti del teorema di Shannon, bisogna escogitare un sistema diverso. Un modo molto semplice è costituito dai codici a rivelazione e correzione di errore. A titolo di esempio, consideriamo una generalizzazione del codice di parità: si consideri un maggior numero di bit successivi e li si organizzi in una matrice come in figura 9.1.2. X X X X X X X X X X X X
Figura 9.1.2. Semplice generalizzazione del concetto di bit di parità. Si aggiunge un bit di parità sia sulle righe che sulle colonne. Naturalmente in questo modo si spendono più bit, c’è più ridondanza. Un bit errato viene identificato dall’incrocio tra una riga ed una colonna in cui non sono verificati i bit di parità. L’errore resta quindi identificato ed è anche possibile, eventualmente, effettuare la correzione.
9.1. INTRODUZIONE
159
Anche in questo caso, però, non è sempre certa la rilevazione dell’errore. Infatti può non essere verificato il bit di parità su una riga, per esempio, ma possono non esserci problemi su nessuna delle colonne a causa di un doppio errore su una di esse. In questo caso sappiamo che ci sono due parole sbagliate, ma non è possibile identificare né quali siano le righe sbagliate, né il bit errato all’interno di esse. I codici hanno quindi capacità di rivelazione e correzione solo fino a complessità di un certo limite e non oltre. Vediamo come si può formalizzare l’operazione di codifica e quella di rivelazione e correzione dell’errore. È evidente che quello che serve è aggiungere bit, cioé utilizzare solo un sottoinsieme delle configurazioni possibili, in modo che il ricevitore possa rilevare e, possibilmente, identificare l’errore. È possibile quantificare le proprietà del codice quando si riesca a stabilire una metrica mediante la quale misurare la distanza fra configurazioni binarie. In tal caso il processo di decodifica può essere schematizzato come segue: al ricevitore abbiamo una memoria in cui vengono scritte tutte le configurazioni lecite. Quando si riceve una parola, questa viene confrontata con tutte quelle memorizzate. Se essa coincide con una di queste, si è trovata la parola che, con maggiore probabilità, corrisponde a quella trasmessa. Se, invece, la parola ricevuta è diversa da tutte quelle memorizzate, è stato commesso un errore. Questo modo di procedere consente semplicemente di rivelare un errore, ma non di identificarlo e correggerlo. È possibile definire "distanza" tra due configurazioni binarie di pari lunghezza il numero di posizioni in cui le due configurazioni differiscono. Per esempio le parole 001011 e 001110 hanno distanza d = 2. Per identificare le posizioni in cui le parole non coincidono basta effettuare uno XOR bit a bit e contare gli 1 nel risultato. La disponibilità di una misura della distanza ci consente immediatamente di decidere quali proprietà deve avere il codice perché sia possibile accorgersi di errori singoli, doppi, ecc. o perché sia addirittura possibile correggere gli errori. Se consideriamo una serie di possibili configurazioni binarie lunghe x bit che abbiano tutte tra loro una distanza pari a t bit, fino a che non si commettono t o più errori per parola, è possibile al ricevitore accorgersi dell’errore. t prende il nome di distanza minima di Hamming. Oltre ad accorgersi dell’errore, dato che a questo punto siamo in grado di misurare la distanza che intercorre tra la configurazione ricevuta e tutte le configurazioni lecite, possiamo mettere in piedi una procedura che consente anche, se le condizioni sono favorevoli, di decidere quali tra le configurazioni lecite è quella che, con maggiore probabilità, corrisponde a quella trasmessa. Per rilevare e correggere n errori per parola serve un codice in cui la distanza di Hamming tra configurazioni lecite sia almeno pari a 2n + 1. È infatti necessario che non si finisca mai, a causa degli errori, a pari distanza tra due configurazioni lecite. È ovvio che in ogni caso non si può essere deterministicamente sicuri di correggere l’errore, dato che può essere stato commesso un numero di errori molto maggiore di n. Questo è tuttavia un evento a probabilità molto bassa.
160
9. CODICI
9.2. Codici a blocchi 9.2.1. Codice di parità. In questo contesto rientrano anche i codici a blocchi in cui si aggiungono non uno, ma più bit di ridondanza. Consideriamo, come esempio, una parola di k bit a cui aggiungiamo un blocco di b bit. Con la parola di k + b bit possiamo avere 2k+b configurazioni possibili. Di queste, però, solo 2k sono utilizzate per trasmettere informazione. Torniamo al codice a parità. Esso è un codice in cui si aggiunge alla parola di k bit, 1 bit ricavato secondo una ben precisa regola, la regola di parità: il bit k + 1 è pari a uk+1 =
k X
ui
i=1
essendo la somma una somma modulo 2. Usando la formula precedente si ha una parità pari. Questo codice si indica con notazione tecnica come (k+1,k): un codice a blocchi è, infatti, identificato da una coppia di numeri, di cui il primo indica il numero complessivo di bit trasmessi ed il secondo il numero di bit di informazione. Abbiamo, quindi, 2k+1 possibili configurazioni, di cui, però, solo 2k sono utilizzate. L’uso di questa ridondanza, ovvero l’uso di solo una parte di tutte le possibili configurazioni, consente al ricevitore di accorgersi di un eventuale errore. La distanza di Hamming tra qualunque coppia delle 2k configurazioni lecite di questo codice è 2. D’altra parte, si è visto che se si vuole essere in grado in ricezione, non solo di accorgersi di un errore, ma anche di capire quale fosse il messaggio corretto all’origine della configurazione errata, è necessario avere un codice con distanza di Hamming d = 2t + 1, se t sono gli errori che si vuole essere in grado di rilevare e correggere. 9.2.2. Soft decision. Con un solo bit di parità non si possono correggere degli errori, ovvero non si può abbassare la probabilità di errore di un sistema di trasmissione numerico binario. Si possono rilevare solo errori singoli o in numero dispari. In realtà, anche con un solo bit aggiunto è possibile ridurre la probabilità di errore, ma in un contesto diverso. Un sistema di trasmissione binario è schematizzabile come in figura 9.2.1. 0/1
generatore forme d’onda
mezzo trasm.
filtro
decisore
0/1
Figura 9.2.1. Schema a blocchi di un sistema di trasmissione numerico. Se ci si limita a considerare il sistema ai morsetti esterni, le variabili possono assumere un valore discreto e in questo contesto l’unica distanza sensata è la distanza di Hamming. In realtà, all’interno del sistema c’è un trasmettitore, un generatore di forme d’onda, il canale trasmissivo, il rumore, il filtro di ricezione, il campionatore ed il decisore. Il fatto penalizzante in questo contesto è che, col discorso fatto fino ad ora, si è eseguita una decisione in cascata: prima si è effettuata una decisione sulla singola forma d’onda, tornando
9.2. CODICI A BLOCCHI
161
ai bit. In seguito, una volta effettuato questo taglio netto col decisore, ci si è ricordati del fatto che i bit non sono indipendenti tra loro, dovendo soddisfare una ben precisa legge imposta dal codice. Questa è una informazione a priori che è il caso di utilizzare tutte le volte che bisogna prendere delle decisioni. Di conseguenza non è molto sensato eseguire prima una decisione bit per bit e verificare dopo la parità. È più sensato cercare di inglobare la verifica dell’esattezza del codice nell’operazione di soglia analogica (decisione elementare bit per bit). In pratica, invece di campionare e decidere ogni volta per un 1 od uno 0, memorizziamo (concettualmente) tutti i valori degli 8 campioni successivi. Come decidere qual è, con la minore probabilità d’errore, la parola trasmessa? Si possono calcolare le configurazioni di campioni che si sarebbero ottenute al campionatore, in assenza di rumore, in corrispondenza di tutte le 2k parole di codice lecite. Si hanno 2k vettori di n elementi che non sono più 1 o 0, ma n misure (numeri reali). In presenza di rumore, ad ogni campione sarà sovrapposto del rumore. Per calcolare quale tra tutte le possibili configurazioni è quella più probabile, bisogna calcolare la distanza tra il vettore di campioni analogici misurati e tutti i vettori analogici calcolati in assenza di rumore. Al solito, il vettore a distanza minima è quello più probabile. Naturalmente la distanza da usare non potrà più essere la distanza di Hamming, ma il prodotto scalare o norma euclidea. A questo punto si potrebbe obiettare che tale procedura è utilizzabile a prescindere dall’aggiunta del bit di parità: si può effettuare una decisione multipla invece di decisioni singole successive. Quello che la rende utile, però, è che in presenza del bit di parità la distanza tra tutte le possibili configurazioni è raddoppiata. Quindi, a patto di inglobare l’informazione a priori sul codice nella posizione in cui si fa la prima decisione, cioé la decisione analogica, e quindi passando dalla distanza di Hamming alla distanza euclidea, si può ridurre la probabilità di errore anche con un solo bit di parità (in grazia del fatto che a causa della codifica si è inserita una dipendenza tra i bit). Nel caso in cui si esegua prima la singola decisione e poi si considera il gruppo di bit si parla di hard decision. Nell’altro caso, in cui si tiene memoria dei livelli analogici all’uscita del campionatore, per poi effettuare una decisione complessiva, si parla di soft decision. In realtà la hard decision e la soft decision rappresentano due situazioni estreme. Per passare gradualmente dall’una all’altra si può, invece di fare una quantizzazione a due livelli, passare ad una quantizzazione a più livelli. L’aggiunta di un bit con una legge ben precisa ha sostanziamente diluito l’informazione relativa a k bit in k + 1 intervalli temporali. Ma questo era quanto era logico fare per ottenere da un sistema di trasmissione numerica delle prestazioni migliori. In un sistema di trasmissione classico, come quelli già considerati, anche in assenza di una limitazione di banda, non si può superare una certa velocità: aumentare la velocità vuol dire allargare anche il filtro e quindi "ingurgitare" un livello di potenza di rumore tale da non poter più garantire un tasso di errore accettabile. Un’alternativa possibile a questo modo di fare è andare più lenti, usare un baud-rate minore e, quindi, forme d’onda più lunghe, ma usarne molte, più di due. Infatti, man mano che si allunga la durata della singola forma d’onda, man mano che si diluisce la decisione sul singolo simbolo trasmesso, si riesce sempre meglio
162
9. CODICI
a mediar via il rumore (che è un processo a media nulla e che darà risultato zero solo all’uscita di una media su un periodo infinito). Un modo di procedere per tendere alla capacità del canale analogico è, quindi, quello di usare forme d’onda di lunghezza tendente ad infinito, in numero anch’esso tendente ad infinito: in questo modo nella media il tasso di informazione è diverso da zero, ma il rumore crea fastidio minimo. Con l’aggiunta del bit di parità non abbiamo allungato le forme d’onda relative ai singoli simboli, ma sostanzialmente abbiamo stabilito un legame temporale più lungo aggiungendo una forma d’onda che è rappresentativa di quel bit di parità aggiunto alla fine. Quindi, inquadrando il discorso in questo modo, ci si rende conto della maniera di procedere di tipo soft decision, e del perché questo modo di procedere può dare più soddisfazione dell’hard decision. 9.2.3. Codici a blocchi. Torniamo ai codici. Consideriamo un codice del tipo (n, k). Possiamo generalizzare il concetto di codice a parità, aggiungendo più di un bit di parità. Si consideri un codice (7,4). Si usino cioé 4 bit di informazione e 3 bit di parità. I 3 bit di parità si ricavino secondo le leggi (9.2.1)
u5 = u1 ⊕ u2 ⊕ u3 u6 = u2 ⊕ u3 ⊕ u4 u7 = u1 ⊕ u2 ⊕ u4
+
+
+
Il codificatore è un dispositivo che per ogni 4 bit in ingresso ne produce 7 in uscita. Una struttura hardware che implementa questo algoritmo è uno shif register. I sommatori modulo 2 producono i bit di parità.
Figura 9.2.2. Struttura di un codificatore a blocchi. Si attendono quattro colpi di clock per riempire il registro superiore. Quindi si calcolano i bit di parità e si carica il registro inferiore. Il registro inferiore viene letto ad una velocità sufficientemente più elevata in modo tale che in 4T , che è il periodo in cui arrivano i 4 bit al registro superiore, esso possa emettere 7 bit. Il registro inferiore viene letto con una frequenza di clock che è 7/4, nell’esempio considerato, più alta di quella del registro superiore. In questo modo è possibile dare un significato molto chiaro a quello che si chiama rate, o tasso di codifica del codice, che è definito dal rapporto k/n per un codice (n, k). La struttura del codificatore è molto semplice. La sua complessità è talmente bassa che non ci sono problemi se si vuole aumentarne complessità, usando blocchi più lunghi. D’altra parte, aumentare la complessità del codice significa essere in grado di gestire 2n possibili configurazioni. È ovvio che se aumenta n, aumenta anche k: in caso contrario il rate tenderebbe a zero.
9.2. CODICI A BLOCCHI
163
Per il ricevitore, però, la cosa non è così semplice. In ricezione si ha uno shift register in cui finiscono i 7 bit trasmessi: a questo punto bisogna decidere quale, tra le 2k possibili configurazioni lecite, è quella che con maggiore probabilità è stata trasmessa, ovvero bisogna ricercare la configurazione a distanza minima da quella ricevuta. È chiaro che questo modo di procedere è assolutamente inaccettabile perché la complessità dalla parte del ricevitore cresce in maniera proibitiva. Quello che si fa è ricorrere a codici con una struttura algebrica tale che si possa fare a meno di effettuare l’operazione di confronto tra configurazioni per la ricerca di quella a distanza minima. A titolo esemplificativo consideriamo un codice di Hamming (7, 4). I codici di Hamming sono dei codici (2n − 1, 2n − 1 − n) che hanno una distanza 3 e, quindi, consentono di correggere un errore singolo. Se x indica la parola di codice, u i bit di informazione e b i bit di parità, la parola di codice è un vettore di n elementi costituito dalla riunione di un vettore di k elementi (k bit di informazione) e di uno di n − k elementi (n−k bit di parità). La composizione degli elementi è a piacere: un modo molto semplice è porre i due vettori u e b in cascata ottenendo x = [u b]. Segue che nell’esempio precedente si ha x i = ui i = 1, · · · , 4 x 5 = u1 ⊕ u2 ⊕ u3 (9.2.2) x 6 = u2 ⊕ u3 ⊕ u4 x 7 = u1 ⊕ u2 ⊕ u4 Una volta data una interpretazione della parola di codice come vettore a n componenti, la generazione dei bit di parità, e quindi della parola di codice, può essere scritta con notazione algebrica come segue (9.2.3) essendo x[1 × n] u[1 × k] G[k × n] con 1 0 G= 0 0
x = uG evidentemente 0 1 0 0
0 0 1 0
0 0 0 1
1 1 1 0
0 1 1 1
1 1 0 1
ottenuta a partire dalle (9.2.2). Si può descrivere la formazione della parola del codice di lunghezza n a partire dalla parola di informazione di lunghezza k come moltiplicazione per la matrice G che è la matrice di generazione del codice. La configurazione in cui G si può partizionare in una matrice identità di rango k (Ik ) ed una matrice di dimensione k × (n − k) (P) si chiama forma canonica. La (9.2.3) ci consente di dire che tutte le 2k possibili parole di codice si possono ottenere come combinazione lineare delle righe di G, con opportuni pesi. Il codice configura quello che in algebra si chiama spazio: infatti, si hanno un insieme di elementi ai quali, se si applica l’operatore somma, si ottiene ancora un elemento che appartiene allo stesso spazio. Esiste l’elemento nullo x = 000 · · · , che appartiene al codice. È definita anche una norma, che è la distanza di Hamming, oltre alla somma, che è la somma modulo 2. A questo punto, invece di cercare il vettore più vicino a quello effettivamente
164
9. CODICI
ricevuto, si può utilizzare la verifica di parità, come nel caso in cui si aveva un solo bit di parità. Si consideri la parola ricevuta y e si estraggano da essa i bit di informazione che, anche se errati, rimangono i primi 4 (y1 , y2 , y3 , y4 ). Su di essi si calcolano i bit di parità y 5 , y 6 , y 7 , applicando le regole del codice, che sono note, e li si confrontano con quelli effettivamente ricevuti y5 , y6 , y7 . Si ottiene una parola binaria in cui ogni bit risulta dalla somma modulo 2 tra il bit di parità effettivamente ricevuto ed il bit di parità ricalcolato localmente y6 ⊕ y 6 y7 ⊕ y 7 s = y5 ⊕ y 5 Questa configurazione binaria, lunga n-k bit, prende il nome di sindrome del codice. Essa indica di quale "malattia" ha sofferto la parola di codice nel transitare lungo il canale. Naturalmente non si ha una sindrome diversa per ogni possibile errore: se così fosse, potremmo correggere tutti gli errori possibili, e ciò non è plausibile. In realtà, ci sono insiemi di possibili configurazioni di errori che producono le stesse sindromi. Se il codice è stato progettato in modo sensato, di tutte le possibili configurazione d’errore che danno luogo alla stessa sindrome ce ne sarà una sola che corrisponde ad un numero di errori inferiore al massimo numero di errori che il codice può correggere: tutte le altre saranno relative ad un numero di errori maggiore. Per esempio, un codice di Hamming (7, 4) può correggere un errore singolo. L’errore più probabile è quello che corrisponde ad un solo bit sbagliato. Questa scelta deriva dalla solita osservazione secondo la quale le parole che hanno la stessa sindrome, ma configurazioni tali da avere più bit errati, sono meno probabili rispetto a quelle che hanno, nel nostro caso, un solo bit sbagliato. Quindi, in pratica, quello che si fa è calcolare la sindrome e decidere qual è la configurazione di errore singolo che ha potuto dar luogo all’errore, che pertanto può essere corretto. Per il calcolo della sindrome si prende la parola ricevuta y e si ricalcolano i k bit di parità mediante il prodotto tra i primi 4 elementi del vettore y (indicati con y1÷4 ) e la matrice P, infine si effettua la somma modulo 2 fra il risultato del prodotto e gli elementi y5÷7 . s = [y1÷4 ]P ⊕ [y5÷7 ] o, in generale s = [y1÷k ]P ⊕ [y(k+1)÷7 ] L’ultima formula si può anche scrivere P[k × (n − k)] = yHT s = y In−k essendo ovviamente H[(n − k) × n] =
PT [(n − k) × k]
H è chiamata matrice di controllo di parità.
In−k
9.2. CODICI A BLOCCHI
Nel caso di codice di Hamming (7, 4) si 1 1 H= 0 1 1 1
165
ha 1 0 1 0 0 1 1 0 1 0 0 1 0 0 1
Se la parola di codice ricevuta è 1010111, la sindrome è1 1 0 1 1 1 1 1 1 0 s= 1 0 1 0 1 1 1 0 1 1 = 1 0 0 1 0 0 0 1 0 0 0 1 La cosa più ragionevole è ipotizzare che l’errore si è verificato sul quinto bit e quindi la configurazione d’errore sia 0000100. In quanto detto è implicita la considerazione che la sindrome dipende solo dall’errore. Infatti la parola ricevuta y può essere considerata come la parola effettiva di codice trasmessa x, alla quale il canale ha aggiunto (in modulo 2) una parola di errore e. Cioé y =x⊕e In ricezione si effettua il calcolo della sindrome s = yHT = (x ⊕ e)HT = xHT ⊕ eHT = eHT essendo xHT = 0 (x è una parola del codice). In base a quanto detto possiamo dire che la sindrome è una media pesata delle righe di HT (o delle colonne di H). Dato che s = eHT e dato che tra tutte le possibili configurazioni di errore quella più probabile è quella con un solo errore (il vettore e è costituito da tutti 0 tranne un 1 nella posizione in cui si è verificato l’errore), è chiaro che il prodotto eHT isola la colonna di H (riga di HT ) che corrisponde alla posizione dell’errore. È per questo che nell’esempio precedente l’errore è sul quinto bit (la configurazione ottenuta coincide con la quinta riga). A questo punto siamo in grado di correggere l’errore. Una famiglia di codici molto potenti è quella in cui una parola di codice si ottiene da un’altra parola di codice semplicemente per uno shift circolare dei bit (codici ciclici ). Abbiamo visto che nel caso di soft decision manteniamo più informazione, non sprechiamo l’informazione sul codice per cercare di prendere una decisione più ponderata sul blocco complessivo di n bit. Questo discorso si può vedere in altro modo: effettuare una codifica significa forzare memoria dove fino a prima si erano considerati i bit statisticamente indipendenti. Si può fare un’altra osservazione sui codici di Hamming. Si ricordi che sono del tipo n (2 − 1, 2n − 1 − n). È evidente che, al crescere di n, il numero di bit di parità che si devono aggiungere per correggere un errore continua ad aumentare. È quindi evidente che se si 1Naturalmente
per tutte le parole del codice la sindrome è zero, dato che per definizione esse devono soddisfare la legge di parità.
166
9. CODICI
vogliono delle prestazioni abbastanza accettabili (anche con codici abbastanza scadenti in prestazione come quelli di Hamming), ovvero riuscire a correggere l’errore singolo, ma con una percentuale di incremento più bassa, bisogna usare blocchi più grandi. All’aumentare delle dimensioni del blocco, però, comincia a diventare non più trascurabile la probabilità dell’evento "2 errori nel blocco": bisognerebbe passare allora a codici che consentano la correzione di 2 errori, cosa che i codici di Hamming non possono fare. In definitiva, riassumendo, si ha che l’elemento che consente di correggere gli errori è la memoria che inseriamo all’interno del sistema, cioé la dipendenza tra i vari bit. Questo modo di agire risulta tanto più efficiente, dal punto di vista della identificazione e correzione degli errori, quanto più lunga è la memoria. Infatti, quanto più lunga è la memoria, tanto diverso è il comportamento tra il codice, che ha una regolarità ben precisa, e gli errori, cioé il rumore, che invece ha un comportamento completamente casuale. All’aumentare della lunghezza del blocco sorgono però dei problemi. In primo luogo, quanto più grande è il blocco, tanto più complicato deve essere l’hardware in grado di identificare ed eventualmente correggere l’errore. Problema ancora più grande del precedente è quello relativo al ritardo di trasmissione che cresce al crescere della grandezza del blocco. Il ritardo di trasmissione può essere inaccettabile in alcune applicazioni, soprattutto in presenza di trasmissione bidirezionale o di controllo remoto di dispositivi. D’altra parte si osservi che ciò che rende più sicura la correzione dell’errore non è tanto la lunghezza del blocco, ma la lunghezza della memoria. 9.3. Codici convoluzionali Ci chiediamo allora se sia possibile realizzare un sistema di codifica che abbia memoria grande, ma che possa avere un ritardo di trasmissione contenuto. Il problema è risolto per mezzo dei codici convoluzionali, che sono una generalizzazione dei codici a blocchi. Consideriamo la memoria del codificatore e supponiamola enormemente lunga. N
l
Figura 9.3.1. Schematizzazione della memoria per un codice convoluzionale. Per implementare questa memoria in una codifica a blocchi dobbiamo prima riempire tutta la memoria e poi calcolare i bit di parità. In realtà si può pensare di effettuare il calcolo dei bit di parità non ogni N periodi di cifra, ma ogni l periodi di cifra con l < N . Questi bit di parità dipendono non solo dagli ultimi l bit arrivati (avremmo in questo caso un codice a blocchi), ma da un certo numero di blocchi elementari di l bit che hanno preceduto gli ultimi l arrivati. Il numero di blocchi da considerare è fissato in base alle necessità, senza naturalmente eccedere per non ricadere nei problemi di complessità e ritardo di codifica. Un esempio molto semplice è il codice (2, 1). Tale codice, se fosse a blocchi, sarebbe pessimo, avendo 50% di resa
9.3. CODICI CONVOLUZIONALI
167
e nessuna capacità di correggere errori: infatti, esso trasmette due bit per ogni bit di informazione. Se la codifica è tale che a 0 associa 00 ed a 1 associa 11, in caso di errore, cioé se si ottenesse 01, si finirebbe in una configurazione a pari distanza tra le configurazioni lecite (la distanza del codice è 2), non riuscendo così a correggere l’errore. Nel caso di un codice convoluzionale, invece, in cui la configurazione da trasmettere non dipende solo ed esclusivamente dal valore del simbolo da trasmettere in quell’istante, ma anche da una certa storia passata della sorgente, si ha un guadagno anche con un codice così semplice. Realizziamo allora una struttura in cui sia presente memoria del passato, per esempio lunga 2. I bit in arrivo sono bi c k1 bk
T
b k−1
T
b k−2
c k2
Figura 9.3.2. Esempio di codice convoluzionale rate 1/2. I ck indicano la coppia di bit che corrisponde alla codifica del k-esimo bit in ingresso. In corrispondenza dello stesso bit bk , la codifica può cambiare in funzione dei blocchi precedenti. In pratica abbiamo una macchina a stati finiti la cui evoluzione dipende dallo stato (macchina sequenziale). Tale macchina può essere rappresentata mediante un diagramma degli stati. Si ha allora 00 11
00
b k =1 b k =0
11
01
01
10 10
00
10
11 01
Figura 9.3.3. Diagramma di stato del codice di figura 9.3.2. Le coppie di bit sugli archi indicano i bit da trasmettere. È evidente che, in corrispondenza dell’arrivo di 1, ci sono 4 possibili coppie di bit da trasmettere (archi continui), in funzione della storia passata. Vediamo se il codice consente o meno di correggere degli errori. Si può vedere subito che, se il grafo fosse completamente connesso, cioé si potesse andare da qualsiasi stato in qualsiasi altro stato, il ricevitore non sarebbe in grado di accorgersi di un errore. Nel grafo considerato non è evidente la variabile tempo. Per evidenziare l’evoluzione temporale della macchina a stati finiti è necessario passare ai grafi orientati, come mosrato in figura 9.3.4. È evidente anche da questo diagramma che ci sono delle transizioni proibite (per esempio dallo stato 00 allo stato 01 nell’istante 1): questo consente al ricevitore di rendersi
168
9. CODICI 0 00 11
00
1
00
2
11
11
01
3
00
11 11 00
01
4
00 11
11
11 00
00
01
5
00
01
01
10 10
11
10
10
10
01
01
10
10
10
01
Figura 9.3.4. Diagramma a traliccio per il codice di figura 9.3.2.
conto dell’errore. A partire dall’istante 2 la macchina è a regime. Il problema è che in ricezione la decodifica richiede l’uso delle decisioni passate (si effettua una deconvoluzione). Se il ricevitore non tenesse conto della memoria inserita nella sequenza di bit ricevuti, non riuscirebbe ad ottenere nulla: esso, in linea di principio, dovrebbe avere una memoria infinita. Se facciamo tendere il tempo all’infinito (grande numero di istanti) e osserviamo tutte le possibili configurazioni binarie che possono arrivare, ci accorgiamo che non abbiamo esaurito tutte le possibilità, ma troviamo un sottoinsieme delle configurazioni possibili. Per esempio per arrivare dallo stato 00 in 0 allo stato 00 in 3 ci sono solo due possibilità attraverso gli stati 10 in 1, 01 in 2 (con trasmissione 11, 01, 11) oppure attraverso gli stati 00 in 1 e 00 in 2 (con trasmissione di 00, 00, 00). Se si ottengono in ricezione configurazioni binarie diverse da queste, c’è stato un errore. Se facciamo tendere all’infinito il tempo di osservazione, la decodifica di un codice convoluzionale può essere basata sugli stessi discorsi di distanza di Hamming e scelta della configurazione più vicina validi nel caso di codici a blocchi. Se però questo fosse l’unico modo di procedere, tutti i presunti vantaggi della codifica convoluzionale (riduzione del ritardo di trasmissione e consentire al ricevitore di cominciare a prendere delle decisioni strada facendo) verrebbero a mancare. L’algoritmo di VITERBI permette di trovare nel grafo orientato il percorso a costo minimo, ovvero trovare la sequenza di bit ipoteticamente trasmessa che differisce il meno possibile dalla sequenza di bit effettivamente ricevuta. Supponiamo che la sequenza ricevuta sia 11 01 10
2
Supponiamo che sia il trasmettitore che il ricevitore sappiano che all’istante 0 si parte dallo stato 00 (è una limitazione che in effetti si può eliminare).
2Mettiamo
a sinistra l’ultimo bit o coppia di bit arrivati. Nel nostro caso 10 è la prima coppia di bit arrivati e 11 è l’ultima.
9.3. CODICI CONVOLUZIONALI
1
2
0 [00] 1 [0] 2 [0] 1 [01]
∞
1 [2]
2 [10] 1 [0] 2 [0] 3 [11]
∞
3 [2]
3 4 [0] 1 [1] 3 [2] 4 [3] 2 [0] 3 [1] 3 [2] 4 [3]
4 [0] [1] [2] [3] [0] [1] [2] [3]
5 [0] [1] [2] [3] [0] [1] [2] [3]
6 [0] [1] [2] [3] [0] [1] [2] [3]
169
7 [0] [1] [2] [3] [0] [1] [2] [3]
8 [0] [1] [2] [3] [0] [1] [2] [3]
9 [0] [1] [2] [3] [0] [1] [2] [3]
All’istante 1 arriva la coppia 10. Essa in effetti non può portarci in nessuno degli stati leciti, dato che saremmo finiti nello stato 2 (10) se fosse arrivato 11 e nello stato 0 (00) se fosse arrivato 00. Dato che è arrivato 10 possiamo finire nello stato 0 pagando 1 bit di penalizzazione (1 bit errato) o nello stato 2 sempre pagando 1 bit. Il numero tra parentesi quadre mantiene memoria della strada fatta per arrivare nello stato corrispondente alla riga: cio è necessario dato che al momento non si può decidere quale strada sia esatta. Con questa operazione abbiamo assegnato un costo al fatto che la transizione sia forzata anche in presenza di una configurazione ricevuta errata. In realtà abbiamo anche considerato un costo intrinseco delle transizioni. Infatti si ha che il costo di finire nello stato 1 e nello stato 3 all’istante 1 è infinito. Infatti tali transizioni sono sostanzialmente impossibili. Quindi per decidere qual’è il cammino a costo minimo bisogna fissare due cose: il costo del percorrere il singolo tratto ed il costo della transizione da uno stato ad un altro. Il costo scelto per le transizioni, in questo contesto, è il seguente: se la transizione è lecita, il costo è 0, se la transizione non è lecita il costo è infinito. Nell’istante 2 possiamo trovarci in uno qualsiasi dei 4 possibili stati: per l’evoluzione considerata, tuttavia, possiamo arrivare in ognuno di tali stati da una sola strada. La coppia ricevuta all’istante 2 è 01. Passare dallo stato 0 all’istante 1 allo stato 0 all’istante 2 ci costa una penalità, dato che abbiamo ricevuto 01, mentre avremmo dovuto ricevere 00. Dato che nell’istante 1 avevamo già una penalità, in totale abbiamo 2 penalità. La strada percorsa è 00. Col metodo descritto si prosegue nella compilazione della tabella. Si noti che all’istante 3 si può giungere in ciascuno stato mediante 2 possibili percorsi. Nel nostro caso la tabella finisce all’istante 3. Se però dovesse continuare, in ciascuno degli stati dovremmo eliminare il percorso che ci costa maggiormente (percorsi segnati nella tabella). Infatti, man mano che si procede, le penalizzazioni possono solo aumentare o, nella migliore delle ipotesi, restare stabili: è quindi lecito, già a questo stadio (e anche nei successivi), eliminare i percorsi più costosi e lasciare memoria nel sistema solo di quelli più economici. Se i due percorsi per giungere in uno stato hanno lo stesso costo, si può scegliere indifferentemente l’uno o l’altro proprio in virtù del fatto che hanno lo stesso costo. Alla fine, dopo aver ricevuto tutta la stringa, e cioé in teoria dopo aver aspettato un tempo infinito, ci si ritrova in una situazione in cui ogni stato identifica un cammino sopravvisuto; arrivare in ciascuno dei possibili stati costerà una cifra differente. A questo punto basta scegliere ancora una volta il cammino a costo minimo. Nel nostro caso bisognerebbe scegliere il cammino con costo 1, che è 021.
170
9. CODICI
È ovvio che si effettua una decodifica a minima probabilità di errore a posteriori. Questo modo di procedere ha tuttavia una controindicazione: il ritardo con cui si può prendere una decisione. L’unica soluzione è prendere delle decisioni intermedie, non ottimali: per esempio, nel nostro caso, decidere all’istante 3. Può succedere che, se per un lungo periodo di tempo il canale non sbaglia, diventa a costo minimo arrivare in tutti gli stati, percorrendo sempre la stessa strada. In questo caso non è necessario dilazionare la decisione. Quindi, in definitiva, la decisione si può prendere quando si verifica un numero limitato o nullo di errori per un periodo di tempo sufficientemente lungo, oppure, se tale situazione non si verifica, fotografando la situazione in un certo istante e prendendo una decisione locale. Questo metodo può essere utilizzato anche per scopi diversi e, generalmente, per tutti quei problemi in cui il modello del sistema è di tipo Markov: lo stato attuale dipende dall’ingresso attuale e da un intervallo limitato del passato. È chiaro che quanto più lungo è il passato che concorre a determinare il futuro, tanto più complicato è il grafo, perché tanto più esplode il numero degli stati possibili. Come costo di un cammino è stata usata la distanza di Hamming tra la configurazione ricevuta e la configurazione memorizzata. Naturalmente si può fare qualcosa di più sensato, che può portarci più vicino all’ottimo teorico. In altri termini si può non usare la distanza di Hamming, memorizzare non tanto la configurazione binaria, ma i valori dei campioni analogici in assenza di rumore nell’istante di campionamento, e confrontare questi valori analogici con i valori che invece campioniamo in presenza di rumore. Si tratta, cioé, di passare dai bit ottenuti all’uscita del canale ai valori analogici all’uscita del campionatore, e usare non più la distanza di Hamming, ma la distanza euclidea tra il vettore costituito dai valori di tensione che teoricamente ci aspettiamo, e il vettore costituito dai valori di tensione effettivamente misurati all’uscita del filtro di ricezione. Esempio. Supponiamo di avere 3 bit di informazione e 1 bit di parità pari. Si hanno le seguenti possibili configurazioni. 000 001 010 011 100 101 110 111
0 1 1 0 1 0 0 1
Supponiamo che il sistema di trasmissione sia binario antipodale: al campionatore, in assenza di rumore, ci aspettiamo o +a oppure −a. Se vogliamo usare la distanza di Hamming è necessario memorizzare la tabella mostrata di configurazioni binarie e poi effettuare lo XOR con la configurazione effettivamente ricevuta. Se invece si vuole usare la soft decision e quindi la distanza euclidea, bisogna memorizzare i seguenti vettori di numeri reali
9.3. CODICI CONVOLUZIONALI
171
0000 -a -a -a -a 0011 -a -a +a +a 0101 -a +a -a +a 0110 -a +a +a -a 1001 +a -a -a +a 1010 +a -a +a -a 1100 +a +a -a -a 1111 +a +a +a +a I 4 valori di tensione misurati al campionatore siano v1 , v2 , v3 , v4 . Per decidere qual’è la parola di codice binario che corrisponde alla quaterna v1 , v2 , v3 , v4 basta minimizzare la seguente quantità (v1 − ai1 )2 + (v2 − ai2 )2 + (v3 − ai3 )2 + (v4 − ai4 )2 rispetto all’indice i. Si tratta in pratica di trovare la configurazione più vicina a quella ricevuta in termini di distanza euclidea e non di distanza di Hamming. A questo punto potrebbe sembrare inutile la presenza del bit di parità. In effetti l’aggiunta del bit di parità fa raddoppiare la distanza tra le possibili configurazioni, permettendo così la riduzione della probabilità di errore. Non sarebbe possibile ottenere quanto detto inglobando semplicemente un altro bit di informazione: in questo caso, infatti, la distanza tra le quaterne (nel nostro caso) sarebbe equivalente alla distanza tra le terne. Il nostro obiettivo è quello di implementare un sistema complessivo (comprensivo delle apparecchiature a monte e a valle in figura) le cui prestazioni approssimino meglio i limiti di Shannon. sorgente
codifica sorgente
codifica canale
codifica linea
canale
decodif. linea
decodif. canale
decodif. sorgente
Figura 9.3.5. Schema di sistema trasmissino numerico con co/decodifica di canale inserita. Il codificatore di sorgente si occupa del campionamento e della quantizzazione del segnale analogico. Il codificatore di canale esegue la codifica a protezione d’errore. Quanto racchiuso nel blocco tratteggiato è ciò che fino ad ora è stato indicato come sistema di trasmissione numerico ed è comprensivo del generatore di forme d’onda (codifica di linea) del canale analogico e del decodificatore di linea (che racchiude al suo interno le operazioni di filtraggio, campionamento e decisione). Segue il decodificatore di canale (decodifica del codice) e il decodificatore di sorgente che permette la ricostruzione del segnale. Abbiamo visto che se vogliamo andare ad una certa frequenza di trasmissione e vogliamo ridurre la probabilità di errore, possiamo mettere in piedi un sistema di codifica del tipo visto, a patto che, a parità di banda utilizzata, l’incremento della probabilità di errore che consegue dalla necessità di andare a frequenza più alta, viene più che compensato dalla riduzione della probabilità di errore che garantisce il codice. In altri termini, se vogliamo una protezione dagli errori, dobbiamo trasmettere più bit. Ma ciò significa, a potenza e banda fissata, andare più veloci e quindi aumentare la probabilità di errore. Tutto ciò conviene a patto
172
9. CODICI
che il codice compensi non solo gli errori in più che fa il canale costretto ad andare più veloce, ma anche qualcuno in più. Quindi il guadagno dovuto alla codifica deve essere superiore alle perdite che si hanno nel sistema hardware a causa dell’aumentata velocità, affinché tutto sia utile. Se il guadagno è nullo è meglio non mettere in piedi il sistema di codifica. Se per avere un miglioramento devo aumentare la potenza da trasmettere, c’è qualcosa che non torna: infatti, all’aumento di potenza trasmessa corrisponde una riduzione sensibile della probabilità di errore senza l’uso di alcun tipo di codice. A questo punto ci si può chiedere se ha senso spezzare le funzioni di codifica di linea e codifica di canale. Infatti ciò che si fa con i codici a correzione d’errore è fare in maniera tale che la statistica della sorgente venga adattata alle proprietà statistiche del canale trasmissivo, in modo che l’informazione che giunge all’utente sia la quota massima possibile dell’informazione emessa dalla sorgente pur utilizzando un canale che non avrebbe una capacità più alta. Tutto il discorso serve per approssimare il più possibile le prestazioni limite di Shannon. Abbiamo già visto, a proposito della soft decision, che possiamo avvicinarci maggiormente a tali prestazioni limite se consideriamo la possibilità di agire sul canale analogico. In base alle osservazioni allora fatte deduciamo che non può essere ottima la strategia che compie l’adattamento della sorgente al canale analogico nei passi seguenti - prima adatta la sorgente binaria al canale binario (codifica di canale) - poi, all’interno, adatta l’informazione binaria alle proprietà fisiche e statistiche del supporto fisico sul quale trasmettere le informazioni (codifica di linea). Sarebbe meglio abolire questa barriera e fondere la codifica a protezione d’errore con la codifica di linea. Si possono cioé usare le regole alla base della codifica convoluzionale non per decidere prima quale coppia di bit e poi quale coppia di forme d’onda trasmettere, ma per decidere direttamente quale, tra un set sovradimensionato di forme d’onda, effettivamente trasmettere in linea. Vediamo meglio. La capacità di un codice convoluzionale di correggere errori è valutabile dal seguente discorso. È ovvio che fino a quando non ci sono errori il cammino nel grafo è unico. Una deviazione da questa situazione si avrà semplicemente in presenza di un errore, quando si generano delle biforcazioni, cioé delle traiettorie alternative. Prima o poi tali traiettorie si riunificano. Per decidere qual’è la capacità di protezione d’errore del sistema basta calcolare la distanza di Hamming tra le sequenze generate in seguito all’errore. Fino a quando tale distanza è minore di un valore fissato, si è sempre in grado di fare la scelta a massima verosimiglianza. Quindi la capacità di correggere gli errori di un codice convoluzionale non è tanto legata alla ridondanza puntuale, cioé al fatto che in corrispondenza di ogni ogni scelta ne tira fuori due, quanto al fatto che tali scelte, impilate con una regola opportuna, costruiscono delle strade che alla lunga risultano nettamente distinguibili l’una dall’altra. Lo stesso discorso vale quando si applica direttamente la logica della codifica convoluzionale alla scelta delle forme d’onda. Vediamo cosa significa quanto detto. Consideriamo un sistema binario e supponiamo di voler sovrapporre alla trasmissione il concetto della codifica convoluzionale. Per far ciò bisogna mettere in piedi una macchina a stati finiti che, in corrispondenza di ogni bit in ingresso fornisca in uscita, secondo le regole cucite al suo interno, due scelte binarie, cioé
9.3. CODICI CONVOLUZIONALI
173
una tra 4 possibili decisioni. Di conseguenza, se usiamo un codice con rate=1/2 dobbiamo aver disponibili 4 possibili forme d’onda (passeremo da PSK a QAM). In funzione della decisione del codice, otteniamo direttamente la forma d’onda da trasmettere. Ciò è diverso dal forzare la codifica convoluzionale dei bit a monte di un sistema di trasmissione binario: in questo caso, in corrispondenza di un raddoppio del numero di bit per unità di tempo bisogna trasmettere un numero di forme d’onda doppio. Nel nostro caso, invece, si usa lo stesso baud-rate (stesso numero di forme d’onda per unità di tempo), solo che la forma d’onda viene scelta in un insieme più ampio di forme d’onda e non in un set binario. La regola con cui selezionare la forma d’onda viene stabilita in funzione di un algoritmo di codifica convoluzionale. Questo significa che in sede di ricezione non è più pensabile di separare la decisione binaria dalla successiva elaborazione all’interno di un algoritmo di Viterbi. In questo contesto si è obbligati ad ipotizzare una decodifica con macchina sequenziale, tipo decodificatore di Viterbi, al cui interno però il costo dei vari cammini viene valutato usando la norma euclidea e non la distanza di Hamming. La banda del sistema resta inalterata. Se non si vuole pagare in termini di aumento di potenza, bisogna ridurre la potenza su ogni canale del QAM di 3 dB. Il guadagno che deve conseguire dall’avere implementato questo tipo di scelta dinamica di forme d’onda deve essere tale da bilanciare abbondantemente la perdita di 3dB sul singolo canale. La probabilità di errore all’uscita del decodificatore di Viterbi deve essere in totale più bassa di quella che si aveva prima con 3 dB in più su una sola portante. Questo è in effetti quello che succede. A questo punto si può pensare di andare oltre: invece di usare un codice con rate=1/2, se ne può usare uno con rate=1/3. Si può cioé aumentare il numero di possibili forme d’onda da scegliere, tra le quali se ne rendono possibili solo 2 in funzione del bit di ingresso. In realtà si è dimostrato che nel passaggio da nessuna codifica ad una codifica con rate=1/2 si guadagna parecchio e le prestazioni si avvicinano bruscamente al limite teorico di Shannon. Diminuendo ulteriormente il rate si hanno solo lievi miglioramenti e non ne vale la pena. D’altra parte si è visto che i ponti radio con costellazioni multiple sono molto utilizzati, e quindi il fatto di non usare costellazioni più grandi nella codifica può essere una controindicazione. Supponiamo, per esempio, di voler usare un sistema a 8 livelli: abbiamo bisogno di 3 decisioni binarie per mettere in grado il generatore di forme d’onda di decidere la forma d’onda da trasmettere. Se dovessimo usarle tutte per la codifica, dovremmo asservire tutti i 3 bit al codificatore. In realtà, visto che basta raddoppiare la dimensionalità dello spazio dei segnali per ottenere tutto il vantaggio, si può asservire una coppia di decisioni all’informazione da trasmettere con codifica convoluzionale, mentre utilizziamo le altre scelte binarie, che a questo punto è inutile che impongano altra ridondanza, direttamente per trasmettere informazione. Visto allora che, nel nostro caso, aggiungiamo ridondanza solo all’interno di due scelte, lasciando la terza interamente a disposizione dell’informazione da trasmettere, riusciamo a utilizzare i concetti visti prima in un contesto in cui la costellazione di forme d’onda è pari a 8. Questa codifica va sotto il nome di TRELLIS CODING (codifica a traliccio). È quella che consente di avvicinarsi il più possibile alle prestazioni teoriche previste dalla teoria di Shannon.
174
9. CODICI bit d’informazione
codif. rate 1/2
modulatore multilivello
Figura 9.3.6. Codifica “trellis” rate 2/3.
APPENDICE A
Potenza disponibile A.1. Trasferimento di potenza tra generatore e carico
generatore
carico
R +jX C C
E PL = VL · IL∗ = E
IL RL+jX L
VL
RL + XL 1 · E∗ = RC + RL + (XC + XL ) RC + RL − (XC + XL )
RL + XL (RC + RL )2 + (XC + XL )2 Bisogna trovare l’impedenza del carico in corrispondenza della quale il trasferimento di potenza reale al carico è massima. Dalla (A.1.1) è evidente che dovrà essere
(A.1.1)
= |E|2
XL = −XC Per la componente resistiva bisognerà risolvere l’equazione d d RL =0 Re [PL ] = |E|2 dRL dRL (RC + RL )2 1 2RL 2 |E| − = (RC + RL )2 (RC + RL )3 RC − RL = |E|2 =0 (RC + RL )3 che ha soluzione RL = RC . Ne consegue che il carico al quale il generatore con impedenza interna ZC = RC + XC eroga il massimo di potenza reale è un carico con impedenza ZL = RC − XC = ZC∗ 175
176
A. POTENZA DISPONIBILE
Tale potenza massima si chiama potenza disponibile e vale Pdisp =
|E|2 4RC
Indice Capitolo 1. Generalità sui sistemi di trasmissione 1.1. Problematiche poste da un sistema di telecomunicazioni. 1.2. Il rumore 1.3. Rumore in catene di amplifcazione
3 3 5 9
Capitolo 2. Canale trasmissivo passa basso 2.1. Introduzione 2.2. Mezzi trasmissivi passa basso 2.3. Sistema di trasmissione su cavo coassiale
17 17 19 19
Capitolo 3. Canale trasmissivo passa banda 3.1. Modulazione d’ampiezza 3.2. Modulazione angolare 3.3. Mezzo trasmissivo radio
27 28 42 48
Capitolo 4. Il sistema radar 4.1. Introduzione 4.2. Dimensionamento
55 55 56
Capitolo 5. Sistema di trasmissione numerico 5.1. Dimensionamento 5.2. Estrazione del timing 5.3. Rinuncia al filtraggio adattato. 5.4. Effetto di disturbi generici 5.5. Sistema di trasmissione multilivello
71 78 87 96 101 103
Capitolo 6. Modulazione numerica 6.1. Introduzione 6.2. Modulazioni numeriche 6.3. Demodulazione coerente
109 109 110 123
Capitolo 7. Sistemi in fibra ottica 7.1. Mezzo trasmissivo, sorgenti e rivelatori 7.2. Dimensionamento
131 131 134
Capitolo 8. Teoria dell’informazione 8.1. Misura dell’informazione
143 143 177
178
INDICE
8.2. Canale digitale 8.3. Canale analogico AWNG (Additive White Gaussian Noise) 8.4. Teorema fondamentale di Shannon
148 152 155
Capitolo 9. Codici 9.1. Introduzione 9.2. Codici a blocchi 9.3. Codici convoluzionali
157 157 160 166
Appendice A. Potenza disponibile A.1. Trasferimento di potenza tra generatore e carico
175 175