1.1. Noţiunea de sistem adaptiv
În concepţia actuală a teoriei sistemelor, rezolvarea problemelor de conducere a proceselor tehnologice presupune parcurgerea câtorva etape cum ar fi: - prima etapă constă în construirea modelului matematic al obiectului condus, deci a unui sistem dinamic capabil să descrie satisf ăcător comportarea procesului dat; - în ultima etapă are loc materializarea conducerii prin implementarea sistememului de conducere pe un suport material oarecare (regulatoar, calculator de proces) şi conectarea acestuia cu procesul tehnologic real. Se vede că a doua etapă, care constituie, în fond, esenţa teoriei sistemelor operează cu obiecte abstracte, modele posibile ale obiectelor lumii reale, şi ofer ă ca soluţii, de asemenea, modele matematice. În acest sens, prima şi ultima etapă pot fi privite ca interfa ţă a conexiunii dintre teorie şi practică. Punctul de vedere asupra noţiunii de sistem adaptiv, porneşte de la faptul că pentru realizarea sistemului de conducere sunt necesare două tipuri de informaţii: pe de o parte informaţia privitoare la structura şi parametrii modelului matematic al procesului, numită şi informa ţ ie ie de construc ţ ie ie (care face obiectul primei etape de mai sus), iar pe de alt ă parte, informa ţ ia ia de func ţ ionare ionare furnizată de ieşirile procesului condus, obţinută prin măsur ători în timp real. Vom considera că unui sistem de conducere i se poate ataşa atributul de adaptiv dacă acesta este capabil să atingă obiectivele conducerii în sistemele în care informaţia de construcţie, disponibilă iniţial, nu este completă. Ţinând seama de faptul că datele constructive sunt de o importanţă esenţială în elaborarea unui sistem de conducere, acesta implică, în mod automat, ideea că un sistem adaptiv trebuie să-şi completeze informaţia de construcţie despre proces în timp real, pe baza informaţiei de funcţionare, respectiv să aibă loc, explicit sau nu, o operaţie de identificare on-line a procesului. Deci, un sistem de conducere adaptiv nu mai este destinat unui anumit proces, ci unei clase de procese, sistemul trebuind să se adapteze – pe baza informaţiei de funcţionare în timp real – la obiectul cu care este efectiv cuplat. Un astfel de punct de vedere include, în mod natural, situaţiile în care parametrii şi/sau structura unui obiect dat au variaţii ce nu pot fi prevăzute, dar care păstrează obiectul în clasa precizată. 1
1.2. Scheme de conducere adaptivă
În acest paragraf se prezintă patru scheme de conducere adaptivă: scheme cu amplificare planificată (variabilă), scheme de conducere adaptivă cu model de referinţă, regulatoare cu autoacordare şi scheme de conducere duale. Scheme cu amplificare planificată (variabilă)
Una dintre primele abordări în conducerea adaptivă a fost metoda amplificării planificate (variabile). Aceast ă metodă a fost introdusă în anii 19501960 în sistemele de control al zborului. Ideea metodei const ă în găsirea unor variabile auxiliare măsurabile (altele decât ie şirile utilizate ca mărimi de reacţie) ale procesului, variabile ce pot determina schimb ări în dinamica procesului. Schema bloc a unui sistem cu amplificare planificată este prezenată în Fig. 1.1. Parametrii regulatorului
Referinţă Regulator
Amplificare planificată
Comandă
Proces
Variabile auxiliare Ieşire
Fig. 1.1. Schema bloc a unui sistem cu amplificare planificat ă
Sistemul poate fi cosiderat ca având dou ă bucle: o buclă interioar ă, clasică, alcătuită din procesul condus şi regulator şi o buclă exterioar ă care ajusteză parametrii regulatorului utilizând masur ătorile variabilelor auxiliare ale procesului. Amplificarea planificată poate fi privit ă ca o relaţie ce se stabile şte între parametrii procesului şi parametrii regulatorului şi poate fi implementat ă ca o funcţie sau un tabel. Deşi această schemă este foarte utilizat ă în pracică, are dezavantajul că ea este o schemă de adaptare în circuit deschis. Sisteme adaptive cu model referinţă (etalon)
Sistemele adaptive cu model referin ţă (etalon) au fost propuse pentru a rezolva problemă în care performanţele sistemului sunt formulate în func ţie de parametrii unui model de referinţă. Modelul precizează comportamentul ideal al procesului. Sistemul adaptiv trebuie să urmărească asimptotic ieşirea y M a modelului referinţă. Schema bloc a unui astfel de sistem este prezentat ă în Fig. 1.2. Regulatorul poate fi gândit ca având două bucle: o buclă internă este o buclă cu reacţie după ieşire ce conţine procesul şi regulatorul şi o buclă externă care ajustează parametrii regulatorului astfel încât eroarea e = y − y M , adică diferenţa dintre ieşirea y a procesului şi ieşirea modelului să tindă la zero. Problema 2
esenţială în acest sistem const ă în proiectarea unui mecanism de ajustare care s ă fie stabil şi să determine eroarea e să tindă la zero. Model referin ă
yM
Parametrii reguatorului
r Referinţă
Regulator
u
_ Mecanism de ajustare
e + y
Proces
Ieşire
Fig. 1.2. Schema bloc a unui sistem adaptiv cu model referin ţă (etalon)
În primele aplicaţii ale acestor sisteme, pentru a realiza acest ă cerinţă s-a utilizat o metod ă de tip gradient. Fie θ vectorul care conţine parametrii ajustabili ai regulatorului. Metoda de actualizare a parametrilor const ă în reducerea erorii pătratice e 2 (θ) prin ajustarea lui θ de-a lungul direc ţiei celei mai rapide pante, astfel: d θ dt
= −γ
∂ 2 ∂ ∂ ( y (θ) − y M ) = −2γe(θ) ∂ y (θ) e (θ) = −2 γe(θ) e(θ) = −2 γe(θ) ∂θ ∂θ ∂θ ∂θ
unde γ este o constată pozitivă numită factor de adaptare. Precizăm că y M este independent de θ , iar ∂ y (θ) / ∂θ reprezintă senzitivitatea ie şirii în raport cu parametrul θ . Această metodă este cunoscută şi sub numele de regula MIT . Cum, de obicei, funcţia ∂ y (θ) / ∂θ depinde de parametrii necunoscuţi ai procesului, aceasta devine inutilizabil ă. O soluţie constă în înlocuirea parametrilor necunoscu ţi cu valorile lor estimate calculate la un moment t . Din păcate, utilizând regulile de tip MIT nu este totdeauna posibil de demonstrat stabilitatea sistemului în circuit închis sau convergen ţa la zero a erorii. Pentru înlăturarea acestor neajunsuri s-au folosit alte metode bazate pe tehnici Liapunov, disipative etc. Regulatoare autoacordabile
Schemele adaptive prezentate mai sus sunt scheme de control adaptive directe, deoarece actualizarea parametrilor regulatorului (cu structur ă cunoscută) se face direct de către mecanismul de ajustare pe baza rela ţiilor dintre parametrii procesului şi cei ai regulatorului. Întrucât parametrii procesului sunt de fapt ncunoscu ţi, aceştia trebuie înlocuiţi cu valorile lor estimate, furnizate de un algoritm recursiv de estimare a parametrilor. Parametrii regulatorului vor fi calculaţi şi actualizaţi utilizând 3
estimările parametrilor procesului, exact ca şi în cazul în care parametrii ar fi cei adevăraţi. Această metodă este cunoscută sub numele de principiul echivalen ţ ei certe. Schema bloc a unui astfel de sistem este prezetată în Fig. 1.3. Regulator cu autoacordare Criterii
Refetinţă r
Parametrii procesului Proiectarea regulatorului Parametrii regulatorului Comanda Regulator u
Estimatorul parametrilor
Proces
Ieşirea y
Fig.1.3. Schema bloc a unui regulator cu autoacodare
În contrast cu schemele cu model de referi ţă, unde parametrii regulatorului sunt actualizate direct astfel încât sistemul adaptiv s ă urmărească modelul impus, în această situaţie, se constată că are loc o separare a operaţiilor de identificare şi control. Regulatorul adaptiv din Fig. 1.3 poate fi gândit ca având dou ă bucle: o buclă internă formată din procesul condus şi un regulator conven ţional, dar cu parametrii variabili, şi o buclă externă care conţine un estimator recursiv al parametrilor şi un bloc de proiectare care ajustează on-line aceşti parametrii. Sistemul poate fi privit ca un automat în care la fiecare perioad ă de eşatioare are loc atât actualizarea modelului procesului cât şi proiectarea noii comenzi, respectiv a noilor valori ale parametrilor regulatorului. Un regulatorul cu aceast ă structur ă se numeşte regulator cu autoacordare deoarece acesta are capacitatea de a- şi acorda proprii parametri în scopul ob ţinerii performanţelor dorite ale sistemului în circuit închis. Blocul de proiectare reprezint ă o soluţie on-line a unei probleme de proiectare pentru un sistem cu parametri cunoscuţi. Aceast tip de problem ă adaptivă este considerată o schemă de adaptare indirect ă. Schemele cu autoacordare sunt foarte flexibile în raport cu alegerea metodelor de proiectare (metode liniar-patratice, metode bazate pe principiul varianţei minime etc.) şi de estimare (metoda celor mai mici pătrate, principiul probalilităţii maxime etc.). Scheme de control adaptiv dual
Schemele prezentate mai sus prezint ă anumite limit ări. De exemplu, în proiectarea regulatorului incertitudinilre parametrice nu sunt luate în considerare. Apare ca naturală întrebarea: există şi alte abordări mai bune decât schemele bazate pe principiul echivalenţei certe ? Este posibil ă ob ţinerea unor astfel de regulatoare 4
adaptive pe baza unor principii teoretice generale ? R ăspunsul la aceste întreb ări este afirmativ, adică este posibilă găsirea unei solu ţii pornind de la o formulare abstractă a unei probleme şi utilizând teoria optimiz ării. Aceasta se bazează pe controlul stochastic, sau mai nou, pe no ţiunea de control dual. Această abordare conduce la o structur ă de regulator cu propriet ăţi interesante. O remarcă importantă este aceea că regulatorul va lua în considerare şi incertitudinile în estimarea parametrilor. Abordarea este totuşi foarte complicată şi până acum nu a fost utilizată în probleme practice. Ideea metodei este următoarea. Sistemul se va descrie printr-un model stochastic, apoi se va formula un criteriu care s ă minimizeze o funcţie cost, scalar ă, care depinde de starea şi comanda procesului. Problema g ăsirii unui regulator care să minimizeze funcţia cost în raport cu comanda este foarte dificilă. Dacă aceasta poate fi rezolvată, regulatorul optimal are structura din Fig. 1.4, unde vectorul hiperstare conţine atât starea procesului cât şi parametrii acestuia. Referin ă
Regulator (neliniar)
Comandă
Hiperstare
Proces
Ieşire
Calcul hiperstare
Fig. 1.4. Schema bloc a unui regulator dual
Regulatorul poate fi privit ca fiind alc ătuit din dou ă păr ţi: un estimator neliniar şi un regulator cu reacţie. Pe baza măsur ătorilor din proces, estimatorul generează distribuţia de probabilitate condiţionată a stării numită hiperstare. Regulatorul este o funcţie neliniar ă care realizează o legătur ă între hiperstare şi spaţiul variabilelor de comand ă. Simplitatea structurală a acestei soluţii se obţine cu preţul introducerii hiperst ării care poate fi un vector cu dimensiune foarte mare.
2. Estimarea în timp real a parametrilor 2.1. Introducere
Determinarea on-line a parametrilor procesului este o problem ă esenţială a conducerii adaptive. S-a văzut că în structura unui regulator autoacordabil apare explicit un estimator al parametrilor (vezi Fig. 1.3). Dar şi structura regulatorului adaptiv cu model de referinţă conţine implicit un estimator al parametrilor (vezi Fig. 1.2). În acest capitol se prezintă câteva metode pentru estimarea on-line a parametrilor procesului privite în contextul identificării sistemului. Elementele de bază ale identificării unui sistem sunt: alegerea structurii modelului, realizarea experimentelor, estimarea parametrilor şi validarea modelului. Deoarece în sistemele adaptive identificarea sistemului se face automat, este esen ţială înţelegerea tuturor aspectelor acestei probleme. Alegerea structurii modelului şi 5
parametrizarea sunt elemente fundamentale. Problemele de identificare se simplifică dacă modelele sunt simple şi mai mult, liniare în raport cu parametrii. Realizarea experimentelor impune câteva cunoştinţe despre proces, dar şi ce tip de semnale trebuie aplicate pentru a obţine rezultate concludente. Cum în sistemele adaptive parametrii procesului se modific ă continuu, sunt necesare metode de estimare care să actualizeze recursiv valorile parametrilor estimaţi. Pentru estimarea parametrilor, o tehnică de bază este metoda celor mai mici pătrate (c.m.m.p.). Metoda este foarte simplă în cazul proceselor descrise prin modele liniare în raport cu parametrii, situa ţie în care estimările pot fi calculate şi analitic. 2.2. Metoda celor mai mici pătrate
Metoda celor mai mici pătrate poate fi aplicată unei clase largi de probleme. Metoda este simplă în cazul unui proces descris printr-un model matematic de forma: y (i ) = ϕ1 (i )θ10 + ϕ2 (i )θ02 + L + ϕn (i )θ0n = ϕT (i )θ0 (2.1) unde y este variabila observat ă, θ10 , θ02 ,K, θn0 sunt parametrii modelului ce trebuie determinaţi, iar ϕ1 , ϕ2 ,K, ϕn sunt funcţii cunoscute care pot depinde de alte variabile cunoscute. Definim vectorii:
ϕT (i) = [ϕ1 (i ) ϕ2 (i)
L ϕ n (i )] ,
θ0 = [θ10 θ02 L θ0n ]T
Indexul i din (2.1) apar ţine unei muţimi discrete şi reprezintă timpul la pasul i . Funcţiile ϕi se numesc variabile regresoare sau regresori, iar modelul (2.1) se numeşte model regresiv. Perechile observaţiilor regresorilor şi {( y (i ), ϕ(i)), i = 1, 2,K, t } se obţin prin efectuarea unui experiment. Se pune problema determinării parametrilor θ astfel încât ieşirile calculate cu modelul (2.1) se apropie cât mai mult posibil de variabilele m ăsurate y (i) în sensul celor mai mici pătrate. Rezultă că parametrii θ trebuie aleşi astfel încât să minimizeze funcţia cost: 2 1 t V (θ, t ) = ∑ ( y (i ) − ϕT (i )θ ) (2.2) 2 i =1 Deoarece variabila y este liniar ă în raport cu parametrii θ0 şi criteriul este unul pătratic, problema admite o solu ţie analitică. Introducem notaţiile Y (t ) = [ y (1) y ( 2) K y (t )]T E (t ) = [ε(1)
ε(2) K ε(t )]T
6
ϕT (1) Φ (t ) = M ϕT (t ) −1
P (t ) =
(Φ
T
−1
(t )Φ (t ) )
t = ∑ ϕ(i )ϕT (i) i = 1
(2.3)
unde rezidurile ε(i) sunt definite prin:
ε(i) = y (i) − yˆ (i) = y (i) − ϕT (i )θ Cu aceste notaţii, funcţia cost (2.2) se rescrie sub forma: 1 t 1 1 V (θ, t ) = ∑ ε 2 (i ) = E T E = || E ||2 2 i =1 2 2 unde E se poate rescrie sub forma: ˆ = Y − Φθ E = Y − Y Soluţia problemei celor mai mici p ătrate este dată de următoarea teoremă.
(2.4)
Teorema 2.1. Estimarea pe baza celor mai mici pătrate (c.m.m.p).
Funcţia cost (2.2) admite un minim în raport cu parametrii θˆ astfel încât: ΦT Φ θˆ = ΦT Y
(2.5)
Dacă matricea ΦT Φ este nesingular ă, mininul este unic şi este dat de:
θˆ = (ΦT Φ) −1 ΦT Y
(2.6)
Demonstra ţ ie. Funcţia cost (2.2) poate fi scrisă ca:
2V (θ, t ) = E T E = (Y − Φθ)T (Y − Φθ) = Y T Y − Y T Φθ − θT ΦT Y + θT ΦT Φθ
(2.7)
Deoarece matricea ΦT Φ este întotdeauna nenegativ definit ă, funcţia V are un minim. Funcţia V fiind pătratică în raport cu θ , minimul său poate fi alculat în mai multe moduri. Unul ditre acestea cost ă în calculul gradientului în raport cu θ . Un alt mod constă în a completa expresia (2.7) pentru a ob ţine un pătrat, astfel: 2V (θ, t ) = Y T Y − Y T Φθ − θT Φ T Y + θT ΦT Φθ + Y T Φ (Φ T Φ) −1 Φ T Y − Y T Φ (Φ T Φ ) −1 Φ T Y
= Y T ( I − Φ(ΦT Φ) −1 Φ )Y + (θ − (ΦT Φ) −1 ΦT Y ) ΦT Φ(θ − (Φ T Φ) −1 ΦT Y ) T
(2.8)
Primul termen din membrul drept este independent de θ , iar cel de-al doilea este întotdeauna pozitiv. Minimul se ob ţine pentru: θ = θˆ = (ΦT Φ) −1 ΦT Y Observa ţ ii :
7
1. Ecuaţia (2.5) se numeşte ecua ţ ie normal ă. Ecuaţia (2.6) poate fi scris ă sub forma: −1 t t t T ˆθ(t ) = ∑ ϕ(i )ϕ (i ) ∑ ϕ(i) y(i) = P (t ) ∑ ϕ(i) y(i ) (2.9) i =1 i =1 i =1 T 2. Condiţia ca matricea Φ Φ să fie inversabilă se numeşte condi ţ ie de excita ţ ie. 3. Criteriul celor mai mici p ătrate ponderează toate erorile ε(i ) în mod egal, ceea ce corepunde ipotezei că toate măsur ătorile au aceeaşi precizie. Funcţia criteriu V poate fi modificată considerând ponderi diferite ale erorilor, astfel 1 (2.10) V = E T WE 2 unde W este o matrice de ponderare diagonală. Estimările parametrilor vor fi acum date de: θˆ = (Φ T W Φ )−1 ΦT WY (2.11) Interpretare geometrică
Problema celor mai mici p ătrate poate fi interpretată ca o problemă de geometrie în spaţiul ℜt , unde t este numărul observaţiilor. Fig. 2.1 prezintă situaţia cu doi parametrii şi trei observaţii. Vectorii ϕ1 şi ϕ2 acoper ă un plan, dacă sunt liniar Y E independenţi. Mărimea predictivă Y ˆ se află în planul format de ϕ1 şi ϕ2 . Eroarea ϕ2 ˆ ia cea mai mică valoare când E E = Y − Y θ1ϕ1 este perpendicular ă pe acest plan. În cazul general, ecuaţia (2.4) se poate rescrie sub ˆ Y forma: θ 2ϕ 2
1
ϕ
Fig. 2.1. Interptrtarea geometric ă a estimatorului celor ai mici p ătrate
ϕ n (1) ε(1) y(1) ϕ1 (1) ϕ ( 2) ε(2) y(2) ϕ ( 2) 1 θ1 − L − n θn = − M M M M ε(t ) y(t ) ϕ1 (t ) ϕ n (t ) sau
E = Y − ϕ1θ1 − ϕ2 θ2 − L ϕ nθ n
unde ϕ i sunt coloanele matricei Φ . Probema celor mai mici pătrate poate fi interpretată ca probema găsirii constantelor θ1, θ2 ,K, θn astfel încât vectorul 8
Y să fie aproximat cât mai bine posibil printr-o combina ţie liniar ă a vectorilor ϕ1, ϕ2 ,K, ϕn . Fie Y ˆ vectorul din spaţiul generat de ϕ1, ϕ2 ,K, ϕn , care reprezintă cea mai bună aproximaţie şi E = Y − Y ˆ . Vectorul E ia cea mai mică valoare când el este perpendicular pe toţi vectorii ϕ i . Aceasta îseamnă că:
(ϕi )T (Y − θ1ϕ1 − θ2ϕ2 − L θn ϕ n ) = 0
i = 1, K, t
care este identică cu ecuaţia normala (2.5). Vectorul θ este unic dacă vectorii ϕ1 , ϕ2 ,K, ϕn sunt liniar independen ţi. Calculul recursiv
În regulatoarele adaptive, observa ţiile se obţin secvenţial în timp real. Apare ca firesc ca efectuarea calculelor să se facă recursiv. Calculul estim ărilor celor mai mici pătrate pot fi efectuate astfel încât rezultatele ob ţinute la momentul t − 1 să poată fi utilizate pentru ob ţinerea estimărilor de la momentul t . Pentru aceasta, soluţia ecuaţiei (2.6) va fi rescrisă într-o formă recursivă. Fie θˆ ( t − 1) estimarea parametrului θ obţinută pe baza primelor t − 1 măsur ători. Presupunem că matricea ΦT Φ este nesingular ă pentru orice t . Din definiţia lui P (t ) dată de (2.3) rezultă că: −1
P (t ) = Φ (t )Φ(t ) = T
t
∑=1 ϕ(i)ϕ i
T
t − 1
(i) =∑ ϕ(i)ϕT (i) + ϕ(t )ϕT (t ) = P −1 (t − 1) + ϕ(t )ϕT (t ) i =1
(2.14) Estimările parametrului θ bazate pe metoda celor mai mici pătrate sunt ate de ecuaţia (2.9): t t − 1 ˆθ(t ) = P (t ) ∑ ϕ(i ) y (i ) = P (t ) ∑ ϕ(i ) y (i) + ϕ(t ) y(t ) i =1 i =1 Din (2.9) şi (2.14) se deduce că: t − 1
∑=1 ϕ(i) y(i) = P −1 (t − 1)θˆ (t − 1) = P −1 (t )θˆ (t − 1) − ϕ(t )ϕ
T
(t )θˆ (t − 1)
i
Estimările la pasul t se pot rescrie sub forma: θˆ (t ) = θˆ (t − 1) − P (t )ϕ(t )ϕT (t )θˆ (t − 1) + P (t )ϕ(t ) y(t ) = θˆ (t − 1) + P (t )ϕ(t )( y(t ) − ϕT (t )θˆ (t − 1) ) = θˆ (t − 1) + K (t )ε(t ) unde K (t ) = P (t )ϕ(t ) , ε(t ) = y (t ) − ϕT (t )θˆ (t − 1) . Eroarea ε(t ) poate fi interpretat ă ca eroarea în predicţia cu un pas a semnalului y (t ) bazată pe estimarea θˆ ( t − 1) . 9
Pentru a continua este necesar ă deducerea unei ecuaţii recursive pentru P (t ) , nu numai pentru P −1 (t ) . Pentru aceasta se utilizează următoarea lemă. Lema 2.1. Lema inversei matricelor. Fie A, B şi C −1 + DA−1 B matrice
pătratice nesingulare. Atunci A + BCD este inversabilă, şi ( A + BCD) −1 = A−1 − A−1 B(C −1 + DA−1 B) −1 DA−1 Demonstra ţ ie. Prin înmulţire directă, se obţine:
( A + BCD)( A−1 − A−1 B(C −1 + DA−1 B) −1 DA−1 ) = I + BCDA−1 − B(C −1 + DA−1 B) −1 DA−1 − BCDA−1 B(C −1 + DA−1 B) −1 DA−1 = I + BCDA−1 − BC (C −1 + DA−1 B)(C −1 + DA−1 B) −1 DA−1 = I Aplicând Lema 2.1 în P (t ) şi utilizând (2.14) se obţine: P (t ) =
(Φ
T
−1
−1
−1
(t )Φ (t ) ) = (ΦT (t − 1)Φ (t − 1) + ϕ(t )ϕT (t ) ) = ( P −1 (t − 1) + ϕ(t )ϕT (t ) ) −1
= P (t − 1) − P (t − 1)ϕ(t )( I + ϕT (t ) P (t − 1)ϕ(t ) ) ϕT (t ) P (t − 1) Această conduce la:
(
K (t ) = P (t )ϕ(t ) = P (t − 1)ϕ(t ) I + ϕT (t ) P (t − 1)ϕ(t )
)−1
Se observă că matricea ce trebuie inversată are aceeaşi dimensiune cu numărul măsur ătorilor. Rezultă că pentru un sistem cu o singur ă ieşire, această este un scalar. Algoritmul recursiv al celor mai mici p ătrate este prezentat în teorema următoare. Teorema 2.3. Algoritmul recursiv bazat pe metoda c.m.m.p.
Presupunem că matricea Φ (t ) are rang maxim, adică, ΦT (t )Φ(t ) este nesingular ă, −1 ∀ t ≥ t 0 . Dându-se θˆ (t ) şi P (t ) = (ΦT (t )Φ(t ) ) , estimarea θˆ (t ) satisface 0
0
0
0
următoarele ecuaţii recursive: θˆ (t ) = θˆ (t − 1) + K (t )( y(t ) − ϕT (t )θˆ (t − 1) )
(
(2.15)
K (t ) = P (t )ϕ(t ) = P (t − 1)ϕ(t ) I + ϕT (t ) P (t − 1)ϕ(t )
(
P (t ) = P (t − 1) − P (t − 1)ϕ(t ) I + ϕT (t ) P (t − 1)ϕ(t )
= ( I − K (t )ϕT (t ) ) P (t − 1)
)−1
)−1 ϕ
T
(2.16) (t ) P (t − 1) (2.17)
Observa ţ ii :
1. Intuitiv, valoarea estimat ă θˆ (t ) din (2.15) se obţine adunând o corecţie la estimarea anterioar ă θˆ ( t − 1) . Această corecţie este propor ţională cu y (t ) − ϕT (t )θˆ (t − 1) , unde ultimul termen poate fi interpretat ca valoarea predictiv ă a lui y la momentul t obţinută prin modelul (2.1). Termenul corecţie este astfel 10
propor ţional cu diferenţa dintre valoarea măsurată a lui y (t ) şi predicţia lui y (t ) bazată pe estimarea anterioar ă a parametrilor. Componentele vectorului K (t ) sunt factori de ponderare care combin ă corecţia şi estimarea anterioar ă. 2. Estimatorul bazat pe metoda c.m.m.p. poate fi interpretat ca un filtru Kalman pentru procesul: θ(t + 1) = θ(t ) T (2.18) y (t ) = ϕ (t )θ(t ) + e(t ) 3. Ecuaţiile recursive pot fi desuse pornind şi de la funcţia cost (2.2). Folosind (2.8) şi (2.6), se obţine: 2V (θ, t ) = 2V (θ, t − 1) + ε 2 (θ, t ) −1 = Y T (t − 1) I − Φ (t − 1)(ΦT (t − 1)Φ (t − 1) ) Φ (t − 1) Y (t − 1) T T + (θ − θˆ (t − 1) ) ΦT (t − 1)Φ(t − 1)(θ − θˆ (t − 1) )+ ( y(t ) − ϕT (t )θ) ( y(t ) − ϕT (t )θ) (2.19) Cum primul termen din membrul drept este independent de θ , iar termenii r ămaşi sunt pătratici în θ , rezultă că V (θ, t ) poate fi uşor minimizat în raport cu θ . Precizăm că matricea P (t ) este definită numai dacă matricea ΦT (t )Φ(t ) este nesingular ă. Deoarece t
ΦT (t )Φ (t ) = ∑ ϕ(i )ϕT (i) i =1
rezultă că Φ T Φ este totdeauna nesingular ă dacă t < n . Pentru a obţine o condiţie iniţială penru P , este necesar sa se aleagă t = t 0 astfel încât ΦT (t 0 )Φ (t 0 ) să fie nesingular ă. Atunci, condiţiile iniţiale vor fi:
(Φ
−1
(t 0 )Φ(t 0 ) ) θˆ (t 0 ) = P (t 0 )ΦT (t 0 )Y (t 0 )
P (t 0 ) =
T
Ecuaţiile recursive pot fi utilizate pentru t > t 0 . Totuşi, este convenabil ca ecuaţiile recursive să se utilizeze în toţi paşii. Dacă ecuaţiile recursive pornesc din condi ţia iniţială P (0) = P 0 , unde P 0 este pozitiv definit ă, atunci
(
P (t ) = P 0−1 + ΦT (t )Φ(t )
)−1 −1
Notăm că P (t ) poate fi f ăcută să tindă către valoarea lui (Φ T (t )Φ (t ) ) prin alegerea lui P 0 suficient de mare. Parametrii variabili în timp
În modelul (2.1), parametrii θi0 sunt presupuşi constanţi. În multe probleme adaptive este interesant s ă se considere situa ţia în care parametrii sunt ariabili în 11
timp. Prin extinderea metodei de estimare bazată pe c.m.m.p. se pot acoperii dou ă cazuri: cazul în care parametrii se pot modifica brusc, dar destul de rar şi cazul în care parametrii se pot modifica continuu, dat lent. Cazul modificărilor bruşte ale parametrilor poate fi acoperit prin resetare, adică matricea P din algoritmul c.m.m.p. (Teorema 2.3) este resetat ă periodic la valoarea α I , unde α este un număr cu valoare mare. Acesta face ca matricea amplificatoare K (t ) să ia valori mari şi ca estimarea să fie actualizată cu unpas mare. Cazul în care parametrii se modific ă continuu, dat lent poate fi acoperit prin modele matematice relativ simple. O abordare simpl ă constă în înlocuirea criteriului (2.2) cu criteriul: 2 1 t V (θ, t ) = ∑ λt − i ( y (i ) − ϕT (i )θ ) (2.20) 2 i =1 unde parametrul λ ales astfel încât 0 < λ ≤ 1 , se numeşte factor de uitare sau factor de reducere. Funcţia criteriu din (2.20) realizează o ponderare variabilă în timp a datelor. Datele cele mai recene sunt ponderate cu 1, pe când datele cu o vechime de n paşi sunt ponderate cu λn . De aceea, metoda se mai numeşte şi cu uitare exponen ţ ial ă sau reducere exponen ţ ial ă. Repetând calculele din Teorema 2.3, dar pentru criteriul (2.20), se ob ţine următorul rezultat. Teorema 2.4. Algoritmul recursiv al c.m.m.p. cu uitare exponen ţ ial ă. Presupunem că matricea Φ (t ) are rang maxim pentru orice t ≥ t 0 . Parametrul
θ
care minimizează funcţia (2.20) este dat recursiv prin:
θˆ (t ) = θˆ (t − 1) + K (t )( y (t ) − ϕT (t )θˆ (t − 1) )
(
K (t ) = P (t )ϕ(t ) = P (t − 1)ϕ(t ) λ I + ϕT (t ) P (t − 1)ϕ(t )
(
)−1
(2.21)
)
P (t ) = I − K (t )ϕT (t ) P (t − 1) / λ
Un dezavantaj al uit ării exponenţiale este acela că datele sunt reduse ciar dacă P (t )ϕ( t ) = 0 . Această condiţie înseamnă că y (t ) nu mai conţine nici un fel de informaţie nouă despre parametrul θ . Din (2.21) se vede că în acest caz matricea P creşte exponenţial cu viteza λ . Algoritmi simplificaţi
Algoritmii recursivi baza ţi pe metoda c.m.m.p. daţi de Teorema 2.3 conţin două deturi de variabile de stare, θˆ şi P , care trebuie actualizaţi la fiecare pas. Pentru n mare, actualizarea matricei P măreşte efortul de calcul. Există mai mulţi algoritmi simplificaţi care evită actualizarea matricei P când funcţia cost este lent convergentă. O soluţie simplă o reprezintă algoritmul de proiec ţ ie Kaczmarz. Pentru prezentarea acestui algoritm, se consider ă parametrul necunoscut θ ca un element a lui ℜ n . 12
O valoare măsurată y (t ) = ϕ (t )θ T
(2.22) determină proiecţia vectorului parametrilor θ pe ϕ(t ) . De deduce imediat că pentru determinarea univocă a vectorului θ sunt necesare n măsur ători, unde ϕ(1),K, ϕ(n) acoper ă spaţiul ℜ n . Consider ăm că este disponibilă estimarea θˆ ( t − 1) şi că se obţine o nouă valoare măsurată de forma (2.22). Deoarece valoarea măsurată y (t ) conţine informaţie numai pe direcţia ϕ(t ) din spaţiul parametrilor, apare ca naturală ideea de a alege ca nouă estimare valoarea θˆ (t ) care minimizează || θˆ (t ) − θˆ (t − 1) || cu condiţia ca y (t ) = ϕT (t )θˆ (t ) . Pentru a lua în considerare această constrângere introducem un multiplicator Lagrange notat α . Funcţia cost care trebuie minimizată capătă forma: T 1 ˆ ( θ(t ) − θˆ (t − 1) ) (θˆ (t ) − θˆ (t − 1) )+ α ( y (t ) − ϕT (t )θˆ (t ) ) 2 Derivând acesată relaţie în raport cu θˆ (t ) şi α , se obţine:
V =
θˆ (t ) − θˆ (t − 1) − αϕ(t ) = 0 y (t ) − ϕT (t )θˆ (t ) = 0 Rezolvând aceste ecuaţii în raport cu θˆ (t ) se obţine: θˆ (t ) = θˆ (t − 1) +
ϕ(t ) y (t ) − ϕT (t )θˆ (t − 1) ) ( T ϕ (t )ϕ(t )
(2.23)
Acest algoritm se nume şte algoritmul de proiec ţ ie Kaczmarz . Pentru a putea modifica lungimea pasului pentru ajustarea parametrului θˆ (t ) se introduce un factor γ astfel: γϕ(t ) ( θˆ (t ) = θˆ (t − 1) + T y (t ) − ϕT (t )θˆ (t − 1) ) ϕ (t )ϕ(t ) Pentru evitarea împăr ţirii prin 0 cara apare atunci când ϕ( t ) = 0 , la numitor se introduce un termen de corec ţie, expresia ϕT (t )ϕ(t ) devenind ϕT (t )ϕ(t ) + α , unde α este o costantă pozitivă. Se obţine astfel următorul algoritm: Algoritmul 2.1. Algoritmul de proiec ţ ie.
θˆ (t ) = θˆ (t − 1) +
γϕ(t ) ( y (t ) − ϕT (t )θˆ (t − 1) ) T α + ϕ (t )ϕ(t )
unde α ≥ 0 şi 0 < γ < 2 . Observaţii. 13
(2.24)
1. În unele publica ţii acest algoritm se numeşte algoritmul de proiec ţie normalizat. 2. Mărginirea parametrului γ se obţine din următoarele considerente. Presupunem că datele au generate prin (2.22) cu parametrul θ = θ0 . Din (2.24) se ~ deduce ca eroarea parametrică θ = θ − θ0 satisface ecuaţia: ~ ~ θ(t ) = A(t ) θ(t − 1) unde γϕ(t )ϕT (t ) A(t ) = I − α + ϕT (t )ϕ(t ) Matricea A(t ) are o valoare proprie
α + (1 − γ )ϕT ϕ λ= α + ϕT ϕ Această valoare proprie este mai mică decât 1 dacă 0 < γ < 2 . Celelalte valori proprii ale lui A sunt egale cu 1. Algoritmul de proiecţie presupune că datele sunt generate prin (2.22) far ă erori. Când datele sunt afectate de zgomot, adic ă sunt generate printr-o relaţie de forma y (i ) = ϕT (i )θ0 + e(i ) unde θ0 este vectorul parametrilor adav ăraţi, iar { e(i), i = 1, 2,K} este o secvenţă de variabile aleatoare cu media nul ă, uniform distribuite, un algoritm simplificat este dat de θˆ (t ) = θˆ (t − 1) + P (t )ϕ(t )( y(t ) − ϕT (t )θˆ (t − 1) ) (2.25) unde −1 t T P (t ) = ∑ ϕ (i )ϕ(i ) (2.26) i =1 Acesta este algoritmul stochastic aproximativ . Precizăm că acum P (t ) = ΦΦ T este scalar dacă y (t ) este scalar. Un algoritm mai simplu este algoritmul celei mai mici medii, dat de: θˆ (t ) = θˆ (t − 1) + γϕ(t )( y (t ) − ϕT (t )θˆ (t − 1) ) unde γ este o constantă. Modele continue în timp
În schemele recursive de mai sus, variabilele au fost indexate prin parametrul discret t , definind în fapt variabila timp. În practic ă, există însă multe situaţii când trebuie utilizat observa ţiile continue în timp. Pentru aceasta, vom 14
generaliza rezultatele obţinute pentru cazul discret la cazul continuu. Considerând situaţia uitării exponenţiale, parametrul θ se va calcula astfel încât acesta să minimizeze criteriul: t
(
)2
V (θ) = e − α (t − τ ) y (τ) − ϕT (τ)θ d τ
∫0
(2.27)
Parametrul α ≥ 0 corespune factorului de uitare λ din (2.20). Funcţia criteriu (2.27) admite un minim dac ă: t t − α (t − τ) ˆ T ∫e ϕ(τ)ϕ (τ)d τ θ(t ) = ∫ e − α (t − τ)ϕ(τ) y (τ)d τ 0 0 care este ecua ţ ia normal ă. Estimarea este unică dacă matricea:
(2.28)
t
R(t ) = e − α ( t − τ) ϕ(τ)ϕT (τ)d τ
∫0
(2.29)
este inversabiă. Prin deferenţierea ecuaţiei (2.28) este posibil ă obţinerea unor ecuaţii recursive. Algoritmul de estimare este dat de următoarea teoremă: Teorema 2.5. Algoritmul c.m.m.p. în cazul continuu . Presupunem că matricea R(t ) din (2.29) este invesabil ă pentru
orice t . Estimarea
care minimizează (2.27) satisface relaţiile: & θˆ (t ) = P (t )ϕ(t )e(t ) e(t ) = y (t ) − ϕT (t )θˆ (t − 1) & (t ) = α P (t ) − P (t )ϕ(t )ϕT (t ) P (t ) P
(2.30) (2.30) (2.30)
Demonstraţia teoremei de face prin diferenşierea ecuaţiei (2.28). Observaţii. 1. Matricea R (t ) = P −1 (t ) satisface R& = −α R + ϕϕT . 2. Există de asemenea algoritmi simplifica ţi pentru algoritmii continui în timp. Algoritmul de proiec ţie corespunzător ecuaţiilor (2.25) şi (2.26) este dat e ecuaţia (2.30) cu −1 t T P (t ) = ∫ ϕ ( τ)ϕ( τ)d τ 0 unde P (t ) este acum un scalar.
15