Cap. 1 Introducere Majoritatea tehnicilor curente pentru proiectarea sistemelor de conducere se bazează pe o bună înţelegere a procesului ce trebuie condus, precum şi a condiţiilor de funcţionare a acestuia. În practic ă, există multe situaţii în care procesul ce trebuie condus este foarte complex, iar fenomenele fizice care se produc în diversele subprocese ale acestuia nu sunt complet cunoscute. În aceste cazuri, tehnicile de proiectare a comenzilor trebuie augmentate cu o tehnic ă de identificare, care s ă aibă drept scop o mai bună înţelegere a procesului de condus. Se ajunge astfel la o agregare a opera ţiilor de conducere şi a celor identificare. De cele mai multe ori, cele dou ă operaţii sunt tratate separat. Dac ă însă, identificarea sistemului este recursiv ă – adică modelul procesului este actualizat periodic pe baza estimărilor anterioare şi a datelor noi culese din proces – opera ţiile de identificare şi control pot fi realizate concurent. Conducerea adaptiv ă va fi privită ca o agregare directă a unei metodologii (neadaptive) de control cu o anumit ă metodă de identificare recursiv ă a procesului. 1.1. Etapele proiectării unui sistem de conducere
În multe aplicaţii de conducere, proiectarea unui regulator (controller) care s ă poată influenţa sau modifica comportarea şi r ăspunsul unui proces incomplet cunoscut sau necunoscut, pentru a satisface anumite cerin ţe de performanţă, poate fi o problemă dificilă, dar şi interesană şi provocatoare. Prin proces, în general, vom în ţelege orice Ieşiri Intr ări proces caracterizat printr-un anumit număr de Proces P y u intr ări, notate cu u, şi ieşiri, notate cu y, reprezentat schematic ca în Fig. 1.1. Intr ările u Fig.1.1. Reprezentarea unui proces sunt prelucrate pentru a produce anumite ie şiri y, care reprezintă, de obicei, r ăspunsurile măsurate ale instala ţiei. Scopul proiectării unui sistem de conducere const ă în alegerea intr ării u astfel încât ieşirea y(t ) să satisfacă anumite performanţe impuse. Deoarece, în practică, procesul ce trebuie condus este foarte complex, în sensul că poate conţine diverse păr ţi mecanice, electrice, electronice, hidraulice etc., interconectate în diverse structuri funcţionale, face ca o alegere corespunzătoare a lui u să nu fie o problemă simplă. Etapele de proiectare parcurse de majoritatea proiectan ţilor de sisteme de conducere, respectiv de determinare a comenzii u, sunt prezentate în Fig. 1.2 şi explicare mai jos. Etapa 1. Modelarea
În această etapă, inginerul proiectant trebuie să analizeze şi să înţeleagă funcţionarea procesului, care, pentru un semnal de intrare u(t ), ), produce un semnal 1-1
de ieşire (r ăspuns) y(t ); ); este etapa în care rela ţ iile iile intrare-ie şire pot fi descrise prin anumite ecuaţii matematice. Aceste ecua ţii constituie modelul matematic al procesului. Un model exact al procesului ar trebui s ă producă un r ăspuns identic cu cel al procesului real, dac ă intrarea în model şi condiţiile iniţiale sunt identice cu cele aplicate procesului real. Complexitatea majorit ăţii proceselor fizice fac ca dezoltarea unui astfel de model (exact) s ă fie nejustificat ă sau chiar imposibilă. Dar, chiar dacă modelul exact al procesului poate fi obţinut, dimensiunea acestuia ar putea fi foarte mare, ar putea fi puternic neliniar şi variabil în timp, ceea ce face apropape imposibilă utilizarea sa pentru proiectarea unui sistem de conducere. Aceasta face ca sarcina model ării să fie chiar mai dificil ă, dar şi mai interesant ă, deoarece proiectantul trebuie s ă obţină în final un model matematic care s ă descrie cu acurateţe comportarea intrare/ie şire (I/O - Input/Output) a procesului şi, în plus, să fie destul de simplu pentru a putea fi utilizat pentru proiectarea sistemului de conducere propus. Un model simplu conduce de regulă la un controller simplu, care este uşor de înţeles şi implementat, şi mult mai sigur pentru scopuri practice. u
Procesul
y
P
Pasul 1: Modelarea u
Modelul procesului P m
yˆ
Pasul 2: Proiectarea controllerului Incertitudine Δ Intrare de referinţă
Controller u
Modelul procesului P m
C
Σ
yˆ
Pasul 3: Implementarea Intrare de referinţă
Controller
u
Proces
y
P
C
Fig.1.2. Etapele proiectării unui sistem de conducere
Un model al procesului poate fi dezvoltat prin folosirea legilor fizicii sau prin procesarea datelor de intrare/ieşire (I/O) ale procesului, date ob ţinute prin efectuarea unor experimente. Totuşi, un astfel de model poate fi destul de complicat din punctul de vedere al proiectantului sistemului de conducere, fiind 1-2
de ieşire (r ăspuns) y(t ); ); este etapa în care rela ţ iile iile intrare-ie şire pot fi descrise prin anumite ecuaţii matematice. Aceste ecua ţii constituie modelul matematic al procesului. Un model exact al procesului ar trebui s ă producă un r ăspuns identic cu cel al procesului real, dac ă intrarea în model şi condiţiile iniţiale sunt identice cu cele aplicate procesului real. Complexitatea majorit ăţii proceselor fizice fac ca dezoltarea unui astfel de model (exact) s ă fie nejustificat ă sau chiar imposibilă. Dar, chiar dacă modelul exact al procesului poate fi obţinut, dimensiunea acestuia ar putea fi foarte mare, ar putea fi puternic neliniar şi variabil în timp, ceea ce face apropape imposibilă utilizarea sa pentru proiectarea unui sistem de conducere. Aceasta face ca sarcina model ării să fie chiar mai dificil ă, dar şi mai interesant ă, deoarece proiectantul trebuie s ă obţină în final un model matematic care s ă descrie cu acurateţe comportarea intrare/ie şire (I/O - Input/Output) a procesului şi, în plus, să fie destul de simplu pentru a putea fi utilizat pentru proiectarea sistemului de conducere propus. Un model simplu conduce de regulă la un controller simplu, care este uşor de înţeles şi implementat, şi mult mai sigur pentru scopuri practice. u
Procesul
y
P
Pasul 1: Modelarea u
Modelul procesului P m
yˆ
Pasul 2: Proiectarea controllerului Incertitudine Δ Intrare de referinţă
Controller u
Modelul procesului P m
C
Σ
yˆ
Pasul 3: Implementarea Intrare de referinţă
Controller
u
Proces
y
P
C
Fig.1.2. Etapele proiectării unui sistem de conducere
Un model al procesului poate fi dezvoltat prin folosirea legilor fizicii sau prin procesarea datelor de intrare/ieşire (I/O) ale procesului, date ob ţinute prin efectuarea unor experimente. Totuşi, un astfel de model poate fi destul de complicat din punctul de vedere al proiectantului sistemului de conducere, fiind 1-2
astfel necesar ă o simplificare ulterioar ă a acestuia. Pentru a ob ţine un model simplificat, câteva dintre abord ările cele mai utilizate sunt: (i) Liniarizarea în jurul punctelor de funcţionare; (ii) Tehnici de reducere a ordinului modelului. În prima abordare (i), procesul este aproximat printr-un model liniar, care este valid numai în jurul unui punct de funcţionare. Puncte de funcţionare diferite pot conduce la modele liniare diferite, care pot fi folosite ca modele valide ale procesului în jurul acelor puncte. Liniarizarea se ob ţine fie prin dezvoltarea în serie Taylor a modelului neliniar şi aproximarea liniar ă a acestuia, fie prin potrivirea datelor experimentale la un model liniar, fie prin alte metode. În cea de-a doua abordare (ii), efectele nesemnificative şi fenomenele situate în afara domeniului de frecvenţe de interes sunt neglijate conducând la un model al procesului mai simplu şi de ordin mai scăzut. Pentru detalii privind tehnicile de aproximare şi reducere a ordinului modelelor folosind metoda perturbaţiilor singuare se poate consulta [[11]. În general, modelarea implic ă o bună înţelegere a instala ţiei de automatizat, a funcţionarii acesteia şi a cerin ţelor de performanţă impuse şi poate reclama o anumită experienţă a inginerului automatist. Etapa a 2-a . Proiectarea algoritmului de conducere
Odată ce dispunem de un model al procesului se poate trece la etapa proiectării sistemului de conducere. Controllerul se proiecteaz ă pe baza acestui model astfel încât sistemul de conducere (în circuit închis) s ă satisfacă performanţele impuse. Dac ă modelul reprezintă o bună aproximare a procesului, atunci putem spera c ă performanţele controllerului, respectiv ale sistemului de conducere, proiectat pe baza modelului procesului, ar putea fi apropiate de performanţele sistemului ob ţinute când acela şi controller se aplic ă procesului real. Deoarece modelul reprezintă întotdeauna o aproximare a procesului real, efectul oricărei discrepanţe între proces şi model asupra performanţelor controllerului nu va fi cunoscut decât după implementarea şi testarea controllerului direct pe instala ţia reală (etapa a 3-a). Din aceast ă cauză, se poate introduce o etap ă intermediar ă în care performanţele controllerului proiectat pentru un anumit model al procesului se pot analiza utilizând acela şi model la care se include îns ă o clasă de incertitudini ale modelului procesului notate cu Δ în Fig. 1.2. Dacă Δ conţine majoritatea fenomenelor nemodelate ale procesului, reprezentarea sa prin ecua ţii matematice nu este posibil ă. Dar, în multe aplica ţii, caracterizarea sa prin anumite limite cunoscute poate fi posibil ă. Prin considerarea existen ţei unei clase generale de incertitudini Δ, care ar putea fi prezente în proces, proiectantul poate modifica sau reproiecta controllerul astfel încât acesta s ă fie mai pu ţin senzitiv la incertitudini, adic ă să fie mai robust în raport cu incetitudinea Δ. Această analiză a robusteţii precum şi reproiectarea controllerului îmbun ătăţesc potenţialul pentru o implementare practică de succes (Etapa a 3-a).
1-3
Etapa a 3-a . Implementarea
În acestă etapă, un controller proiectat în etapa a 2-a, care satisface performanţele impuse pentru modelul procesului şi este robust în raport cu posibilele incertitudini de modelare Δ, este “gata” pentru a fi utilizat pentru conducerea procesului real (incomplet cunoscut). Implementarea poate fi realizat ă utilizând un calculator numeric, chiar dac ă în anumite aplica ţii pot fi folosite şi regulatoare analogice. Indiferent de tipul calculatorului utilizat, tipul interfe ţei între calculator şi proces, software-ul corespunzător etc. trebuie s ă fie alese a priori. Viteza de calcul şi acurateţea pot constitui restric ţii asupra complexităţii controllerului, care îl pot determina pe proiectant s ă se reîntoarcă la etapa a 2-a sau chiar la pasul (etapa) 1 pentru a ob ţine un controller mai simplu f ăr ă a afecta însă performanţele impuse. Un alt aspect important al implement ării este ajustarea final ă a parametrilor numită adesea acordare a controllerului pentru îmbunătăţirea performanţelor de compensare a incertitudinilor de modelare, care nu au fost rejectate prin procesul de proiectare. Acordarea se face de regulă prin încercări şi depinde foarte mult de experienţa şi intuiţia proiectantului. În acest curs ne vom concentra aten ţia pe etapa a 2-a. Ne vom ocupa de proiectarea algoritmilor de conducere pentru o clasă de modele descrise prin ecuaţii diferenţiale linare de forma: x& = Ax + Bu ; x(0) = x0 (1.1.1) T y = C x + Du În (1.1.1), x ∈ ℜn este starea modelului, u ∈ ℜr este intrarea procesului, iar y ∈ ℜl este ieşirea modelului procesului. Matricele A ∈ ℜ n× n , B ∈ ℜ n× r , C ∈ ℜ n×l l × r pot fi constante sau variabile în timp. Aceast ă clasă de modele este şi D ∈ ℜ destul de general ă deoarece ea poate servi şi ca un aproximant al proceselor neliniare în jurul punctelor de func ţ ionare. Este de aşteptat ca un controller proiectat pe baza modelului liniar (1.1.1) să fie mai simplu şi mai uşor de înţeles
decât un controller proiectat pe baza unui model mai complicat (exact), dar neliniar. Mai mult, clasa modelelor descrise prin (1.1.1) poate fi generalizat ă, dacă se consider ă că elementele matricelor A, B sau C sunt fie complet necunoscute, fie se modifică în timp sau cu schimbarea condiţiilor de funcţionare. Conducerea proceselor descrise prin modelele (1.1.1) cu A, B, C şi D par ţial cunoscute sau necunoscute este inclusă în domeniul sistemelor adaptive şi constituie subiectul pricipal al acestui curs. 1.2. Controlul adaptiv
Corespunzător dicţionarului Webster, a adapta înseamn ă "a se schimba (pe sine) astfel încât comportarea sa s ă fie în concordanţă cu noile circumstanţe sau cu circumstanţele modificate". Cuvintele "sisteme adaptive" şi "control adaptiv" au fost utilizate înainte de anul 1950 [2, 3]. 1-4
Unul din motivele ini ţiale care au determinat cercet ări active asupra controlului adaptiv, înainte de 1950, l-a constituit proiectarea autopilo ţilor pentru aparate de zbor de înalt ă performanţă. Aparatele de zbor funcţionează într-un domeniu larg de viteze şi altitudini, iar dinamicile lor sunt neliniare şi variabile în timp. Totu şi, pentru un punct de funcţionare dat, precizat prin viteza aparatului (num ărul Mach) şi altitudinea sa, dinamica complexă a aparatului poate fi aproximat ă printr-un model liniar de forma (1.1.1). De exemplu, pentru un punct de funcţionare i, modelul liniar al aparatului are următoarea formă [4]: x& = Ai x + Bi u ; x(0) = x0 y =
C iT x
(1.2.1)
+ Di u
unde Ai, Bi, C i şi Di corespund punctului de funcţionare i. Cum, aparatul trece prin diferite condiţii de zbor, punctele de funcţionare se schimbă conducând la diferite valori pentru Ai, Bi, C i şi Di. Deoarece r ăspunsul y(t ) conţine informaţie despre starea x, precum şi despre parametrii aparatului, se poate argumenta c ă, în principiu, un controller cu reacţie (după stare sau ieşire) ar putea fi capabil s ă sesizeze schimbarea parametrilor procesului prin procesarea r ăspunsului y(t ) şi să folosească factori de amplificare corespunzători pentru a se adapta la varia ţiile acestora. Acestă argumentaţie conduce la o structur ă de conducere cu reacţie pe care se bazează controlul adaptiv. Structura sistemului adaptiv constă dintr-o buclă de reacţie şi un controller cu factori de aplificare ajustabili, reprezentat ă în Fig. 1.3. Procedeul de schimbare a factorilor de amplificare, ca r ăspuns la schimbările din dinamica instalaţiei şi a perturbaţiilor, face distincţia dintre o schemă şi o alta.
Intrare de referinţă
Controller
u
Proces
y
P
C
Strategia pentru ajustarea factorilor de amplificare
u(t ) y(t )
Fig.1.3. Structura controllerului cu factori de amplificare variabili 1.2.1. Controlul robust
Controlul robust presupune proiectarea unui controller cu amplificare constantă, care să facă faţă schimbării parametrilor procesului, cu condi ţia ca aceste schimbări să r ămână în interiorul unor anumite limite. O schem ă bloc a unui astfel de controller este prezentat ă în Fig. 1.4, unde G( s) este funcţia de transfer a procesului, iar C ( s) este funcţia de transfer a controllerului. 1-5
y*
+
Σ
_
u
C ( s)
Proces G( s)
y
Fig.1.4. Controller cu factor de amplificare constant
Funcţia de transfer de la y* la y este: y y
*
=
C ( s )G ( s )
(1.2.2)
1 + C ( s )G ( s)
unde C ( s) trebuie aleasă astfel încât sistemul în circuit închis este s ă fie stabil, în pofida schimbării parametrilor sau incertitudinilor în G( s), şi y ≈ y * în domeniul frecvenţelor de interes. Această ultimă condiţie poate fi realizat ă dacă C ( s) se alege astfel încât factorul de aplificare al buclei |C ( jω)G( jω)| este cât mai mare posibil, în spectrul de frecvenţă a lui y*, cu condiţia ca acest ă valoare a factorului de amplificare să nu afecteze cerin ţele de stabilitate în circuit închis. Obiectivele de urmărire şi stabilitate pot fi realizate prin proiectarea lui C ( s) cu condiţia ca schimbările din G( s) să se situeze între anumite limite. Mai multe detalii despre controlul robust vor fi prezentate într-un capitol viitor. Un sistem de conducere robust nu este considerat un sistem adaptiv, chiar dacă acesta poate trata anumite clase de incertitudini parametrice şi dinamice. 1.2.2. Planificarea amplificării (Gain Scheduling)
Se consider ă modelul aparatului de zbor (1.2.1) unde, pentru fiecare punct de funcţionare i, i = 1, 2, ..., N , parametrii Ai, Bi, C i şi Di se consider ă a fi cunoscuţi. Pentru fiecare astfel de punct de funcţionare i, considerând modelul liniar corespunzător, din condiţiile de satisfacere a performan ţelor impuse, se poate proiecta un controller cu factorul de amplificare constant, θi . Se obţine astfel un controller, C (θ), care conţine un set de factori de amplificare {θ1 , θ2 ,K, θi ,K, θ N } corespunzători celor N puncte de funcţionare. În timpul func ţionării, atunci când este detectat un punct de funcţionare i, amplificarea controllerului se poate schimba la valoarea corespunzătoare a lui θi , valoare obţinută dintr-un set de factori de amplificare precalculaţi. Tranziţiile dintre diferitele puncte de func ţionare, care conduc la schimbări semnificative ale parametrilor, pot fi rezolvate prin interpolare sau prin creşterea numărului de puncte de funcţionare. Pentru implementarea metodei Gain Scheduling sunt esenţiale două elemente: (i) un tabel predefinit în care se memorează valorile lui θi şi (ii) măsur ătorile auxiliare din proces corelate cu schimbările corespunzătoare punctelor de func ţionare. Această abordare se numeşte planificare a amplifică rii ( gain scheduling ) şi este ilustrată în Fig. 1.5. Planificatorul amplificării (gain scheduler) const ă într-un tabel predefinit cu factori de amplificare, o logic ă corespunzătoare pentru detectarea punctului de 1-6
funcţionare şi alegerea din tabel a valorii corespunz ătoare a lui θi . În cazul aparatelor de zbor, măsur ătorile auxiliare sunt numărul Mach şi presiunea dinamică. Cu această abordare, variaţiile parametrilor procesului pot fi compensate prin schimbarea amplific ării controllerului în func ţie de măsur ătorile auxiliare.
θi Program sau semnal de referinţă
Controller C (θ)
Gain Scheduling u
Poces
Măsur ători auxiliare y
Fig.1.5. Schema Gain scheduling
Avantajul planificării amplificării constă în aceea că amplificările controllerului pot fi schimbate cu aceea şi viteză cu care măsur ătorile auxiliare r ăspund la modificările valorilor parametrilor. Totu şi, schimbări frevente şi rapide ale amplific ărilor controllerului pot conduce la instabilitate [5]; de aceea, există o limită a cât de lent (obi şnuit) sau cât de rapid pot fi schimbate amplific ările controllerului. Unul din dezavantajele metodei gain scheduling const ă în faptul că în mecanismul de ajustare, amplificările sunt precalculate off-line şi, de aceea, nu furnizează informaţie (reacţie) pentru a compensa programele incorecte. Schimbările neprevăzute în dinamica procesului pot conduce la deteriorarea performan ţelor sau chiar la avarie. Un alt posibil dezavantaj al gain scheduling constă în costurile mari de proiectare şi implementare care cresc cu numărul de puncte de func ţionare. În pofida limitărilor sale, gain scheduling este o metod ă popular ă pentru tratarea variaţiei parametrilor în controlul zborului [4, 6] şi a altor sisteme [7]. 1.2.3. Controlul adaptiv direct şi indirect
Un controller adaptiv se obţine prin combinarea unui estimator on-line al parametrilor , care furnizează estimări ale parametrilor necunoscuţi la fiecare moment de timp t , cu o lege de comand ă, calculată pentru cazul parametrilor cunoscuţi ai procesului. Modul în care estimatorul parametrilor, referit de multe ori şi lege adaptivă , se combină cu legea de comandă, dă naştere la două abordări diferite. În prima abordare, denumit ă control adaptiv indirect, mai întâi parametrii procesului sunt estimaţi on-line şi apoi sunt folosi ţi în calcularea parametrilor controllerului. Această abordare a fost de asemenea referit ă şi sub denumirea de control adaptiv explicit , deoarece proiectarea se bazează pe un model explicit al procesului. În cea de-a doua abordare, denumită control adaptiv direct , modelul procesului este parametrizat în funcţie de parametrii controllerului, care sunt 1-7
estimaţi direct, f ăr ă alte calcule intermediare, care să implice estimarea parametrilor procesului. Această abordare este de asemenea referită şi prin control adaptiv implicit , deoarece proiectarea se bazeaz ă pe estimarea unui model implicit al procesului. În controlul adaptiv indirect, modelul procesului P (θ*) este parametrizat în raport cu elementele vectorului parametrilor necunoscu ţi θ*. De exemplu, pentru un model liniar invariant în timp (LTI-Linear Time Invariant) cu o singur ă intrare şi o singur ă ieşire (Single-Input Single-Output (SISO)), θ* poate reprezenta coeficien ţii necunoscuţi ai număr ătorului şi numitorului funcţiei de transfer a modelului. Prin prelucrarea intr ării procesului u şi a ieşirii y, un estimator on-line al parametrilor genereaz ă, la fiecare moment t , o estimare θ(t ) a lui θ*. Parametrul estimat θ(t ) ˆ (θ(t )) . În procesul de precizează un model estimat al procesului descris prin P ˆ (θ(t ))este considerat drept model "adev ărat" şi este folosit proiectare a comenzii, P pentru calcularea parametrilor controllerului sau a vectorului de amplificare θc(t ) prin rezolvarea, la fiecare moment t , a unei anumite ecuaţii algebrice θc(t ) = F (θ(t )). Forma legii de comand ă C (θc) şi ecuaţia algebrică θc = F (θ) sunt alese astfel încât s ă fie identice cu cea a legii de comand ă C (θ*c ) şi respectiv a ecuaţiei θ*c = F (θ* ) , care ar fi fost utilizate pentru satisfacerea cerin ţelor de performanţă corespunzătoare modelului P (θ*), în situaţia în care θ* ar fi fost considerat cunoscut. Este clar că, în această abordare, C (θc(t )) se proiectează astfel încât, la ˆ (θ(t )) - care poate diferi de modelul fiecare moment t , pentru modelul estimat P necunoscut P (θ*) - sistemul în circuit închis s ă satisfacă performanţele impuse. De aceea, principala problemă în controlul adaptiv indirect constă în alegerea clasei de legi de comandă C (θc) şi a clasei de estimatoare ale parametrilor, care s ă genereze θ(t ), precum şi a ecuaţiei algebrice θc(t ) = F (θ(t )), astfel încât C (θc(t )) să satisfacă cerinţele de performanţă pentru modelul P (θ*) cu θ* necunoscut. Această problemă va fi studiată în detaliu în Cap. 4, iar proprietăţile de robusteţe în controlul adaptiv indirect vor fi considerate în Cap. 5. Schema bloc a unui sistem de control adaptiv indirect este prezentat ă în Fig. 1.6.
r - Intrare
de referinţă
Controller C (θc)
u
Proces P (θ∗) Estimarea on-line a parametrului θ*
θc
θ(t ) Calcule θc(t ) = F (θ(t ))
Fig.1.6. Controlul adaptiv indirect 1-8
y
r
În control adaptiv direct , modelul procesului P (θ*) este parametrizat în func ţie de vectorul parametrilor necunoscuţi θ*c ai controllerului, pentru care C ( θ*c ) satisface cerin ţele de performanţă pentru a obţine modelul P c( θ*c ) cu acelea şi caracteristici de intrare/ie şire ca şi P (θ*). În loc de a utiliza P (θ*), estimatorul on-line al parametrilor se proiecteaz ă pe baza lui P c( θ*c ), sarcina sa fiind de a furniza direct, la fiecare moment de timp t , prin prelucrarea intr ării u şi ie şirii y, estimările θc(t ) ale lui θ*c . Pentru actualizarea vectorului θc al parametrilor controllerului va fi folosită estimarea θc(t ), f ăr ă alte calcule intermediare. Alegerea clasei legilor de comand ă C (θc) şi a estimatoarelor parametrilor, care să genereze θc(t ) pentru care C (θc(t )) satisface cerin ţele de performanţă pentru modelul P (θ*), constituie problema fundamental ă în controlul adaptiv direct. Proprietăţile modelului P (θ*) sunt esenţiale în obţinerea modelului parametrizat P c( θ*c ) - convenabil în estimarea on-line. Drept urmare, controlul adaptiv direct este restric ţionat la o anumită clasă de modele ale procesului. A şa cum se va ar ăta în Cap. 5, o clasă de modele convenabilă pentru controlul adaptiv direct o constituie clasa modelelor SISO-LTI cu minim de faz ă, adică, cu zerourile plasate în Re[ s] < 0. Schema bloc a unui sistem de control adaptiv direct este prezentată în Fig 1.7.
r - Intrare
de referinţă
Controller C (θc)
u
Proces P (θ* ) → P c (θ*c ) Estimarea on-line a parametrului θ*c
θc
y
r
Fig.1.7. Controlul adaptiv direct
Principiul din spatele proiectării schemelor de control adaptiv direct şi indirect, prezentate în Fig. 1.6 şi 1.7 este, conceptual, simplu. Proiectarea lui C (θc) consider ă estimările θc(t ) (în cazul controlului adaptiv direct) sau estim ările θ(t ) (în cazul controlului adaptiv indirect) ca şi când acestea ar fi parametrii adev ăraţi. Această abordare a proiectării se numeşte echivalen ţă cert ă (certainty equivalence) şi poate fi utilizat ă pentru a genera o clasă largă de scheme de control adaptiv prin combinarea diferitelor estimatoare on-line ale parametrilor cu diferite legi de comandă. Ideea din spatele echivalen ţ ei certe constă în aceea c ă estimările parametrilor θc(t ) şi θ(t ) converg către valorile lor adev ărate θ*c , respectiv θ*, performanţa 1-9
controllerului adaptiv C (θc) tinde către aceea realizat ă de C ( θ*c ) în cazul parametrilor cunoscuţi. Pentru majoritatea cititorilor, distinc ţia între controlul adaptiv direct şi indirect poate fi confuză din următoarele motive: Structura controlului adaptiv direct prezentată în Fig. 1.7 poate fi f ăcută identică cu cea a controlului adaptiv indirect prin includerea unui bloc pentru efectuarea calculelor cu o transformare identitate între parametrii actualiza ţi şi parametrii controllerului ( θc (t ) = F (θ(t )) = θc (t ) ). În general, pentru un anumit model, distincţia dintre abordarea direct ă şi cea indirectă devine clar ă numai dacă se intr ă în detalii de proiectare şi analiză. De exemplu, pentru un proces cu minim de fază, se poate ar ăta că metoda de control adaptiv direct poate satisface cerin ţe de performanţă, care implică stabilitatea şi urmărirea asimptotică. Nu este înc ă clar cum se proiecteaz ă scheme directe pentru procese f ăr ă minim de fază. Dificultatea apare din faptul c ă, în general, o parameterizare convenabilă (în scopul estimării) a modelului procesului în funcţie de parametrii deferiţi ai controllerului nu este posibil ă pentru modele f ăr ă minim de fază. Pe de altă parte, controlul adaptiv indirect, este aplicabil atât proceselor cu minim de fază, cât şi f ăr ă minim de fază. Cu toate acestea, nu se poate garanta c ă Δ
legătura dintre θ(t ) şi θc(t ), definită prin ecuaţia algebrică θc (t ) = F (θ(t )) , există la fiecare moment t , determininând aşa-numita problemă a stabilizabiliz ă rii, care va fi discutată în Cap. 5. Aşa cum vom ar ăta în Cap. 5, soluţii ale problemei de stabilizabilitate vor fi posibile cu pre ţul unei complexităţi suplimentare. O serie de eforturi pentru a relaxa ipoteza de minim de faz ă în controlul adaptiv direct şi a rezolva problema de stabilizabilitate în controlul adaptiv indirect conduc la scheme de control adaptiv unde atât parametrii controllerului cât şi cei ai procesului sunt estimaţi on-line, obţinând scheme combinate direct/indirect, care de regulă sunt mult mai complexe [8]. 1.2.4. Controlul adaptiv cu model de referin ţă
Controlul adaptiv cu model de referin ţă (MRAC-Model Reference Adaptive Control) derivă din problema urmăririi modelului sau problema controlului cu model de referinţă (MRC-Model Reference Control). În MRC, o bun ă înţelegere a procesului şi a cerinţelor de performanţă trebuie să-i permită proiectantului să formuleze (propună) un model numit model de referin ţă , care să descrie proprietăţile I/O dorite ale sistemului în circuit închis. Obiectivul MRC constă în a găsi o lege de comandă cu reacţie care să schimbe structura şi dinamica sistemului (în circuit închis) astfel încât propriet ăţile sale I/O să fie identice cu cele ale modelului de referin ţă. Structura unui MRC corespunzătoare unui proces SISO-LTI, este reprezentată în Fig. 1.8. Funcţia de transfer a modelului de referinţă W m( s) este aleas ă astfel încât pentru un semnal de referinţă r (t ), ieşirea ym(t ) a modelului de referin ţă să reprezinte r ăspunsul dorit pe care ar trebui s ă-l urmărească ieşirea y(t ) a procesului. Controllerul, notat prin C ( θ*c ), este proiectat astfel încât toate semnalele s ă fie mărginite şi funcţia de 1-10
transfer a sistemului în circuit închis de la r la y să fie egală cu W m( s). Această potrivire (ajustare) a funcţiei de transfer garantează că pentru orice referinţă r (t ), Δ
eroarea de urmă rire e1 = y − ym , care reprezintă diferenţa dintre ieşirea procesului şi traiectoria dorit ă ym, converge în timp la zero. Ajustarea funcţiei de transfer este obţinută prin compensarea zerourilor funcţiei de transfer a procesului G( s) şi înlocuirea acestora cu cele ale lui W m( s) prin intermediul controllerului (cu reacţie) C ( θ*c ). Compensarea zerourilor procesului impune ca procesul să fie cu minim de faz ă , adică , trebuie să aibă zerourile stabile. Dacă un zerou al procesului este instabil, compensarea sa poate s ă conducă la semnale nemărginite.
Proiectarea lui C ( θ*c ) impune cunoaşterea coeficienţilor funcţiei de transfer a procesului G( s). Dacă θ* este un vector care con ţine toţi coeficienţii lui G( s) = G( s,θ*), atunci vectorul parametru θ*c poate fi calculat prin rezolvarea unei ecua ţii algebrice de forma:
θ*c = F (θ* )
(1.2.3)
Este deci clar că, pentru atingerea obiectivului MRC, modelul procesului trebuie s ă fie cu minim de fază, iar vectorul parametrilor θ* trebuie să fie cunoscut cu exactitate. Model de referinţă
ym
W m( s)
_ e1
r
Controller C ( θ*c )
u
Proces G( s)
y
+
Fig.1.8. Schema de control cu model de referinţă
Când θ* este necunoscut, schema MRC din Fig. 1.8 nu poate fi implementat ă deoarece θ*c nu poate fi calculat utilizând (1.2.3) şi este deci necunoscut. O metod ă de a trata cazul parametrului necunoscut const ă în folosirea echivalen ţ ei certe, care ne permite înlocuirea în legea de comand ă a parametrului θ*c necunoscut cu estimarea sa θc(t ), obţinută utilizând abordarea directă sau indirectă. Schemele de control rezultate sunt cunoscute ca MRAC şi pot fi clasificate în MRAC indirect, prezentat în Fig. 1.9 şi MRAC direct, prezentat în Fig. 1.10. Alegeri diferite ale estimatoarelor on-line ale parametrilor conduc la o alt ă clasificare a MRAC. Aceste clasific ări, precum şi proprietăţile de stabilitate atât ale MRAC direct, cât şi indirect, vor fi studiate în detaliu în Cap. 5. Pentru proiectarea schemelor MRAC directe şi indirecte pot fi utilizate şi alte abordări similare abordării echivalenţei certe. Structura acestor scheme se ob ţine prin modificarea schemelor din Fig. 1.9 şi 1.10 şi vor fi studiate în Cap. 5. 1-11
Model de referinţă
ym
W m( s)
_ e1
r – Intrare
Controller C ( θ*c )
+
Proces G( s)
u
de referinţă
y
Estimarea on-line a parametrului θ*
θc
r
θ(t ) Calcule θc(t ) = F (θ(t )) Fig.1.9. MRAC indirect Model de referinţă
ym
W m( s)
_ e1
r – Intrare
Controller C ( θ*c )
de referinţă
θc
u
Proces P (θ* ) → P c (θ*c ) Estimarea on-line a parametrului θ*c
+ y
r
Fig.1.10. MRAC direct 1.2.5. Controlul adaptiv cu plasarea polilor
Controlul adaptiv cu plasarea polilor (APPC - Adaptive Pole Placement Control) este derivat din problema controlului cu plasarea polilor (PPC - Pole Placement Control) şi problema reglării utilizată în cazul proceselor LTI cu parametrii cunoscuţi. În PPC, cerinţele de performanţă se transpun în alegerea unor locaţii dorite ale polilor sistemului în circuit închis. Se dezvoltat ă apoi o lege de comandă cu reacţie, care plasează polii sistemului în circuit închis în locaţiile dorite. O structur ă tipică a unui PPC, pentru un proces SISO-LTI, este prezentată în Fig. 1.11. 1-12
r – Intrare
de referinţă
Controller C ( θ*c )
u
Proces G( s)
y
Fig.1.11. Controlul cu plasarea polilor
Structura controllerului C ( θ*c ) şi a vectorului parametru θ*c sunt alese astfel încât polii funcţiei de transfer a sistemului în circuit închis de la r la y să fie egali cu cei doriţi. Vectorul θ*c se calculează utilizând o ecuaţie algebrică de forma
θ*c = F (θ* )
(1.2.4)
unde θ* este un vector care con ţine coeficienţii funcţiei de transfer ai procesului G( s). Dacă θ* este cunoscut, atunci θ*c este calculat din (1.2.4) şi folosit în legea de comandă. Când θ* este necunoscut, θ*c este de asemenea necunoscut şi schema PPC din Fig. 1.11 nu poate fi implementat ă. Ca şi în cazul MRC, putem trata cazul parametrului necunoscut prin intermediul metodei echivalenţei certe, care ne permite înlocuirea vectorului necunoscut θ*c cu estimarea sa θc(t ). Schema astfel obţinută este denumită controlul adaptiv cu plasarea polilor (APPC). Dacă θc(t ) este actualizat direct printr-un estimator on-line al parametrilor, schema este referită prin APPC direct . Dacă θc(t ) este calculat prin intermediul ecua ţiei θc(t ) = F (θ(t )) (1.2.5) unde θ(t ) este estimarea lui θ* generată printr-un estimator on-line, schema este referită ca APPC indirect . Structura unui APPC direct şi respectiv indirect este aceeaşi cu cea prezentată în Fig. 1.6 şi respectiv 1.7 corespunzătoare cazului general. Proiectarea schemelor APPC este foarte flexibil ă în raport cu alegerea formei controllerului C (θc) şi a estimatorului on-line al parametrului. De exemplu, legea de comand ă poate fi bazată pe tehnica proiectării liniar pătratice, tehnici de proiectare în domeniul frecven ţă, sau orice altă metodă PPC utilizată în cazul în care parametrul se consider ă a fi cunoscut. Diverse combinaţii ale estimatoarelor on-line şi ale legilor de comand ă conduc la o clasă largă de scheme APPC care vor fi studiate în detaliu în Cap. 5. În literatura dedicată controlului adaptiv, schemele APPC sunt adesea referite ca regulatoare cu autoacordare ( self-tuning regulators) şi sunt distincte faţă de MRAC. Distincţia dintre APPC şi MRAC este mai mult istoric ă decât conceptuală, deoarece, aşa cum se va ar ăta în Cap. 5, MRAC poate fi considerat ca o clas ă specială a APPC. MRAC a fost ini ţial dezvoltat pentru procese continue în timp pentru urmărirea modelului, pe când APPC a fost ini ţial dezvoltat pentru procese discrete în timp în domeniu stochastic utilizând tehnici de minimizare. 1-13
1.2.6. Proiectarea on-line a estimatoarelor parametrilor
Aşa cum s-a menţionat în subcapitolele anterioare, un controller adaptiv poate fi considerat ca o combinaţie a unui estimator on-line al parametrilor necunoscu ţi cu o lege de control proiectat ă pentru cazul în care parametrii se consider ă cunoscuţi. Modul în care se face aceast ă combinare şi tipul estimatorului şi a legii de comandă utilizată dau naştere unei clase de controllere adaptive diferite, cu diferite proprietăţi. În literatura dedicat ă controlului adaptiv, estimatorul on-line al parameterului (parametrilor) a fost de obicei denumit lege de adaptare, lege de actualizare sau mecanism de ajustare. În acest curs, acesta va fi denumit lege de adaptare. Proiectarea legii de adaptare este crucial ă pentru proprietăţile de stabilitate ale controllerului adaptiv. A şa cum vom vedea în acest curs, legea de adaptare introduce o neliniaritate multiplicativ ă care face ca sistemul în circuit închis să fie neliniar şi de regulă variabil în timp. Din aceast ă cauză, analiza şi înţelegerea stabilit ăţii şi robusteţii schemelor de control adaptiv sunt mult mai interesante (provocatoare). Câteva dintre metodele de baz ă utilizate pentru proiectarea legilor adaptive sunt: (i) Metoda de senzitivitate; (ii) Metoda de pozitivitate şi proiectare Lyapunov; (iii) Metoda gradientului şi metode ale celor mai mici p ătrate bazate pe func ţia cost a erorii de estimare. Aceste metode vor fi utilizate în Cap. 4 şi 5 pentru proiectarea unor clase de legi de adaptare. Metoda senzitivit ăţii este una dintre cele mai vechi metode utilizate în proiectarea legilor de adaptare şi va fi prezentată pe scurt în acest paragraf. (i) Metoda de senzitivitate
Această metodă a devenit foarte popular ă în anii 1960 [9, 10] şi este înc ă folosită în multe aplicaţii industriale pentru conducerea proceselor cu incertitudini. În controlul adaptiv, metoda senzitivit ăţii este utilizat ă pentru proiectarea legii adaptive astfel încât parametrii estima ţi să fie ajustaţi într-o direcţie care s ă minimizeze o anumită funcţie cost (performanţă). Legea de adaptare este ob ţinută din derivata par ţială a funcţiei performanţă în raport cu parametrii estima ţi, multiplicată cu un semnal de eroare care caracterizeaz ă nepotrivirea (diferenţa) dintre comportarea actuală şi comportarea dorită. Această derivată este denumită func ţ ie de senzitivitate şi, dacă ea poate fi generat ă on-line, atunci legea adaptiv ă este implementabilă. În practică însă, în majoritatea cazurilor de control adaptiv, funcţia de senzitivitate nu poate fi generat ă on-line, şi acesta constituie unul din principalele dezavantaje ale metodei. Pentru implementarea metodei, se încercă folosirea funcţiilor de senzitivitate aproximative, care sunt implementabile, dar care conduc la scheme de control adaptiv ale c ăror proprietăţi de stabilitate sunt fie slabe, fie nu pot fi stabilite. Ca exemplu, consider ăm proiectarea unei legi adaptive pentru actualizarea vectorului parametru al controllerului θc din schema MRAC direct ă din Fig. 1.10. 1-14
Eroarea de urmărire e1 reprezintă diferenţa dintre ieşirea procesului y şi cea a modelului de referinţă ym, adică, e1 = y - ym. Deoarece, în regim staţionar, θc = θ*c are drept urmare e1 = 0, se poate considera că o valoare nenulă a lui e1 implică θc ≠ θ*c . Deoarece y depinde de θc, adică y = y(θc), se obţine că e1 = e1(θc) şi deci, o metodă de reducere a lui e1 la zero constă în a ajusta θc într-o direcţie care să minimizeze o anumită funcţie cost (performanţă) ce depinde de e1. O funcţie cost simplă ce depinde de e1 este funcţia pătratică: e12 (θc ) . (1.2.6) J (θc ) = 2 O metodă simplă pentru adjustarea lui θc care minimizează J (θc) este metoda celei mai rapide descre şteri sau metoda gradientului (vezi Anexa B) care furnizează legea de adaptare:
θ& c = − γ∇ J (θc ) = − γ e1∇e1 (θc )
(1.2.7)
unde T
⎡ ∂e ∂e ∂e ⎤ ∇e1 (θc ) = ⎢ 1 , 1 ,K, 1 ⎥ ∂θcn ⎦ ⎣ ∂θc1 ∂θc 2 este gradientul lui e1 în raport cu θc = [θc1 , θc 2 ,K, θcn ] T . Deoarece ∇e1 (θc ) = ∇ y (θc ) , se obţine Δ
θ& c = − γ∇ J (θc ) = −γ e1∇ y (θc )
(1.2.8)
(1.2.9)
unde γ > 0 este o constantă arbitrar ă de proiectare denumită factor de amplificare a legii de adaptare ( adaptive gain), iar ∂ y / ∂θci , i = 1, 2,K, n sunt funcţiile de senzitivitate ale lui y în raport cu elementele vectorului parametrilor controllerului θc. Funcţiile de senzitivitate ∂ y / ∂θci reprezintă senzitivitatea ie şirii procesului la schimbările parametrilor θc ai controllerului. În (1.2.7) vectorul parametrilor θc este ajustat în direc ţia celei mai rapide descreşteri a lui J (θc ) = e12 (θc ) / 2 . Dacă J (θc) este o funcţie convexă, atunci aceasta are un minim global care satisface ∇ y (θc ) = 0 , adică, în punctul de minim, θ& c = 0 şi adaptarea se opreşte. Implementarea lui (1.2.9) necesită generarea on-line a funcţiilor de senzitivitate ∇ y care, de regulă, depind de parametrii necunoscuţi ai procesului şi de aceea nu sunt disponibile. În aceste cazuri, în locul func ţiilor de senzitivitate actuale (reale) sunt folosite valorile lor aproximate. Pentru a calcula func ţiile de senzitivitate, o metod ă de aproximare necesită şi utilizeaz ă a priori o anumită informaţie despre parametrii procesului. O metod ă cunoscut ă pentru calculul func ţ iilor de senzitivitate aproximative este a şa-numita regul ă MIT . Cu aceast ă regulă, parametrii necunoscuţi, dar necesari în generarea func ţiilor de senzitivitate, sunt înlocui ţi cu estimările lor on-
1-15
line. În general, prin utilizarea func ţiilor de senzitivitate aproximative, nu este posibilă demonstrarea stabilităţii globale în circuit închis şi convergenţa la zero a erorii de urmărire. Totuşi, în simulări, s-a observat că regula MIT, dar şi alte tehnici de aproximare, lucrează bine când factorul de amplificare al legii de adaptare γ şi amplitudinea semnalului de referin ţă sunt mici. Pentru a confirma aceste observaţii şi a demonstra stabilitatea local ă a unei anumite clase de semnale de referinţă în [11] sunt utilizate tehnici de mediere. Cu toate acestea, global, schemele bazate pe regula MIT şi pe alte aproxim ări pot duce la instabilitate. Exemple de instabilitate sunt prezentate în [12, 13, 14]. Vom ilustra utilizarea regulii MIT pentru proiectarea unei scheme MRAC pentru procesul: && = − a1 y & − a2 y + u (1.2.10) y unde a1 şi a2 sunt parametrii necunoscuţi ai procesului, iar y& şi y sunt măsurabile. Modelul de referinţă ce urmează a fi urmărit de către sistemul în circuit închis este descris prin &&m = −2 y & m − y m + r (1.2.11) y Legea de comandă u = θ1* y& + θ*2 y + r
(1.2.12)
θ1* = a1 − 2 ; θ*2 = a2 − 1
(1.2.13)
unde va realiza urmărirea perfectă a modelului. Ecuaţia (1.2.13) se numeşte ecuaţie de ajustare (a parametrilor regulatorului). Deoarece a1 şi a2 sunt necunoscuţi, valorile dorite ale parametrilor controllerului θ1* şi θ*2 nu pot fi calculate din (1.2.13). De aceea, în locul lui (1.2.12) se utilizeaz ă legea de comandă: (1.2.14) u = θ1 y& + θ 2 y + r unde θ1 şi θ2 sunt ajustaţi utilizând regula MIT astfel: ∂ y & ∂ y , θ2 = − γ e1 θ& 1 = − γ e1 ∂ θ1 ∂ θ2
(1.2.15)
unde e1 = y - ym. Pentru a implementa (1.2.15), trebuie generate on-line func ţiile de senzitivitate ∂ y / ∂ θ1 , ∂ y / ∂ θ2 . Utilizând (1.2.10) şi (1.2.14) se obţine ∂ y&& ∂ y& ∂ y & ∂ y& ∂ y = −a1 − a2 + y + θ1 + θ2 (1.2.16) ∂ θ1 ∂ θ1 ∂ θ1 ∂ θ1 ∂ θ1 ∂ y&& ∂ y& ∂ y ∂ y& ∂ y (1.2.17) = −a1 − a2 + y + θ1 + θ2 ∂ θ2 ∂ θ2 ∂ θ2 ∂θ2 ∂θ2 1-16
Presupunând că viteza de adaptare este lent ă, adică, θ& 1 şi θ& 2 sunt mici, iar schimbările lui y&& şi y& în raport cu θ1 şi θ2 sunt de asemenea mici, putem interschimba ordinea de diferenţiere şi se obţine: d 2
∂ y ∂ y & d ∂ y ( ) ( ) = θ − + θ − + y a a 1 1 2 2 2 ∂ θ1 d t ∂ θ1 d t ∂ θ1 ∂ y d 2 ∂ y d ∂ y = ( θ − ) + ( θ − ) + y a a 1 1 2 2 ∂θ2 d t ∂ θ 2 d t 2 ∂ θ 2 care poate fi rescris ă sub forma ∂ y 1 = 2 y& ∂ θ1 p − (θ1 − a1 ) p − (θ2 − a2 ) 1 ∂ y y = 2 ∂ θ2 p − (θ1 − a1 ) p − (θ2 − a2 ) Δ
unde p (⋅) =
d d t
(1.2.18) (1.2.19)
(1.2.20) (1.2.21)
(⋅) este operatorul diferenţial.
Deoarece a1 şi a2 sunt necunoscuţi, funcţiilor de senzitivitate de mai sus nu pot fi utilizate. Folosind regula MIT, înlocuim în ecua ţia de ajustare (1.2.13) pe a1 şi a2 cu estimările lor aˆ1 şi aˆ 2 , adică, facem legătura între estimările aˆ1 şi aˆ 2 şi θ1 şi θ2 folosind aˆ1 = θ1 + 2 , aˆ 2
= θ2 + 1
(1.2.22)
şi obţinem funcţiile de senzitivitate aproximative:
∂ y 1 ∂ y 1 y& , y ≅ 2 ≅ 2 ∂ θ1 p + 2 p + 1 ∂ θ2 p + 2 p + 1
(1.2.23)
Ecuaţiile descrise prin (1.2.23) sunt cunoscute ca filtre sau modele de senzitivitate, şi pot fi uşor implementate pentru a genera func ţiile de senzitivitate aproximative pentru legea de adaptare (1.2.15). Aşa cum s-a ar ătat în [12, 11], schema MRAC bazat ă pe regula MIT este local stabilă cu condiţia ca amplificarea s ă fie mică, semnalul de referinţă să aibă o amplitudine mică şi un număr suficient de frecvenţe, iar condiţiile iniţiale θ1 (0) şi θ2 (0) sunt apropiate de θ1* , respectiv θ*2 . Pentru valori mari ale lui γ şi θ1 (0) şi θ2 (0) depărtate de θ1* şi θ*2 , regula MIT poate duce la instabilitate şi semnal r ăspuns nemărginit. Lipsa stabilit ăţii schemelor de control adaptiv bazate pe regula MIT a stimulat numeroşi cercetători să caute alte metode pentru proiectarea legilor adaptive. Aceste metode includ pozitivitatea şi tehnica Lyapunov precum şi metodele de gradient şi metodele bazate pe tehnica celor mai mici p ătrate, care la rândul lor sunt
1-17
bazate pe minimizarea unor criterii ale erorii de estimare. Aceste metode ce vor fi studiate în detaliu în Cap. 4 şi 8, sunt prezentate succint în cele ce urmeaz ă. (ii) Metoda de pozitivitate şi proiectare Lyapunov
Această metodă de dezvoltare a legilor adaptive este bazat ă pe metoda directă Lyapunov şi legătura sa cu funcţiile real-pozitive. În această abordare, problema proiectării unei legi adaptive este formulat ă ca o problemă de stabilitate, unde ecuaţia diferenţială a legii de adaptare este aleas ă astfel încât s ă fie satisf ăcute condiţiile de stabilitate cert ă bazate pe teoria Lyapunov. Legea adaptivă astfel dezvoltată este foarte asemănatoare celei bazate pe metoda senzitivităţiii. Singura diferenţă constă în aceea c ă funcţiile de senzitivitate din prima abordare sunt înlocuite cu alte func ţii care pot fi generate on-line. În plus, schemele de conducere adaptivă bazate pe tehnici Lyapunov nu au nici unul din neajunsurile (dezavantajele) schemelor bazate pe regula MIT. Proiectarea legilor adaptive utilizând metoda Lyapunov direct ă a fost sugerată de Grayson [15], Parks [13] şi Shackcloth şi Butchart [14] înainte de anul 1960. Ulterior, metoda a fost dezvoltată şi generalizată la o clasă largă de procese de către Phillipson [16], Monopoli [17], Narendra [18] ş.a. O parte însemnată din Cap. 4 şi 6 vor fi dedicate dezvoltării legilor adaptive folosind abordarea Lyapunov. (iii) Metode de gradient şi metode ale celor mai mici p ătrate bazate pe funcţia cost a erorii de estimare
Principalul neajuns al metodelor de senzitivitate folosite în anii 1960 const ă în aceea că minimizarea funcţiei cost conduce la funcţii de senzitivitate care nu sunt implementabile. O cale de a evita acest neajuns const ă în alegerea unei funcţii criteriu care să conducă la funcţii de senzitivitate care depind de semnale ce sunt disponibile (pot fi măsurate). O clasă de astfel de funcţii cost se bazeaz ă pe aşanumita eroarea de estimare, care furnizează o măsur ă a diferenţei dintre parametrii estimaţi şi cei actuali. Leg ătura erorii de estimare cu parametrii estima ţi este aleas ă astfel încât funcţia cost să fie convexă, iar gradientul s ău în raport cu parametrii estimaţi să fie implementabil. Pentru a genera funcţii de senzitivitate corespunz ătoare pot fi utilizate numeroase funcţii cost şi pot fi adoptate o serie de metode cum ar fi metodele de gradient şi metode ale celor mai mici p ătrate. Ca exemplu, vom proiecta legea adaptiv ă pentru schema MRAC direct (1.2.14) pentru procesul (1.2.10). Mai întâi rescriem ecua ţia procesului în funcţie de parametrii doriţi ai controllerului daţi prin (1.2.13), adică, vom substitui a1 = 2 + θ1* , a2 = 1 + θ*2 în (1.2.10) rezultând * * && = −2 y & − y − θ1 y & − θ 2 y + u y
(1.2.24)
care poate fi rescris ă ca 1-18
y = θ1* y& f + θ*2 y f + u f
(1.2.25)
unde 1 1 1 & , y f = − y , u = u (1.2.26) y f s 2 + 2 s + 1 s 2 + 2 s + 1 s 2 + 2 s + 1 sunt semnale ce pot fi generate prin filtrare. Dacă acum în ecuaţia (1.2.25) înlocuim θ1* şi θ*2 cu estimările lor θ1 şi θ2 , vom obţine: (1.2.27) yˆ =θ1 y& f + θ 2 y f + u f y& f
=−
unde yˆ este „estimarea” lui y bazată pe estimările θ1 şi θ2 ale lui θ1* şi θ*2 . De aceea, eroarea Δ
ε1 = y − yˆ = y − θ1 y& f − θ2 y f − u f
(1.2.28)
este o măsur ă a diferenţei dintre θ1 , θ2 şi θ1* , θ*2 pe care o vom numi eroare de estimare. Acum, estimările θ1 şi θ2 pot fi ajustate într-o direcţie care s ă minimizeze o anumită funcţie criteriu care implic ă ε1. Un astfel de criteriu este ε12 1 = ( y − θ1 y& f − θ2 y f − u f )2 (1.2.29) J (θ1 , θ 2 ) = 2 2 care urmează a fi minimizat în raport cu θ1 , θ2 . Este clar că J (θ1 , θ2 ) este o funcţie convexă de θ1 , θ2 şi ca urmare, minimul este dat de ∇ J = 0 . Dacă acum utilizăm metoda gradientului pentru a minimiza J (θ1 , θ2 ) , vom obţine următoarele legi de adaptare: ∂ J ∂ J θ& 1 = − γ1 = γ1ε1 y& f , θ& 2 = − γ 2 = γ 2ε1 y f (1.2.30) ∂ θ1 ∂ θ2 unde γ1 , γ 2 > 0 sunt factori de amplificare, iar ε1 , y& f , y f sunt toate semnale implementabile. În locul lui (1.2.29), pentru ε1 se poate utiliza o funcţie cost diferită şi o metodă de minimizare diferită obţinând o clasă largă de legi adaptive. În Cap. 4, 5, 6 vom examina proprietăţile de stabilitate ale unei largi clase de scheme de control adaptiv bazate pe folosirea unui funcţii criteriu a erorii de estimare şi metode de gradient şi ale celor mai mici p ătrate din tehnicile de optimizare. Bibliografie
1. Kokotovic, P.V., H.K. Khalil and J. O'Reilly, Singular Perturbation Methods in Control: Analysis and Design , Academic Press, New York, 1986. 2. Aseltine, J.A., A.R. Mancini and C.W. Sartune, A Survey of AdaptiveControl Systems, IRE Transactions on Automatic Control , Vol. 3, no. 6, pp. 102-108, 1958. 3. Caldwell, W.I., Control System with Automatic Response Adjustment . American patent, 2,517,081. Filed 25, April 1947, 1950. 1-19
4. McRuer, D., I. Ashkenas and D. Graham, Aircraft Dynamics and Automatic Control , Princeton University Press, Princeton, New Jersey, 1973. 5. Tsakalis, K.S. and P.A. Ioannou, Linear Time Varying Systems: Control and Adaptation, Prentice Hall, Englewood Cliffs, New Jersey, 1993. 6. Stein, G., Adaptive Flight Control - A Pragmatic View, in K.S. Narendra and R.V. Monopoli (Eds.), Applications of Adaptive Control , Academic Press, New York, 1980. 7. Andreiev, N., A Process Controller that Adapts to Signal and Process Conditions, Control Engineering , Vol. 38, 1977. 8. Kreisselmeier, G., An indirect adaptive controller with a self-excitation capability, IEEE Transactions on Automatic Control , Vol. 34, no. 5, pp. 524-528, 1989. 9. Cruz, Jr, J.B. System Sensitivity Analysis, Dowden, Hutchinson & Ross Inc., Stroudsburg, Pennsylvania, 1973. 10. Kokotovic, P.V. Method of Sensitivity Points in the Investigation and Optimization of Linear Control Systems, Automation and Remote Control , Vol. 25, pp. 1512-1518, 1964. 11. Mareels, I.M.Y., B.D.O. Anderson, R.R. Bitmead, M. Bodson, and S.S.Sastry, Revisiting the MIT Rule for Adaptive Control, Proceedings of the 2nd IFAC Workshop on Adaptive Systems in Control and Signal Processing , Lund, Sweden, 1986. 12. James, D.J., Stability of a Model Reference Control System, AIAA Journal , Vol. 9, no. 5, 1971. 13. Parks, P.C. Lyapunov Redesign of Model Reference Adaptive Control Systems, IEEE Transactions on Automatic Control , Vol. 11, pp. 362-367, 1966. 14. Shackcloth, B. and R.L. Butchart, Synthesis of Model Reference Adaptive Systems by Lyapunov's Second Method, Proc. of the 2nd IFAC Symposium on the Theory of Self Adaptive Control Systems , Teddington, England, 1965. 15. Grayson, L.P., Design via Lyapunov's Second Method, Proceedings of the 4th JACC , Minneapolis, Minnesota, 1963. 16. Phillipson, P.H., Design Methods for Model Reference Adaptive Systems, Proc. Inst. Mech. Engrs., Vol. 183, no. 35, pp. 695-700, 1969. 17. Monopoli, R.V., Lyapunov's Method for Adaptive Control Design, IEEE Transactions on Automatic Control , Vol. 12, no. 3, pp. 334-335, 1967. 18. Narendra, K.S. and A.M. Annaswamy, Stable Adaptive Systems, Prentice Hall, Englewood Cliffs, New Jersey, 1989.
1-20
Cap. 2 Modele pentru sisteme dinamice 2.1. Introducere
În acest capitol prezentăm o scurtă descriere a diferitelor modele şi parametrizări ale sistemelor liniare invariante în timp (LTI-Linear Time Invariant). Accentul se pune pe acele idei care sunt utile în studiul problemelor de identificare a parametrilor şi de control adaptiv ce vor fi prezentate în capitolele viitoare. Pentru început, vom prezenta pe scurt câteva modele canonice de stare pentru sistemele LTI, precum şi caracteristicile lor. În continuare, pentru aceea şi clasă de sisteme, vom studia descrierile I/O utilizând func ţia de transfer şi operatorii diferenţiali. Vom defini func ţ ia de transfer ca raportul a două polinoame şi vom prezenta câteva proprietăţi de bază ale polinoamelor folosite în proiectarea controlului şi modelarea sistemelor. Aceste modele parametrice ce vor fi prezentate, precum propriet ăţile lor sunt esenţiale în problemele de identificare a parametrilor şi control adaptiv ce vor fi prezentate în capitolele viitoare. Scopul acestui capitol nu este acela de a da o descriere complet ă a tuturor aspectelor legate de modelarea şi reprezentarea sistemelor LTI, ci mai degrab ă de a prezenta un rezumat al acelor idei care vor fi utilizate în capitolele următoare. Pentru detalii privind modelarea şi proprietăţile sistemelor liniare, se recomand ă următoarele căr ţi standard începând cu cele elementare [44, 57, 121, 180] şi continuând cu cele avansate [30, 42, 95, 237, 238]. 2.2. Modele în spaţiul stărilor 2.2.1. Descriere generală
O serie de sisteme sunt descrise prinr-un set de ecua ţii diferenţiale de forma: x& (t ) = f ( x (t ), u (t ), t ), x(t 0 ) = x 0 (2.2.1) y (t ) = g ( x(t ), u (t ), t ) unde t este variabila timp, x(t ) este un vector n-dimensional cu elemente reale care reprezintă starea sistemului, u(t ) este un vector r -dimensional cu elemente reale care reprezintă intrarea sau comanda sistemului, y(t ) este un vector l -dimensional cu elemente reale care reprezint ă variabilele de ie şire şi care pot fi m ăsurate, f şi g sunt funcţii vectoriale de variabile vectoriale reale, n este dimensiunea stării x denumită şi ordin al sistemului, x(t 0) reprezintă valoarea lui x(t ) la momentul iniţial t = t 0 ≥ 0. Când f şi g sunt funcţii liniare de x şi u, (2.2.1) ia forma: 2-1
x& = A(t ) x + B(t )u , x(t 0 ) = x 0 y = C T (t ) x + D(t )u
(2.2.2)
unde A(t ) ∈ ℜ n×n , B(t ) ∈ ℜ n×r , C (t ) ∈ ℜ n×l şi D(t ) ∈ ℜ l ×r sunt matrice cu elemente variante în timp. Dacă în plus, f şi g nu depind de timpul t , se obţine x& = A x + B u , x (t 0 ) = x 0 (2.2.3) T y = C x + D u unde A, B, C şi D sunt matrice având aceleaşi dimensiuni ca cele din (2.2.2) dar cu elemente constante. Sistemul (2.2.2) va fi referit ca sistem liniar finit-dimensional variabil în timp (LTV-Linear Time-Varying), iar (2.2.3) ca sistem LTI finit dimensional. Solu ţia x(t ), y(t ) a sistemului (2.2.2) este dată de x(t ) = Φ (t , t 0 ) x(t 0 ) +
t
∫ Φ(t , τ) B(τ)u(τ)d τ t 0
(2.2.4)
y (t ) = C (t ) x(t ) + D(t )u (t ) T
unde Φ(t ,t 0 ) este matricea de tranziţie definită ca o matrice care satisface ecuaţia liniar ă matriceal ă omogenă: ∂ Φ(t , t 0 ) = A(t )Φ(t , t 0 ), Φ(t 0 , t 0 ) = I ∂t Pentru sistemul LTI (2.2.3), Φ(t ,t 0 ) depinde numai de diferenţa t-t 0, adică,
Φ(t , t 0 ) = Φ(t − t 0 ) = e A(t − t 0 ) iar soluţia x(t ), y(t ) a lui (2.2.3) este dat ă de A( t − t 0 )
x(t ) = e
x (t 0 ) +
t A( t − τ )
∫ e t 0
Bu (τ) d τ
(2.2.5)
y (t ) = C T x(t ) + Du (t )
unde e At poate fi calculată cu e At = L --1 {( sI − A) −1} , unde L-1 reprezintă transformarea Laplace inversă, iar s este variabila Laplace. Uzual, matricea D din (2.2.2), (2.2.3) este zero, deoarece în majoritatea sistemelor fizice nu există o conexiune directă între intr ări şi ieşiri. În acest curs, ne vom concentra în principal asupra sistemelor SISO-LTI, cu D = 0, dar vor exista şi câteva paragrafe, în care se vor analiza pe scurt şi sisteme de forma (2.2.2) şi (2.2.3). 2.2.2. Forme canonice în spaţiul stărilor
Consider ăm sistemul SISO-LTI: x& = A x + Bu , x(t 0 ) = x0
(2.2.6)
y = C x T
unde x ∈ ℜn . 2-2
Matricea de controlabilitate P c asociată sistemului (2.2.6) este definit ă prin: Δ
P c = [ B, AB,K An −1 B ]
O condiţie necesar ă şi suficientă pentru ca sistemul (2.2.6) s ă fie complet controlabil este ca P c să fie nesingular ă. Dacă (2.2.6) este complet controlabil, transformarea liniar ă xc = P c−1 x
(2.2.7)
transformă sistemul (2.2.6) în forma sa canonic ă controlabil ă ⎡0 0 L 0 − a0 ⎤ ⎡1⎤ ⎢1 0 L 0 − a1 ⎥ ⎢0 ⎥ ⎢ ⎥ x&c = 0 1 L 0 − a2 xc + ⎢0⎥ u ⎢ ⎥ ⎢0 ⎥ M O M ⎢ ⎥ ⎢⎣0⎥⎦ ⎣⎢0 0 M 1 − an −1 ⎦⎥ y = C cT x c
(2.2.8)
unde ai sunt coeficienţii ecuaţiei caracteristice asociat ă lui A, adică: det( sI − A) = s n + an −1 s n −1 + L + a0 , iar C cT = C T P c . Dacă în locul lui (2.2.7) utiliz ăm transformarea xc
= M −1 P c−1 x ,
(2.2.9)
unde
⎡1 an −1 L a2 a1 ⎤ ⎢0 1 L a3 a2 ⎥ ⎥, M = ⎢ M M O M M ⎢0 0 L 1 a ⎥ n −1 ⎥ ⎢ ⎣0 0 L 0 1 ⎦ obţinem următoarea formă canonică a controllerului ⎡− an −1 − an − 2 L − a1 − a0 ⎤ ⎡1 ⎤ ⎢ 1 ⎢0 ⎥ 0 L 0 0 ⎥ ⎢ ⎥ ⎢ ⎥ x&c = ⎢ 0 1 L 0 0 ⎥ xc + ⎢0⎥ u ⎢ M ⎢M⎥ M O M ⎥ ⎢ ⎥ ⎢ ⎥ 0 L 1 0 ⎥⎦ ⎢⎣ 0 ⎢⎣0⎥⎦ y = C 0T xc
(2.2.10)
unde C 0T = C T P c M . Prin rearanjarea elementelor vectorului de stare xc, (2.2.10) poate fi rescrisă în următoarea formă care apare deseori în căr ţile de teoria sistemelor liniare
2-3
0 ⎤ ⎡ 0 1 0 L ⎡0⎤ ⎢ 0 0 1 L ⎢0⎥ 0 ⎥ ⎢ ⎥ ⎢ ⎥ & 0 ⎥ xc + ⎢0⎥ u xc = ⎢ M M O ⎢ 0 0 0 L ⎢M⎥ 1 ⎥ ⎢ ⎥ ⎢ ⎥ L − − − − an − 2 an −1 ⎥⎦ ⎢⎣1⎥⎦ ⎢⎣ a0 a1 y = C 1T xc
(2.2.11)
unde C 1 este definită corespunzător. Matricea de observabilitate P o asociată sistemului (2.2.6) se defineşte prin:
⎡ C T ⎤ Δ ⎢ T ⎥ (2.2.12) P o = ⎢ C A ⎥ M ⎢C T An −1 ⎥ ⎣ ⎦ O condiţie necesar ă şi suficientă pentru ca sistemul (2.2.6) să fie complet observabil este ca P o să fie nesingular ă. Urmând dualitatea argumentelor prezentate mai sus pentru forma canonică controlabil ă şi a controllerului, se ajunge la forma observabil ă şi a observerului cu condiţia ca P o să fie nesingular ă [95]. Forma canonică observabil ă a lui (2.2.6) obţinută prin transformarea xo = P o x este: 0 ⎤ ⎡ 0 1 0 L ⎢ 0 0 1 L 0 ⎥ ⎢ ⎥ 0 ⎥ xo + Bo u x&o = ⎢ M M O , (2.2.13) ⎢ 0 0 0 L 1 ⎥ ⎢ ⎥ L − − − − a a a a ⎥ n−2 n −1 ⎦ 1 ⎣⎢ 0 y = [1, 0,K , 0] xo iar forma canonic ă a observerului este
⎡ − an−1 1 0 L ⎢− a 0 1 L ⎢ n−2 M O x&o = ⎢ M ⎢ −a 0 0 L ⎢ 1 ⎢⎣ − a0 0 L 0 y = [1, 0, K , 0] xo
0⎤ 0⎥ ⎥ 0⎥ xo + B1 u , 1⎥ ⎥ 0⎥⎦
(2.2.14)
unde Bo, B1 pot fi diferite. Dacă pentru sistemul (2.2.6) de ordin n, rangul matricei de controlabilitate asociate P c este mai mic decât n, atunci se spune c ă (2.2.6) este necontrolabil . Similar, dacă rangul matricei de observabilitate P o este mai mic decât n, atunci (2.2.6) este neobservabil . 2-4
Sistemul reprezentat prin (2.2.8), (2.2.10) sau (2.2.11) este complet controlabil dar nu necesar şi observabil. Similar, sistemul reprezentat prin (2.2.13) sau (2.2.14) este complet observabil, dar nu necesar şi controlabil. Dac ă sistemul (2.2.6) de ordin n este fie neobservabil, fie necontrolabil atunci propriet ăţile sale I/O din condiţii iniţiale nule, adică x0 = 0, sunt caracterizate complet printr-un sistem complet controlabil şi observabil de ordin mai mic decât n, descris prin: x&co = Aco xco + Bco u , xco (t 0 ) = 0 (2.2.15) T y = C co xco unde xco ∈ ℜn cu nr < n. Trebuie precizat că, nu mai sunt posibile reduceri ulterioare ale ordinului sistemului (2.2.15) f ăr ă afectarea proprietăţilor I/O, oricare ar fi tipul intr ării aplicate. Din acest motiv, (2.2.15) este referit ca reprezentare minimal ă în spa ţ iul st ă rilor (de stare) a sistemului; aceasta se distinge de reprezentarea neminimal ă de stare care corespunde fie unui sistem necontrolabil, fie unui sistem neobservabil. Un model minimal de stare nu descrie p ăr ţile necontrolabile sau neobservabile ale sistemului. În reprezentarea neminimal ă de stare, aceste păr ţi pot conduce la anumite stări nemărginite dacă sistemul evoluează din condiţii iniţiale nenule asociate acestor p ăr ţi. Dacă în schimb păr ţile necontrolabile sau neobservabile sunt asimptotic stabile [95], ele vor tinde exponenţial la zero şi, în multe aplicaţii, efectul lor poate fi ignorat. Un sistem ale c ărui păr ţi necontrolabile sunt asimptotic stabile se numeşte stabilizabil , iar sistemul ale c ărui păr ţi neobservabile sunt asimptotic stabile se nume şte detectabil [95]. Exemplul 2.2.1. Consider ăm căruciorul cu două pendule inverse prezentat în Fig. 2.1, unde M este masa căruciorului, m1 şi m2 sunt masele celor două greutăţi, iar l 1 şi l 2 sunt lungimile celor două pendule. Utilizând legile lui Newton şi presupunând că deviaţiile unghiulare | θ1 |, | θ2 | sunt mici, ecuaţiile de mişcare sunt date de: M v& = − m1 g θ1 − m2 g θ 2 + u r
m1 (v& + l 1&θ&1 ) = m1 g θ1 m2 (v& + l 2&θ&2 ) = m2 g θ 2 m1
θ1 l 1
m2
θ2 l 2
u
Fig. 2.1. Cărucior cu două pendule inverse 2-5
unde v este viteza c ăruciorului, u este o for ţă externă, iar g este accelera ţia gravitaţională. Pentru a simplifica calculele, presupunem c ă m1 = m2 = 1 kg , iar M = 10 m1. Dacă notăm x1 = θ1, x2 = θ& 1 , x3 = θ1 − θ2 , x4 = θ& 1 − θ& 2 variabilele de stare, obţinem următoarea reprezentare de stare a sistemului: x& = Ax + Bu unde ⎡ x1 ⎤ 0 1 0 0⎤ ⎡ ⎡ 0 ⎤ ⎢ x ⎥ 0 − 0.1α1 0⎥ ⎢ 1.2α1 ⎢ β1 ⎥ , x = ⎢ 2 ⎥ , A = ⎢ = B ⎢ 0 ⎥ 0 0 0 1⎥ ⎢ x3 ⎥ ⎢⎣1.2(α1 − α 2 ) 0 α 2 − 0.1(α1 − α 2 ) 0⎥⎦ ⎢⎣β1 − β2 ⎥⎦ ⎢ x ⎥ ⎣ 4⎦ şi α1 = g /l 1, α2 = g /l 2, β1 = -0.1/l 1, β2 = -0.1/l 2. Matricea de controlabilitate a sistemului este dat ă de P c = [ B, AB, A2 B, A3 B]. Se poate ar ăta că (0.011) 2 g 2 (l 1 − l 2 ) 2 det P c = 4 4 l 1 l 2
ceea ce înseamn ă că sistemul este controlabil dac ă şi numai dacă l 1 ≠ l 2 . Presupunem că θ1 este singura variabilă măsurabilă, adică, ieşirea măsurabilă a sistemului este y = C T x, cu C = [1, 0, 0, 0]T . Matricea de observabilitate a sistemului bazat ă pe această ieşire este dată de:
⎡ C T ⎤ ⎢ C T A ⎥ P o = ⎢ T 2 ⎥ ⎢C T A3 ⎥ ⎣C A ⎦ Efectuând calculele, vom obţine, det P o = 0.01 ⋅ g 2 / l 12 , evident nenul, ceea ce înseamnă că sistemul este observabil pentru y = θ1. Când l 1 = l 2, sistemul este necontrolabil. În acest caz, α1 = α2, β1 = β2, iar matricea A şi vectorul B devin: 0 0⎤ ⎡ 0 1 ⎡0⎤ ⎢1.2α1 0 − 0.1α1 0⎥ , B = ⎢β1 ⎥ A = ⎢ ⎢0⎥ 0 0 0 1⎥ ⎢⎣ 0 0 α1 0⎥⎦ ⎢⎣ 0 ⎥⎦ evidenţiind faptul că intrarea de comandă u nu poate influenţa variabilele de stare x3, x4. Se poate ar ăta c ă pentru x3(0), x4(0) ≠ 0, toate variabilele de stare vor cre şte la infinit pentru toate intr ările posibile u. Pentru l 1 = l 2, controlul celor două pendule identice este posibil numai dacă unghiurile iniţiale şi vitezele unghiulare sunt identice, adică, θ1 (0) = θ2 (0) şi θ& 1 (0) = θ& 2 (0) , care face ca x3(0) = x4(0) = 0.
2-6
2.3. Modele intrare/ieş intrare/ie şire 2.3.1. Funcţ Funcţii de transfer
Funcţiile de transfer joac ă un rol important în caracterizarea propriet ăţile I/O ale sistemelor LTI şi sunt larg utilizate în teoria controlului clasic. Vom defini mai întâi func ţia de transfer a unui sistem LTI pornind de la ecuaţia diferenţială care descrie dinamica acestui sistem. Consider ăm un sistem descris prin următoarea ecuaţie diferenţială de ordin n: y ( n ) (t ) + an −1 y ( n −1) (t ) + L + a0 y (t ) = bmu ( m ) (t ) + bm −1u ( m −1) (t ) + L + b0u (t ) Δ
(i )
unde y (t ) =
d i d t i
y (t ) ,
(i )
Δ
iar u (t ) =
d i d t i
u (t ) ; u(t )
(2.3.1)
este variabila de intrare, iar y(t )
este variabila de ie şire; coeficien ţii ai, b j, i = 0, 1, ... , n - 1; j = 0, 1, ... , m, sunt constanţi, iar n şi m sunt constante întregi. Pentru a obţine funcţia de transfer a sistemului (2.3.1), aplic ăm trasformata Laplace ambilor membri ai ecua ţiei (2.3.1) considerând condi ţ iile iile ini ţ iale iale nule. Se obţine:
( s
n
+ an−1 s n−1 + L + a0 )Y ( s) = (bm s m + bm−1 s m−1 + L + b0 )U ( s)
unde s este variabila Laplace. Func ţia de transfer G( s s) a lui (2.3.1) este definit ă prin: Δ Y ( s ) bm s m + bm −1 s m −1 + L + b0 . (2.3.2) = n G ( s ) = U ( s) s + an −1 s n −1 + L + a0 Funcţia obţinută prin aplicarea transformatei Laplace inverse lui G( s s), adică -1 ă spuns g (t ) = L [G( s s)], este cunoscută sub denumirea de r ă la impuls al sistemului (2.3.1). Atunci, y(t ) = g (t ) ∗ u(t ), ), unde ∗ reprezintă produsul de convoluţie. Când u(t ) = δ Δ (t ) , unde δ Δ (t ) este func ţ ia ia delta definită prin: I (t ) − I (t − ε) , δ Δ (t ) = lim ε→0 ε unde I (t) este funcţia treaptă unitate, atunci y(t ) = g (t ) ∗ δ Δ (t ) = g (t ). ). De aceea, când intrarea într-un sistem LTI este o func ţie delta (denumită adesea impuls unitate) la t = 0, ieşirea sistemului este egal ă cu g (t ), ), r ăspunsul la impuls. Spunem că G( s s) este proprie dacă G( ∞ ) este finit ă, adică n ≥ m, este strict proprie dacă G( ∞ ) = 0 , adică n > m şi improprie, dacă n = m. Gradul relativ n* a lui G( s s) se defineşte ca n* = n - m, adică, n* = gradul numitorului – gradul număr ătorului lui G( s s). Ecua ţ ia ia caracteristică a sistemului (2.3.1) este definit ă prin ecuaţia: s n + an−1 s n−1 + L + a0 = 0 . Într-o manier ă similar ă, funcţia de transfer a unui sistem LTI poate fi definit ă pornind şi de la descrierea sistemului prin ecua ţiile de stare (2.2.3). Aplicarea transformatei Laplace fiec ărui membru din (2.2.3) conduce la: 2-7
sX ( s) − x(0) = A X ( s ) + BU ( s) Y ( s ) = C T X ( s) + DU ( s )
sau
(
(2.3.3)
)
Y ( s ) = C T ( s I − A) −1 B + D U ( s) + C T ( s I − A) −1 x (0)
Considerând condiţiile iniţiale nule, adică, x(0) = 0, se obţine: Y ( s s) = G( s s)U ( s s)
(2.3.4)
unde G( s) = C T ( s I − A) −1 B + D se numeşte func ţ ie ă , în ie de transfer matriceal ă cazul sistemelor cu mai multe intr ări şi mai multe ie şiri, şi, func ţ ie ie de transfer în cazul sistemelor SISO. G( s s) se poate de asemenea reprezenta prin: G ( s ) =
C T {adj ( s I − A)} B
det( s I − A)
+ D
(2.3.5)
unde adj(Q) reprezintă adjuncta matricei p ătratice Q ∈ ℜ n× n . Elementul ( i, j) notat cu qij al adj(Q) se calculează ca qij = (−1)i + j det(Qij ) , i, j = 1, 2,K, n , unde Q ji ∈ ℜ ( n −1) ×( n −1)
este o submatrice a lui Q obţinută prin eliminarea liniei j şi a coloanei i a matricei Q. Din (2.3.5) este clar c ă polii lui G( s s) sunt inclu şi în valorile proprii ale lui A. Spunem că A este stabil ă ă dacă toate valorile sale proprii sunt situate în Re[ s] < 0, caz în care G( s ă. Rezultă că det( sI − A) = 0 este s) este o func ţ ie ie de transfer stabil ă ecuaţia caracteristic ă a sistemului cu funcţia de transfer dat ă de (2.3.5). Dacă în (2.3.3) şi (2.3.4) trecerea de la reprezentarea de stare la o descriere printr-o funcţie de transfer s-a f ăcut într-o manier ă foarte simplă, calea invers ă, adică trecerea de la o descriere printr-o funcţie de transfer proprie, la o reprezentare de stare, nu este a şa de simpl ă. Este totu şi adevărată afirmaţia că, pentru fiecare funcţie de transfer proprie G( s s) există matricele A, B, C şi D astfel încât − T un sistem cu funcţia de G ( s ) = C ( s I − A) 1 B + D . Ca exemplu, considerăm transfer bm s m + bm−1 s m−1 + L + b0 Y ( s ) = G ( s ) = U ( s) s n + an−1 s n−1 + L + a0 unde n > m. Atunci, sistemul poate fi reprezentat în forma controlabil ă
⎡− an −1 − an − 2 L − a1 − a0 ⎤ ⎡1⎤ ⎢ 1 0 L 0 0 ⎥ ⎢0 ⎥ x& = ⎢ 0 1 L 0 0 ⎥ x + ⎢0⎥ u ⎢ M ⎢M⎥ M O M ⎥ ⎢ 0 0 L 1 0 ⎥⎦ ⎢⎣0⎥⎦ ⎣ y = [0, 0, K, bm , bm −1 ,K, b0 ] x sau în forma observabilă 2-8
(2.3.6)
⎡ − an −1 1 0 L 0⎤ ⎡ 0 ⎤ ⎢ − an − 2 0 1 L 0 ⎥ ⎢ M ⎥ x& = ⎢ M M O 0⎥ x + ⎢bm ⎥ u ⎢ ⎥ ⎢M⎥ (2.3.7) L − 0 0 1 a ⎢ 1 ⎥ ⎢ ⎥ ⎢⎣ − a0 0 L 0 0⎥⎦ ⎣ 0 ⎦ y = [1, 0,K , 0] x Dar, pentru acelaşi sistem se pot genera înc ă multe alte reprezent ări de stare care să-i descrie proprietăţile I/O. Formele canonice (2.3.6) şi (2.3.7), au câteva propriet ăţi importante care vor fi utilizate în capitolele urm ătoare. De exemplu, dac ă notăm cu ( A Ac, Bc, C c) şi ( Ao, Bo, C o) matricele corespunzătoare din forma controlabilă (2.3.6) şi respectiv din forma observabilă (2.3.7), se pot stabili rela ţiile: [adj ( sI − Ac )] Bc = [ s (
C oT adj s I
n −1
n −1
Δ
,K, s,1] = α n −1 ( s ) T
(2.3.8)
Δ
− Ao ) = [ s ,K, s,1] = αT n −1 ( s)
(2.3.9)
ale căror păr ţi drepte sunt independente de coeficienţii lui G( s s). O altă proprietate importantă constă în aceea c ă cei n+m+1 coeficienţi al lui G( s s) apar explicit în tripletele ( Ac, Bc, C c) şi respectiv ( Ao, Bo, C o), sau altfel spus tripletul ( A Ac, Bc, C c), respectiv ( A Ao, Bo, C o), este caracterizat complet de cei n + m + 1 parametri care sunt egali cu coeficienţii polinoamelor din G( s s). Dacă în G( s s) nu există simplificări poli-zerouri atunci atât (2.3.6) cât şi (2.3.7) constituie reprezentări minimale de stare ale aceluia şi sistem. Dacă în G( s s) există simplificări poli-zerouri, atunci (2.3.6) este neobservabil, iar (2.3.7) este necontrolabil. Dacă simplificările poli-zerouri ale lui G( s s) se fac în Re[ s] < 0, adică, polii stabili se simplific ă cu zerouri stabile, atunci (2.3.6) este detectabil , iar (2.3.7) este stabilizabil . Similar, un sistem descris printr-o reprezentare de stare este neobservabil sau necontrolabil, dacă şi numai dacă funcţia de transfer a sistemului conţine simplificări poli-zerouri. Dac ă păr ţile neobservabile sau necontrolabile ale sistemului sunt asimptotic stabile, atunci simplific ările polizerouri apar în Re[ s] < 0.
O altă abordare pentru reprezentarea ecuaţiei diferenţiale (2.3.1) constă în Δ d (⋅) , care are următoarele proprietăţi: utilizarea operatorului diferen ţ ial ial p (⋅) = d t
(i) p( x) = x& ;
(ii) p( x y ) = x& y + x y& Δ
unde x şi y sunt orice funcţii derivabile ce depind de timp şi x& = d x(t ) / d t . Operatorul invers a lui p, notat cu p -1 sau cu 1/p este definit prin Δ t 1 ( x) = ∫ 0 x(τ)d τ + x(0) , ∀t ≥ 0 , p
unde x(t ) este o func ţie integrabilă. Operatorii p şi 1/p sunt legaţi de operatorul Laplace s prin următoarele ecuaţii: 2-9
L { p ( x)}
x ( 0 ) = 0
= s X ( s) , respectiv L {(1 / p)( x)} x ( 0) = 0 = (1 / s) X ( s)
unde L este transformata Laplace şi x(t ) este orice funcţie derivabilă în raport cu timpul. Utilizând defini ţia operatorului diferen ţial, relaţia (2.3.1) poate fi scris ă în forma compactă: R( p)( y) = Z ( p)(u) (2.3.10) unde R( p) = p n + an−1 p n−1 + L + a0 , Z ( p) = bm p m + bm−1 p m−1 + L + b0 se numesc operatori diferen ţ iali polinomiali [226]. Ecuaţia (2.3.10) are aceeaşi formă ca R( s)Y ( s) = Z ( s)U ( s) (2.3.11) obţinută prin aplicarea transformatei Laplace ambilor membri ai ecuaţiei (2.3.1), în condiţii iniţiale nule. De aceea, pentru condi ţii iniţiale nule, se poate trece de la reprezentarea (2.3.10) la (2.3.11) şi vice versa prin simpla înlocuire a lui s cu p sau p cu s. De exemplu, sistemul s + b Y ( s ) = 2 0 U ( s ) s + a0 poate fi scris sub forma, ( p2 + a0)( y) = ( p + b0)(u), cu y(0) = y& (0) = 0, u(0) = 0 sau, prin abuz de notaţie (deoarece niciodată nu vom definit operatorul ( p2 + a0)-1), sub forma: p + b y (t ) = 2 0 u (t ) p + a0 Observa ţ ie. Datorită similarităţii formelor (2.3.11) şi (2.3.10), vom utiliza s pentru a nota atât operatorul diferenţial, cât şi variabila Laplace, şi vom exprima sistemul (2.3.1), în condi ţii iniţiale nule, sub forma: Z ( s ) (2.3.12) y = u R( s ) unde y şi u reprezintă Y ( s) şi respectiv U ( s), când s este folosit ca operator Laplace, iar y şi u reprezintă y(t ) şi respectiv u(t ), când s este folosit ca operator diferenţial. Relaţia G( s) = Z ( s)/ R( s) din (2.3.12) este deseori referită ca filtru cu intrarea u(t ) şi ieşirea y(t ). Exemplul 2.3.1. Consider ăm sistemul de ecua ţii care descrie mi şcarea căruciorului cu două pendule din Exemplul 2.2.1, unde y = θ1 este singura ieşire măsurată. Eliminarea variabilelor θ1, θ2 şi θ& 2 prin substituire, conduce la următoare ecuaţie diferenţială de ordinul patru: y ( 4 )
− 1.1(α1 + α 2 ) y ( 2) + 1.2α1α 2 y =β1 u ( 2) − α1β 2 u
unde αi, βi, i = 1, 2, sunt cele definite în Exemplul 2.2.1, care leag ă intrarea u cu ieşirea măsurată y. Aplicând transformata Laplace ambilor membri ai acestei ecuaţii, în condiţii iniţiale nule, se ob ţine: 2 - 10
[ s 4 − 1.1(α1 + α 2 ) s 2 + 1.2α1α 2 ]Y ( s ) = (β1 s 2 − α1β 2 )U ( s) De aici, se deduce c ă funcţia de transfer a sistemului de la u la y va fi: β1 s 2 − α1β 2 Y ( s) = = G( s ) U ( s ) s 4 − 1.1(α1 + α 2 ) s 2 + 1.2α1α 2 Pentru l 1 = l 2, avem α1 = α2, β1 = β2, şi β1 ( s 2 − α1 ) β1 ( s 2 − α1 ) = G ( s ) = 4 s − 2.2α1 s 2 + 1.2α12 ( s 2 − α1 )( s 2 − 1.2α1 ) are două simplificări poli-zerouri. Deoarece α1 > 0, una dintre cele dou ă simplificări pol-zerou se face în Re[ s] > 0 ceea ce arată că orice reprezentare de stare a sistemului cu o funcţie de transfer de ordinul patru nu este stabilizabilă. 2.3.2. Polinoame coprime
Propriet ăţile I/O ale majorit ăţii sistemelor studiate în acest curs sunt reprezentate prin funcţii de transfer proprii exprimate ca raport a dou ă polinoame în s cu coeficienţi reali, adică, Z ( s) G ( s ) = , (2.3.13) R( s) unde Z ( s) = bm s m + bm−1 s m−1 + L + b0 , R( s ) = s n + an −1 s n −1 + L + a0 şi n ≥ m. Propriet ăţile sistemului asociat cu G( s) depind foarte mult de propriet ăţile lui Z ( s) şi R( s). În aceast paragraf, vom reaminti câteva propriet ăţi generale ale polinoamelor ce vor fi utilizate în capitolele urm ătoare pentru analiza şi proiectarea algoritmilor de comandă. Definiţia 2.3.1. Se consider ă polinomul X ( s) = an s n + an −1 s n −1 + L + a0 . Se spune că X ( s) este monic dacă an = 1 şi X ( s) este Hurwitz dacă toate rad ă cinile lui X ( s) = 0 sunt plasate în Re[ s] < 0. Spunem că gradul lui X ( s) este n dacă coeficientul an a lui sn satisface an ≠ 0. Definiţia 2.3.2. Un sistem cu o func ţ ie de transfer dat ă de (2.3.13) este cu minim de faz ă dacă Z ( s) este Hurwitz ; sistemul este stabil dacă R( s) este Hurwitz. Aşa cum s-a menţionat în paragraful 2.3.1, o reprezentare a sistemului este minimală dacă funcţia de transfer corespunzătoare nu conţine simplificări polizerouri, adică, dacă polinoamele de la număr ătorul şi numitorul funcţiei de transfer nu au alţi factori comuni decât o constantă. Definiţia următoare este des utilizată în teoria controlului pentru caracterizarea polinoamelor cu factori necomuni. Definiţia 2.3.3. Se spune că două polinoame a( s) şi b( s) sunt coprime (sau relativ prime ) dacă ele nu au al ţ i factori comuni decât o constant ă . O caracterizare importantă a coprimarităţii a două polinoame este dată de următoarea Lemă. Lema 2.3.1. (Identitatea Bezout). Două polinoame a( s) şi b( s) sunt coprime dacă şi numai dacă exist ă polinoamele c( s) şi d ( s) astfel încât:
2 - 11
c( s)a( s) + d ( s)b( s) = 1 Pentru demonstraţia Lemei 2.3.1, vezi [73, 237]. Pentru o pereche de polinoame coprime a( s) şi b( s), identitatea Bezout poate avea un număr infinit de solu ţii c( s) şi d ( s) aşa cum reiese din exemplul următor. Exemplul 2.3.2. Consider ăm polinoamele coprime a( s ) = s + 1 , b( s ) = s + 2 . Atunci, identitatea Bezout este satisf ăcută pentru şi orice
c( s ) = s n n ≥1 .
+ 2 s n −1 − 1 , d ( s ) = − s n − s n−1 + 1
Coprimaritatea este o proprietate important ă şi intens exploatată în teoria controlului pentru proiectarea schemelor de conducere corespunz ătoare sistemelor LTI. O teoremă importantă, foarte utilizată în proiectarea şi analiza controlului, este următoarea. Teorema 2.3.1. Dacă a( s) şi b( s) sunt polinoame coprime cu gradele na şi respectiv nb, cu na > nb , atunci, pentru orice polinom arbitrar a*( s) cu gradul na* ≥ na, ecua ţ ia polinomial ă a( s)l ( s) + b( s) p( s) = a*( s) (2.3.14) are o solu ţ ie unică polinoamele l ( s) şi p( s) ale că ror grade nl şi respectiv n p, satisfac condi ţ iile n p < na, nl ≤ max(na* - na, nb - 1). Demonstra ţ ie. Din Lema 2.3.1, rezultă că există polinoamele c( s) şi d ( s) astfel încât a( s)c( s) + b( s)d ( s) = 1. (2.3.15) Înmulţind ambii membri ai ecuaţiei (2.3.15) cu polinomul a*( s), obţinem: * * * a ( s)a( s)c( s) + a ( s)b( s)d ( s) = a ( s). (2.3.16) Împăr ţim a*( s)d ( s) prin a( s), adică, a * ( s )d ( s) p( s ) = r ( s) + a ( s ) a( s ) unde r ( s) este polinomul cât de grad na* + nd - na, na*, na şi nd fiind gradele lui a*( s), a( s) şi respectiv d ( s), iar p( s) este restul cu gradul n p < na. Utilizând a*( s)d ( s) = r ( s)a( s) + p( s), membrul stâng al lui (2.3.16) se exprim ă sub forma a*( s)a( s)c( s) + r ( s)a( s)b( s) + p( s)b( s) = [a*( s)c( s) + r ( s)b( s)]a( s) + p( s)b( s), care ne permite să rescriem (2.3.16) sub forma * l ( s)a( s) + p( s)b( s) = a ( s), (2.3.17) unde l ( s) = a*( s)c( s) + r ( s)b( s). Din ecuaţia anterioar ă se deduce că gradul lui * l ( s)a( s) = gradul lui ( a ( s) - p( s)b( s)) ≤ max{na*, n p + nb}. Deci, gradul lui l ( s), notat cu nl , satisface nl ≤ max{ na* - na, n p + nb – na}. Mai mult, putem stabili c ă polinoamele l ( s) şi p( s) din (2.3.17) cu gradele nl şi n p satisfac următoarele inegalităţi: nl ≤ max{ na* - na, n p + nb – na} şi respectiv n p < na. Cum din n p < na se deduce că n p ≤ na - 1, gradul nl satisface de asemenea nl ≤ max{ na* - na, nb – 1}. 2 - 12
Vom demonstra unicitatea lui l ( s) şi p( s) procedând astfel: Presupunem c ă (l 1( s), p1( s)), (l 2( s), p2( s)) sunt două soluţii ale lui (2.3.17) adic ă, a( s)l 1( s) + b( s) p1( s) = a*( s), respectiv a( s)l 2( s) + b( s) p2( s) = a*( s), care satisfac următoarele condiţii de grad: n p < na, nl ≤ max{ na* - na, nb – 1}. Scăzând a doua ecuaţie din prima, se obţine a( s)(l 1( s) - l 2( s)) + b( s)( p1( s) - p2( s)) = 0 (2.3.18) care va determina b( s ) l ( s ) − l 1 ( s ) = 2 (2.3.19) a ( s) p1 ( s) − p2 ( s ) Deoarece n p < na, rezultă că în (2.3.19) polinoamele b( s), a( s) au factori comuni, ceea ce contrazice ipoteza că a( s) sunt b( s) coprime. Astfel, l 1( s) = l 2( s) şi p1( s) = p2( s), ceea ce conduce la faptul c ă soluţia l ( s) şi p( s) a lui (2.3.17) este unic ă, şi demonstraţia este completă. Dacă nu se impun constrângeri asupra gradelor lui l ( s) şi p( s), ecuaţia (2.3.14) are o infinitate de solu ţii. Ecuaţiile de forma (2.3.14) se numesc ecuaţii Diofantice şi sunt utilizate în proiectarea algebric ă a regulatoarelor pentru procese LTI. Exemplul următor ilustrează modul de utilizare a Teoremei 2.3.1 pentru proiectarea unui sistem de conducere stabil. Exemplul 2.3.3. Consider ăm procesul descris prin: s − 1 y = 3 u (2.3.20) s
Se doreşte o alegere a intr ării u(t ) astfel încât ecuaţia caracteristică a sistemului în circuit închis să fie descrisă prin a*( s) = ( s + 1)5, adică, u trebuie aleasă astfel încât sistemul în circuit închis s ă fie descris prin: ( s + 1)5 y = 0. (2.3.21) Consider ăm o comandă de forma p( s ) u=− y (2.3.22) l ( s) unde l ( s) şi p( s) sunt polinoame cu coeficien ţi reali ale căror grade şi coeficienţi trebuie să fie determinate. Înlocuind (2.3.22) în (2.3.20), se ob ţine următorul sistem în circuit închis, s 3l ( s) y = −( s − 1) p( s ) y , sau, [ s 3l ( s) + ( s − 1) p( s)] y = 0 . Dacă l ( s) şi p( s) se aleg astfel încât să satisfacă ecuaţia Diofantică: l ( s) s3 + p( s)( s - 1) = ( s + 1)5, (2.3.23) atunci sistemul în circuit închis devine identic cu cel dorit, dat de (2.3.21). Întrucât (2.3.23) poate avea un num ăr infinit de solu ţii pentru l ( s) şi p( s), pentru a alege l ( s) şi p( s) cu gradul cel mai mic folosim Teorema 2.3.1. Conform Teoremei 2.3.1, ecuaţia (2.3.23) are o soluţie unică l ( s), p( s) cu gradul cel mult 2. Ca urmare, presupunem că l ( s), p( s) au forma: l ( s) = l 2 s2 + l 1 s + l 0 , respectiv p( s) = 2 - 13
p2 s2
+ p1 s + p0, pe care le introducem în (2.3.23) şi obţinem următoarea ecuaţie polinomială l 2 s5+l 1 s4+(l 0+ p2) s3+( p1- p2) s2+( p0- p1) s- p0 = s5+5 s4+10 s3+10 s2+5 s+1. Egalând coeficienţii aceloraşi puteri ale lui s din cei doi membrii ai ecuaţiei anterioare, se obţin ecuaţiile algebrice: l 2 = 1, l 1 = 5, l 0 + p2 = 10, p1 - p2 = 10, p0 - p1 = 5, - p0 = 1, care au soluţia unică l 2 = 1, l 1 = 5, l 0 = 26, p2 = -16, p1 = -6, p0 = -1. Deci, l ( s) = s2 + 5 s + 26, p( s) = -16 s2 - 6 s – 1. Rezultă ca mărimea de comandă din (2.3.22) este dată de: 16 s 2 + 6 s + 1 u=− 2 y . s + 5 s + 26 O altă caracterizare a coprimarităţii pe care o vom folosi în capitolele următoare este dată de următoarea teoremă: Teorema 2.3.2 (Teorema lui Sylvester). Două polinoame a ( s ) = an s n + an−1 s n−1 + L + a0 , b( s) = bn s n + bn−1 s n−1 + L + b0 sunt coprime dacă şi numai dacă matricea Sylvester S e asociat ă lor este nesingular ă , unde S e este o 2n × 2n matrice definit ă prin:
⎡ an 0 0 L 0 0 bn 0 0 L 0 0 ⎤ ⎢an −1 an 0 L 0 0 bn −1 bn 0 L 0 0 ⎥ ⎢ . a ⎥ . bn −1 bn O M M an O n −1 ⎢ ⎥ . . . . . . a b O M O M n n − − 1 1 ⎢ ⎥ . . . . . 0 . . . . . 0 ⎢ ⎥ Δ . . . . an b1 . . . . bn ⎥ ⎢a (2.3.24) S e = ⎢ 1 . . . an −1 b0 b1 . . . bn −1 ⎥ a0 a1 ⎢ 0 a ⎥ . . . . 0 . . . . b0 0 ⎢ ⎥ 0 0 . . . 0 0 . . . . ⎢ ⎥ . 0 O . . . ⎥ M O . . M ⎢ M M O a0 a1 M M O b0 b1 ⎥ ⎢ M ⎢⎣ 0 0 L 0 0 a0 0 0 L 0 0 b0 ⎥⎦ Demonstra ţ ie. Necesitatea. Consider ăm următoarea ecuaţie polinomială: (2.3.25) a( s)c( s) + b( s)d ( s) = 1 unde c( s) = cn-1 sn-1+cn-2 sn-2 + L + c0, d ( s) = d n-1 sn-1+d n-2 sn-2 + L + d 0, sunt polinoame arbitrare cu gradul n-1. Egalând coeficienţii puterilor egale ale lui s din cei doi membri ai lui (2.3.25), se obţine ecuaţia algebrică (2.3.26) S e p = e2 n , unde e2n = [0, 0, ... , 0, 1] T ∈ ℜ 2 n şi p = [cn-1, cn-2, ... , c0, d n-1, d n-2, ... , d 0]T ∈ ℜ 2 n . Ecuaţiile (2.3.25) şi (2.3.26) sunt echivalente în sensul c ă orice soluţie a lui (2.3.26) satisface (2.3.25) şi vice versa. Întrucât S e este nesingular ă, ecuaţia 2 - 14
(2.3.26) are soluţie unică pentru p. Rezultă că (2.3.25) are de asemenea soluţie unică pentru c( s) şi d ( s) care, conform Lemei 2.3.1, conduce la concluzia c ă a( s), b( s) sunt coprime. Suficien ţ a. Vom ar ăta că dacă a( s) şi b( s) sunt coprime, atunci pentru toate polinoamele nenule p( s) şi q( s) cu gradele n p < n şi respectiv nq < n, avem (2.3.27) a( s) p( s) + b( s)q( s) ≠ 0 Dacă (2.3.27) nu este adevărată, există polinoamele nenule p1( s) şi q1( s) cu gradele n p1 < n şi respectiv nq1 < n , astfel încât
≠0 (2.3.28) Din ecuaţia (2.3.28) se vede că b( s) /a( s) poate fi exprimat ca b( s ) p ( s ) =− 1 a ( s) q1 ( s) care, deoarece n p1 < n şi nq1 < n , conduc la ideea c ă a( s) şi b( s) au factori comuni, prin aceasta contrazicând ipoteza că a( s), b( s) sunt coprime. Deci, afirmaţia este adevărată şi (2.3.27) r ămâne adevărată. Relaţia (2.3.27) poate fi rescrisă sub forma (2.3.29) S e x ≠ 0 a( s) p1( s) + b( s)q1( s)
unde x ∈ ℜ2 n conţine coeficienţii lui p( s) şi q( s). Deoarece (2.3.27) este adevărată pentru toate polinoamele nenule p( s) şi q( s) cu gradele n p < n şi respectiv nq < n, atunci (2.3.29) r ămâne adevărată pentru toţi vectorii x ∈ ℜ2 n cu x ≠ 0 , care face ca S e să fie nesingular ă. Determinantul lui S e este cunoscut sub denumirea de rezultant Sylvester şi poate fi folosit la examinarea coprimarităţii unei perechi de polinoame. Dac ă polinoamele a( s) şi b( s) din Teorema 2.3.2 au grade diferite – să presupunem nb < na - atunci b( s) se poate exprima ca un polinom cu gradul na prin augmentarea lui cu puteri adiţionale în s ai căror coeficienţi sunt consideraţi nuli. Exemplul 2.3.4. Consider ăm polinoamele: a( s) = s2 + 2 s + 1, b( s) = s - 1 = 0 s2 + s – 1. Matricea Sylvester asociat ă este: ⎡1 0 0 0 ⎤ ⎢2 1 1 0 ⎥ ⎥ S e = ⎢ ⎢1 2 − 1 1 ⎥ ⎢⎣0 1 0 − 1⎥⎦ Cum det S e = 4 ≠ 0, rezultă că a( s) şi b( s) sunt polinoame coprime. Proprietăţile matricei Sylvester sunt utile în rezolvarea în raport cu l ( s) şi p( s) a unei clase de ecua ţii Diofantice de forma l ( s)a( s) + p( s)b( s) = a*( s), unde a( s), * b( s) şi a ( s) sunt polinoame precizate. 2 - 15
De exemplu, ecuaţia a( s)l ( s) + b( s) p( s) = a*( s) cu na = n, na* = 2n – 1 şi nb = m < n conduce la ecuaţia algebrică S e x = f (2.3.30) unde S e ∈ ℜ 2n× 2 n este matricea Sylvester asociat ă lui a( s) şi b( s), x ∈ ℜ2 n este un vector care conţine coeficienţii polinoamelor l ( s) şi p( s) ale căror grade, conform Teoremei 2.3.1 sunt cel mult n – 1, iar f ∈ ℜ 2n conţine coeficienţii lui a*( s). Deci, dându-se a*( s), a( s) şi b( s), se poate rezolva (2.3.30) în raport cu x, vectorul coeficienţilor lui l ( s) şi p( s). Dacă a( s) şi b( s) sunt coprime, S e−1 există şi deci, soluţia lui (2.3.30) este unică şi este dat ă de x = S e−1 f . Dacă a( s) şi b( s) nu sunt coprime, atunci S e nu este inversabilă, şi (2.3.30) are o soluţie dacă şi numai dacă dimensiunea vectorului f este egală cu rangul lui S e. Prin calcule algebrice, se poate ar ăta c ă această condiţie este echivalent ă cu faptul că a*( s) conţine factorii comuni ai lui a( s) şi b( s). Exemplul 2.3.5. Consider ăm aceeaşi problemă de proiectare a comenzii ca cea din Exemplul 2.3.3, unde comanda u de forma u = -( p( s)/l ( s)) y este utilizat ă s − 1 pentru a for ţa sistemul y = 3 u să satisfacă ecuaţia caracteristic ă ( s + 1) 5 y = 0. s
Trebuie să ar ătăm că polinoamele l ( s) şi p( s) satisfac ecuaţia Diofantică (2.3.31) l ( s)a( s) + p( s)b( s) = ( s + 1)5 unde a( s) = s3 iar b( s) = s - 1. Matricea Sylvester S e corespunzătoare lui a( s) şi b( s) este ⎡1 0 0 0 0 0 ⎤ ⎢0 1 0 0 0 0 ⎥ ⎢ ⎥ 0 0 1 1 0 0 ⎢ ⎥ S e = ⎢ 0 0 0 −1 1 0 ⎥ ⎢ ⎥ 0 0 0 0 − 1 1 ⎢ ⎥ ⎢⎣0 0 0 0 0 − 1⎥⎦ Cum, det S e = -1, se deduce c ă a( s) şi b( s) sunt coprime. Ca şi în Exemplul 2.3.3, se doreşte rezolvarea lui (2.3.31) pentru coeficien ţii necunoscuţi l i, pi, i = 0, 1, 2 ai polinoamelor l ( s) = l 2 s2 +l 1 s+l 0 şi p( s) = p2 s2 + p1 s+ p0. Prin egalarea coeficien ţilor puterilor egale ale lui s din cei doi membri ai lui (2.3.31), se obţine ecuaţia algebrică (2.3.32) S e x = f unde f = [1, 5, 10, 10, 5, 1]T şi x = [l 2, l 1, l 0, p2, p1, p0]T . Deoarece S e este nesingular ă, soluţia lui (2.3.32) este dată de x = S e−1 f = [1, 5, 26, − 16, − 6, − 1]T , care este identic ă cu soluţia obţinută în Exemplul 2.3.3.
2 - 16
2.4. Modele parametrice ale procesului
Consider ăm procesul reprezentat prin următoarea formă minimală de stare: x& = Ax + Bu , x(0) = x0 (2.4.1) T y = C x unde x ∈ ℜn , u ∈ ℜ1 , y ∈ ℜ1 , iar A, B şi C au dimensiuni corespunzătoare. Tripletul ( A, B, C ) conţine n2+2n elemente numite parametri ai procesului. Dac ă (2.4.1) este în una din formele canonice prezentate în paragraful 2.2.2, atunci n2 elemente din ( A, B, C ) sunt fixate (cunoscute), fie 0 fie 1, ceea ce înseamn ă că pentru a specifica proprietăţile procesului sunt necesare cel mult 2 n elemente. Aceste 2 n elemente sunt coeficienţii număr ătorului şi numitorului funcţiei de transfer Y ( s)/U ( s). De exemplu, aplicând transformarea Laplace în (2.4.1), se ob ţine Y ( s) = C T ( sI - A)-1 BU ( s) + C T ( sI - A)-1 x0, de unde se deduce că Z ( s ) C T {adj ( sI − A)} (2.4.2) Y ( s ) = U ( s ) + x0 R ( s ) R ( s ) unde R( s) este un polinom de gradul n, iar Z ( s) de grad cel mult n - 1. Dacă în (2.4.2), x0 = 0, se obţine funcţia de transfer descrisă prin: Z ( s ) (2.4.3) y = u, R( s ) unde, f ăr ă pierderea generalităţii, se poate presupune că Z ( s) şi R( s) sunt de forma: Z ( s ) = bn −1 s n −1 + bn − 2 s n − 2 + L + b1 s + b0 R ( s) = s
n
+ an −1 s
n −1
+ an − 2 s
n−2
+ L + a1 s + a0
(2.4.4)
Dacă Z ( s) are gradul m < n − 1 , atunci coeficienţii bi, i = n − 1, n − 2,K, m + 1 sunt egali cu zero. Ecuaţiile (2.4.3) şi (2.4.4) arată că pentru a preciza univoc proprietăţile I/O ale procesului (2.4.1) sunt necesari cel mult 2 n parametri. Dacă în (2.4.3), pentru a specifica aceleaşi proprietăţi I/O, sunt utilizaţi mai mult decât 2 n parametri, se spune c ă modelul este supraparametrizat . De exemplu, modelul Z ( s) Λ ( s) y = u, (2.4.5) R( s ) Λ ( s) unde Λ( s) este Hurwitz şi are gradul r > 0 , are aceleaşi proprietăţi I/O ca şi procesul descris prin (2.4.3), şi, din această cauză, se spune că (2.4.5) este supraparametrizat. În plus, orice reprezentare de stare a lui (2.4.5) de ordin n + r > n este neminimală. Pentru anumite probleme de estimare şi control, parametrizările sigure ale procesului sunt mult mai convenabile decât alte tipuri de parametrizări. O parametrizare a procesului utilă în problemele de estimare şi control este cea în care parametrii sunt considera ţi împreună (reuniţi într-un vector), dar separa ţi de 2 - 17
semnalele măsurabile. Precizăm că în problemele de estimare a parametrilor, parametrii sunt consideraţi constante necunoscute care trebuie estimate din măsur ătorile semnalelor de I/O ale procesului. În paragraful următor, pentru un acelaşi proces, se prezintă o serie de parametrizări, utile pentru proiectarea estimatoarelor parametrilor (ce vor fi prezentate în capitolele viitoare). 2.4.1. Modele liniar-parametrizate
Parametrizarea 1
Ecuaţia (2.4.3) poate fi exprimat ă ca o ecuaţie diferenţială de ordinul n descrisă prin: y ( n ) + an −1 y ( n −1) + an − 2 y ( n − 2 ) + L + a1 y& + a0 y = bn −1u ( n −1) + bn − 2u ( n − 2 ) + L + b1u& + b0u (2.4.6) Dacă vom introduce toţi parametrii din (2.4.6) în vectorul parametrilor
θ* = [bn −1 , bn − 2 ,K, b1 , b0 , an −1 , an − 2 ,K, a1 , a0 ]T , iar semnalele de I/O precum şi derivatele lor, în vectorul semnalelor T T − α Y = [u ( n −1) , u ( n − 2 ) ,K, u& , u , − y ( n −1) ,− y ( n − 2 ) ,K,− y& , − y ]T = [αT ( s ) u , ( s ) y ] − − 1 1 n n
Δ
unde α i ( s) = [ s i , s i −1 ,K, s,1]T , atunci (2.4.6) şi implicit (2.4.3), se poate exprima în următoarea formă compactă (unde s trebuie interpretat ca operator diferenţial): y ( n)
T
= θ* Y
(2.4.7)
Ecuaţia (2.4.7) este liniar ă în raport cu parametrul θ* , proprietate care, a şa cum se va vedea în Cap. 4 şi 5, este esenţială pentru proiectarea estimatoarelor pentru estimarea lui θ* din măsur ătorile lui y(n) şi Y . Deoarece, în majoritatea aplica ţiilor, singurele semnale disponibile pentru a fi mă surate sunt intrarea u şi ieşirea y, iar folosirea derivatelor acestora nu este indicată, folosirea semnalelor y(n) şi Y trebuie evitată. O cale de a evita folosirea lui y(n) şi Y constă în a filtra fiecare membru din (2.4.7) cu un filtru stabil de ordin n, de forma 1/Λ( p) sau 1/Λ( s), obţinând: T
z = θ*
φ,
(2.4.8)
unde T
Δ ⎡ αT ( s ) αT n−1 ( s) ⎤ 1 ( n ) s n n −1 z = y = y , φ = ⎢ u, − y ⎥ , Λ( s) Λ( s ) Λ( s) ⎦ ⎣ Λ( s) Δ
iar
Λ ( s ) = s n + λ n −1 s n −1 + λ n − 2 s n − 2 + L + λ1 s + λ 0 este un polinom Hurwitz arbitrar în s. 2 - 18
Este clar că semnalul scalar z şi vectorul semnalelor φ pot fi generate f ăr ă a folosi derivatele, prin simpla filtrare a intr ării u şi a ieşirii y cu filtrele stabile strict i proprii / Λ( s , i = 0,)1, ..., n. s Dacă rescriem pe Λ( s) sub forma Λ( s) = s n + λT α n −1 ( s ) , unde λ = [λ n −1 , λ n − 2 ,K, λ 0 ]T , z din (2.4.8) se poate scrie în forma: Λ( s) − λT α n −1 ( s) α ( s) s n z = y = y = y − λT n −1 y , Λ ( s ) Λ( s) Λ( s) de unde α ( s) y = z + λT n −1 y . Λ ( s ) T
T
T
Deoarece z = θ* φ = θ1* φ1 + θ*2 φ2 , unde * 1
Δ
* 2
Δ
θ = [bn −1 , bn − 2 ,K, b1 , b0 ] , θ = [an −1 , an − 2 ,K, a1 , a0 ]T , T
Δ αT n−1 ( s ) αT n−1 ( s) φ1 = u , φ2 = − y Λ( s ) Λ( s) Δ
T
T
T
T
rezultă că, y = θ1* φ1 + θ*2 φ 2 − λT φ2 = θ1* φ1 + (θ*2 − λT )φ 2 . Deci, y = θ*λ T
T
φ,
(2.4.9)
T
unde θ*λ = [θ1* , θ*2 − λT ]T . Ecuaţiile (2.4.8) şi (2.4.9) sunt reprezentate prin schema bloc din Fig. 2.2. u
α n −1 ( s) φ1 Λ( s)
T θ1*
+
Σ
_
y + T θ*2
φ2
−
α n −1 ( s) Λ( s)
λT
+ +
Σ
z
Fig.2.2. Parametrizarea 1 a procesului
O reprezentare de stare pentru generarea semnalelor din (2.4.8) şi (2.4.9) poate fi obţinută folosind identitatea [adj ( sI − Λ c )] l = α n −1 ( s) , unde Λc şi l sunt date prin:
2 - 19
⎡− λ n−1 − λ n−2 ⎢ 1 0 ⎢ Λc = 0 1 ⎢ M M ⎢ 0 0 ⎣ care implică
L L L O L
− λ1 − λ 0 ⎤ ⎡1⎤ 0 0 ⎥ ⎢0 ⎥ ⎥ 0 0 , l = ⎢0⎥ ⎢M⎥ M ⎥ ⎥ ⎢⎣0⎥⎦ 1 0 ⎦
det( sI − Λ c ) = Λ( s ) , ( sI − Λ c ) −1 l =
α n −1 ( s ) . Λ ( s )
Atunci, din (2.4.8) şi Fig. 2.2 rezultă că:
φ& 1 = Λ c φ1 + lu, φ1 ∈ ℜ n φ& 2 = Λ c φ2 − ly, φ 2 ∈ ℜ n
(2.4.10)
* T λ
y = θ
φ
z = y + λT φ 2
T
= θ* φ
Deoarece Λ( s ) = det( sI − Λ c ) şi Λ( s) este Hurwitz, rezultă că Λc este o matrice stabil ă. Modelul parametric (2.4.10) este o reprezentare de stare neminimal ă a procesului (2.4.3). Este neminimală deoarece pentru a reprezenta un sistem de ordinul n sunt folosite 2n integratoare. Într-adevăr, funcţia de transfer Y ( s) /U ( s) calculată folosind (2.4.10) sau Fig. 2.2, Y ( s ) Z ( s ) Λ ( s ) Z ( s ) = = U ( s ) R( s) Λ ( s ) R( s) implică n simplificări poli-zerouri stabile. Sistemul (2.4.10) are acela şi r ăspuns I/O ca şi (2.4.3) şi (2.4.1) cu condiţia ca toate condiţiile iniţiale să fie nule, adică, x0 = 0, φ1 (0) = φ2 (0) = 0 . Într-un proces real, starea x din (2.4.1) poate reprezenta variabile fizice, iar starea iniţială x0 poate fi nenulă. Efectul stării iniţiale x0 poate fi inserat în modelul (2.4.10) utilizând aceeaşi procedur ă prezentată aplicată ecuaţiei (2.4.2) şi nu ecuaţiei (2.4.3). Se poate ar ăta că dacă se consider ă efectul condiţiei iniţiale x0, se va obţine următoarea reprezentare de stare: φ& 1 = Λ c φ1 + lu, φ1 (0) = 0
φ& 2 = Λ c φ2 − ly, φ2 (0) = 0
(2.4.11)
* T λ
y = θ
φ + η0 T
= θ* φ + η0 unde η0 este ieşirea următorului sistem: ω& = Λ c ω , ω(0) = ω0 η0 = C 0T ω z = y + λT φ 2
2 - 20
(2.4.12)
unde ω ∈ ℜ n , ω0 = B0 x0 şi C 0 ∈ ℜn , B0 ∈ ℜ n× n sunt matrice constante care satisfac egalitatea: C 0T {adj ( sI − Λ c )} B0 = C T {adj ( sI − A)} . Întrucât Λc este o matrice stabil ă, din (2.4.12) rezultă că ω şi η0 converg la zero exponenţial. Atunci, efectul condi ţiei iniţiale nenule x0 constă în apariţia în ieşirea y şi respectiv z a termenului η0 cu descreştere exponenţială la zero. Parametrizarea 2 T
Consider ăm modelul parametric (2.4.9), y = θ*λ φ , şi identitatea − W m ( s)W m 1 ( s ) = 1 , unde W m( s) = Z m( s) /Rm( s) este o funcţie de transfer cu gradul relativ 1, iar Z m( s) şi Rm( s) sunt polinoame Hurwitz. Deoarece θ*λ este un vector constant, (2.4.9) se poate exprima sub forma: T
y = W m ( s)θ*λ W m−1 ( s) φ .
Dacă în această relaţie notăm T
⎡ αT n−1 ( s ) 1 αT n−1 ( s) ⎤ u, − y ⎥ , ψ= φ=⎢ W m ( s ) W m ( s )Λ ( s ) ⎦ ⎣W m ( s) Λ( s ) unde φ este dat în (2.4.8), obţinem: Δ
y = W m ( s )θ*λ
T
ψ.
(2.4.13)
α n −1 ( s ) sunt funcţii de transfer cel mult W m ( s )Λ ( s) proprii, cu polii stabili, rezult ă că starea ψ = [ψ1T , ψT 2 ]T , unde α ( s) α n−1 ( s ) ψ1 = n −1 u , ψ2 = − y W m ( s)Λ ( s) W m ( s) Λ( s ) poate fi generată f ăr ă derivarea lui y sau u. Dimensiunea lui ψ depinde de ordinul n al lui Λ( s) şi de ordinul lui Z m( s). Cum Z m( s) poate fi arbitrar, dimensiunea lui ψ poate fi de asemenea arbitrar ă. Figura 2.3 prezintă schema bloc a parametriz ării procesului descris prin (2.4.13) pe care o vom denumi Parametrizarea 2 . Întrucât toate elementele lui
u
α n −1 ( s) ψ1 W m ( s)Λ ( s )
T θ1*
+
Σ
_
W m( s)
+ T θ*2
ψ2
λT Fig.2.3. Parametrizarea 2 a procesului 2 - 21
−α n−1 ( s) W m ( s) Λ ( s )
y
În [201], Parametrizarea 2 este denumită reprezentare cu model de referin ţă şi este folosită în proiectarea estimatoarelor parametrilor pentru estimarea lui θ*λ , când W m( s) este o funcţie de transfer strict real-pozitiv ă (vezi definiţia din Cap. 3). 1 Un caz special al lui (2.4.13) este prezentat în Fig. 2.4, unde W m ( s ) = , s + λ 0 iar s + λ 0 este factor a lui Λ( s), adică Λ( s ) = ( s + λ 0 )Λ q ( s) = s n + λ n−1 s n−1 + λ n−2 s n−2 + L + λ1 s + λ 0 , unde Λ q ( s ) = s n −1 + qn − 2 s n − 2 + L + q1 s + 1 . Parametrizarea 2 din Fig. 2.4 a fost sugerat ă pentru prima dată în [131], unde a fost folosită pentru dezvoltarea observerelor adaptive stabile. O alternativ ă a modelului parametric al procesului din Fig. 2.4 poate fi ob ţinută prin intermediul primei separ ări a elementelor improprii ale lui α n−1 ( s) / Λ q ( s) , astfel: α n−1 ( s) Λ q ( s)
u
ψ1
T θ1*
+
Σ
_
1 s + λ 0
+ * T
θ2
ψ2
y
−
α n −1 ( s) Λ q ( s)
λT Fig.2.4. Parametrizarea 2 a procesului cu Λ ( s) = ( s + λ 0 )Λ q ( s) şi W m ( s) = 1 /( s + λ 0 ) Δ
Pentru orice vector c = [cn −1 , cn − 2 ,K, c1 , c0 ]T ∈ ℜn , avem cT α n −1 ( s )
Λ q ( s) Δ
=
cn −1 s n −1
Λ q ( s )
+
c T α n − 2 ( s )
Λ q ( s)
(2.4.14)
Δ
unde c = [cn − 2 ,K, c1 , c0 ] , α n − 2 = [ s n − 2 ,K, s,1]T . Cum Λ q ( s ) = s n −1 + q T α n − 2 ( s) , T
Δ
unde q = [qn − 2 ,K, q1 ,1]T , avem s n −1 = Λ q ( s) − q T α n − 2 ( s) , care, după substituire conduce la: (c − cn −1q )T α n − 2 ( s ) cT α n −1 ( s) = cn −1 + (2.4.15) Λ q ( s) Λ q ( s) Folosid (2.4.15) se obţin următoarele expresii: T α T α ( s) ( s ) θ1* n −1 u = bn −1u + θ1* n − 2 u , Λ q ( s ) Λ q ( s ) T ⎞ α n −1 ( s ) * T *T α n − 2 ( s ) ( ) − ⎛ θ − λ = λ − − θ y a y y ⎜ 2 ⎟ n −1 n −1 2 ⎝ ⎠ Λ q ( s ) Λ q ( s ) 2 - 22
(2.4.16)
unde
*T 1
*T 2
θ = b − bn −1 q ,
Δ
θ = a − λ − (an −1 − λ n −1 ) q
Δ
a = [an − 2 , K, a1 , a0 ]T ,
şi
Δ
b = [bn − 2 , K, b1 , b0 ]
, λ = [λ n − 2 ,K, λ1 , λ 0 ]T . Utilizând (2.4.16), Fig. 2.4 poate fi reconfigurată ca în Fig. 2.5. T
u
α n − 2 ( s) Λ q ( s)
ψ1
T θ1*
+
Σ
+ +
1 s + λ 0
+ T θ2*
bn-1
ψ2
y
−
α n − 2 ( s) Λ q ( s)
λ n −1 − an −1 Fig.2.5 Echivalentul Parametrizării 2 din Fig.2.4
Din Fig. 2.5 se obţine următoarea reprezentare de stare neminimal ă a procesului: T x&1 = −λ 0 x1 + θ * ψ , x1 ∈ ℜ1
ψ& 1 = Λ c ψ1 + l u , ψ1 ∈ ℜ n−1 ψ& 2 = Λ c ψ 2 − l y , ψ 2 ∈ ℜ n−1 y = x1
(2.4.17)
unde T
T
θ* = [bn −1 , θ1* , λ n −1 − an −1 , θ2* ]T , ψ = [u, ψ1T , y, ψ2T ]T şi ⎡− qn − 2 − qn − 3 L − q0 ⎤ ⎡1⎤ ⎢ 0 L 0 ⎥ , l = ⎢0⎥ Λ c = ⎢ 1M ⎢M⎥ O M ⎥ ⎢ 0 ⎥ ⎢⎣0⎥⎦ 1 0 ⎦ L ⎣ Ca şi în cazul Parametriz ării 1, dacă se doreşte o justificare a condiţiei iniţiale x(0) = x0 ≠ 0 , se obţine: T
x&1 = −λ 0 x1 + θ*
ψ , x1 (0) = 0 ψ& 1 = Λ c ψ1 + l u , ψ1 (0) = 0 ψ& 2 = Λc ψ2 − l y , ψ 2 (0) = 0 y = x1 + η0 unde η0 este ieşirea sistemului: ω& = Λ c ω , ω(0) = ω0 , ω ∈ ℜ n η0 = C 0T ω 2 - 23
(2.4.18)
unde Λ c , C 0 şi ω0 sunt cele definite în (2.4.12). Exemplul 2.4.1 (Parameterizarea 1). Consider ăm ecuaţia diferenţială
y(4) + a2 y(2) + a0 y = b2u(2) + b0u
(2.4.19) care descrie mişcarea căruciorului cu două pendule considerat în Exemplele 2.2.1, 2.3.1, unde a2 = −1.1(α1 + α 2 ) , a0 = 1.2 α1α 2 , b2 = β1 , b0 = −α1β 2 . Ecuaţia (2.4.19) are aceeaşi formă ca cea din (2.4.6) cu n = 4 şi coeficienţii a3 = a1 = b3 = b1 = 0. Conform (2.4.7), ecuaţia (2.4.19) se poate rescrie în forma compactă y ( 4 )
= θ*0
T
(2.4.20)
Y 0
unde θ*0 = [b2 , b0 , a2 a0 ]T , Y 0 = [u ( 2) , u, − y ( 2) , − y ]T . Întrucât y şi u sunt singurele semnale care se măsoar ă, rezultă că y(4) şi Y 0 nu sunt măsurabile. Dacă fiecare membru din (2.4.20) este trecut prin filtrul 1 / Λ( s) , unde Λ( s) = ( s + 2) 4 = s4 + 8 s3 + 24 s2 + 32 s + 16, se va obţine z = θ*0
T
φ0
(2.4.21) T
⎡ s 2 ⎤ 1 1 s s 2 unde z = i φ = , , − , − sunt ş y u u y y ⎢ 0 4 4 4 4 4 ⎥ ( s + 2) ( s + 2) ( s + 2) ( s + 2) ⎦ ⎣ ( s + 2) acum semnalele care pot fi generate prin filtrarea m ăsur ătorilor lui y şi u. Deoarece în (2.4.19) elementele a3 = a1 = b3 = b1 = 0, dimensiunea lui θ*0 , respectiv φ0 este 4 în loc de 8, aşa cum ar fi rezultat din (2.4.8). Similar, conform (2.4.9) se obţine: 4
y = θ*λ
T
φ,
(2.4.22)
unde
θ*λ = [0, b2 , 0, b0 ,−8, a2 − 24, − 32, a0 − 16]T , T
⎡ αT 3 ( s ) αT 3 ( s) ⎤ φ=⎢ ,− , α 3 ( s) = [ s 3 , s 2 , s, 1]T . 4 u 4 y ⎥ ( s + 2) ⎦ ⎣ ( s + 2) În (2.4.22) se pot separa elementele lui θ*λ , care nu depind de parametrii lui (2.4.19) şi se obţine: y = θ*0 λ
T
φ0 + h0T φ
unde θ*0λ = [b2 , b0 , a2 − 24, a0 − 16]T , h0 = [0, 0, 0, 0,−8, 0, − 32,0]T . Folosind (2.4.10), se obţine o reprezentare de stare a lui (2.4.21) şi (2.4.22), dată de:
2 - 24
φ& 1 = Λ c φ1 + l u , φ1 ∈ ℜ 4 φ& 2 = Λ c φ2 − l y , φ 2 ∈ ℜ4 y = θ*λ z = θ*0
T
T
φ = θ*0λ φ0 + h0T φ
T
φ0
unde
⎡− 8 − 24 − 32 − 16⎤ ⎡1⎤ ⎡0 1 0 0 0 0 0 0 ⎤ 0 0 ⎥ , l = ⎢0⎥ , φ = ⎢0 0 0 1 0 0 0 0⎥ φ Λ c = ⎢⎢ 10 10 ⎢0 ⎥ 0 ⎢0 0 0 0 0 1 0 0 ⎥ 0 0 ⎥ ⎢⎣ 0 0 ⎢⎣0⎥⎦ ⎢⎣0 0 0 0 0 0 0 1 ⎥⎦ 1 0 ⎥⎦ T T T T T şi φ = [φ1 , φ 2 ] . În loc de (2.4.22), se poate de asemenea scrie y = θ*0 φ0 − λ φ 2 , unde λ = [8, 24, 32, 16]T . (Parametrizarea 2). Consider ăm acelaşi proces ca cel din T Exemplul 2.4.1, adică y = θ*λ φ , unde Exemplul 2.4.2
T
⎡ αT 3 ( s ) αT 3 ( s) ⎤ T * θλ = [0, b2 , 0, b0 ,−8, a2 − 24, − 32, a0 − 16] , φ = ⎢ u, − y . 4 4 ⎥ ( s + 2) ⎦ ⎣ ( s + 2) Rescriem acum pe y sub forma: T T Δ ⎡ α T ( s ) ⎤ 1 * T ( s ) α θλ ψ , unde ψ = ⎢ 3 3 u , − 3 3 y ⎥ . y = s + 2 ( s + 2) ⎦ ⎣ ( s + 2) Prin câteva calcule simple, se ob ţine: ⎡ s 3 ⎤ ⎡1⎤ ⎡− 6 − 12 − 8⎤ α 3 ( s ) 1 ⎢ s 2 ⎥ ⎢0⎥ 1 ⎢1 0 0⎥ = = + α ( s) , ( s + 2)3 ( s + 2)3 ⎢⎢ s ⎥⎥ ⎢0⎥ ( s + 2)3 ⎢ 0 1 0 ⎥ 2 ⎢⎣ 0 0 1 ⎥⎦ ⎣ 1 ⎦ ⎢⎣0⎥⎦ unde α2( s) = [ s2, s, 1]T . Atunci, ψ poate fi exprimat sub forma T
⎡ αT 2 ( s ) αT 2 ( s ) ⎤ T α 2 ( s ) T α 2 ( s ) ψ = ⎢u − λ u, u , − y + λ y, − y , 3 3 3 3 ⎥ ( s + 2) ( s + 2) ( s + 2) ( s + 2) ⎦ ⎣ T unde λ = [6, 12, 8]T , iar θ*λ ψ poate fi exprimat ca T
T
θ*λ ψ = θ* ψ
(2.4.23)
unde T
⎡ αT 2 ( s) αT 2 ( s ) ⎤ T * θ = [b2 , 0, b0 , 8, a2 + 24, 64, a0 + 48] , ψ = ⎢ u , y, − y . 3 3 ⎥ ( + 2 ) ( + 2 ) s s ⎣ ⎦ Atunci, 2 - 25
1 *T θ ψ s + 2 O realizare de stare a lui (2.4.24) este T x&1 = −2 x1 + θ * ψ , x1 ∈ ℜ1 y =
(2.4.24)
ψ& 1 = Λ c ψ1 + l u , ψ1 ∈ ℜ3 ψ& 2 = Λc ψ2 − l y , ψ 2 ∈ ℜ3 y = x1 ⎡− 6 − 12 − 8⎤ ⎡1 ⎤ T T T ψ = [ ψ1 , y, ψ2 ] , Λc = ⎢ 1 0 0 ⎥ , l = ⎢0⎥ . ⎢⎣ 0 1 0 ⎥⎦ ⎢⎣0⎥⎦
unde
2.4.2. Modele parametrice biliniare
Consider ăm parametrizarea unei clase speciale de sisteme exprimate prin Z ( s ) (2.4.25) y = k 0 0 u, R0 ( s) unde k 0 este un scalar, R0( s) este monic de grad n, iar Z 0( s) este monic şi Hurwitz de grad m < n. În plus, Z 0( s) şi R0( s) satisfac ecuaţia Diofantică (2.4.26) k 0 Z 0( s) P ( s) + R0( s)Q( s) = Z 0( s) A( s) unde Q( s ) = s n−
n −1
Δ
+ q α n − 2 ( s ) , P ( s) = p α n −1 ( s) , α i ( s) = [ s i , s i −1 ,K, s,1]T , T
T
sunt vectorii coeficienţilor lui Q( s ) − s n −1 , respectiv ai lui P ( s), polinom Hurwitz monic de grad 2n − m − 1 . Ecuaţia Diofantică (2.4.26) care pune în relaţie pe Z 0( s), R0( s), k 0 cu P ( s), Q( s) şi A( s) apare în proiectarea comenzilor, cum ar fi controlul cu model de referinţă, care va fi discutat în capitolele ulterioare. Polinoamele P ( s) şi Q( s) sunt de regulă polinoamele asociate controllerului care, pentru un A( s) dat, trebuie calculate prin rezolvarea ecuaţiei (2.4.26). Pentru aceasta, obiectivul nostru constă în a obţine o parametrizare a lui (2.4.25), în funcţie de coeficien ţii lui P ( s) şi Q( s), care să fie independentă de coeficienţii lui Z 0( s) şi R0( s). Acest obiectiv se atinge folosind (2.4.26) pentru a elimina dependenţa lui (2.4.25) de Z 0( s) şi R0( s) după cum urmează: Prin rescrierea lui (2.4.25) sub forma R0( s) y = k 0 Z 0( s)u şi înmulţind fiecare membru cu Q( s), se obţine: (2.4.27) Q( s) R0( s) y = k 0 Z 0( s)Q( s)u Înlocuind în (2.4.27) pe Q( s) R0( s) = Z 0( s)( A( s) - k 0 P ( s)) obţinut din (2.4.26), se obţine: (2.4.28) Z 0( s)( A( s) - k 0 P ( s)) y = k 0 Z 0( s)Q( s)u q ∈ ℜ 1 , p ∈ ℜ iar A( s) este un
n
2 - 26
Cum Z 0( s) este Hurwitz, vom filtra fiecare membru din (2.4.28) prin 1/ Z 0( s) obţinând (2.4.29) A( s) y = k 0 P ( s) y + k 0Q( s)u Rescriem (2.4.29) sub forma A( s ) y = k 0 [ pT α n −1 ( s) y + qT α n − 2 ( s )u + s n −1u ]
(2.4.30)
Acum există mai multe variante. Se poate filtra fiecare membru din (2.4.30) cu filtrul stabil 1/ A( s) obţinând: ⎡ T α n−1 ( s ) s n−1 ⎤ T α n − 2 ( s ) y = k 0 ⎢ p y + q u+ u⎥ ( ) ( ) ( ) A s A s A s ⎣ ⎦ care poate fi scris în forma compact ă T (2.4.31) y = k 0 (θ* φ + z 0 ) unde T T T ⎡ ⎤ α n − 2 ( s) α n −1 ( s ) s n −1 T T T * θ = [q , p ] , φ = ⎢ u, y ⎥ şi z 0 = u. A( s) ⎦ A( s) ⎣ A( s) Se poate de asemenea filtra fiecare membru din (2.4.30) utilizând un filtru arbitrar stabil 1/Λ( s) al cărui ordin nλ satisface 2n − m − 1 ≥ nλ ≥ n − 1 , obţinând T
y = W ( s)k 0 (θ*
φ + z 0 )
(2.4.32)
unde acum T ⎡ αT n− 2 ( s ) αT n−1 ( s ) ⎤ Λ( s ) s n −1 φ=⎢ este o funcţie de transfer u, y ⎥ , z 0 = u şi W ( s ) = Λ ( ) Λ ( ) Λ ( ) ( ) s s s A s ⎣ ⎦ proprie. În (2.4.31) şi (2.4.32), φ şi z 0 pot fi generate prin filtrarea intr ării u şi a ieşirii y a procesului. De aceea, dac ă u şi y sunt măsurabile, atunci toate semnalele din (2.4.31) şi (2.4.32) pot fi generate, singurele necunoscute posibile fiind k 0 şi θ* . Dacă k 0 este cunoscut, el poate fi absorbit în semnalele φ şi z 0, conducând la modele care sunt afine în θ* , de forma: T
y = W ( s)θ*
φ
(2.4.33)
unde y = y − W ( s )k 0 z , iar φ = k 0φ . Dacă k 0 este totuşi necunoscut şi este parte a parametrilor de interes, atunci (2.4.31) şi (2.4.32) nu sunt afine în raport cu parametrii k 0 şi θ* , dar k 0 şi θ* apar într-o formă specială biliniar ă. Din acest motiv, definim (2.4.31) şi (2.4.32) ca modele parametrice biliniare pentru a le distinge de cele de forma (2.4.7)-(2.4.9) şi (2.4.33), care sunt referite ca modele parametrice liniare sau modele parametrice afine (sau modele afine în raport cu parametrii). Aceste forme de modele (parametrizate liniar şi bilinear) sunt destul de 2 - 27
generale pentru a include şi parametrizările anumitor sisteme ale c ăror dinamici nu sunt neapărat liniare, aşa cum se vede în exemplul următor. Exemplul 2.4.3. Consider ăm sistemul neliniar scalar (2.4.34) x& = a0 f ( x, t ) + b0 g ( x, t ) + c0u unde a0, b0 şi c0 sunt scalari constan ţi, f ( x, t ) şi g ( x, t ) sunt funcţii neliniare cunoscute care pot fi calculate la fiecare moment de timp t , iar u şi x sunt intrarea şi starea sistemului. Presupunem că f , g şi u sunt astfel încât pentru fiecare condi ţie iniţială x(0) = x0, (2.4.34) are o singur ă soluţie definită pentru orice t ∈ [0, ∞) . Dacă x şi u sunt măsurabile, prin filtrarea fiecărui membru al lui (2.4.34) cu un filtru stabil strict propriu cu func ţia de transfer W f ( s), modelul (2.4.34) poate fi exprimat în forma modelului parametric (2.4.33): T
z = W f ( s )θ*
φ
(2.4.35)
unde z = sW f ( s ) x , θ* = [a0 , b0 , c0 ]T şi φ = [ f ( x, t ), g ( x, t ), u ]T . În loc de (2.4.35), relaţia (2.4.34) se poate rescrie în forma T x& = − am x + am x + θ* φ cu am > 0, sau T 1 ⎡ x = am x + θ* φ⎤ ⎥⎦ s + am ⎢⎣ Atunci, Δ T am 1 z = x − x = (2.4.36) θ* φ s + am s + am care are aceea şi formă cu (2.4.35) cu W f ( s) = 1/( s+am). Se poate continua şi rescrie (2.4.35) (respectiv (2.4.36)) sub forma T
z = θ*
φ f , φ f = W f ( s) φ
(2.4.37)
care este de forma (2.4.8). Exemplul prezentat demonstrează faptul că deşi parametrul θ* apare liniar în (2.4.35) şi (2.4.37) nu înseamnă că are o dinamică liniar ă. 2.5. Probleme
2.1. Fie a( s) = ( s + α)3, b( s) = β , unde α, β sunt constante cu β ≠ 0 . (a) Scrieţi matricea Sylvester asociat ă lui a( s) şi b( s). (b) Consider ăm că p0( s), l 0( s) este o soluţie a ecuaţiei polinomiale (2.5.1) a( s)l ( s) + b( s) p( s) = 1. Ar ătaţi c ă ( p1( s), l 1( s)) este o soluţie a lui (2.5.1) dac ă şi numai dacă p1( s), l 1( s) pot fi exprimate sub forma p1( s) = p0( s) + r ( s)a( s), l 1( s) = l 0( s) - r ( s)b( s) pentru orice polinom r ( s). 2 - 28
(c) Găsiţi soluţia lui (2.5.1) pentru care p( s) are cel mai mic grad şi p( s) /l ( s) este o funcţie raţională proprie. 2.2. Se consider ă procesul de ordinul trei y = G( s)u, unde G ( s ) =
b2 s 2 + b1 s + b0
s 3 + a2 s 2 + a1 s + a0
(a) Scrieţi modelul parametric al procesului în forma (2.4.8) sau (2.4.13) când
θ* = [b2, b1, b0, a2, a1, a0]T . (b) Dacă a0, a1 şi a2 sunt cunoscute, adică, a0 = 2, a1 = 1 şi a2 = 3, scrieţi un model parametric al procesului în funcţie de θ* = [b2, b1, b0]T . (c) Dacă b0, b1 şi b2 sunt cunoscute, adică, b0 = 1, b1 = b 2 = 0, dezvoltaţi un model parametric în funcţie de θ* = [a2, a1, a0]T . 2.3. Se consider ă sistemul cu amortizare de mai jos: unde k este constanta resortului, f este coeficientul de frecare vâscoasă sau de amortizare, m este masa sistemului, u este for ţa de intrare, iar x este deplasarea masei M . Dacă se consider ă un resort "liniar", adică, for ţa ce acţionează asupra resortului este propor ţională cu deplasarea, iar for ţa de frecare este propor ţională cu viteza x& , utilizând legea lui Newton, se ob ţine următoarea ecuaţie diferenţială: && = u − k x − f x& M x care descrie dinamica sistemului. (a) Precizaţi o reprezentare de stare a sistemului. (b) Calculaţi funcţia de transfer dintre x şi u. T (c) Obţineţi un model parametric liniar de forma z = θ* φ , unde θ* = [ M , k , f ]T , iar z , φ sunt semnale care pot fi generate din m ăsur ătorile lui u şi x, f ăr ă a utiliza elemente derivative. 2.4. Verificaţi dacă (2.4.11) şi (2.4.12) sunt reprezentări de stare neminimale ale sistemului descris prin (2.4.1). Ar ătaţi c ă pentru aceeaşi intrare u(t ), ieşirea y(t ) este identică pentru cele două sisteme. ( Indica ţ ie: Verificaţi că C 0T [adj ( sI − Λ c )] B0
= C T [adj ( sI − A)]
pentru anumiţi C 0 ∈ ℜ n , B0 ∈ ℜn× n folosind identitatea [adj( sI - A)] = sn-1 I + sn-2( A + an-1 I ) + sn-3( A2 + an-1 A + an-2 I ) + ... + ( An-1 + an-1 An-2 + ... + a1 I ) şi alegând C 0 astfel încât ( C 0, Λc) să fie o pereche observabilă. 2.5. Scrieţi o reprezentare de stare pentru urm ătorul sistem: α ( s) (a) φ = n −1 u , Λ( s) este monic de ordin n. Λ( s) 2 - 29
α n −1 ( s ) u , Λ1( s) este monic de ordin n - 1. Λ1 ( s) α ( s ) (c) φ = m u , m ≤ n − 1 , Λ1( s) este monic de ordin n - 1. Λ1 ( s) (b) φ =
2.6. Ar ătaţi că ( sI − Λ c ) −1 l = (C oT ( sI − Λ o ) −1 ) = T
α n −1 ( s ) , unde (Λc, l ) este Λ ( s )
forma controller, iar ( C o, Λo) este forma observer. Bibliografie
[30] Chen, C.T., Introduction to Linear System Theory, Holt, Rinehart and Winston Inc., New York, 1970. [42] Desoer, C.A. and M. Vidyasagar, Feedback Systems: Input-Output Properties, Academic Press Inc., New York, 1975. [44] Dorf, R.C. Modern Control Systems, 6th Edition, Addison-Wesley Publishing Company, Reading, Massachusetts, 1991. [57] Franklin, G.F., J.D. Powell and A. Emami-Naeini, Feedback Control of Dynamic Systems, 2nd Edition, Addison-Wesley, Reading, Massachusetts, 1991. [73] Goodwin, G.C. and K.C. Sin, Adaptive Filtering Prediction and Control , Prentice Hall, Englewood Cliffs, New Jersey, 1984. [95] Kailath, T., Linear Systems , Prentice Hall, Englewood Cliffs, New Jersey, 1980. [121] Kuo, B. C. Automatic Control Systems, 6th Edition, Prentice Hall, Englewood Cli®s, New Jersey, 1991. [131] Luders, G. and K.S. Narendra, "A New Canonical Form for an Adaptive Observer", IEEE Transactions on Automatic Control, Vol. 19, no. 2, pp. 117-119, 1974. [180] Ogata, K. Modern Control Engineering , 2nd Edition, Prentice Hall, Englewood Cliffs, New Jersey, 1990. [201] Sastry, S. and M. Bodson, Adaptive Control: Stability, Convergence and Robustness , Prentice Hall, Englewood Cliffs, New Jersey, 1989. [226] Tsakalis K.S. and P.A. Ioannou, Linear Time Varying Systems: Control and Adaptation, Prentice Hall, Englewood Cliffs, New Jersey, 1993. [237] Wolovich, W.A., Linear Multivariable systems , Springer-Verlag, New York, 1974. [238] Wonham, W.M., Linear Multivariable Control: A Geometric Approach, 3rd Edition, Springer-Verlag, New York, 1985.
2 - 30
Cap. 3 Stabilitate 3.1. Introducere
Conceptul de stabilitate este legat de investigarea şi caracterizarea comportării sistemelor dinamice. Stabilitatea joac ă un rol important în teoria sistemelor şi ingineria controlului şi a fost intens investigat ă în secolele trecute. Câteva dintre conceptele fundamentale de stabilitate au fost introduse de matematicianul şi inginerul rus Alexandr Lyapunov (vezi [133]). Lucrarea lui Lyapunov a fost extins ă şi adusă în atenţia unei largi comunit ăţi din ingineria controlului şi matematicii aplicate prin LaSalle şi Lefschetz [124, 125, 126], Krasovskii [107], Hahn [78], Massera [139], Malkin [134], Kalman şi Bertram [97] şi mulţi alţii. În sistemele de conducere, suntem interesa ţi de schimbarea proprietăţilor sistemelor dinamice în a şa fel încât acestea s ă aibă o comportare acceptabilă chiar dacă asupra lor acţionează perturbaţii externe. Scopul acestui capitol este acela de a prezenta câteva definiţii şi rezultate de baz ă ale stabilit ăţii utilizate în proiectarea şi analiza sistemelor de conducere. Multe din rezultatele prezentate sunt generale şi pot fi găsite în căr ţile standard de specialitate. Altele sunt mai specifice şi sunt dezvoltate pentru sisteme adaptive. Demonstra ţiile majorităţii rezultatelor generale sunt omise, dar sunt precizate referinţele corespunzătoare. Sunt prezentate de asemenea o serie de exemple edificatoare. 3.2. Preliminarii 3.2.1 Norme şi spaţii L p Definiţia 3.2.1. Norma
| x | a unui vector x este o func ţ ie real ă cu
urmă toarele propriet ăţ i: (i) | x | ≥ 0 cu | x |
= 0 dacă şi numai dacă x = 0 (ii) | α x | = | α | | x | pentru orice scalar α (iii) | x + y | ≤ | x | + | y | (inegalitatea triunghiului) Norma | x unui | vector x poate fi interpretată ca mărimea sau lungimea vectorului x. Similar, | x − y | poate fi interpretat ă ca distanţa dintre vectorii x şi y. O m × n matrice A reprezintă a aplicaţie liniar ă de la spaţiul n-dimensional ℜ n în spaţiul m-dimensional ℜm . Vom defini norma indusă a lui A astfel: Definiţia 3.2.2. Fie | ⋅ | norma unui vector. Atunci, pentru fiecare matrice A ∈ ℜ m× n , cantitatea || A || definit ă prin 3-1
Δ
|| A || = sup x ≠ 0 x∈ℜ n
şte norma se nume vectorului | ⋅ | .
| Ax | = sup | Ax | = sup | Ax | | x | | x|≤1 | x |=1
(matriceală) indusă a matricei A corespunz ă toare normei
Norma (matriceal ă) indusă satisface proprietăţile (i) - (iii) din Defini ţia 3.2.1. Câteva dintre proprietăţile normei induse ce vor fi des utilizate în acest curs sunt următoarele: (i) | Ax | ≤ || A || | x |, ∀ x ∈ ℜ n (ii) || A + B || ≤ || A || + || B || (iii) || A B || ≤ || A || || B || unde A şi B sunt matrice arbitrare cu dimensiuni compatibile. Tabelul 3.1 prezintă câteva dintre cele mai utilizate norme în ℜn . Tabelul 3.1. Norme uzuale
Norma indusă pe ℜm×n || A ||∞ = max i ∑ j | aij | (suma liniilor)
Norma pe ℜn | x |∞ = maxi | xi | (norma infinită)
| x |1 = ∑i | xi |
|| A ||1 = max j ∑i | aij | (suma coloanelor)
| x |2 = (∑i | xi |2 )
1/ 2
(norma Euclidiană)
1/ 2
|| A ||2 = [λ m ( AT A)] , unde λ m ( M ) este valoarea proprie maximă a lui M
Δ
Trebuie notat că funcţia || A || s = max ij | aij | , unde A ∈ ℜ m×n şi aij este elementul (i, j ) al lui A satisface proprietăţile (i) - (iii) din Definiţia 3.2.1. Totuşi aceasta nu este o normă matriceală indusă deoarece nu există o normă vectorială astfel încât || ⋅ || s să fie norma indusă corespunzătoare. Exemplul 3.2.1. (i) Fie x = [1, 2,
-10, 0]T . Folosind Tabelul 3.1, se obţine: | x |∞ = 10 , | x |1 = 13 , | x |2 = 105 ⎡0 5 ⎤ (ii) Fie A = ⎢1 0 ⎥ , B = ⎡⎢−01 52⎤⎥ . Folosind Tabelul 3.1, se obţine: ⎣ ⎦ ⎢⎣0 − 10⎥⎦ || A ||1 = 15 , || A ||2 = 11.18 , || A ||∞ = 10 || B ||1 = 7 , || B ||2 = 5.465 , || B ||∞ = 6 || A B ||1 = 35 , || A B ||2 = 22.91 , || A B ||∞ = 20 care pot fi folosite pentru a verifica proprietatea (iii) a normei induse. Pentru funcţii de timp, se define şte norma L p Δ
|| x || p =
(∫ | x(τ) | d τ) ∞
p
1 / p
0
3-2
∈ [1, ∞ ppentru
. Spunem ) că x ∈ L p când || x || p există (adică, când || x || p este finită). Norma L∞ este definită prin Δ
|| x ||∞ = sup | x(t ) | t ≥ 0
şi se spune că x ∈ L∞
când || x ||∞ există. În definiţiile normelor L p şi L∞ de mai sus, x(t ) poate fi o func ţie scalar ă sau vectorială. Dacă x este o funcţie scalar ă, atunci | ⋅ | desemnează valoarea absolută. Dacă x este o funcţie vectorială în ℜn , atunci | ⋅ | desemnează orice normă în ℜ n . Similar, pentru secvenţe de numere se defineşte norma l p prin 1 / p Δ ⎛ ∞ ⎞ || x || p = ⎜⎜ ∑ | xi | p ⎟⎟ , 1 ≤ p < ∞ ⎝ i =1 ⎠ şi norma l ∞ ca Δ
|| x ||∞ = sup x | i| i ≥1
unde x = ( x1 , x2 ,K) şi xi ∈ ℜ . Spunem că x ∈ l p (respectiv x ∈ l ∞ ) dacă || x || p (respectiv || x ||∞ ) există. De multe ori ne confrunt ăm cu clase de funcţii de timp care nu apar ţin lui L p. Pentru a folosi astfel de func ţii se defineşte norma L pe: Δ
|| xt || p =
∈ [1, ∞ ppentru
(∫ | x(τ) | d τ) t
p
1 / p
0
spunem ) că x ∈ L pe când || xt || p există pentru orice t finit. este definită prin
şi
Similar, norma L∞e
Δ
|| xt ||∞ = sup | x(τ) | 0 ≤ τ ≤ t
şi se spune că x ∈ L∞
când || x ||∞ există. Funcţia t 2 nu apar ţine lui L p, dar t 2 ∈ L pe . Similar, orice funcţie de timp continuă apar ţine lui L pe, dar ea poate să nu apar ţină lui L p. Pentru fiecare p ∈ [1, ∞] , mulţimea funcţiilor care apar ţin lui L p (respectiv lui L pe) formează un spa ţ iu vectorial liniar numit spaţiul L p (respectiv, spaţiul L pe) [42]. Dacă se defineşte funcţia trunchiată f t prin Δ ⎧ f ( τ), 0 ≤ τ ≤ t f t (τ) = ⎨ τ > t ⎩0, pentru orice ) este clar c ă, pentru orice p ∈ [1, ∞) , f ∈ L pe t ∈ [0, ∞ , atunci, determină ca f t ∈ L p pentru orice t finit. Spaţiul L pe se numeşte spa ţ iul L p extins şi este definit ca mulţimea tuturor funcţiilor f cu proprietatea că f t ∈ L p . 3-3
3.2.2. Proprietăţi ale funcţiilor
Prezentăm mai întâi câteva defini ţii. Defniţia 3.2.3. (Continuitate). O funcţie f : [0, ∞) → ℜ este continuă pe [0, ∞) dacă pentru orice ε0 > 0 dat, există un δ(ε 0 , t 0 ) astfel încât ∀ t 0 , t ∈ [0, ∞) pentru | t −care t 0 | < δ(ε 0 , t 0 avem )| f (t ) − f (t 0 ) | < ε 0 . Defniţia 3.2.4. (Continuitate uniformă). O funcţie f : [0, ∞) → ℜ
este uniform continuă pe [0, ∞) dacă pentru orice ε0 > 0 dat, există un δ(ε0 ) astfel încât ∀ t 0 , t ∈ [0, ∞) pentru care | t − t 0 | < δ(ε 0 ) avem | f (t ) − f (t 0 ) | < ε 0 . (Continuitate pe por ţiuni). O funcţie f : [0, ∞) → ℜ este continuă pe por ţiuni pe [0, ∞) dacă f este continuă pe orice interval finit [t 0 , t 1 ] ⊂ [0, ∞) cu excepţia unui număr finit de puncte. Defniţia 3.2.5.
(Continuitate absolută). O funcţie f : [a, b] → ℜ este absolut continuă pe [a, b] dacă şi numai dacă pentru orice ε 0 > 0 dat, există un δ > 0 astfel încât Defniţia 3.2.6.
n
∑=1| f (α ) − f (β ) |< ε0 i
i
i
ţime finită de subintervale (α i , βi ) ale lui [a, b] cu pentru orice mul
∑ =1| α n
i
i
− βi | < δ .
(Lipschitz). O funcţie f : [a, b] → ℜ este Lipschitz pe [a, b] dacă | f ( x1 ) − f ( x2 ) | ≤ k | x1 − x2 |, ∀ x1 , x2 ∈[a, b] , unde k ≥ 0 este o constantă denumită constantă Lipschitz. Funcţia f (t ) = sin(1 / t ) este continuă pe (0, ∞) , dar nu este uniform continu ă (de verificat). O funcţie definită printr-o undă pătratică cu o anumită frecvenţă nu este continuă pe [0, ∞) , dar este continuă pe por ţiuni. Menţionăm că o funcţie uniform continu ă este de asemenea continuă. O funcţie f cu f & ∈ L∞ este uniform continuă pe [0, ∞) . De aceea, o cale uşoar ă de a verifica continuitatea uniform ă a lui f (t ) constă în a verifica mărginirea lui f & . Dacă f este Lipschitz pe [a, b] , atunci f este absolut continuă. Defniţia 3.2.7.
Câteva dintre cele mai importante leme, frecvent utilizate în analiza schemelor adaptive, sunt următoarele: Lema 3.2.3. Pentru funcţiile scalare sunt adevărate următoarele afirmaţii: (i) O funcţie f (t ) care este mărginită inferior şi este necrescătoare are o limită când t → ∞ . 3-4
(ii) Consider ăm funcţiile scalare nenegative f (t ) şi g (t ) definite pentru t ≥ 0 . Dacă f (t ) ≤ g (t ), ∀ t ≥ 0 şi g ∈ L p , atunci f ∈ L p pentru toţi p ∈ [1, ∞] . Demonstra ţ ia. S-a omis. Lema 3.2.3 (i) nu conduce şi la f ∈ L∞ . De exemplu, funcţia f (t ) = 1/t cu t ∈ (0, ∞) este mărginită inferior, adică, f (t ) ≥ 0 şi este necrescătoare, dar ea devine nemărginită (superior) când t → 0 . Dacă totuşi f (0) este finită atunci, din proprietatea de necreştere f (t ) ≤ f (0), ∀ t ≥ 0 , rezultă că f ∈ L∞ . În acest curs vom folosi un caz special al Lemei 3.2.3 care apare când f ≥ 0 şi f & ≤ 0 . Lema 3.2.4. Fie f , V : [0, ∞) → ℜ . Atunci & ≤ −αV + f , ∀ t ≥ t ≥ 0 V 0 determină ca t − α (t − t 0 ) V (t ) ≤ e V (t 0 ) + ∫ e − α ( t − τ) f (τ) d τ, ∀ t ≥ t 0 ≥ 0 t 0
pentru orice constantă finită α . Demonstra ţ ie. S-a omis. Dacă f , f & ∈ L∞ f (t ) → 0 când t → ∞ . Lema 3.2.5.
şi f ∈ L p
pentru anumiţi p ∈ [1, ∞) , atunci
Rezultatul Lemei 3.2.5 este un caz special al unui rezultat mult mai general dat prin Lema lui Barb ălat, prezentată mai jos. Lema 3.2.6.
t
(Lema lui Barbălat [192]). Dacă limt →∞ ∫ 0 f (τ)d τ există şi este
finită, iar f (t ) este o funcţie uniform continuă, atunci limt →∞ f (t ) = 0 . Demonstra ţ ie. S-a omis. Demonstraţia Lemei 3.2.5 rezultă direct din cea a Lemei 3.2.6 cu menţiunea că funcţia f p (t ) este uniform-continuă pentru orice p ∈ [1, ∞) deoarece f , f & ∈ L∞ . Condiţia ca f (t ) să fie uniform continuă este crucială pentru rezultatele Lemei 3.2.6. 3.2.3. Matrice pozitiv definite
O matrice pătratică A ∈ ℜn× n se numeşte simetrică dacă A = AT . O matrice simetrică A se numeşte pozitiv semidefinit ă dacă pentru fiecare vector x ∈ ℜn , T T n x A x ≥ 0 şi pozitiv definit ă dacă x A x > 0 , ∀ x ∈ ℜ cu | x | ≠ 0 . Ea se nume şte negativ semidefinit ă (negativ definit ă ) dacă -A este pozitiv semidefinit ă (pozitiv definită). Definiţia unei matrice pozitiv definite poate fi generalizat ă şi la matrice nesimetrice. În acest curs, când se consider ă proprietăţile de pozitivitate sau negativitate definită sau semidefinită, vom considera întotdeauna că matricea este simetrică. 3-5
Vom scrie A ≥ 0 dacă A este pozitiv semidefinit ă şi A > 0 dacă A este pozitiv definită. Vom scrie A ≥ B şi A > B dacă A − B ≥ 0 şi respectiv A − B > 0 . O matrice simetrică A ∈ ℜn× n este pozitiv definită dacă şi numai dacă oricare dintre următoarele condiţii sunt valabile: (i) λ i ( A) > 0, i = 1, 2,K, n unde λ i ( A) reprezintă a i-a valoare proprie a lui A, care este real ă deoarece A = AT . (ii) Există o matrice nesingular ă A1 astfel încât A = A1 A1T . (iii) Fiecare minor principal al lui A este pozitiv. (iv) xT A x ≥ α | x |2 pentru anumiţi α > 0 şi ∀ x ∈ ℜn . Decompoziţia A = A1 A1T din (ii) este unică când A1 este de asemenea simetrică. În acest caz, A1 este pozitiv definită, ea are aceea şi vectori proprii ca şi A, iar valorile proprii ale sale sunt egale cu r ădăcinile pătrate ale valorilor proprii corespondente ale matricei A. Vom specifica aceast ă decompoziţie unică a lui A notând A1 ca A1 / 2 , adică, A = A1 / 2 AT / 2 unde A1 / 2 este o matrice pozitiv definit ă iar AT / 2 reprezintă transpusa lui A1 / 2 . O matrice simetrică A ∈ ℜ n× n are n vectori proprii ortogonali şi poate fi descompusă ca T (3.2.5) A = U Λ U unde U este o matrice unitar ă (ortogonală) (adică, U T U = I ) formată cu vectorii proprii ai lui A, iar Λ este o matrice diagonal ă compusă din valorile proprii ale lui A. Folosind (3.2.5), rezultă că dacă A ≥ 0 , atunci pentru orice vector x ∈ ℜ n λ min ( A) | x |2 ≤ xT A x ≤ λ max ( A) | x |2 Mai mult, dacă A ≥ 0 atunci || A ||2 = λ max ( A) , iar dacă A > 0, avem 1 || A−1 ||2 = λ min ( A) unde λ max ( A) , λ min ( A) reprezintă valorile proprii maximă şi minimă ale lui A. Menţionăm că dacă A > 0 şi B ≥ 0 , atunci A + B > 0, dar în general nu este adevărat că A B ≥ 0 . 3.3. Stabilitate intrare/ieşire
Sistemele întâlnite în acest curs pot fi descrise printr-o rela ţie intrare-ieşire (I/O) care asociază fiecărei intr ări o ieşire corespondentă, sau printr-o reprezentare în variabile de stare. În acest paragraf vom prezenta câteva rezultate de baz ă legate de stabilitatea I/O. Aceste rezultate sunt bazate pe tehnici din analiza func ţională [42] şi multe dintre ele pot fi aplicate atât sistemelor continue cât şi sistemelor 3-6
discrete în timp. Rezultate similare sunt prezentate în paragraful 3.4 folosind abordarea prin variabile de stare şi teoria Lyapunov. 3.3.1. Stabilitatea L p
Consideram un sistem liniar invariant în timp (LTI) descris prin convolu ţia a două funcţii u, h : ℜ + → ℜ , definit prin: y (t ) = u ∗ h
Δ
t
t
= ∫ 0 h(t − τ) u (τ) d τ = ∫ 0 u (t − τ) h(τ) d τ
(3.3.1)
unde u şi y sunt intrarea şi respectiv ieşirea sistemului. Fie H ( s) transformata Laplace a operatorului I/O, h(⋅) . H ( s) se numeşte funcţie de transfer, iar h(t ) r ăspuns la impuls al sistemului (3.3.1). Sistemul (3.3.1) poate fi de asemenea reprezentat în forma (3.3.2) Y ( s) = H ( s)U ( s) unde Y ( s) şi U ( s) sunt transformatele Laplace ale lui y şi respectiv u. Se spune că sistemul reprezentat prin (3.3.1) sau (3.3.2) este L p stabil dacă u ∈ L p ⇒ y ∈ L p şi || y || p ≤ c || u || p pentru anumite constante c ≥ 0 şi orice u ∈ L p . Când = ∞ , stabilitatea L p, adică stabilitatea L∞ , este de asemenea referită ca stabilitate intrare-mărginită ieşire-mărginită ( BIBO stability ). Pentru sistemul (3.3.1) sunt valabile următoarele rezultate. Teorema 3.3.1. Dacă u ∈ L p şi h ∈ L1 , atunci
|| y || p ≤ || h ||1 || u || p unde p ∈ [1, ∞] .
(3.3.3)
Când p = 2, pentru || y || p se obţine o margine mai precis ă (abruptă) decât cea din (3.3.3), dată prin următoarea lemă. Lema 3.3.1. Dacă u ∈ L2 şi h ∈ L1 , atunci || y ||2 ≤ sup | H ( jω) ||| u ||2 (3.3.4) ω
Pentru demonstrarea Teoremei 3.3.1 şi Lemei 3.3.1 vezi [42]. Consider ăm cazul în care h(t ) din (3.3.1) este r ăspunsul la impuls al unui sistem LTI a c ărui funcţie de transfer H ( s) este o funcţie raţională în s. Sunt valabile următoarele teoreme şi corolarii. Teorema 3.3.2. Fie H ( s) o funcţie raţională în s strict proprie. Atunci H ( s) este analitică în Re[ s] ≥ 0 dacă şi numai dacă h ∈ L1 . Corolarul 3.3.1. Dacă h ∈ L1 , atunci
(i) h descreşte exponenţial , adic ă, | h(t ) | ≤ α1e − α 0 t pentru anumiţi α1 , α 0 > 0 ; (ii) u ∈ L1 ⇒ y ∈ L1 I L∞ , y& ∈ L1 , y este continuă şi limt → ∞ | y (t ) |= 0 ; (iii) u ∈ L2 ⇒ y ∈ L2 I L∞ , y& ∈ L2 , y este continuă şi limt →∞ | y (t ) |= 0 ; 3-7
(iv) Pentru p ∈ [1, ∞], u ∈ L p ⇒ y, y& ∈ L p şi y este continuă. Pentru demonstrarea Teoremei 3.3.2 şi Corolarului 3.3.1, vezi [42]. Corolarul 3.3.2. Fie H ( s) proprie şi analitic ă în Re[ s ] ≥ 0 . Atunci u ∈ L2 I L∞ şi lim t → ∞ | u (t ) |= 0 determină ca y ∈ L2 I L∞ şi lim t → ∞ | y (t ) |= 0 . Demonstra ţ ie. 3.3.2. Norma L2 şi stabilitatea I/O
Definiţiile şi rezultatele din paragrafele anterioare sunt foarte folositoare în dezvoltarea rezultatelor de stabilitate I/O (bazate pe o norm ă diferită) dar în particular sunt utile şi în analiza schemelor adaptive. În acest paragraf se consider ă norma L2 ponderat ă exponen ţ ial definită prin: Δ
|| xt ||2δ =
(∫ e t
0
− δ ( t − τ )
x
T
(τ) x(τ) d τ
)
1/ 2
unde δ ≥ 0 este o constantă. Spunem că x ∈ L2δ dacă || xt ||2δ există. Când δ = 0 el nu mai apare ca indice şi se va folosi notaţia x ∈ L2e . Vom defini || (⋅) ||2δ norma L2δ . Pentru orice timp finit t , norma L2δ satisface proprietăţile normei date prin Definiţia 3.2.1, adică, (i) || xt ||2δ ≥ 0 (ii) || α xt ||2δ = | α | || xt ||2δ pentru orice constant ă scalar ă α (iii) || ( x + y )t ||2δ ≤ || xt ||2δ + || yt ||2δ (inegalitatea triunghiului) Rezultă că: (iv) || α xt ||2δ ≤ || xt ||2δ supt | α(t ) | pentru orice α ∈ L∞ Noţiunea de normă L2δ a fost introdusă în principal pentru a simplifica analiza stabilitaţii şi robusteţii sistemelor adaptive. Pentru a evita orice confuzie, preciz ăm că norma L2δ definită aici este diferit ă de norma ponderată exponenţial folosită în multe căr ţi de analiză funcţională, care este definit ă prin
(∫ e x (τ) x(τ) d τ) t
δ τ T
0
1/ 2
.
Principala diferenţă este aceea c ă această normă ponderată exponenţial este o funcţie nedescrescătoare de t , pe când norma L2δ poate să nu fie. Lema 3.3.3. Consider ăm sistemul liniar variabil în timp descris prin
x& = A(t ) x + B(t ) u , x(0) = x0 y = C (t ) x + D(t ) u T
(3.3.15)
unde x ∈ ℜn , y ∈ ℜ r , u ∈ ℜm , iar elementele matricelor A, B, C şi D sunt funcţii de timp continue şi mărginite. Dacă matricea de tranziţie Φ(t , τ) a lui (3.3.15) satisface || Φ(t , τ) || ≤ λ 0e − α 0 (t − τ) (3.3.16) 3-8
pentru anumiţi λ 0 , α 0 > 0 şi u ∈ L2e , atunci pentru orice δ ∈ [0, δ1 ) , unde 0 < δ1 < 2α 0 este arbitrar, se obţine cλ 0 (i) | x(t ) | ≤ || ut ||2δ +ε t 2α 0 − δ cλ 0 (ii) || xt ||2δ ≤ || ut ||2δ +ε t (δ1 − δ)(2α 0 − δ1 ) (iii) || yt ||2δ ≤ c0 || ut ||2δ +εt unde cλ 0 sup || C T (t ) || + sup || D(t ) || , c = sup || B(t ) || c0 = (δ1 − δ)(2α 0 − δ1 ) t t t şi εt este un termen ce descre şte exponenţial la zero deoarece x0 ≠ 0 . Demonstra ţ ie. S-a omis. Definiţia 3.3.3. Perechea (C (t ), A(t )) observabilă (UCO) dacă există constantele
t 0
din (3.3.15) este uniform complet β1 , β2 , ν > 0 astfel încât pentru to ţi
≥0
β2 I ≥ N (t 0 , t 0 + ν) ≥ β1 I Δ
t
+ν
unde N (t 0 , t 0 + ν) = ∫ t 0 ΦT (τ, t 0 ) C (τ) C T (τ) Φ(τ, t 0 )d τ este aşa numitul grammian 0
de observabilitate [1, 201], iar Φ(t , τ) este matricea de tranzi ţie asociată matricei A(t ). 3.4. Stabilitate Lyapunov 3.4.1. Definiţii ale stabilit ăţii
Se consider ă sistemele descrise prin ecuaţii diferenţiale ordinare de forma: (3.4.1) x& = f (t , x ), x(t 0 ) = x0 unde x ∈ ℜ n , f : I × B(r ) → ℜ , I = [t 0 , ∞) şi B(r ) = { x ∈ ℜn | | x | < r } . Presupunem că f este astfel încât pentru fiecare x0 ∈ B(r ) şi fiecare t 0 ∈ ℜ + , (3.4.1) are o soluţie unică x(t ; t 0, x0). Definiţia 3.4.1. Se spune că o stare xe este o stare de echilibru a sistemului (3.4.1) dacă f (t , xe ) ≡ 0 pentru toţi t ≥ t 0 . Definiţia 3.4.2.
O stare de echilibru xe se numeşte stare de echilibru izolat ă Δ
dacă există o constantă r > 0 astfel încât B( xe , r ) = { x | | x − xe |< r } ⊂ ℜ n nu conţine o altă stare de echilibru a sistemului (3.4.1) în afar ă de xe. 3-9
Definiţia 3.4.3. Se spune că starea de echilibru xe este stabilă (în Lyapunov) dacă pentru orice t 0 şi ε > 0 (arbitrar), există un δ(ε, t 0 ) astfel
sens încât
| x0 − xe | < δ determină | x(t ; t 0 , x0 ) − xe | < ε pentru toţi t ≥ t 0 . Definiţia 3.4.4. Starea de echilibru xe este uniform stabilă stabilă şi dacă δ(ε, t 0 ) din Definiţia 3.4.3 nu depinde de t 0. Definiţia 3.4.5. Starea de echilibru xe stabilă, şi (ii) există un δ(t 0 ) astfel
(u.s.) dacă ea este
este asimptotic stabil ă (a.s.) dacă (i) ea încât | x0 − xe | < δ(t 0 ) determină ca
limt →∞ | x(t ; t 0 , x0 ) − xe | = 0 . Mulţimea tuturor punctelor x0 ∈ ℜ n astfel încât x(t ; t 0 , x0 ) → xe când t → ∞ pentru anumiţi t 0 ≥ 0 se numeşte regiune (domeniu) de atracţie a stării de echilibru xe. Dacă condiţia (ii) din Definiţia 3.4.5 este satisf ăcută, se spune că starea de echilibru xe este atractivă. Definiţia 3.4.7. Starea de echilibru xe este uniform asimptotic stabil ă (u.a.s.) dacă (i) ea este uniform stabilă, şi (ii), pentru fiecare ε > 0 şi orice t 0 ∈ ℜ+ , există un δ0 > 0 independent de t0 şi ε şi un T (ε) > 0 independent de t0 astfel încât | x(t ; t 0 , x0 ) − xe | < ε pentru toţi t ≥ t 0 + T (ε) când | x0 − xe | < δ0 . Definiţia
un
3.4.6.
Definiţia 3.4.8. Starea de echilibru xe este exponenţial stabil ă (e.s.) dacă există α > 0 şi, pentru fiecare ε > 0 , există un δ(ε) > 0 astfel încât
| x(t ; t 0 , x0 ) − xe | ≤ ε e − α (t − t 0 ) pentru toţi t ≥ t 0 când | x0 − xe | < δ0 . Definiţia 3.4.9. Starea de echilibru xe este instabilă dacă ea nu este stabil ă.
Când (3.4.1) are soluţie unică pentru fiecare x0 ∈ ℜ n şi t 0 ∈ ℜ+ , pentru caracterizarea global ă a soluţiilor sunt necesare următoarele definiţii. Definiţia 3.4.10. O soluţie x(t ; t 0 , x0 ) a sistemului (3.4.1) este m ărginită dacă există un β > 0 astfel încât | x(t ; t 0 , x0 ) | < β pentru toţi t ≥ t 0 , unde β poate depinde de fiecare soluţie. Definiţia 3.4.11. Soluţiile lui (3.4.1) sunt uniform mărginite (u.b.) dacă pentru orice α > 0 şi t 0 ∈ ℜ+ , există un β = β(α) independent de t 0 astfel încât dacă | x0 | < α , atunci | x(t ; t 0 , x0 ) | < β pentru toţi t ≥ t 0 . Soluţiile lui (3.4.1) sunt uniform mărginite în final (uniformly ultimately bounded - u.u.b.) (cu marginea B) dacă există un B > 0 şi dacă corespunzător oricărui α > 0 şi t 0 ∈ ℜ+ , există un T = T (α) > 0 (independent de t 0) astfel încât | x0 | < α determină | x(t ; t 0 , x0 ) | < B pentru toţi t ≥ t 0 + T . Definiţia 3.4.12.
3 - 10
Punctul de echilibru xe al sistemului (3.4.1) este asimptotic stabil în mare (a.s. în mare) dac ă el este stabil şi fiecare soluţie a lui (3.4.1) tinde la xe când t → ∞ (adică, domeniul de atrac ţie al lui xe este ℜ n ). Definiţia 3.4.14. Punctul de echilibru xe al sistemului (3.4.1) este uniform asimptotic stabil în mare (u.a.s. în mare) dac ă (i) el este uniform stabil, (ii) solu ţiile lui (3.4.1) sunt uniform mărginite, şi (iii) pentru orice α > 0 , orice ε > 0 şi t 0 ∈ ℜ + , există T (ε, α) > 0 independent de t 0 astfel încât dacă | x0 − xe | < α atunci | x(t ; t 0 , x0 ) − xe | < ε pentru toţi t ≥ t 0 + T (ε, α) . Definiţia 3.4.13.
Punctul de echilibru xe al sistemului (3.4.1) este exponenţial stabil în mare (e.s. în mare) dacă există α > 0 şi pentru orice β > 0 , există k (β) > 0 astfel încât Definiţia 3.4.15.
| x(t ; t 0 , x0 ) | ≤ k (β) e −α (t −t 0 ) pentru toţi t ≥ t 0 când | x0 − xe | < β . Dacă x(t ; t 0 , x0 ) este o soluţie a lui x& = f (t , x) , atunci traiectoria x(t ; t 0 , x0 ) se spune a fi stabil ă (u.s., a.s., u.a.s., e.s., instabil ă) dacă punctul de echilibru z e = 0 al ecuaţiei diferenţiale & = f (t , z + x(t ; t 0 , x0 )) − f (t , x(t ; t 0 , x0 )) z este stabil (u.s., a.s., u.a.s., e.s., respectiv instabil) . Definiţia 3.4.16.
3.4.2. Metoda Lyapunov directă
Proprietăţile de stabilitate ale st ării de echilibru sau solu ţiei sistemului (3.4.1) pot fi studiate folosind aşa-numita metodă directă a lui Lyapunov (cunoscută ca metoda a doua a lui Lyapunov) [124, 125]. Obiectivul acestei metode const ă în a r ăspunde întrebărilor legate de stabilitatea sistemului (3.4.1) folosind îns ă forma lui f (t , x ) din (3.4.1) şi nu soluţiile explicite ale acestuia. Prezent ăm mai întâi următoarele definiţii [143]. Se spune că o funcţie continuă ϕ : [0, r ] → ℜ + (sau o funcţie continuă ϕ : [0, ∞) → ℜ+ ) aparţine clasei K , adică ϕ ∈ K dacă (i) ϕ(0) = 0 (ii) ϕ este strict cresc ătoare pe [0, r ] (sau pe [0, ∞) ). + Definiţia 3.4.18. Se spune că o funcţie continuă ϕ : [0, ∞) → ℜ aparţine clasei KR, adică ϕ ∈ KR dacă (i) ϕ(0) = 0 (ii) ϕ este strict cresc ătoare pe [0, ∞) (iii) lim r →∞ ϕ( r ) = ∞ . Definiţia 3.4.17.
3 - 11
Funcţia ϕ(| x |) =
x 2
definită pe [0, ∞) apar ţine clasei K dar nu şi clasei KR. 1 + x 2 Funcţia ϕ(| x |) = | x | apar ţine clasei K şi clasei KR. Este clar c ă ϕ ∈ KR detremină ϕ ∈ K , dar nu şi invers.
ϕ1 , ϕ2 ∈ K definite pe [0, r ] (sau pe [0, ∞) ) sunt de acela şi ordin de mărime, dacă există constantele pozitive k 1 şi k 2 astfel încât k 1ϕ1 (r 1 ) ≤ ϕ2 (r 1 ) ≤ k 2 ϕ1 (r 1 ) , ∀ r 1 ∈ [0, r ] (sau ∀ r 1 ∈ [0, ∞) ) Definiţia 3.4.19. Se spune că două funcţii
Funcţiile ϕ1 (| x |) =
x 2
1 + 2 x
2
ϕ2 (| x |) =
şi
x 2
1 + x
2
sunt de acelaşi ordin de mărime (a
se verifica). O funcţie V (t , x) : ℜ + × B(r ) → ℜ cu V (t , 0) = 0, ∀ t ∈ ℜ + este pozitiv definită, dacă există o funcţie continuă ϕ ∈ K astfel încât + V (t , x) ≥ ϕ(| x |), ∀ t ∈ ℜ , x ∈ B( r ) şi r > 0 . V (t , x) este negativ definită dacă − V (t , x) este pozitiv definită. Definiţia 3.4.20.
Funcţia V (t , x) =
x 2
1 − x 2
cu x ∈ B (1) este pozitiv definit ă, pe când V (t , x) =
nu este. Funcţia V (t , x) =
x 2
1 + x
2
1 2 x 1 + t
este pozitiv definită pentru orice x ∈ ℜ .
O funcţie V (t , x) : ℜ + × B (r ) → ℜ cu V (t , 0) = 0, ∀ t ∈ ℜ + este pozitiv (negativ) semidefinit ă dacă V (t , x) ≥ 0 ( V (t , x) ≤ 0 ) pentru orice t ∈ ℜ + şi x ∈ B(r ) cu r > 0 . Definiţia 3.4.21.
O funcţie V (t , x) : ℜ + × B(r ) → ℜ cu V (t , 0) = 0, ∀ t ∈ ℜ + este descrescătoare dacă există ϕ ∈ K astfel încât | V (t , x) |≤ ϕ(| x |) , ∀ t ≥ 0 şi ∀ x ∈ B(r ) cu r > 0 . 1 2 1 2 2 x x ≤ x , Funcţia V (t , x) = este descrescătoare deoarece V (t , x) = 1 + t 1 + t ∀ t ∈ ℜ + , dar V (t , x) = t x 2 nu este. Definiţia 3.4.22.
O funcţie V (t , x) : ℜ + × ℜ n → ℜ cu V (t , 0) = 0, ∀ t ∈ ℜ + este radial nemărginită dacă există ϕ ∈ KR astfel încât V (t , x) ≥ ϕ(| x |) , pentru toţi x ∈ ℜ n şi t ∈ ℜ+ . Definiţia 3.4.23.
3 - 12
Funcţia V ( x) =
x 2
satisface condiţiile (i) şi (ii) din Definiţia 3.4.23 (adică, se 1+ 2 | x |2 alege ϕ(| x |) = ). Totuşi, deoarece V ( x) ≤ 1 , nu se poate găsi o funcţie 1+ | x |2 ϕ(| x |) ∈ KR care satisface V (t , x) ≥ ϕ(| x |) pentru toţi x ∈ ℜ n . Deci, V nu este radial nemărginită. Din Definiţia 3.4.23 se deduce că dacă V (t , x) este radial nemărginită, ea este de asemenea pozitiv definită pentru toţi x ∈ ℜ n dar reciproca nu este adev ărată. Presupunem (f ăr ă pierderea generalităţii) că xe = 0 este un punct de echilibru al sistemului (3.4.1) şi definim V & derivata în raport cu timpul a func ţiei V (t , x) de-a lungul (în virtutea) solu ţiei lui (3.4.1), adică, & = ∂ V + (∇V )T f (t , x ) V (3.4.3) ∂ t T
⎡ ∂V ∂V ∂V ⎤ , K, unde ∇V = ⎢ , ⎥ este gradientul lui V în raport cu x. A doua ∂ x ∂ x ∂ x n⎦ 2 ⎣ 1 metodă a lui Lyapunov este rezumată prin următoarele teoreme. Teorema 3.4.1. Presupunem că există o funcţie pozitiv definită V (t , x) : ℜ + × B( r ) → ℜ cu r > 0 cu derivate par ţiale de ordinul întâi în raport cu x + şi t continue şi V (t , 0) = 0, ∀ t ∈ ℜ . Atunci, următoarele afirmaţii sunt adevărate: (i) Dacă V & ≤ 0 , atunci xe = 0 este stabil. (ii) Dacă V este descrescătoare şi V & ≤ 0 , atunci xe = 0 este uniform stabil (u.s.). (iii) Dacă V este descrescătoare şi V & < 0 , atunci xe = 0 este uniform asimptotic stabil (u.a.s.). (iv) Dacă V este descrescătoare şi există ϕ1 , ϕ2 , ϕ3 ∈ K cu acelaşi ordin de mărime astfel încât ϕ1 (| x |) ≤ V (t , x) ≤ ϕ2 (| x |) , V & (t , x) ≤ −ϕ3 (| x |) pentru toţi x ∈ B(r ) şi t ∈ ℜ+ , atunci xe = 0 este exponenţial stabil (e.s.). În această teoremă, starea x este restricţionată a fi în interiorul sferei B(r ) de rază r > 0. De aceea, rezultatele (i)-(iv) din Teorema 3.4.1 sunt referite ca rezultate locale. Afirmaţia (iii) este echivalent ă cu aceea că există ϕ1 , ϕ2 , ϕ3 ∈ K , unde ϕ1 , ϕ2 , ϕ3 nu trebuie să aibă acelaşi ordin de mărime, astfel încât ϕ1 (| x |) ≤ V (t , x) ≤ ϕ2 (| x |) , V & (t , x) ≤ −ϕ3 (| x |) . Presupunem că (3.4.1) are soluţii unice pentru toţi x0 ∈ ℜ n . există o funcţie pozitiv definită, descrescătoare şi radial
Teorema 3.4.2.
Presupunem că
3 - 13
nemărginită V (t , x) : ℜ+ × ℜn → ℜ+ cu derivate parţiale de ordinul întâi în raport cu x şi t continue şi V (t , 0) = 0, ∀ t ∈ ℜ + . Atunci, următoarele afirmaţii sunt adevărate: (i) Dacă V & < 0 , atunci xe = 0 este u.a.s. în mare. (ii) Dacă există ϕ1 , ϕ2 , ϕ3 ∈ KR cu acelaşi ordin de mărime astfel încât ϕ1 (| x |) ≤ V (t , x) ≤ ϕ2 (| x |) , V & (t , x) ≤ −ϕ3 (| x |) atunci xe = 0 este exponenţial stabil (e.s.) în mare. Afirmaţia (i) din Teorema 3.4.2 este de asemenea echivalent ă cu aceea că există ϕ1 , ϕ2 ∈ K şi ϕ3 ∈ KR astfel încât ϕ1 (| x |) ≤ V (t , x) ≤ ϕ2 (| x |) , V & (t , x) ≤ −ϕ3 (| x |) , ∀ x ∈ ℜ n Pentru a demonstra Teoremele 3.4.1, 3.4.2, cititorul poate utiliza [32, 78, 79, 97, 124]. Presupunem că (3.4.1) are soluţii unice pentru toţi x0 ∈ ℜ n . Dacă există o funcţie V (t , x), definită pe | x | ≥ R (unde R poate fi oricât de mare) şi t ∈ [0, ∞) , cu derivate par ţiale de ordinul întâi în raport cu x şi t continue şi dacă există ϕ1 , ϕ2 ∈ KR astfel încât (i) ϕ1 (| x |) ≤ V (t , x) ≤ ϕ2 (| x |) (ii) V & (t , x) ≤ 0 pentru toţi | x | ≥ R şi t ∈ [0, ∞) , atunci, soluţiile lui (3.4.1) sunt u.b. Dac ă în plus există ϕ3 ∈ K definită pe [0, ∞) şi (iii) V & (t , x) ≤ −ϕ3 (| x |) , pentru toţi | x | ≥ R şi t ∈ [0, ∞) atunci, soluţiile lui (3.4.1) sunt u.u.b. Teorema 3.4.3.
Examinăm afirmaţia (ii) din Teorema 3.4.1 unde V descrescătoare şi V & ≤ 0 determin ă ca xe = 0 să fie u.s. Dacă în (ii) se renunţă la restricţia ca V să fie descrescătoare, se obţine afirmaţia (i), adică din V & ≤ 0 rerultă că xe = 0 este stabil dar nu neapărat u.s. De aceea, cineva ar fi tentat s ă creadă că dacă în afirmaţia (iii) se renunţă la condiţia ca V să fie descrescătoare, se obţine că xe = 0 este a.s., adică, numai din V & < 0 se obţine că xe = 0 este a.s. Această concluzie intuitivă nu este adevărată, aşa cum s-a demonstrat printr-un contraexemplu în [206] unde, pentru a ar ăta că V & < 0 nu implică a.s., s-a folosit o ecuaţie diferenţială de ordinul întâi şi o funcţie V (t , x) pozitiv definit ă, nedescrescătoare. Sistemul (3.4.1) se numeşte neautonom. Când funcţia f din (3.4.1) nu depinde explicit de timpul t , sistemul se numeşte autonom. În acest caz, se scrie x& = f ( x) (3.4.4) Teoremele 3.4.1-3.4.3 sunt valabile şi pentru sistemele (3.4.4) deoarece acestea sunt un caz special al sistemelor (3.4.1). Totu şi, în cazul lui (3.4.4), V (t , x) = V ( x), adică, ea nu depinde explicit de timpul t , şi toate referirile la cuvintele 3 - 14
"descrescător" şi "uniform" pot fi şterse. Aceasta, deoarece V ( x) este întotdeauna descrescătoare şi stabilitatea (respectiv a.s.) echilibrului xe = 0 al lui (3.4.4) determin ă u.s. (respectiv u.a.s.). Pentru a.s. a sistemului (3.4.4) se poate ob ţine un rezultat mai puternic decât cel din Teorema 3.4.2, care se va prezenta mai jos. Definiţia 3.4.24. O mulţime Ω din ℜ este invariantă în raport cu ecuaţia (3.4.4) dacă fiecare soluţie a lui (3.4.4) ce pleac ă din Ω r ămâne în Ω pentru orice t . n
Presupunem că (3.4.4) are soluţii unice pentru toţi x0 ∈ ℜ n . Presupunem că există o funcţie pozitiv definită şi radial nemărginită V ( x) : ℜ n → ℜ + cu derivate de ordinul întâi în raport cu x continue şi V (0) = 0 . Dacă: (i) V & ≤ 0 , ∀ x ∈ ℜn (ii) Originea x = 0 este singura submulţime invariantă a mulţimii Ω = { x ∈ ℜ n | V & = 0 } atunci echilibrul lui (3.4.4), xe = 0, este a.s. în mare. Teorema 3.4.4.
Teoremele 3.4.1-3.4.4 sunt denumite teoreme tip Lyapunov. Func ţia V (t , x) sau V ( x) care satisface oricare dintre teoremele tip Lyapunov se nume şte funcţie Lyapunov. Funcţiile Lyapunov pot fi de asemenea utilizate pentru a verifica propriet ăţile de instabilitate ale st ării de echilibru xe. Mai multe teoreme de instabilitate bazate pe cea de-a doua metodă Lyapunov se găsesc în [232]. Exemplele următoare demonstrează modul de utilizare a metodei directe Lyapunov pentru a analiza stabilitatea sistemelor neliniare. Exemplul 3.4.2. Consider ăm sistemul x&1 = x2 + cx1 ( x12 + x22 ) (3.4.5) 2 2 x&2 = − x1 + cx2 ( x1 + x2 ) unde c este o constantă. Notăm că xe = 0 este singura stare de echilibru. Alegem V ( x) = x12 + x22 ca un candidat pentru o funcţie Lyapunov. V ( x) este pozitiv definit ă, descrescătoare şi radial nemărginită. Derivata sa în timp de-a lungul solu ţiei lui (3.4.5) este & ( x) = 2c( x 2 + x 2 ) 2 V (3.4.6) 1 2 Dacă c = 0, atunci V & = 0 şi deci, xe = 0 este u.s. Dacă c < 0, atunci & ( x) = −2 | c | ( x 2 + x 2 ) 2 este negativ definită şi deci, xe = 0 este u.a.s. în mare. V 1 2 Dacă c > 0, xe = 0 este instabil (deoarece în acest caz V este strict crescătoare ∀ t ≥ 0 ), şi deci soluţia lui (3.4.5) este nemărginită [232]. Exemplul 3.4.3.
Consider ăm următorul sistem care descrie mişcarea unui
pendul simplu 3 - 15
x&1 = x2
(3.4.7)
= −k sin x1 unde k > 0 este o constantă, x1 este unghiul, iar x2 este viteza unghiular ă. Ca şi candidat pentru o funcţie Lyapunov consider ăm funcţia V ( x) reprezentând energia totală a pendulului, dată ca suma dintre energia sa cinetic ă şi energia potenţială: x1 1 1 V ( x) = x22 + k ∫ sin η d η = x22 + k (1 − cos x1 ) 0 2 2 V ( x) este pozitiv definit ă şi descrescătoare ∀ x ∈ B(π) dar nu şi radial nemărginită. De-a lungul soluţiei lui (3.4.7) avem V & = 0 . De aceea, starea de echilibru xe = 0 este u.s. Exemplul 3.4.5. Consider ăm următoatele ecuaţii diferenţiale care apar foate des în analiza sistemelor adaptive: x& = − x + φ x (3.4.9) φ& = − x 2 x&2
Starea de echilibru este xe = 0, φe = c , unde c este orice constantă, şi deci, starea de echilibru nu este izolată. ~ Definind φ = φ − c , sistemul (3.4.9) se transfor ă în: ~ x& = −(1 − c) x + φ x (3.4.10) ~& 2 φ = − x Suntem interesaţi de stabilitatea punctului de echilibru xe = 0, φe = c al lui (3.4.9), ~ sau, echivalent, de stabilitatea echilibrului xe = 0, φe = 0 al lui (3.4.10). Alegem funcţia pozitiv definită, descrescătoare, radial nemărginită: ~ ~ x 2 φ 2 + V ( x, φ ) = (3.4.11) 2 2 Atunci, & ( x, ~ φ) = −(1 − c) x 2 V ~ Dacă c > 1, atunci V & > 0 pentru x ≠ 0 ; deci xe = 0, φe = 0 este instabil. Dacă ~ totuşi, c ≤ 1 , atunci xe = 0, φe = 0 este u.s. Pentru c < 1 avem: & ( x, ~ φ) = −c0 x 2 ≤ 0 V (3.4.12) unde c0 = 1 - c > 0. Din Teorema 3.4.3 se poate de asemenea concluziona c ă ~ soluţiile x(t ), φe (t ) sunt u.b. dar nimic mai mult. Putem totuşi exploata proprietăţile lui V şi V & şi concluziona că x(t ) → 0, când t → ∞ . ~ Deoarece V (t ) = V ( x(t ), φ(t )) este mărginită inferior şi necrescătoare în timp, din (3.4.11) şi (3.4.12) se deduce că aceasta are o limită, adică, limt →∞ V (t ) = V ∞ . Acum, din (3.4.12) avem: 3 - 16
t
∞
lim ∫ 0 x 2 d τ = ∫ 0 x 2 d τ =
t → ∞
V (0) − V ∞ c0
<∞
~ adică, x ∈ L2 . Deoarece soluţia x(t ), φe (t ) este u.b., din (3.4.10) rezult ă că x& ∈ L∞ , care împreună cu x ∈ L2 determină ca (vezi Lema 3.2.5) x(t ) → 0, când t → ∞ . Exemplul 3.4.6. Consider ăm ecuaţiile diferenţiale x&1 = −2 x1 + x1 x2 + x2
x&2
= − x12 − x1
Consider ăm V ( x) = x12 / 2 + x22 / 2 . Avem V & ( x) = −2 x12 ≤ 0 şi echilibrul x1e = 0, x2e = 0 este u.s. Mulţimea definită în Teorema 3.4.4 este dată prin Ω = { x1 , x2 | x1 = 0} . Deoarece pe Ω, x&1 = x2 , rezultă că orice soluţie care pleacă din Ω cu x2 ≠ 0 păraseşte Ω. Deci, x1 = 0, x2 = 0 este singura mulţime invariantă a lui Ω. De aceea, echilibrul x1e = 0, x2e = 0 este a.s. în mare. Principalul dezavantaj al metodei directe Lyapunov const ă în aceea că, în general, nu există o procedur ă pentru găsirea unei funcţii Lyapunov corespunzătoare care să satisfacă condiţiile din Teoremele 3.4.1-3.4.4 exceptând cazul în care (3.4.1) reprezintă un sistem LTI. Dacă totuşi starea de echilibru xe = 0 a lui (3.4.1) este u.a.s. existen ţa unei funcţii Lyapunov este asigurată aşa cum se arată în [139]. 3.4.3. Funcţii tip Lyapunov
În multe cazuri, în analiza unei largi clase de scheme de control adaptiv, alegerea unei funcţii Lyapunov corespunzătoare pentru a stabili stabilitatea folosind Teoremele 3.4.1-3.4.4 poate să nu fie evidentă sau posibilă. Totuşi, anumite funcţii care sunt asemănătoare unor funcţii Lyapunov, dar care nu posed ă toate proprietăţile necesare pentru a aplica Teoremele 3.4.1-3.4.4, pot fi utilizate pentru a analiza anumite proprietăţi de stabilitate şi mărginire ale sistemelor adaptive. Vom referi o astfel de func ţie, func ţ ie tip Lyapunov ( Lyapunov-like function). Exemplul următor ilustrează folosirea unei funcţii tip Lyapunov. Exemplul 3.4.8. Consider ăm următorul sistem de trei ecuaţii diferenţiale: x&1 = − x1 − x2 x3 , x1 (0) = x10 x& 2 = x1 x3 , x2 (0) = x20 (3.4.13) x&3 = x12 ,
x3 (0) = x30
care are în ℜ3 punctele de echilibru neizolate definite prin x1 = 0, x2 = constant , x3 = 0 sau x1 = 0, x2 = 0, x3 = constant . Se doreşte a se analiza proprietăţile de stabilitate ale soluţiilor lui (3.4.13) folosind o func ţie Lyapunov corespunzătoare şi aplicând Teoremele 3.4.1-3.4.4. Dac ă dorim să aplicăm Teoremele 3.4.1-3.4.4, 3 - 17
atunci ar trebui s ă începem prin a alege o func ţie V ( x1, x2, x3) pozitiv definită în ℜ3 . Noi însă, vom considera o funcţie pătratică mai simplă V ( x1 , x2 ) =
x12
x22
+ , 2 2 care este pozitiv semidefinit ă în ℜ3 şi care deci, nu satisface condiţia de pozitivitate definit ă în ℜ3 cerută de Teoremele 3.4.1-3.4.4. Derivata în timp a lui V de-a lungul soluţiei ecuaţiilor diferenţiale (3.4.13) satisface & ( x) = − x 2 ≤ 0 , V (3.4.14) 1 care precizează că V este o funcţie de timp necrescătoare. Rezultă că, Δ
V ( x1 (t ), x2 (t )) ≤ V ( x1 (0), x2 (0)) = V 0 şi V , x1 , x2 ∈ L∞ . Mai mult, V are o limită când t → ∞ , adică, lim V ( x1 (t ), x2 (t )) = V ∞ t → ∞
şi (3.4.14) determină ca t
∫ 0 x12 (τ) d τ = V 0 − V (t ),
∀ t ≥ 0
şi ∞ 2 x (τ) d τ = V 0 0 1
∫
− V ∞ < ∞
adică, x1 ∈ L2 . Cum x1 ∈ L2 , din (3.3.13) se obţine că x3 ∈ L∞ şi din x1 , x2 , x3 ∈ L∞ , că x&1 ∈ L∞ . Folosind x&1 ∈ L∞ , x1 ∈ L2 şi aplicând Lema 3.2.5 se obţine că x1(t ) → 0, când t → ∞ . Prin utilizarea proprietăţilor din pozitivitatea semidefinită a funcţiei V ( x1 , x2 ) , am stabilit că soluţia lui (3.4.13) este uniform m ărginită şi x1(t ) → 0, când t → ∞ pentru orice condiţie iniţială finită x1(0), x2(0), x3(0). Deoarece abordarea folosită este asemănătoare cu abordarea cu func ţie Lyapunov, suntem motivaţi să numim pe V ( x1 , x2 ) func ţ ie tip Lyapunov ( Lyapunov-like function). În analiza anterioar ă s-a presupus de asemenea că (3.4.13) are o soluţie unică. Pentru discuţii şi analiză referitoare la existenţa şi unicitatea soluţiilor lui (3.4.13) cititorul poate apela la [191]. Vom folosi funcţii tip Lyapunov şi argumentaţii similare celor din exemplul prezentat pentru a analiza stabilitatea unei clase largi de scheme adaptive considerare în acest curs. 3.4.4. Metoda Lyapunov indirectă
În anumite condiţii, din studiul comport ării unui anumit sistem liniar ob ţinut prin liniarizarea sistemului neliniar (3.4.1) în jurul stării sale de echilibru se pot obţine o serie de concluzii despre stabilitatea echilibrului s ău. Această metodă este cunoscută ca prima metod ă a lui Lyapunov sau ca metoda Lyapunov indirect ă şi este prezentată în [32, 232] sub următoarea formă:
3 - 18
Fie xe = 0 o stare de echilibru a lui (3.4.1) şi presupunem că f (t , x) este continuu diferenţiabilă în raport cu x pentru oricet ≥ .0Atunci, în vecinătarea lui xe = 0, f admite o dezvoltare în serie Taylor care poate fi scrisă sub forma: x& = f (t , x) = A(t ) x + f 1 (t , x) (3.4.15) unde A(t ) = ∇ f x = 0 reprezintă matricea Jacobiană a lui f evaluată în x = 0, iar f 1(t , x) conţine termenii r ămaşi din dezvoltarea în serie Taylor. Teorema 3.4.5. Presupunem că A(t ) este uniform mărginită şi că:
| f 1 (t , x) | = 0. | x |→ 0 t ≥ 0 | x | Fie z e = 0, echilibrul sistemului &(t ) = A(t ) z (t ) . z Pentru echilibrul xe = 0 al sistemului (3.4.15) sunt adevărate următoarele afirmaţii: (i) Dacă z e = 0 este u.a.s., atunci xe = 0 este u.a.s.; (ii) Dacă z e = 0 este instabil, atunci xe = 0 este instabil; (iii) Dacă z e = 0 este u.s. sau stabil, nu se pot ob ţine concluzii despre stabilitatea lui xe = 0. Pentru o demonstraţie a Teoremei 3.4.5 vezi [232]. Exemplul 3.4.9. Consider ăm ecuaţia diferenţială de ordinul doi && = −2μ( x 2 − 1) x& − k x m x unde m, μ şi k sunt constante pozitive, care este cunoscut ă sub numele de oscilatorul Van der Pol. Ea descrie mi şcarea unui amortizor cu resort şi masă (mass-spring-damper) cu coeficientul de amortizare 2μ( x 2 − 1) şi constanta resortului k , unde x este poziţia masei m. Definind stările x1 = x, x2 = x& , se obţin ecuaţiile: x&1 = x2 2μ 2 k ( x1 − 1) x2 x&2 = − x1 − lim sup
m
m
care au un echilibru în x1e = 0, x2e = 0. Liniarizarea acestui sistem în jurul lui (0, 0) conduce la ⎡ z &1 ⎤ = ⎡ 0 1 ⎤ ⎡ z 1 ⎤ ⎢⎣ z &2 ⎥⎦ ⎢⎣− k / m 2μ / m⎥⎦ ⎢⎣ z 2 ⎥⎦ Deoarece m, μ > 0, cel puţin una dintre valorile proprii ale matricei A este pozitivă şi deci echilibrul (0, 0) este instabil. 3.4.5. Stabilitatea sistemelor liniare
Ecuaţia (3.4.15) arată că anumite clase de sisteme neliniare pot fi aproximate prin sisteme liniare în vecin ătatea unor puncte de echilibru, sau, cum se nume şte în 3 - 19
practică, puncte de funcţionare. Din acest motiv, suntem interesa ţi în studiul stabilităţii sistemelor liniare de forma: (3.4.16) x& (t ) = A(t ) x(t ) , unde elementele lui A(t ) sunt continue pe por ţiuni pentru orice t ≥ t 0 ≥ 0 . Sistemele de forma (3.4.16) pot fi privite ca o clasă specială de sisteme neliniare (3.4.1) sau ca o aproximare a sistemului liniarizat (3.4.15). Solu ţia lui (3.4.16) este dat ă de [95]: x (t ; t 0 , x0 ) = Φ (t , t 0 ) x0 pentru orice t ≥ t 0 , unde Φ(t , t 0 ) este matricea de tranzi ţ ie a st ă rilor şi satisface ecuaţia diferenţială matriceală: ∂ Φ (t , t 0 ) = A(t ) Φ(t , t 0 ), ∀ t ≥ t 0 ∂ t Φ(t 0 , t 0 ) = I Câteva proprietăţi utile ale lui Φ(t , t 0 ) sunt: (i) Φ(t , t 0 ) = Φ(t , τ) Φ( τ, t 0 ), ∀ t ≥ τ ≥ t 0 (proprietatea de semigrup) (ii) Φ(t , t 0 ) −1 = Φ(t 0 , t ) ∂ (iii) Φ(t , t 0 ) = −Φ(t , t 0 ) A(t 0 ) ∂ t 0 Condiţiile necesare şi suficiente de stabilitate a st ării de echilibru xe = 0 a sistemului (3.4.16) sunt date de următoarele teoreme. Teorema 3.4.6. Fie || Φ (t , τ) || norma indusă a matricei Φ (t , τ) la fiecare moment t ≥ τ . Starea de echilibru xe = 0 a sistemului (3.4.16) este: (i) stabilă, dacă şi numai dacă soluţiile lui (3.4.16) sunt mărginite sau echivalent Δ
c (t 0 ) = sup || Φ (t , τ) || < ∞ ; t ≥ t 0
(ii) u.s., dacă şi numai dacă Δ
⎛
⎞
⎝ t ≥ t 0
⎠
c0 = sup c(t 0 ) = sup ⎜⎜ sup || Φ (t , τ) || ⎟⎟ < ∞ ; t 0 ≥ 0
t 0 ≥ 0
(iii) a.s., dacă şi numai dacă lim || Φ (t , τ) ||= 0 pentru orice t 0 ∈ ℜ+ ; t → ∞
(iv) u.a.s., dacă şi numai dacă există constantele pozitive α şi β astfel încât || Φ(t , τ) || ≤ α eβ(t − t 0 ) , ∀ t ≥ τ ≥ t 0 ; (v) e.s., dacă şi numai dacă ea este u.a.s.; (vi) a.s., u.a.s., e.s. în mare, dac ă şi numai dacă ea este respectiv a.s., u.a.s., e.s. [1]. Presupunem că elementele lui A(t ) sunt u.b. pentru toţi t ∈ ℜ+ . Starea de echilibru xe = 0 a sistemului liniar (3.4.16) este u.a.s., dac ă şi Teorema 3.4.7
3 - 20
numai dacă, dându-se orice matrice Q(t ) pozitiv definită, care este continu ă în raport cu t şi satisface 0 < c1 I ≤ Q(t ) ≤ c2 I < ∞ pentru orice t ≥ t 0 , funcţia scalar ă definită prin V (t , x) = x
T
∞
∫
t
ΦT (τ, t ) Q( τ) Φ( τ, t ) d τ x
(3.4.17)
există (adică, integrala definită prin (3.4.17) este finită pentru valori finite ale lui x şi t ) şi este o funcţie Lyapunov a lui (3.4.16) cu: & (t , x) = − x Q(t ) x . V T
Δ
∞
Folosind proprietăţile lui Φ(t , t 0 ) se obţine că P (t ) = ∫ t ΦT ( τ, t ) Q(τ) Φ(τ, t ) d τ satisface ecuaţia & ( t ) P
= − Q ( t ) − A T ( t ) P ( t ) − P ( t ) A ( t )
(3.4.18) adică, funcţia Lyapunov (3.4.17) poate fi rescrisă sub forma V (t , x) = xT P (t ) x , unde P (t ) = P T (t ) satisface (3.4.18). O condiţie necesar ă şi suficientă pentru ca starea de echilibru xe = 0 a sistemului liniar (3.4.16) s ă fie u.a.s este ca s ă existe o matrice simetric ă P (t ) şi anumite constante v > 0, astfel încât, ∀ t ≥ 0 , să fie satisf ăcute relaţiile γ1 I ≤ P (t ) ≤ γ 2 I Teorema 3.4.8.
& (t ) + AT (t ) P (t ) + P (t ) A(t ) + ν C (t )C T (t ) ≤ O P
unde γ1 > 0, γ2 > 0 sunt constante şi C (t ) este astfel încât ( C (t ), A(t )) este o pereche UCO (vezi Definiţia 3.3.3). Când A(t ) = A este o matrice constant ă, condiţiile pentru stabilitatea echilibrului xe = 0 al sistemului (3.4.19) x& = Ax sunt date de următoarea teoremă. Teorema 3.4.9. dacă şi numai dacă:
Starea de echilibru xe = 0 a sistemului (3.4.19) este stabil ă
(i) Toate valorile proprii ale lui A au păr ţile reale nepozitive. (ii) Pentru fiecare valoare proprie λ i cu Re{λ i } = 0 , λ i este un zerou simplu al polinomului minimal al lui A (adică, al polinomului monic ψ(λ) de gradul cel mai mic, astfel încât ψ( A) = 0 ). Teorema 3.4.10. O
condiţie necesar ă şi suficientă pentru ca starea xe = 0 să fie a.s. în mare este ca oricare din urm ătoarele condiţii să fie satisf ăcute: (i) Toate valorile proprii ale matricei A au păr ţile reale negative. (ii) Pentru fiecare matrice pozitiv definit ă Q, următoarea ecuaţie matriceală Lyapunov 3 - 21
AT P + P A = −Q are o soluţie unică P care de asemenea este pozitiv definit ă. (iii) Pentru orice matrice C cu (C , A) observabilă, ecuaţia A P + P A = −C C are o soluţie unică P care este pozitiv definit ă. T
T
Este uşor de verificat că pentru sistemul LTI (3.4.19), dacă xe = 0 este stabil, el este de asemenea u.s. Dac ă xe = 0 este a.s., el este de asemenea u.a.s. şi e.s. în mare. În cele ce urmează vom face un abuz de notaţie şi vom spune ca matricea A din (3.4.19) este stabil ă când echilibrul xe = 0 este a.s., adic ă când toate valorile proprii ale lui A au păr ţile reale negative şi marginal stabil ă când xe = 0 este stabilă, adică A satisface (i) şi (ii) din Teorema 3.4.9. Consider ăm din nou sistemul liniar variabil în timp (3.4.16) şi presupunem că pentru fiecare t fixat toate valorile proprii ale matricei A(t ) au păr ţile reale negative. În perspectiva Teoremei 3.4.10, cineva se poate întreba dac ă această condiţie pentru A(t ) poate să asigure aceeaşi formă de stabilitate pentru echilibrul xe = 0 al lui (3.4.16). Din păcate, în general, r ăspunsul este negativ (vezi exemplul din [232]). 3.5. Funcţii real-pozitive şi stabilitate 3.5.1. Funcţii de transfer real-pozitive şi strict real-pozitive
Conceptele de func ţ ii de transfer real-pozitive (PR- Positive Real ) şi strict real pozitive (SPR- Strictly Positive Real ) joacă un rol important în analiza stabilit ăţii unei clase largi de sisteme neliniare, care include şi sistemele adaptive. Definiţia funcţiilor de transfer PR şi SPR rezultă din teoria reţelelor electrice. Astfel o funcţie de transfer PR (SPR) raţională poate fi privită ca fiind impedanţa unei reţele pasive (disipative). În consecin ţă, o reţea pasivă (disipativă) are o impedanţă care este o funcţie raţională şi PR (SPR). O re ţea pasivă este o reţea care nu produce energie, adică, o reţea alcătuită numai din rezistenţe, capacităţi şi inductanţe. O reţea disipativă disipează energie, ceea ce înseamn ă că aceasta conţine numai rezistoare şi condensatoare şi bobine conectate în paralel cu rezistoarele. În [177, 204], folosind teoria circuitelor, sunt prezentate urm ătoarele definiţii echivalente ale funcţiilor de transfer PR. Definiţia 3.5.1. O funcţie raţională G( s) de variabilă complexă s = σ + jω se numeşte PR dacă: (i) G( s) este reală pentru s real. (ii) Re[G( s)] ≥ 0 pentru toţi Re[ s] > 0. Lema 3.5.1. O funcţie de transfer raţională proprie G( s) este PR dacă şi numai dacă: (i) G( s) este reală pentru s real. 3 - 22
(ii) G( s) este analitică în Re[ s] > 0 şi polii plasaţi pe axa jω sunt simpli, iar reziduurile asociate acestora sunt reale şi pozitive. (iii) Pentru toate valorile reale ω pentru care s = jω nu este un pol al lui G( s), Re[G( jω)] ≥ 0. Pentru funcţii de transfer SPR avem următoarea definiţie. Definiţia 3.5.2. [177] Presupunem că G( s) nu este identic Atunci, G( s) este SPR dacă G( s - ε ) este PR pentru ε > 0.
nulă pentru toţi s.
Teorema următoare furnizează condiţiile necesare şi suficiente în domeniul frecvenţă pentru ca o funcţie de transfer să fie SPR: Teorema 3.5.1. [89] Presupunem că funcţia raţională G( s) de variabilă complexă s = σ + jω este reală pentru s real şi nu este identic nul ă pentru toţi s. Fie n* gradul relativ al lui G( s) = Z ( s)/ R( s), cu | n* | ≤ 1 . Atunci, G( s) este SPR dac ă şi numai dacă (i) G( s) este analitic ă în Re[ s] ≥ 0; (ii) Re[G( jω)] > 0, ∀ω ∈ (−∞, ∞) ; (iii) (a) Când n* = 1 , lim|ω|→∞ ω2 Re[G ( jω)] > 0 ; G ( jω) (b) Când n* = −1 , lim|ω|→∞ >0. jω Menţionăm c ă dacă n* = 0 , condiţiile (i) şi (ii) din Teorema 3.5.1 sunt necesare şi suficiente pentru ca G( s) să fie SPR. Totuşi aceasta nu este adev ărat pentru n* = 1 sau -1. De exemplu, G ( s ) = ( s + α + β) /[( s + α)( s + β)] cu α, β > 0 satisface (i) şi (ii) din Teorema 3.5.1, dar nu este SPR deoarece aceasta nu satisface (iiia). Totu şi, ea este PR. Câteva proprietăţi utile ale func ţiilor SPR sunt date de urm ătorul corolar. Corolarul 3.5.1. (i) G( s) este PR (SPR) dac ă şi numai dacă 1 /G( s) este PR (SPR); (ii) Dacă G( s) este SPR, atunci | n* | ≤ 1 şi polii şi zerourile lui G( s) se află în Re[ s] < 0; (iii) Dacă | n* | > 1 , atunci G( s) nu este PR . O condiţie necesar ă pentru ca G( s) să fie PR este ca hodograful Nyquist al lui G( jω) să se afle în semiplanul complex drept, care determin ă ca saltul în faz ă al ieşirii unui sistem cu funcţia de transfer G( s), ca r ăspuns al unei intr ări sinusoidale, să fie mai mic decât 90 0. Relaţiile dintre funcţiile de transfer PR sau SPR şi stabilitatea Lyapunov a sistemelor dinamice corespunzătoare au condus la dezvoltarea a numeroase criterii 3 - 23
de stabilitate pentru sisteme cu reac ţie cu par ţi LTI şi neliniare. Aceste criterii includ celebrul criteriu al lui Popov şi variantele sale [192]. Legătura esenţială între funcţii sau matrice de transfer PR sau SPR şi existenţa unei funcţii Lyapunov pentru stabilirea stabilit ăţii este dată prin următoarele leme. Lema 3.5.2. (Lema Kalman-Yakubovich-Popov (KYP))[7, 192] Date fiind o matrice p ătratică A cu toate valorile proprii în semiplanul stâng închis al planului complex, un vector B astfel încât perechea ( A, B) este controlabilă, un vector C şi un scalar d ≥ 0 , funcţia de transfer definită prin T G ( s ) = d + C ( s I − A) −1 B este PR dacă şi numai dacă există o matrice P simetrică şi pozitiv definită şi un vector q astfel încât: AT P + P A = −q qT PB − C = ± q
2d
.
(Lema Lefschetz-Kalman-Yakubovich (LKY)) [89, 126]. Date fiind o matrice stabilă A, un vector B astfel încât perechea ( A, B) este controlabilă, un vector C şi un scalar d ≥ 0 , funcţia de transfer definită prin G ( s ) = d + C T ( s I − A) −1 B este SPR dacă şi numai dacă pentru orice matrice pozitiv definit ă L, există o matrice simetrică şi pozitiv definită P , un scalar ν > 0 şi un vector q astfel încât: AT P + P A = − q qT − ν L . PB − C = ± q 2d Lema 3.5.3.
Lemele de mai sus sunt aplicabile sistemelor LTI care sunt controlabile. Cerinţa de controlabilitate este relaxat ă în [142, 172]. Lema 3.5.4. (Lema Meyer-Kalman-Yakubovich (MKY)). Date fiind o matrice stabilă A, vectorii B, C şi un scalar d ≥ 0 , sunt valabile următoarele: Dacă
G ( s ) = d + C ( s I − A) −1 B T
este SPR, atunci pentru orice matrice L = LT > 0, există un scalar ν > 0, un vector q şi o matrice P = P T > 0 astfel încât: T T A P + P A = − q q − ν L . PB − C = ± q 2d În multe aplicaţii ale conceptelor de SPR la sisteme adaptive, func ţia de transfer G( s) impune simplificări zerouri-poli stabile, care determin ă ca sistemul asociat cu tripletul ( A, B, C ) să fie necontrolabil sau neobservabil. În aceste situa ţii este indicată utilizarea Lemei MKY.
3 - 24
Bibliografie
[1] Anderson, B.D.O., "Exponential Stability of Linear Equations Arising in Adaptive Identification," IEEE Transactions on Automatic Control , Vol. 22, no. 2, pp. 83-88, 1977. [32] Coppel, W.A., Stability and Asymptotic Behavior of Differential Equations, Heath and Company, Boston, Massachusetts, 1965. [42] Desoer, C.A. and M. Vidyasagar, Feedback Systems: Input-Output Properties, Academic Press Inc., New York, 1975. [78] Hahn, W. Theory and Application of Lyapunov's Direct Method . Prentice Hall, Englewood Cliffs, New Jersey, 1963. [79] Hale, J. K., Ordinary Differential Equations, Wiley, New York, 1969. [89] Ioannou, P.A. and G. Tao, "Frequency Domain Conditions for Strictly Positive Real Functions," IEEE Transactions on Automatic Control , Vol. 32, no. 1, pp. 53-54, 1987. [95] Kailath, T., Linear Systems , Prentice Hall, Englewood Cliffs, New Jersey, 1980. [97] Kalman, R. E., and J. E. Bertram, "Control Systems Analysis and Design via the 'Second Method' of Lyapunov," Journal of Basic Engineering , Vol. 82, pp. 371-392, 1960. [107] Krasovskii, N.N. Stability of Motion: Application of Lyapunov's Second Method to Differential Systems and Equations with Delay, Stanford University Press, Stanford, California, 1963. [124] LaSalle, J.P., and S. Lefschetz, Stability by Lyapunov's Direct Method with Application, Academic Press, New York, 1961. [125] LaSalle, J.P., "Some Extensions of Lyapunov's Second Method." IRE Transactions on Circuit Theory, pp. 520-527, December 1960. [126] Lefschetz, S., Stability of Nonlinear Control Systems , Academic Press, New York, 1963 [133] Lyapunov, A.M. "The General Problem of Motion Stability" (1892) In Russian. Translated to English, Ann. Math. Study, no. 17, 1949, Princeton University Press, 1947. [134] Malkin, I.G., "Theory of Stability of Motion," Technical Report Tr. 3352, U.S. Atomic Energy Commission, English Ed., 1958. [139] Massera, J.L., "Contributions to Stability Theory," Annals of Mathematics, Vol. 64, pp. 182-206, 1956. [142] Meyer, K. R., "On the Existence of Lyapunov Functions for the Problem on Lur'e," SIAM Journal of Control , Vol. 3, pp. 373-383, 1965. [143] Michel, A. and R.K. Miller, Ordinary Differential Equations, Academic Press, New York, 1982. [172] Narendra, K.S. and A.M. Annaswamy, Stable Adaptive Systems, Prentice Hall, Englewood Cliffs, New Jersey, 1989. [177] Narendra, K.S. and J.H. Taylor, Frequency Domain Criteria for Absolute Stability, Academic Press, New York, 1973. [191] Polycarpou, M. and P.A. Ioannou, "On the Existence and Uniqueness of Solutions in Adaptive Control Systems," IEEE Transactions on Automatic Control , Vol. 38, 1993. [192] Popov, V. M., Hyperstability of Control Systems , Springer-Verlag, New York, 1973. [201] Sastry, S. and M. Bodson, Adaptive Control: Stability, Convergence and Robustness , Prentice Hall, Englewood Cliffs, New Jersey, 1989. [204] Siljak, D.D. "New Algebraic Criteria for Positive Realness", J. Franklin Inst., Vol. 291, no. 2, pp. 109-120, 1971. 3 - 25
[232] Vidyasagar, M., Nonlinear Systems Analysis, 2nd Edition, Prentice Hall, Englewood Cliffs, New Jersey, 1993.
3 - 26
Cap. 5 Conducerea adaptivă a sistemelor neliniare Tehnicile de conducere convenţională, ca de pild ă algoritmii PID, sau algoritmii de minimă varianţă, au fost şi sunt folosiţi în multe situaţii pentru conducerea proceselor neliniare [2], [5], [6], [7]. Aceste tehnici au marele dezavantaj de a se baza pe o aproximare liniar ă a modelului, neţinând cont de puternicele neliniarităţi ale procesului, precum şi de variaţia în timp a parametrilor acestuia. De aceea, în problema proiect ării algoritmilor de conducere, o îmbunătăţire a performanţelor sistemelor de conducere se poate ob ţine prin exploatarea structurii neliniare a modelului procesului. În acest sens, în acest paragraf se vor prezenta o serie de algoritmi de conducere neliniar ă a proceselor neliniare utilizând o tehnică de proiectare numită conducere liniarizant ă exact ă [5], [6], [8]. Deosebirea dintre tehnica liniariz ării exacte şi tehnica conducerii convenţionale rezultă din modul de introducere a liniariz ării în problema proiectării. Astfel, într-o abordare standard, convenţională, se calculeaz ă mai întâi o aproximare liniar ă a modelului în jurul unui punct de func ţionare şi apoi, pe baza performanţelor impuse, se proiecteaz ă un regulator liniar (de tip PID) corespunzător acestui model aproximativ. Evident c ă mărimea de comandă a regulatorului se aplică procesului neliniar, astfel încât sistemul în circuit închis r ămâne, în ansamblu, neliniar . Sistemul în circuit închis va avea o comportare corespunzătoare numai în punctul de funcţionare ales sau într-o vecin ătate restrânsă a acestuia, nu şi pentru alte puncte de func ţionare sau în jurul unei traiectorii de funcţionare. În abordarea conducerii liniarizante exacte, se ob ţine un regulator neliniar proiectat astfel încât sistemul în circuit închis să aibă o comportare liniar ă necondiţionat stabilă, oricare ar fi punctul de funcţionare sau traiectoria de stare a procesului. Schemele bloc corespunzătoare celor două tehnici sunt prezentate în Fig. 5.1. Deşi în domeniul conducerii adaptive a sistemelor neliniare exist ă relativ puţine chestiuni teoretice generale, totu şi conducerea adaptivă a fost dezvoltată cu succes pentru câteva clase importante de sisteme neliniare, care satisfac, de obicei, următoarele condiţii: dinamica neliniar ă a instalaţiei poate fi parametrizat ă liniar, toate variabilele de stare sunt cunoscute, neliniarităţile sistemului pot fi compensate stabil prin mărimea de comandă, dacă parametrii acestuia sunt cunoscu ţi. Ca şi în cazul liniar, pentru sistemele neliniare, pot fi formulate scheme de conducere adaptivă direct ă şi indirect ă . Diferenţa dintre ele constă în modul de proiectare a legii de adaptare a parametrilor. Într-o schem ă directă, adaptarea parametrilor este determinată chiar de eroarea de urmărire, pe când într-o schemă indirectă, de o eroare auxiliar ă de estimare sau de predic ţie. 5-1
MODEL LINIAR Referinţă
REGULATOR Comandă LINIAR
PROCES NELINIAR
Sistem în circuit închis - NELINIAR a) Metoda liniarizării procesului (conducere convenţională) Comandă Referinţă REGULATOR PROCES NELINIAR NELINIAR
Ieşire
Ieşire
Variabile de stare
Sistem în circuit închis - LINIAR b) Metoda liniarizării exacte (comandă neliniar ă) Fig. 5.1. Metode de conducere a sistemelor neliniare
Faţă de cazul liniar, o dificultate specific ă în conducerea sistemelor neliniare reiese din faptul că liniarizarea acestora în raport cu starea necesit ă transformări de coordonate neliniare, parametrizate, realizate prin intermediul unor diffeomorfisme corespunzătoare. În acest paragraf se prezintă câteva aspecte teoretice legate de liniarizarea sistemelor neliniare prin legi de comand ă cu reacţie după stare, atât pentru cazul sistemelor monovariabile, cât şi multivariabile. Pentru sistemele monovariabile şi multivariabile cu minim de faz ă se prezintă modul de obţinere a unei comenzi cu adaptarea parametrilor pentru a ob ţine o compensare asimptotică exactă. 5.1. Conducerea liniarizantă a unei clase de sisteme neliniare
În ultimii ani s-a acordat o aten ţie deosebită utilizării reacţiei după stare pentru liniarizarea exact ă a comportării intrare-ieşire a sistemelor de conducere neliniare descrise prin ecuaţii de stare de forma: x& = f ( x ) +
p
∑=1 g ( x) u i
i
i
y1
(5.1)
= h1 ( x),K, y p = h p ( x)
unde x ∈ ℜ n ; u, y ∈ ℜ p ; f , g i : ℜ n → ℜ n şi h j : ℜ n → ℜ . Teoria liniarizării exacte prin reacţie după stare a fost dezvoltată şi sistematizată prin eforturile a numeroşi cercetători [5], [6], [7], [8] pentru procese 5-2
continue şi [9], [10] pentru procese discrete şi cu eşationare şi continuă şi în prezent. Există numeroase aplicaţii ale acestei teorii în diverse domenii: aeronautică, robotică, maşini şi acţionări electrice, mecatronic ă, chimie şi biochimie, biotehnologie: [1], [2], [3], [7], [8], [11], [12], [13] etc. Marele dezavantaj al tehnicii liniariz ării exacte constă în faptul că pentru a se obţine o comportare liniar ă intrare-ieşire este necesar ă realizarea unei compensări exacte a neliniarităţilor procesului. În consecinţă, dacă modelul conţine erori de modelare a termenilor neliniari, compensarea nu mai poate fi exact ă, iar comportarea sistemului nu mai este liniar ă. De aceea, în acest paragraf, se sugereaz ă o conducere adaptivă capabilă să realizeze o compensare robustă a termenilor neliniari în situaţia în care incertitudinea în ace şti termeni este parametric ă, iar procesele sunt cu minim de faz ă. Deoarece liniarizarea intrare-ie şire prin reacţie după stare are la baz ă conceptele geometriei diferenţiale, în paragraful următor vor fi prezentate câteva definiţii şi concepte de bază cu care operează aceasta. 5.1.1. Elemente de bază ale geometriei diferen ţiale
•
Derivate Lie. Definiţii şi notaţii
Fie h( x) : ℜ n → ℜ o funcţie scalar ă. Gradientul (sau diferen ţ iala exact ă ) a ∂h funcţiei h, notată cu ∇ h sau dh sau este vectorul linie, definit prin: ∂ x
∇ h( x) = dh( x) =
∂h ⎡ ∂h ∂h ⎤ = ⎢ ,K, ∂ x ⎣ ∂ x1 ∂ xn ⎥⎦
Fie f şi g două funcţii vectoriale (câmpuri de vectori), definite prin: f ( x ) : ℜ n → ℜ n şi g ( x) : ℜ n → ℜ n . Gradien ţ ii lui f şi g notaţi cu df , respectiv d g se definesc prin următoarele matrice jacobiene:
⎡ ∂ f 1 ⎢ ∂ x ∂ f ⎢ 1 =⎢ M df ( x) = ∂ x ⎢ ∂ f n ⎢ ∂ x1 ⎣
∂ f 1 ⎤ ⎡ ∂ f 1 ⎤ ⎡ ∂ g 1 L ∂ g 1 ⎤ ⎡ ∂ g 1 ⎤ ⎢ ∂ x ∂ xn ⎥ ⎢ ∂ x ⎥ ∂ xn ⎥ ⎢ ∂ x ⎥ 1 ∂ g ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ =⎢ M O M ⎥=⎢ M ⎥ O M ⎥ = ⎢ M ⎥ , dg ( x ) = ∂ x ⎢ ∂ g n ∂ f n ⎥ ⎢ ∂ f n ⎥ ∂ g n ⎥ ⎢ ∂ g n ⎥ L L ⎢ ∂ x1 ∂ xn ⎥⎦ ⎢⎣ ∂ x ⎥⎦ ∂ xn ⎥⎦ ⎢⎣ ∂ x ⎥⎦ ⎣ unde f i şi g i, (i = 1, K , n) sunt componentele funcţiilor f şi respectiv g . Derivata lui h de-a lungul vectorului n-dimensional f sau derivata Lie [5] a lui h de-a lungul lui f este func ţ ia scalar ă netedă: n ∂h L f h = 〈 d h, f 〉 = ∑ f i (5.2) ∂ x i =1 i Derivata de ordin k a lui h de-a lungul lui f se poate explicita prin: L
5-3
(
Lk f h = L f Lk f −1h
) = 〈 d L −1h, f 〉 , k = 1, 2, ... k f
(5.3)
Derivata funcţiei n-dimensionale f de-a lungul vectorului n-dimensional g sau derivata Lie a funcţiei f de-a lungul lui g este vectorul obţinut prin înmulţirea lui ∂ f şi g ( x). Aceasta se notează prin g ( f ) sau L g f , este definită prin: ∂ x ∂ f L g f ( x ) = g ( x) (5.4) ∂ x şi este un vector ale c ărui elemente sunt: n ∂ f j (5.5) g i ( x) , j = 1 , K, n . ∑ ∂ x i =1 i Dacă funcţia f este derivată de k ori de-a lungul aceleiaşi funcţii g , se foloseşte notaţia L g k f . Funcţia L g k f ( x) satisface relaţia recursivă:
∂ ( L g k −1 f ) 0 ( )= g ( x) cu L g f ( x ) = f ( x) . ∂ x
k L g f x
(5.6)
Cu ajutorul câmpurilor de vectori f şi g se poate defini produsul Lie [5] al lui f şi g , definit prin: ∂ g ∂ f [ f , g ]( x) = f ( x) − g ( x) = ad f g ∂ x ∂ x care este un nou câmp de vectori, n-dimensional. Pentru a pune în evidenţă repetarea produsului Lie a câmpului g cu un acelaşi câmp f , se foloseşte relaţia recursivă:
(
)
ad f k g ( x) = ad f ad f k −1 g ( x) = [ f , ad f k −1 g ]( x ) ,
∀ k ≥ 1
cu ad f 0 g ( x) = g ( x) .
•
Varietăţi şi distribuţii
[5]. O submulţime M ⊂ ℜ n este o varietate r -dimensională (r < n) a lui ℜ n dacă pentru fiecare x ∈ M există o mulţime deschisă U , cu x ∈ U şi funcţiile netede hr +1 ( x), K , hn ( x) astfel încât { d hr +1 ( x), K, d hn ( x ) } este o mulţime liniar-independentă de vectori linie pentru orice x ∈U şi U ∩ M = { x ∈ M : hi ( x) = 0, r + 1 ≤ i ≤ n } . Precizăm că funcţiile hr +1 ( x), K , hn ( x) din această definiţie nu sunt unice. Definiţia 5.1
[5]. Spaţiul vectorial determinat de d funcţii vectoriale netede n n f 1 , K , f d : W ⊂ ℜ → ℜ se notează prin: Definiţia 5.2
D( x) = span { f 1 ( x), K , f d ( x) }
5-4
şi se numeşte distribu ţ ie. Dimensiunea distribuţiei D( x) într-un punct x ∈ ℜ n este dată de dimensiunea spaţiului vectorial D( x). O distribuţie D, definită pe o mulţime U ⊂ ℜ n este nesingular ă dacă există un întreg d , astfel încât, dim(D( x)) = d , ∀ x ∈ U ,
adică funcţiile f 1 ( x), K, f d ( x) sunt liniar independente, oricare ar fi x ∈ U .
[5]. O distribuţie D este involutivă dacă produsul Lie [ ξ1 , ξ 2 ] al oricărei perechi de vectori ξ1 şi ξ 2 apar ţinând lui D este un vector ce apar ţine lui D. Definiţia 5.3
• Diffeomorfisme În analiza şi sinteza sistemelor neliniare, de multe ori, se folosesc transformă ri neliniare de coordonate. O schimbare de variabile poate fi descris ă printr-o rela ţie de forma: z = Φ ( x ) (5.7) unde Φ( x) reprezintă o ℜ n - funcţie de n variabile, adică
⎡ φ1 ( x) ⎤ ⎡ φ1 ( x1 ,K, xn ) ⎤ ⎡ z 1 ⎤ ⎥=⎢M⎥ Φ( x) = ⎢ M ⎥ = ⎢ M ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ φ φ K ( x ) ( x , , x ) ⎥ ⎣⎢ z n ⎦⎥ n ⎦ ⎣⎢ n ⎦⎥ ⎣⎢ n 1 cu următoarele proprietăţi: (i) Φ( x) este inversabilă, adică există funcţia Φ −1 ( z ) astfel încât Φ −1 (Φ( z )) = x , ∀ x ∈ ℜ n (ii) Φ( x) şi Φ −1 ( z ) sunt aplicaţii netede, adică au derivate par ţiale continue de orice ordin. O transformare de acest tip se numeşte diffeomorfism global . Deoarece proprietăţile (i) şi (ii) sunt dificil de îndeplinit pentru orice x din ℜ n , în multe cazuri ne rezumăm la astfel de transform ări, dar definite numai în vecinătatea unor puncte x0 date. O transformare de acest tip se numeşte diffeomorfism local . (Funcţii inverse) [8]. Fie U o submulţime deschisă a lui ℜ n şi Φ = [ φ1 , K , φn ]T :U → ℜ n o aplicaţie liniar ă. Dacă matricea jacobiană: Teorema 5.1
⎡ ∂φ1 ⎢ ∂ x d Φ ⎢ 1 =⎢ M d x ⎢ ∂φ n ⎢ ∂ x1 ⎣
L O L
5-5
∂φ1 ⎤ ∂ xn ⎥⎥ M ⎥ ∂φn ⎥ ∂ xn ⎥⎦
este nesingular ă în anumite puncte x0 ∈U , atunci există o vecinătate V ⊂ U a lui x0 astfel încât Φ : V → Φ (V ) este un diffeomorfism. Teorema 5.1 poate fi reformulată astfel: [8]. Dacă rang {d φ1 , K, d φn } = n în anumite puncte x0 ∈ U , unde U este o submulţime deschisă a lui ℜn , atunci există o vecinătate V ⊂ U a lui x0, astfel încât Φ : V → Φ(V ) este un diffeomorfism. Teorema 5.2
• Transformări de coordonate Consider ăm un sistem neliniar cu o intrare u şi o ieşire y, descris prin ecuaţiile de stare: x& (t ) = f ( x) + g ( x)u (5.8) y (t ) = h( x) unde x ∈ ℜn este vectorul de stare, f şi g sunt funcţii neliniare de stare, netede, ndimensionale, iar h este o funcţie scalar ă, netedă, depinzând de asemenea de starea sistemului. Definiţia 5.4
[5]. Se spune că sistemul (5.8) are gradul relativ δ într-un punct
x0 dacă:
(i) L g h( x) = L g L f h( x) = L = L g Lδ f −2 h( x) = 0 , pentru orice x dintr-o vecinătate a lui x0 ; (ii) L g Lδ f −1h( x0 ) ≠ 0 . Să calculăm gradul relativ al sistemului liniar: x& = A x + bu , k y = cT x . În acest caz: f ( x) = Ax, g ( x) = b, h( x) = cT x . Obţinem: L f h( x) = cT Ak x Exemplul 5.1.
şi
k L g L f h( x ) = c T Ak b .
Atunci, întregul
δ
se obţine din condiţiile:
∀ k < δ − 1 şi cT Aδ−1b ≠ 0 . Se ştie că întregul δ care satisface aceste condiţii este egal cu diferen ţa dintre gradele polinoamelor de la numitorul şi număr ătorul funcţiei de transfer H ( s) = cT ( s I n − A) −1 b a acestui sistem, unde s este variabila complex ă. Exemplul 5.2. Consider ăm c ă la momentul t 0, sistemul (5.8) se află în starea ( k ) x(t 0) = x0. Dorim să calculăm valoarea ieşirii y(t ) şi derivatele acesteia y (t ) , k = 1, 2,K, la momentul t = t 0. Obţinem: cT Ak b = 0,
y (t 0 ) = h( x (t 0 )) = h( x0 ) , y (1) (t ) =
∂ h d x ∂ h = ( f ( x(t )) + g ( x(t ))u (t ) ) = L f h( x(t )) + L g h( x(t ))u (t ) . ∂ x d t ∂ x
Dacă gradul relativ δ > 1 pentru orice x în jurul lui x0 avem L g h( x(t 0 )) = 0 şi deci: 5-6
y (1) (t 0 ) = L f h( x(t 0 )) .
Atunci,
∂ ( L f h) d x ∂ ( L f h) ( f ( x) + g ( x)u (t )) = L2 f h( x(t )) + L g L f h( x(t ))u (t ) = y (t ) = ∂ x d t ∂ x ( 2)
pentru orice t în jurul lui t 0 şi orice x(t ) în jurul lui x0. Dacă δ > 2 , atunci L g L f h( x0 ) = 0 şi: y ( 2 ) (t 0 ) = L2 f h( x (t 0 )) .
Continuând în acest fel, ob ţinem: y ( k ) (t 0 ) = Lk f h( x(t 0 )) , pentru orice k < δ ; y ( δ) (t 0 ) = Lδ f h( x0 ) + L g Lδ f −1h( x0 )u (t 0 ) .
Deci, pentru un sistem neliniar, gradul relativ δ este egal cu numă rul derivă rilor mă rimii de ie şire y în raport cu timpul pentru ob ţ inerea unei rela ţ ii explicite intrare-ie şire.
Funcţiile h( x), L f h( x), K , Lδ f −1h( x) au o importanţă deosebită. Se poate ar ăta că acestea pot fi folosite în scopul definirii unei transform ări locale de coordonate în jurul punctului x0. Acest fapt se bazează pe următoarea proprietate: [5], [7]. Consider ăm că sistemul (5.8) are gradul relativ δ în x0. Atunci, vectorii linie dh( x0 ), dL f h( x0 ), K , dLδ f −1h( x0 ) sunt liniar independenţi. Propoziţia 5.1 [5]. Consider ăm că sistemul (5.8) are gradul relativ δ ≤ n în x0. Notăm: φ1 ( x) = h( x) φ 2 ( x) = L f h( x) (5.9) Lema 5.1
.......... ...........
φδ ( x) = Lδ f −1h( x) Dacă δ este strict mai mic decât n, este întotdeauna posibil s ă găsim n − δ funcţii φδ+1 , φδ+ 2 , K , φ n astfel încât aplica ţia: ⎡ φ1 ( x) ⎤ Φ( x) = ⎢ M ⎥ (5.10) ⎢ ⎥ ⎢⎣φn ( x)⎥⎦ să aibă o matrice jacobian ă nesingular ă în x0 şi de aceea poate fi calificat ă drept o transformare de coordonate într-o vecinătate a lui x0. Valoarea în x0 a acestor 5-7
funcţii adiţionale poate fi aleas ă arbitrar. Mai mult, este întotdeauna posibil s ă alegem φδ+1 ( x), φδ+2 ( x), K , φn ( x) încât: L g φi ( x) = 0
pentru orice δ + 1 ≤ i ≤ n şi orice x în vecinătatea lui x0.
(5.11)
Descrierea sistemului în noile coordonate z i = φi ( x) , 1 ≤ i ≤ n , se deduce foarte uşor, astfel: • Pentru z 1 , K , z δ−1 avem:
∂φ1 d x ∂ h d x = = L h( x(t )) = φ2 ( x(t )) = z 2 (t ) ∂ x d t ∂ x d t f ....................................................................................... ∂φδ−1 d x ∂ ( Lδ f −2 h ) d x δ−1 &δ−1 = = = L h( x(t )) = φδ ( x(t )) = z δ (t ) z ∂ x d t ∂ x d t f &1 z
=
• Pentru z δ obţinem: &δ z
= Lδ f h( x(t )) + L g Lδ f −1h( x(t ))u (t )
În membrul drept al acestei ecua ţii trebuie să înlocuim pe x(t ) cu expresia sa ca funcţie de z (t ), adică x(t ) = Φ −1 ( z (t )) . Dacă notăm: a( z ) = Lδ f h(Φ −1 ( z )) şi b( z ) = L g Lδ f −1h(Φ −1 ( z )) , (5.12) ecuaţia de mai sus poate fi rescrisă sub forma: &δ = a ( z (t )) + b( z (t ))u (t ) z
(5.13)
Precizăm că, prin definiţie z 0 = Φ( x0 ) şi b( z 0 ) ≠ 0 . Astfel, coeficientul b( z ) este nenul pentru orice z dintr-o vecinătate a lui z 0. În ceea ce priveşte celelalte noi coordonate, dacă pentru ecuaţiile corespunzătoare nu se specifică nimic altceva, nu ne a şteptăm să aibă o structur ă specială. Totuşi, dacă φδ+1 ( x), φδ+2 ( x), K , φ n ( x) se aleg astfel încât L g φi ( x) = 0 , atunci: ∂φi &i = ( f ( x(t )) + g ( x(t ))u (t ) ) = L f φi ( x(t )) + L g φi ( x(t ))u (t ) = L f φi ( x(t )) z ∂ x Notând: q j ( z ) = L f φ j (Φ −1 ( z )) , δ + 1 ≤ j ≤ n (5.14) ultimele n − δ ecuaţii se rescriu sub forma: & j = q j ( z (t )) z
(5.15)
Rezumând, ecuaţiile de stare ale sistemului (5.8) în noile coordonate z vor fi: &i = z i +1 , i = 1, K , δ − 1 z 5-8
= a( z ) + b( z )u (t ) & j = q j ( z ) , δ + 1 ≤ j ≤ n z &δ z
(5.16)
iar mărimea de ieşire se exprimă prin: y = z 1.
Ecuaţiile de stare astfel obţinute se spune că sunt în forma normal ă . Observaţia 5.1. Nu întotdeauna este simplu s ă construim n − δ funcţii φδ+1 , φδ+ 2 , K , φ n astfel încât L g φi ( x) = 0 , deoarece aceasta implică rezolvarea unui sistem de n − δ ecuaţii diferenţiale cu derivate par ţiale. Atunci, este mult mai simplu a alege funcţiile φδ+1 ( x), K , φ n ( x) , astfel încât acestea să satisfacă proprietatea ca matricea jacobiană a lui Φ( x) să fie nesingular ă în x0. Această condiţie este suficientă pentru a defini o transformare de coordonate. Folosind o transformare construită în acest fel, se g ăseşte aceeaşi structur ă pentru primele δ ecuaţii, adică: &i = z i +1 , i = 1, K , δ − 1 z &δ = a ( z ) + b( z )u (t ) , z dar nu este posibilă obţinerea unei structuri speciale pentru ultimele n − δ ecuaţii. Acestea vor avea, de obicei, o structur ă de forma: &δ+1 = qδ+1 ( z ) + pδ+1 ( z )u z ..................................... &n = qn ( z ) + pn ( z )u z în care apare explicit şi intrarea u. Forma ecuaţiilor nu este cea normală. Teorema lui Frobenius [7]. Dându-se o mulţime de câmpuri de vectori liniar independenţi {Y i | Y i : ℜ n → ℜ n , i = 1, K , δ} , există n − δ funcţii scalare q j : ℜ n → ℜ , j = 1, K , n − δ cu
⎛ ⎡ ∂ q1 ⎞ ⎜⎢ ( x0 ) ⎤⎥ ⎟ ⎜ ⎢ ∂ x ⎟ ⎥ ⎟ = n−δ M rang ⎜ ⎢ ⎥ ⎜ ⎢ ∂ qn −δ ⎟ ⎥ ( ) x ⎜⎜ ⎢ ∂ x 0 ⎥ ⎟⎟ ⎦ ⎠ ⎝ ⎣ astfel încât
∂ qi Y = 0 , i = 1, K , δ ∂ x i dacă şi numai dacă {Y i | Y i : ℜ n → ℜ n , i = 1, K , δ} este involutivă.
5-9
5.1.2. Liniarizarea intrare-ieşire a sistemelor monovariabile
Vom ar ăta că prin alegerea unei legi de comand ă neliniar ă cu reacţie după stare, comportarea intrare-ie şire a unei clase largi de sisteme neliniare poate fi f ăcută liniar ă. Consider ăm clasa sistemelor neliniare cu o intrare u şi o ieşire y, descrise prin ecuaţii de stare de forma: x& (t ) = f ( x) + g ( x )u (5.17) y (t ) = h( x) cu x ∈ ℜ n , iar f , g şi h funcţii neliniare netede (adic ă funcţii infinit derivabile). Derivând y în raport cu timpul, obţinem: (5.18) y& = L f h( x) + L g h( x)u unde L f h( x) : ℜ n → ℜ şi L g h( x) : ℜn → ℜ reprezintă derivatele Lie [6] ale lui h în raport cu f , respectiv g . Dacă L g h( x) ≠ 0 , ∀ x ∈ ℜ n , ceea ce înseamn ă că sistemul (5.17) are gradul relativ [6] δ = 1 , legea de comand ă cu reacţie după stare: 1 (5.19) (− L f h( x) + v ) u= L g h( x) unde v este o nouă intrare de comandă, conduce la sistemul liniar (de la v la y): y& = v . În cazul în care L g h( x) ≡ 0 , ∀ x ∈ ℜ n , ceea ce înseamnă că δ > 1 , derivând (5.18) în raport cu timpul, obţinem: y ( 2)
= L2 f h( x) + ( L g L f h( x)) u
(5.20)
unde L2 f h( x) = L f ( L f h)( x) şi L g L f h( x) = L g ( L f h( x)) . Dacă L g L f h( x) ≠ 0 ,
∀ x ∈ ℜ n , ceea ce înseamn ă că δ = 2 , legea de comand ă: u
=
1 L g L f h( x)
(− L2 h( x) + v) f
(5.21)
liniarizează intrare-ieşire sistemul (5.20) şi conduce la: y ( 2 )
=v.
În cazul general, în care gradul relativ al sistemului (5.17) este δ > 0 , ceea ce înseamnă că L g Li f h( x) ≡ 0 , i = 1, K , δ − 2 şi L g Lδ f −1h( x) ≠ 0 , legea de comand ă: 1 (− Lδ f h( x) + v) (5.22) u= δ −1 L g L f h( x) conduce la următoarea dinamică în circuit închis: 5 - 10
y ( δ )
=v.
Dacă δ = n , atunci sistemul ob ţinut prin schimbarea de coordonate (5.7): z = Φ ( x ) ,
(5.23)
unde Φ( x) : ℜ n → ℜ n este un diffeomorfism, în noile coordonate z i, cu z i
= φi ( x) = Li f −1h( x) , 1 ≤ i ≤ n
(5.24)
are forma (5.16):
= z i+1 , i = 1, K , n − 1 & n = a ( z ) + b( z )u (t ) , b( z ) ≠ 0 z y = z 1 &i z
(5.25)
cu a( z ) şi b( z ) daţi de (5.12) cu δ = n . Pentru sistemul (5.25), legea de comandă: 1 (− a( z ) + v ) u= (5.26) b( z ) face ca sistemul în circuit închis, descris prin: &i = z i +1 , i = 1, K , n − 1 z &n = v z (5.27) y = z 1
să fie liniar şi controlabil. În vechile coordonate x, comanda u din (5.26) are forma: 1 n ( − u= L f h( x ) + v ) n −1 L g L f h( x)
(5.28)
Dacă δ < n , conform Lemei 5.1 şi Propoziţiei 5.1, putem găsi n − δ funcţii φδ+1 ( x),K , φn ( x) astfel încât sistemul (5.17) să fie adus în forma normal ă (5.16) [5], [7]: &i = z i +1 , i = 1, K , δ − 1 z &δ z
= Lδ f h(Φ −1 ( z )) + L g Lδ f −1h(Φ −1 ( z ))u (t ) −1
= L f φ j (Φ ( z )), δ + 1 ≤ j ≤ n y = z 1 O lege de comandă de forma: 1 (− Lδ f h(Φ −1 ( z )) + v ) u= δ−1 −1 L g L f h(Φ ( z )) & j z
ne conduce la următorul sistem în circuit închis:
5 - 11
(5.29)
(5.30)
&i = z i +1 , z
i = 1, K, δ − 1
=v −1 & j = L f φ j (Φ ( z )), δ + 1 ≤ j ≤ n z y = z 1 &δ z
(5.31)
5.1.3. Liniarizarea intrare-ie şire a sistemelor multivariabil e
Reacţie statică după stare
Consider ăm clasa sistemelor neliniare p ătrate (numărul de intr ări este egal cu numărul de ieşiri) de forma: x& = f ( x) +
p
∑=1 g ( x)u i
i
(5.32)
i
y1 = h1 ( x),K, y p
= h p ( x)
unde x ∈ ℜ n , u ∈ ℜ p , y ∈ ℜ p , iar f , g i (i = 1,K, p) sunt funcţii vectoriale neliniare netede şi h j ( j = 1,K, p) sunt funcţii scalare neliniare netede. Derivând ieşirea y j în raport cu timpul, obţinem: p
y& j
= L f h j + ∑ ( L g h j )ui , j = 1,K, p i
i =1
(5.33)
Dacă în toate cele p relaţii din (5.33), ( L g h j )( x ) ≡ 0, ∀ x ∈ ℜ n , atunci nici una din cele p intr ări nu apare în aceste rela ţii. Definim δ j cel mai mic întreg pozitiv, astfel i
încât cel puţin una dintre cele p intr ări u1, ... , u p apare în y j(δ ) , adică, j
( δ j )
y j
p
= L f h j + ∑ L g ( Lδ f −1h j ) ui δ j
j
i =1
i
(5.34)
δj−
cu L g L f 1h j ≠ 0 pentru cel puţin un j = 1, K, p şi pentru anumiţi x ∈ ℜ n . Definim ( p × p) -matricea A( x) prin: i
⎡ L g 1 Lδ f 1 −1h1 ( x) ⎢ M A( x ) = ⎢ δ −1 ⎢ L g 1 L f h p ( x) ⎣ p
L L g L f 1 h1 ( x) ⎤ δ −1
⎥ ⎥ δ −1 L L g L f h p ( x) ⎥ ⎦ p
O
M
(5.35)
p
p
Atunci (5.35) se poate rescrie sub forma:
⎡ y1(δ1 ) ⎤ ⎡ Lδ f 1 h1 ( x) ⎤ ⎡ u1 ⎤ ⎢ M ⎥ = ⎢ M ⎥ + ( )⎢ M ⎥ ⎢ (δ ) ⎥ ⎢ δ ⎥ A x ⎢ ⎥ ⎢⎣ y p ⎥⎦ ⎢⎣ L f h p ( x)⎥⎦ ⎢⎣u p ⎥⎦ p
p
5 - 12
(5.36)
Dacă A( x) ∈ ℜ p× p este nesingulară (ceea ce înseamnă că A-1( x) există pentru orice x din ℜ n şi are norma mărginită), atunci legea de comand ă cu reacţie după stare:
⎡ Lδ f 1 h1 ( x) ⎤ ⎢ M ⎥ + −1 ( ) u = − A−1 ( x) ⎢ ⎥ A x v δ ⎢⎣ L f h p ( x)⎥⎦
(5.37)
p
unde v ∈ ℜ p sunt noile mărimi de comandă, determină următorul sistem liniar în circuit închis: ⎡ y1(δ1 ) ⎤ ⎡ v1 ⎤ ⎢ M ⎥ =⎢ M ⎥ (5.38) ⎢ (δ ) ⎥ ⎢ ⎥ ⎢⎣ y p ⎥⎦ ⎢⎣v p ⎥⎦ p
Precizăm că sistemul (5.38) este, în plus, decuplat, în sensul c ă fiecare mărime de ieşire va fi modificat ă numai de o singur ă mărime de comandă. Evident că decuplarea este asigurat ă prin intermediul comenzii (5.37). O consecinţă a acestei proprietăţi constă în faptul că un mare număr de rezultate corespunzătoare sistemelor monovariabile poate fi extins la cazul sistemelor multivariabile. Legea de comandă (5.37) este referită ca lege de comand ă liniarizant ă cu reac ţ ie statică după stare [5], [7], [147]. Reacţie dinamică după stare Dacă A( x) din (5.35) este singular ă şi primul (5.36) nu are rangul lui A( x), liniarizarea poate fi
termen din membrul drept în totu şi obţinută prin utilizarea reacţiei dinamice după stare. Pentru claritate, metoda va fi exemplificat ă pe cazul sistemelor cu două intr ări şi două ieşiri ( p = 2) . Întrucât rangul matricei A( x) este 1, există o matrice T ( x) ∈ ℜ 2×2 nesingular ă astfel încât A( x) poate fi adusă la o formă cu o singur ă coloană:
⎡ a11 ⎣a21
A( x) T ( x ) = ⎢
0⎤ . 0⎥⎦
(5.39)
Definind noile intr ări w = T −1 ( x)u , (5.36) devine:
⎡ y1( δ1 ) ⎤ ⎡ Lδ f 1 h1 ⎤ ⎡ a11 0⎤ ⎢ y ( δ2 ) ⎥ = ⎢ Lδ2 h ⎥ + ⎢a 0⎥ w1 . ⎣ 1 ⎦ ⎢⎣ f 2 ⎥⎦ ⎣ 21 ⎦ Similar, (5.32) se poate rescrie sub forma: x& = f ( x) + g 1 ( x) w1 + g 2 ( x) w2
(5.40)
(5.41)
unde [ g 1 ( x) g 2 ( x)] = [ g 1 ( x) g 2 ( x)]T ( x) . Derivând (5.40) şi folosind (5.41) se obţine: 5 - 13
⎡ y1(δ1 +1) ⎤ ⎡ Lδ f 1 +1h1 + L g 1 Lδ f 1 h1w1 + L f a11w1 + L g 1 a11w12 ⎤ ⎢ ( δ2 +1) ⎥ = ⎢ Lδ2 +1h + L Lδ2 h w + L a w + L a w 2 ⎥ ⎣ y1 ⎦ ⎢⎣ f 2 g 1 f 2 1 f 21 1 g 1 21 1 ⎥⎦ ⎡ a11 L g 2 Lδ f 1 h1 + L g 2 a11w1 ⎤ ⎡ w& 1 ⎤ +⎢ ⎥⎢ ⎥ . δ2 ⎣⎢a21 L g 2 L f h2 + L g 2 a21w1 ⎦⎥ ⎣ w2 ⎦ sau
⎡ y1(δ1 +1) ⎤ ⎡ w& 1 ⎤ = ( , ) + ( , ) (5.42) C x w B x w ⎢ (δ2 +1) ⎥ 1 1 ⎢ ⎥. w y ⎣ 2⎦ ⎣ 1 ⎦ În (5.42) se observă apariţia termenului w& 1 care este echivalent cu introducerea unui integrator înaintea lui w1 adică cu adăugarea unei noi dinamici la regulator. Dacă B ( x, w1 ) ≠ 0, atunci legea de comandă: ⎡ w& 1 ⎤ ⎡ v1 ⎤ −1 −1 = − ( , ) ( , ) + ( , ) B x w C x w B x w 1 1 1 ⎢ ⎥ , ⎢w ⎥ ⎣ 2⎦ ⎣v2 ⎦ conduce la următorul sistem liniar: ⎡ y1(δ1 +1) ⎤ ⎡ v1 ⎤ ⎢ (δ2 +1) ⎥ = ⎢v ⎥ . ⎣ y1 ⎦ ⎣ 2 ⎦
(5.43)
(5.44)
Legea de comandă (5.43) este o lege de comand ă liniarizantă decuplantă cu reacţie dinamică după stare. Dacă B( x, w1 ) este singular ă, procedura prezentată se repetă utiliznd însă B( x, w1 ) în locul lui A( x). Procedura se termină într-un număr finit de paşi dacă sistemul este invesabil la dreapta.
5.2. Sisteme cu minim de fază Când sistemului (5.17) i se aplică comanda (5.19) se obţine un sistem liniar intrare-ieşire de ordinul 1, de forma y(1) = v. În consecinţă, prin această reacţie după stare, n − 1 din cele n variabile de stare ale sistemului original sunt f ăcute neobservabile. Pentru claritate, consider ăm cazul unui sistem liniar: x& = A x + bu , T T y = c x , pentru care f ( x) = A x , g ( x) = b şi h( x) = c x . Atunci, condiţia L g h( x) ≠ 0 este echivalent ă cu cT b ≠ 0 , iar legea de comand ă (5.19) devine: 1 (5.45) u = T (−cT A x + v) c b
şi conduce la următorul sistem în circuit închis:
5 - 14
⎛ bcT ⎞ b x& = ⎜⎜ I − T ⎟⎟ A x + T v c b (5.46) ⎝ c b ⎠ y = c T x Datorită faptului că legea de comandă (5.45) conduce la o funcţie de transfer de la v la y, de forma H vy ( s ) = 1 / s , rezultă că n − 1 valori proprii ale matricei sistemului în circuit închis ( I − bcT / cT b) A sunt plasate în zerourile sistemului iniţial, iar ultima, în origine. Astfel, legile de comand ă liniarizante pot fi gândite ca fiind o replică neliniar ă a acestui plasament al polilor. Dinamica st ărilor f ăcute neobservabile reprezintă într-adevăr aşa-numita dinamică a zerourilor sistemului. Pentru a obţine stabilitate intern ă (şi deci stări mărginite) este necesar ca sistemul în circuit închis să realizeze o compensare poli-zerouri stabil ă, adică sistemul să fie cu minim de fază. Aceasta motivează înţelegerea şi definirea sistemelor neliniare cu minim de faz ă .
Cazul sistemelor monovariabile
Consider ăm că sistemul (5.17) are gradul relativ δ < n (Sistemul (5.17) are gradul relativ δ dacă ieşirea sa y trebuie derivată de δ pentru a obţine o relaţie explicită intrare-ieşire). Atunci, conform Propoziţiei 5.1, există o schimbare de coordonare z = Φ( x ) încât, în noile coordonate, sistemul s ă fie adus în forma normală: &1i = z 1,i +1 , i = 1, K , δ − 1 z &1δ = f 1 ( z 1 , z 2 ) + g 1 ( z 1 , z 2 )u z , (5.47) & z 2 j = ψ j ( z 1 , z 2 ) , δ + 1 ≤ j ≤ n y = z 11
unde f 1 ( z 1 , z 2 ) şi g 1 ( z 1 , z 2 ) reprezintă Lδ f h( x) , respectiv L g Lδ f −1h( x) în noile coordonate, iar ψ j ( z 1 , z 2 ) reprezintă L f φ j ( x) , j = δ + 1,K , n cu
= [ z 11 , K , z 1δ ]T ∈ ℜδ şi z 2 = [ z 2,δ+1 ,K, z 2,n ]T ∈ ℜ n−δ . Se observă că intrarea u nu influenţează direct stările z 2 j. Dacă x = 0 este un punct de echilibru al sistemului necontrolat, adic ă f (0) = 0 şi h(0) = 0 , atunci dinamicile
z 1
&2 j z
= ψ j (0, z 2 ) , δ + 1 ≤ j ≤ n ,
(5.48)
sunt referite ca dinamicile zerourilor . Precizăm, de asemenea, că submulţimea: L0
= { x ∈ U 0 | h( x) = 0, L f h( x) = 0,K , Lδ f −1h( x ) = 0 }
poate fi f ăcută invariantă definind
5 - 15
(5.49)
u
=
1 (− f 1 ( z 1 , z 2 ) + v ) . g 1 ( z 1 , z 2 )
(5.50)
Dinamicile (5.48) sunt definite pe subspaţiul L0 din (5.49). [14]. Sistemul neliniar (5.17) este un sistem cu minim de faz ă global (local) dacă dinamicile zerourilor sunt global (local) asimptotic stabile. Utilitatea defini ţiei dinamicii zerourilor sistemelor cu minim de faz ă apare în contextul operaţiei de urmărire. Astfel, dacă obiectivul conducerii este ca ie şirea y(t ) să urmărească o traiectorie de referin ţă prespecificată ym(t ), atunci comanda Definiţia 5.5
v = y m( δ )
+ λ δ ( ym(δ−1) − y (δ−1) ) + L + λ1 ( ym − y )
(5.51)
conduce la următoarea ecuaţie a erorii de urm ărire e = y − ym : e(δ)
+ λ δ e (δ−1) + L + λ1e = 0 , λ i ∈ ℜ, i = 1, K, δ
(5.52)
Precizăm că legea de comandă (5.51) nu se implementează prin derivarea repetată a ieşirii, ci printr-o lege cu reac ţie după stare, deoarece: y& = L f h, y ( 2)
= L2 f h, K , y (δ−1) = Lδ f −1h .
(5.53)
Dacă ym(t ) este ieşirea următorului model de referinţă liniar şi invariant în timp al cărui grad relativ δ m ≥ δ , unde δ este gradul relativ al procesului, iar r este semnalul de referinţă: x& m = Am xm + bm r (5.54) y m = cmT xm atunci, legea (5.50) cu v dat de (5.51) devine: δ−1 ⎤ 1 ⎡ δ (δ) (i ) (i ) ( ) − + + λ − u= L h y y y ⎢ f ⎥ ∑ m i +1 m L g Lδ f −1h ⎢⎣ ⎥⎦ i =0 δ−1 ⎤ 1 ⎡ δ T δ T δ−1 T i i = ⎢− L f h + cm Am xm + cm Am bm r + ∑ λ i+1 (cm Am xm − L f h )⎥ L g Lδ f −1h ⎢⎣ ⎥⎦ i =0
(5.55)
şi conduce la aceeaşi ecuaţie a erorii de urmărire dată de (5.52). Dacă λ1 ,K, λ δ se aleg astfel încât s δ + λ δ s δ−1 + L + λ1 = 0 să fie polinom hurwitzian, atunci e(t ) tinde la zero când t → ∞ . Mai mult, dacă ym , ym(1) , K , ym( δ−1) , sunt mărginite, atunci şi y = z 1 este mărginit. Propoziţia următoare garantează mărginirea erorii de urmărire: Propoziţia 5.2 [14]. Dacă dinamicile zerourilor sistemului neliniar (5.17) definite de (5.48) sunt global exponenţial stabile şi ψ j ( z 1 , z 2 ) din (5.47) au
derivate par ţiale continue şi mărginite în raport cu z 1 şi z 2, iar ym , ym(1) , K, ym( δ−1) , 5 - 16
sunt mărginite, atunci legea de comand ă (5.50) cu v dat de (5.51) conduce la o eroare de urmărire mărginită, adică x ∈ ℜ n este mărginit şi y(t ) converge la ym(t ).
Cazul sistemelor multivariabile
Definiţia dinamicii zerourilor pentru sisteme neliniare multivariabile p ătrate de forma (5.32) este mult mai subtilă (vezi [4]). Există trei căi diferite de definire a acestora depinzând de definiţia zerourilor unui sistem liniar invariant în timp aleas ă pentru a fi generalizată: a) dinamicile mulţimii invariante controlate maxime din nucleul ie şirii; b) dinamicile ieşirilor cu constrângeri (de exemplu, ie şiri constrânse a fi 0); c) dinamicile sistemului invers. Trebuie notat că cele trei definiţii coincid în situaţia în care sistemul neliniar poate fi decuplat prin reacţie statică, caz în care defini ţia este analoagă cu dezvoltarea din cazul monovariabil. Mai exact, dac ă A( x) definită în (5.35) este nesingular ă, se procedează astfel. Definim δ1 + L + δ p = m şi z 1 ∈ ℜ m prin z 1T
= [h1 , L f h1 , K , Lδ f 1 −1h1 , h2 , L f h2 , K , Lδ f 2 −1h1 , K, h p , L f h p , K , Lδ f p−1h p ]
Definim z 2 ∈ ℜ n−m prin z 21 = ψ1 ( x ),K, z 2,n− m
= ψ n −m ( x)
cu z = [ z 1T , z 2T ]T reprezentând un diffeomorfism al st ării x. În aceste coordonate, ecuaţiile (5.32) capătă forma: &11 = z 12 , K , z &1δ = f 1 ( z 1 , z 2 ) + g 1 ( z 1 , z 2 ) u1 z 1 &1,δ +1 = z 1,δ + 2 , K , z &1δ z 1 1 2 &1,m−δ +1 = z 1,m−δ z p p
= f 2 ( z 1 , z 2 ) + g 2 ( z 1 , z 2 ) u2 &1m = f p ( z 1 , z 2 ) + g p ( z 1 , z 2 ) u p + 2 , K , z
= Ψ ( z 1 , z 2 ) + Φ( z 1 , z 2 ) u y1 = z 11 , y 2 = z 1,δ1 +1 , K , K y p = z 1,m−δ
(5.56)
&2 z
p
+1
În (5.56), f 1 ( z 1 , z 2 ) reprezintă Lδ f 1 h1 ( x) , iar g 1 ( z 1 , z 2 ) este prima linie a matricei A( x) în coordonatele ( z 1 , z 2 ) . Dinamicile zerourilor sunt definite dup ă cum urmează. Fie u o comandă liniarizantă, de exemplu:
⎡ g 1 ( z 1 , z 2 ) ⎤ ⎢ ⎥ M u ( z 1 , z 2 ) = − ⎢ ⎥ ⎢⎣ g p ( z 1 , z 2 )⎥⎦
−1
⎡ f 1 ( z 1 , z 2 ) ⎤ ⎢ ⎥ M ⎢ ⎥ ⎢⎣ f p ( z 1 , z 2 ) ⎥⎦
(5.57)
Atunci, dacă 0 ∈ ℜ n este un punct de echilibru a sistemului necontrolat, adic ă f (0) = 0 şi h1 (0) = L = h p (0) = 0 , dinamica zerourilor este definit ă prin: &2 z
= Ψ (0, z 2 ) + Φ(0, z 2 ) u (0, z 2 ) . 5 - 17
(5.58)
În [4] se arată că dinamica lui z 2 din (5.58) este independentă de alegerea legii liniarizante. În situa ţia în care sistemul (5.32) nu este decuplabil prin reacţie statică, definiţia dinamicii zerourilor este considerabil mai complicat ă. Ca şi în cazul monovariabil, în contextul opera ţiei de urmărire, se consider ă un model de referinţă de forma: x& m = Am xm + Bm r (5.59) y m = C m xm unde Bm ∈ ℜ n × p , C m ∈ ℜ p×n . Ieşirile modelului (5.59), ym1 cu gradul relativ δ1 , ym2 cu gradul relativ δ 2 etc. trebuie să fie urmărite de ie şirile corespunzătoare ale procesului. Aceasta se obţine, dacă eroarea de urmărire e = y − ym satisface relaţia ˆ ( s ) e = 0 , unde M m
m
⎧⎪ ⎫⎪ 1 1 ˆ ( s ) = diag ⎨ ,K, δ M ⎬. δ1 δ1 −1 δ −1 + L + λ p1 ⎪⎭ s + λ pδ s ⎪⎩ s + λ1δ1 s + L + λ11 p
p
p
5.3. Conducerea adaptivă a sistemelor neliniare cu minim de fază La implementarea practic ă a legilor de comand ă liniarizante exacte, principalul dezavantaj este acela că acestea se bazeaz ă pe compensarea exactă a termenilor neliniari ai procesului. Dar, pentru orice incertitudine în cunoa şterea funcţiilor neliniare f (⋅) şi g (⋅) , compensarea nu mai este exact ă, iar ecuaţia intrare-ieşire nu mai este liniar ă. De aceea, în continuare, vom prezenta modul de utilizare a unei comenzi cu adaptarea parametrilor pentru a ob ţine o compensare asimptotică exactă, cu precizarea c ă funcţia h(⋅) este cunoscută cu exactitate. Sisteme monovariabile cu gradul relativ δ = 1 . Consider ăm un sistem neliniar monovariabil de forma (5.17) cu | L g h( x) | > 0 , în care se presupune c ă funcţiile f ( x) şi g ( x) sunt de forma: f ( x) =
n1
n2
∑=1 θ1 f ( x) , g ( x) = ∑=1 θ2 g ( x) i i
j
i
j
(5.60)
j
unde θ1i , i = 1, K, n1 şi θ 2 j , j = 1,K , n2 sunt parametri necunoscuţi, iar f i( x), g j( x) sunt funcţii cunoscute. La momentul t , estimările funcţiilor f şi g vor fi: n1
n2
i =1
j =1
ˆ ( x) = ∑ θˆ 2 j g j ( x) f ˆ ( x) = ∑ θˆ 1i f i ( x) , g
(5.61)
unde θˆ 1i şi θˆ 2 j sunt estimările parametrilor θ1i , respectiv θ2 j . Atunci, legea de comandă liniarizantă (5.19) se va înlocui cu 5 - 18
u=
1 (− ( L f h( x))e + v ) ( L g h( x)) e
(5.62)
unde ( L f h) e , ( L g h) e reprezintă „estimă rile” lui L f h , respectiv L g h corespunzătoare expresiilor (5.61), adică: n1
n2
( L f h( x)) e = ∑ θˆ 1i L f h( x) , ( L g h( x)) e = ∑ θˆ 2 j L g h( x) . i =1
i
j =1
j
(5.63)
Definind θ = [ θ1T , θT 2 ]T ∈ ℜ n1+ n2 vectorul parametrilor nominali (reali), ~ θˆ (t ) ∈ ℜ n1 +n2 vectorul estimărilor parametrilor şi θ = θˆ − θ eroarea de estimare a parametrilor, înlocuind (5.62) în (5.18), după câteva calcule ob ţinem: ~ ~ (5.64) y& = v + θ1T w1 + θ2T w2 cu ⎡ L f h ⎤ ⎡ L g h ⎤ 1 ⎢ ⎥ ⎢ 1 ⎥ ( L f h)e − v w1 = − ⎢ M ⎥ , w2 = − ⎢ M ⎥ , w1 ∈ ℜn1 , w2 ∈ ℜ n2 . (5.65) ⎢ L f h⎥ ⎢ L g h⎥ ( L g h)e ⎣ 1 ⎦ ⎣ 2 ⎦ Pentru ca y(t ) să urmărească referin ţa ym(t ), comanda v definită prin: n
n
v = y& m
+ λ( ym − y ) , λ > 0 ,
(5.66)
conduce la următoarea relaţie între eroarea de urm ărire e = ym - y şi eroarea de ~ ~ ~ estimare a parametrilor θ = [ θ1T , θ2T ]T : ~ e& + λ e = θ T w , (5.67) unde w ∈ ℜ n1 +n2 este definit prin concatenarea lui w1 şi w2. Consider ăm un sistem neliniar de forma (5.17) cu dinamica zerourilor exponenţial stabilă, pentru care se presupune c ă funcţiile f (⋅) şi g (⋅) sunt date de (5.60). Definim legea de comandă 1 (− ( L f h( x))e + y& m + λ( ym − y)) . u= (5.68) ( L g h( x))e Teorema 5.3.
Dacă ( L g h) e definită în (5.63) este mărginită, adică | ( L g h( x))e | > 0 şi ym este mărginit, atunci legea de adaptare a parametrilor de tip gradient ~& θ = −e w , (5.69) conduce la mărginirea lui y(t ) şi la convergenţa asimptotică a acestuia la ym(t ). În plus variabilele de stare ale sistemului (5.17) sunt mărginite. Demonstra ţ ie. Funcţia Liapunov definită prin: 5 - 19
~
1 2 1 ~ T ~ e + θ θ 2 2 este descrescătoare de-a lungul traiectoriilor sistemului (5.67), (5.69), deoarece ~ & (e, ~ θ) = −λe 2 ≤ 0 , pentru λ > 0 . Rezultă că e şi θ sunt mărginite şi e ∈ L2 . V Pentru a stabili că e este uniform continuă (pentru a utiliza lema lui Barb ălat) sau echivalent că e&(t ) este mărginită, trebuie ca w, care este o funcţie continuă de x (deoarece | ( L g h( x)) e | > 0 ), să fie mărginită. Dacă se consider ă că eroarea e este mărginită, cum ym este mărginit, rezultă că ieşirea y este mărginită. Din mărginirea lui y şi Propoziţia 5.2 referitoare la ipoteza stabilit ăţii exponenţiale a dinamicii zerourilor sistemelor cu minim de fază, rezultă că starea x(t ) este mărginită. În concluzie, w este mărginită şi eroarea de urmărire e este uniform continuă. Conform lemei lui Barbălat, rezultă că lim e(t ) = 0 . Deci y(t ) tinde asimptotic la V (e, θ ) =
t → ∞
ym(t ).
Comentarii:
1. Teorema precedentă garantează convergenţa la zero a erorii e când t → ∞ , f ăr ă să precizeze nimic de convergen ţa parametrilor. Se poate ar ăta c ă atât e cât şi θ converg exponenţial la zero dac ă w este de tip excita ţie persistentă, adică dacă există constantele α1 , α 2 , β > 0 astfel încât:
α 2 I ≥
t 0 +β
∫ w w dt ≥ α1 I . T
(5.70)
t 0
Din nefericire, condiţia (5.70) este de regulă imposibil de verificat explicit, deoarece w este o funcţie neliniar ă complicată ce depinde de starea x. 2. O metodă des folosită în conducerea proceselor cu incertitudini parametrice constă în înlocuirea comenzii (5.68) cu o comandă de tip „sliding mode”: 1 (− ( L f h( x))e + y& m + k sgn ( ym − y)) (5.71) u= ( L g h( x)) e Ecuaţia erorii (5.67) se înlocuieşte prin e& + k sgn e = d (t )
(5.72)
unde d (t ) este un termen de nepotivire (depinzând de diferenţa dintre L g h şi ( L g h)e, L f h şi ( L f h) e , ... ). Aceasta poate fi m ărginită utilizând marginile lui f i, g j şi wi definite mai sus. Se observ ă că dacă k > sup | d (t ) | este posibil ca eroarea s ă tindă t
la zero în timp finit. Aceasta metod ă este avantajoasă când eroarea w(t ) este mică. Dacă w(t ) este mare, amplificarea k trebuie să fie mare, conducând la apari ţia fenomenului de chatter-ing, comenzi mari şi alte comportări nedorite. Sisteme monovariabile cu gradul relativ δ > 1 . Consider ăm extensia rezultatelor de mai sus la cazul sistemelor cu o singur ă intrare şi o singur ă ieşire cu 5 - 20
gradul
δ > 1,
relativ
L g h( x) = L g L f h( x) = L = L g Lδ f −2 h( x) = 0
adică
şi
L g Lδ f −1h( x0 ) ≠ 0 . Legea de comand ă liniarizantă neadaptivă este de forma:
u
=
1
(− Lδ h( x) + v)
δ −1
(5.73)
f
L g L f h( x)
Dacă f şi g nu sunt complet cunoscute, dar au forma (5.60), atunci Lδ f h şi L g Lδ f −1h
din (5.73) trebuie inlocuiţi cu estimările lor definite prin: ( Lδ f h) e = Lδ f ˆ h , ( L g Lδ f −1h) e = L g ˆ Lδ f ˆ−1h
(5.74)
Precizăm că pentru δ ≥ 2 , (5.74) nu sunt liniare în parametrii necunoscu ţi θi . De exemplu, n1
n1
n2
n1
( L f h) e = ∑∑ L f ( L f h) θ1i θ1 j , ( L g L f h) e = ∑∑ L g ( L f h) θ 2i θ1 j 2
i =1 j =1
i
j
i =1 j =1
i
j
(5.75)
Dezvoltările din paragraful anterior pot fi repetate dac ă fiecare produs al parametrilor θ1i θ1 j şi θ 2i θ1 j în (5.75) se consider ă ca un nou parametru. Fie
θ ∈ ℜ k vectorul parametrilor θ1i , θ2 j , θ1i θ 2 j , θ1i θ1 j , ... . În scopul urmăririi, noua intrare ce trebuie implementat ă este v = ym( δ )
+ λ δ ( ym(δ−1) − y (δ−1) ) + L + λ1 ( ym − y )
(5.76)
unde y& , &y&, K sunt obţinute prin reacţie după stare sub forma y& = L f h( x), y& = L2 f h( x), K . În absenţa unei informaţii exacte despre L f h( x ), L2 f h( x ), K , expresia legii de urm ărire se va implementa sub forma: ve
= y m(δ) + λ δ ( ym( δ−1) − ( Lδ f −1h) e ) + L + λ1 ( ym − y )
(5.77)
Atunci, legea adaptiv ă va fi: u=
1
(− ( Lδ h)
( L g Lδ f −1h) e
f
e
+ ve )
(5.78)
Aceasta determină următoarea ecuaţie a erorii δ−
e
(δ)
+ λ δe
( δ−1)
δ
+ L + λ1e = L f h +
L g L f 1h
( L g Lδ f −1h) e
(− ( Lδ h) f
e
+ ve ) − v = Lδ f h − ( Lδ f h) e
δ ( − ( L h) + v ) + [ L Lδ−1h − ( L Lδ−1h) ] +v δ−1 f
g f
g f
e
e
( L g L f h) e
e
~T ~ T − = θ + v w e 1 θ w2 , λ i ∈ ℜ, i = 1, K , δ (5.79)
5 - 21
~ unde θ = θˆ (t ) − θ reprezintă eroarea de estimare a parametrilor. Cei doi termeni din membrul drept apar respectiv datorit ă nepotrivirii dintre legea liniarizant ă ideală şi cea actual ă şi nepotrivirii dintre legea de urm ărire ideală v si ca actuală ve. Pentru claritate, se consider ă cazul δ = 2 şi n1 = n2 = 1 . Atunci, θ = [θ1 , θ 2 , θ1θ1 , θ1θ 2 ]T şi se obţine
⎡ ( − ( L2 f h) e + ve )⎤ 2 w1 = − ⎢0 0 L f 1 h L g 1 L f 1 h ⎥ , w2T = −[λ1 L f 1 h 0 0 0] (5.80) ( L g L f h) e ⎦⎥ ⎣⎢ T
unde w1 şi w2 pot fi concatenaţi şi reprezintă regresorul w. Trebuie precizat c ă, în acest caz, θ2 nu poate fi identificat explicit deoarece termenii coresponden ţi din regresor sunt nuli. Precizăm de asemenea că atât w cât şi θ(t ) sunt funcţii ce depind de x. Pornind de la ecuaţia erorii (5.79), pentru obţinerea unei legi de adaptare, se poate utiliza o eroare de forma: e1
= βδ e ( δ−1) + L + β1e
(5.81)
cu funcţia de transfer strict real pozitiv ă:
βδ s δ−1 + L + β1 s δ + λ δ s δ−1 + L + λ1
(5.82)
Dacă e1 ar fi un semnal măsurabil, teorema de baz ă a urmăririi s-ar putea deduce cu uşurinţa. Dificultatea construirii semnalului (5.81) constă în faptul că e&, &e&, K , e ( δ−1) nu sunt măsurabile, deoarece: δ− &&m , K , e ( 1) e& = L f h − y& m , &e& = L2 f h − y
= L( f δ−1) h − ym( δ−1) ,
în care Li f h nu sunt explicit cunoscute. În acast ă situaţie se poate utiliza următoarea abordare. Totuşi, clasa roboţilor manipulatori al c ăror model are o formă specială (vezi (5.93)) constituie o excep ţie. Pentru aceste sisteme, β1 , K , βδ pot fi aleşi astfel încât funcţia de transfer (5.82) să fie strict real pozitiv ă.
Controlul adaptiv folosind o eroare augmentată
Definind polinomul L( s ) = s δ
+ λ δ s δ−1 + L + λ1 ,
ecuaţia (5.79) se poate rescrie sub forma −
~ T
e = L 1 ( s) ( θ w) .
Definim eroarea augmentată 5 - 22
(5.83) (5.84)
e1
= e + [θT L−1 ( s) w − L−1 ( s ) (θT w)] ,
(5.85)
care se poate rescrie sub forma e1
~ ~ = e + [ θ T L−1 ( s ) w − L−1 ( s ) ( θT w)] .
(5.86)
Precizăm că e1 din (5.85) poate fi obţinută din semnalele disponibile, spre eosebire de (5.86) care este util ă numai în etapa de analiz ă. Cu (5.84), (5.86) capătă următoarea formă liniar ă: ~ T − ~T (5.87) e1 = θ L 1 ( s)( w) = θ ξ unde s-a notat ξ = L−1 ( s )( w) . Pentru erori descrise prin ecua ţii liniare de forma (5.87) una dintre legile de adaptare a parametrilor utilzeaz ă un algoritm de tip gradient normalizat de forma: ~& eξ θ& = θ = − 1 T (5.88) 1+ ξ ξ Propoziţia 5.3 [13]. Se consider ă ecuaţia erorii ~ T (5.89) e1 = θ ξ cu legea de adaptare ~& eξ (5.90) θ = − 1 T 1+ ξ ξ ~ ~& ~ Atunci, θ ∈ L∞ , θ ∈ L2 ∩ L∞ şi | θ T ξ(t ) | ≤ γ ( 1+ || ξ ||t ) , ∀ t , pentru anumiţi γ ∈ L2 ∩ L∞ . [13].
Demonstraţia se poate efectua asem ănător demonstraţiei Teoremei 2.4.2 din
Teorema 5.4. Teorema urmă ririi pentru sisteme monovariabile cu gradul relativ mai mare ca 1. Se consider ă că sistemului neliniar (5.17) cu minim de faz ă
exponenţial stabil şi a cărui incertitudine parametrică este dată de (5.60) i se aplic ă legea de comandă (5.77), (5.78). Dacă ym , y& m , K , ym(δ−1) sunt măginite, ( L g Lδ f −1h) e este mărginită şi diferită de zero, f , g , h, Lk f h , L g Lk f h sunt funcţii Lipschitz continue şi w( x, θ) are derivatele în raport cu x şi θ mărginite, atunci, legea de adaptare a parametrilor ~& eξ θ = − 1 T 1+ ξ ξ
(5.91)
cu ξ = L−1 ( s )( w) , conduce la o urmărire mărginită, adică y → ym când t → ∞ şi x este mărginit. Pentru demonstraţie se poate consulta [13]. 5 - 23
Controlul adaptiv al sistemelor multivariabile cu reac ţie statică după stare
Din paragrafele anterioare se deduce c ă pentru sistemele pătratice cu minim de fază, comandă liniarizantă decuplantă cu reacţie statică după stare, poate fi tranformată într-o comandă adaptivă prin înlocuirea comenzii (5.37) prin
⎡ Lδ f 1 h1 ( x) ⎤ ⎢ M ⎥ + ( A−1 ( x) ) v (5.92) u = −( A−1 ( x) )e ⎢ e ⎥ δ ⎢⎣ L f h p ( x)⎥⎦ e Reamintim că dacă A( x) este inversabilă, atunci comanda liniarizat ă este de asemenea şi comandă decuplantă. Atunci, dacă A( x) şi Lδ f hi depind liniar de parametrii necunoscuţi, schemele prezentate în paragrafele anterioare, în special cele pentru care δ1 = δ 2 = L = δ p = 1 pot fi adaptate cu usurin ţă. Deoarece prezentarea ar fi laborioasă, în cele ce urmeaz ă ne vom rezuma la o prezentare succintă a acestei tehnici utilizând modelul matematic corespunz ător clasei manipulatoarelor robotice. Dacă q ∈ ℜ n reprezintă unghiurile la îmbinarea articula ţiilor, dinamica unui braţ robotic poate fi descris ă printr-o ecuaţie de forma: && + C ( q, q& ) = u (5.93) M (q ) q p
i
unde M (q) ∈ ℜ n×n este matricea de inerţ ie pozitiv definită, C (q, q& ) reprezintă vectorul termenilor datoraţi for ţelor Coriolis, for ţelor gravitaţionale şi for ţelor de frecare, iar u ∈ ℜn reprezintă intr ările de comandă (cupluri) în articulaţiile motoare. În aplicaţii, M (q) şi C (q, q& ) nu sunt cunoscute cu exactitate, dar acestea depind liniar de anumiţi parametri necunoscuţi, Atunci, M (q) =
n1
∑=1 θ 2 M (q) , i
C ( q, q& ) =
i
i
n2
∑=1θ 1C (q, q& ) j
j
(5.94)
j
Definind vectorul de stare x prin xT = [q T , q& T ] şi ieşirea y = q , se vede c ă sistemul este decuplabil cu δ1 = L = δ n = 2 şi −1
A( x) = M
(q) ,
⎡ Lδ f 1 h1 ⎤ ⎢ M ⎥ = − M −1 (q) C (q, q& ) ⎢ δ ⎥ ⎢⎣ L f hn ⎥⎦ legea de comandă decuplantă fiind dată de u = C (q, q& ) + M (q) v
(5.95) (5.96)
n
5 - 24
(5.97)
Precizăm că elementele matricei M din (5.94) depind de parametrii necunoscuţi θ1 şi θ 2 în forme ce pot fi foarte complicate, în timp ce ecua ţia (5.97) depinde liniar de M şi C . În scopul urmăririi, v se alege sub forma &&m v=q
+ λ 2 (q& m − q& ) + λ1 (qm − q)
(5.98)
şi legea de comandă (5.97), (5.98) reprezintă schema de calcul a cuplului. Pentru a face această comandă adaptivă, legea (5.98) se înlocuieşte cu u
= C e (q, q& ) + M e (q) v
(5.99)
Fie e = qm − q . Atunci, n2 ~ ~ −1 &e& + λ 2 e& + λ1e = M e ( q ) ∑ C j ( q, q& ) θ1 j +M e ( q )∑ M i ( q) q &&θ2i n1
−1
j = 1
(5.100)
i =1
Aceasta poate fi rescris ă ca ~
&e& + λ 2 e& + λ1e = W θ ,
(5.101)
~ unde W ∈ ℜ n×( n1 +n2 ) este o funcţie de q, q& şi q&& , iar θ este vectorul erorii parametrilor. Legea de actualizare a parametrilor este ~& θ = −W T e1 (5.102) unde e1 = e& + β1e se alege astfel încât ( s + β1 ) /( s 2 + λ 2 s + λ1 ) este stric real pozitivă. Se poate ar ăta că aceasta conduce la o urmărire mărginită. Precizăm ca sistemul este cu minim de fază - de fapt nu există o dinamică a zerorilor. Un neajuns îl reprezintă faptul că W depinde de q&& , dar această dependenţă poate fi evitată prin modificarea corespunzătoare a schemei de comand ă. Lema 5.2
(Barbălat) [15]. Dacă ϕ(t ) este o funcţie reală de t definită şi t
uniform continuă pentru t ≥ t 0 , t 0 ∈ ℜ + , adică ϕ : ℜ + → ℜ şi dacă lim ∫ ϕ(τ) d τ t → ∞
există şi este finit ă, atunci lim ϕ(t ) = 0 . t → ∞
t 0
5.4. Principiul comenzii liniarizante exacte Consider ăm un sistem neliniar monovariabil de forma (5.17) x& (t ) = f ( x) + g ( x )u y (t ) = h( x) în care se presupune că funcţiile f (⋅) şi g (⋅) sunt de forma: 5 - 25
(5.103)
f ( x, θ1 ) =
n1
n2
∑=1 θ1 f ( x) , g ( x, θ2 ) = ∑=1θ2 g ( x) i
i
j
i
j
(5.104)
j
unde θ1i , i = 1, K, n1 şi θ 2 j , j = 1,K, n2 sunt parametri necunoscuţi, iar f i( x), g j( x) sunt funcţii cunoscute. Conducerea procesului (5.103) are drept obiectiv ca ie şirea y(t ) s ă urmărească un semnal de referinţă y * (t ) în condiţiile acţiunii unor perturbaţii externe şi în condiţiile în care anumiţi parametri şi/sau cinetici ale procesului sunt complet necunoscuţi/necunoscute sau insuficient cunoscuţi/cunoscute. În cazul particular al unei referinţe constante, y* (t ) este constant şi se numeşte valoare impusă , iar conducerea se numeşte reglare. Principiul conducerii liniarizante exacte const ă în a găsi o lege de comand ă u ( x, y * , θ) neliniar ă, unde θ = (θ1 , θ 2 ) , astfel încât eroarea de urm ărire ( y * − y ) , să verifice o ecuaţie diferenţială liniar ă, stabilă, prespecificată, numită model de referin ţă , sau, altfel spus, să stabilizeze sistemul şi să realizeze o comportare liniar ă intrare-ieşire a sistemului în circuit închis. Proiectarea comenzii liniarizante exacte poate fi privit ă ca o procedur ă care se desf ăşoar ă în trei paşi, astfel [2]:
• Pasul 1. Obţinerea unui model intrare-ie şire. Acesta se realizeaz ă prin derivarea succesivă a ecuaţiilor modelului (5.103). Modelul intrare-ie şire va avea forma unei ecuaţii diferenţiale neliniare de ordinul δ : y ( δ) (t ) = f 1 (t , θ) + f 2 (t , θ) ⋅ u
(5.105)
cu f 1 = Lδ f h şi f 2 = L g Lδ f −1h , f 2 (t ) ≠ 0 , unde δ este gradul relativ al modelului (5.103), Lδ f h( x) : ℜ n → ℜ şi L g Lδ f −1h( x) : ℜ n → ℜ reprezintă derivatele Lie ale lui h în raport cu f şi respectiv g de ordinele precizate. Preciz ăm că: (i) - depinzând de aplicaţie, respectiv de forma modelului dinamic, funcţiile f 1 şi f 2 pot fi funcţii foarte complexe ce depind de starea x, şi parametrii θ , precum şi de derivatele lor succesive; (ii) - având în vedere structura specific ă a modelului dinamic general (5.103), rezultă că modelul intrare-ieşire (5.105) este liniar în raport cu m ărimea de comandă u. • Pasul 2. Alegerea unui model de referin ţă liniar-stabil pentru eroarea de urmă rire ( y * − y ) . Un astfel de model este dat de urm ătoarea ecuaţie diferenţială liniar ă cu coeficienţi constanţi: δ
∑λ
j = 0
d j j +1
j
d t
( y* (t ) − y(t )) = 0
(5.106)
unde λ j ∈ ℜ , cu λ δ +1 = 1 . Acest model descrie modul de descreştere a erorii de urmărire a procesului. De exemplu, în Fig. 5.2 este prezentat ă evoluţia erorii de 5 - 26
urmărire ( y* − y) în situaţia în care aceasta verific ă următoarele ecuaţii diferenţiale liniare: 1. 2. 3.
d d t
( y * − y ) + ( y * − y ) = 0
d 2
d
d t
d t
( * − y ) + 3 2 y
d 3
*
( − y ) + 6 3 y
d t
( y * − y ) + 2( y * − y ) = 0
d 2
d
d t
d t
( * − y ) + 11 2 y
( y* − y) + 6( y* − y ) = 0
) y * y (
e r i r a m r u e d a e r a o r E
Timp
Fig. 5.2. Evoluţia erorii de urmărire
În general, coeficien ţii λ i , (i = 1,K, δ) sunt arbritrari, cu excep ţia celor care trebuie aleşi, astfel încât ecua ţia diferenţială (5.106 5.106)) să fie stabilă. Se observă că modelul de referinţă (5.106 5.106)) este independent de punctul de funcţionare al procesului.
• Pasul 3. Calculul comenzii liniarizante. În final, proiectarea algoritmului de conducere constă în calculul mărimii de comand ă u, astfel încât modelul intrareieşire (5.105 (5.105)) să aibă o comportare identică cu cea a modelului de referinţă (5.106 5.106). ). Acest lucru se obţine prin eliminarea lui y ( δ) (t ) între ecuaţiile (5.105 (5.105)) şi (5.106 5.106). ). Rezultă astfel următoarea lege de comand ă liniarizantă exactă: δ * j δ −1 ⎛ 1 ⎜ d d y (t ) ⎞⎟ * − f 1 (t , θ) + ∑ λ j +1 j ( y (t ) − y (t ) ) + (5.107 5.107)) u (t , θ) = δ ⎜ ⎟ ( , θ ) f 2 t ⎝ d t d t ⎠ j = 0 În cazul unor incertitudini parametrice, se pot utiliza scheme de conducere adaptivă directe sau indirecte. În comanda (5.107 ( 5.107)) parametrii necunoscuţi θ care apar în funcţiile f 1 şi f 2 se înlocuiesc cu valorile lor estimate θˆ furnizate de 5 - 27
estimatoare ale parametrilor (bazate pe observer de stare sau liniar recursive [12 12], ], [16 16]). ]). Vom prezenta modul de obţinere a comenzilor liniarizante în cazul unor bioprocese foarte simple pentru care se presupune c ă modelul este complet cunoscut. Consider ăm procesul de creştere microbiană simplă al cărui model dinamic este descris de urm ătoarele ecuaţii: Exemplul 5.3.
& = μ( X , S ) X − D X X & = − k μ( X , S ) X − D S + D S S in 1
(5.108a 5.108a)) (5.108b 5.108b))
unde X şi S reprezintă biomasa (microorganismele vii), respectiv substratul, considerate măsurabile, iar μ( X , S ) reprezintă viteza specifică de creştere microbiană, considerată cunoscută. Presupunem că viteza specifică de creştere microbiană este descrisă prin modelul Haldane: S (t ) (5.109 5.109)) μ( S ) = μ 0 K M + S (t ) + S (t ) 2 / K I unde μ 0 = μ * 1 + K M / K I ), K M > 0 este constanta Monod, iar K I > 0 este o constantă de inhibare. În Fig. 5.3 este reprezentată o lege Haldane pentru μ 0 = 6.3 h-1, K M M = 8 g /l , K I = 0.3 g /l . ]
1 -
h
[ e r e t ş
e r c e d ă
c i f i c e p s a z e t i V
Concentraţia substratului S [g /l]
Fig. 5.3. Viteza specifică de creştere tip Haldane
Se vede că bioprocesul (5.108 (5.108)) este puternic neliniar, datorit ă neliniarităţii cineticii μ. • Cazul 1. Bioprocesul (5.108 (5.108)) poate reprezinta un proces de depoluare foarte simplu pentru care dorim să reglăm concentraţia S = y a substratului (poluantului) la o valoare impusă, constantă S * = y* . Pentru aceasta, dac ă alegem drept mărime de comandă u = F 2 = DS inin, observăm că ecuaţia (5.108b 5.108b)) este un model intrareieşire cu gradul relativ δ = 1 . 5 - 28
Atunci, pentru eroarea de urmărire ( S * − S ) , vom alege un model de referinţă de ordinul 1, descris prin ecuaţia diferenţială: d d t
( S * − S ) + λ1 ( S * − S ) = 0, λ1 > 0
(5.110 5.110))
Comanda liniarizantă exactă se obţine prin eliminarea lui dS / dt între ecuaţiile (5.108b (5.108b)) şi (5.110 (5.110). ). Având în vedere că y* = S * = constant, rezultă:
= k 1 μ( X , S ) X + D S + λ1 ( S * − S ) (5.111 5.111)) Dacă drept mărime de comandă se alege viteza de dilu ţie D, atunci u = D şi comanda liniarizantă va fi dată de: 1 (5.112 5.112)) ( u = D = k 1 μ( X , S ) X + λ1 ( S * − S ) ) S in − S (2.71)) presupunem că dorim să reglăm • Cazul 2. Pentru bioprocesul (2.71 concentraţia biomasei X = y la o valoare dorită X * = y * = constant, considerând drept mărime de comandă tot fluxul de alimentare cu substrat, deci u = F 2 = DS inin. Consider ăm, de asemenea, c ă viteza de dilu ţie D este constantă. Observăm că ecuaţia (5.108a 5.108a)) a modelului procesului nu constituie un model intrare-ieşire corespunzător pentru obţinerea comenzii liniarizante, deoarece nu exprim ă explicit legătura dintre debitul de alimentare F 2 şi biomasa X . Pentru obţinerea unei legături directe între F 2 şi X vom deriva ecuaţia (5.108a (5.108a). ). Rezultă: d 2 X ⎛ ∂ μ d X ∂ μ d S ⎞ d X ⎜ ⎟ ( ) = + X + μ ( X , S ) − D ⎜ ⎟ d t d t 2 ⎝ ∂ X d t ∂ S d t ⎠ Înlocuind în această relaţie pe dX / dt şi dS / dt prin expresiile lor din modelul (5.108 (5.108), ), obţinem: ⎞ ⎛ ∂μ ⎞ d 2 X ⎛ ∂ μ ∂μ ⎜ ⎟ ⎜⎜ X ⎟⎟ F 2 (5.113 ( ) X D X DX X k X DS 5.113)) = − + μ ( μ − ) − μ + + 1 2 ⎜ ⎟ ∂ S d t ⎝ ∂ X ⎠ ⎝ ∂ S ⎠ ∂μ X ≠ 0 , reprezintă un model intrare-ie şire corespunzător având care, pentru ∂ S gradul relativ δ = 2 . Atunci, pentru eroarea de urmărire vom alege un model de referinţă de ordinul 2, descris printr-o ecuaţie liniar ă de forma: u = F 2
d 2
d
d t
d t
( * − X ) + λ 2 2 X
( X * − X ) + λ1 ( X * − X ) = 0, λ1 , λ 2 > 0
sau, echivalent, când X * se presupune constant: * && = −λ X & X 2 + λ1 ( X − X ) = 0, λ1 , λ 2 > 0
(5.114a 5.114a))
(5.114b 5.114b))
&& , între modelul Legea de comandă liniarizantă se obţine prin eliminarea lui X intrare-ieşire (5.113 (5.113)) şi ecuaţia (5.114 (5.114 b), rezultând:
5 - 29
−1
⎛ ∂μ ⎞ u = F 2 = ⎜⎜ X ⎟⎟ (λ1 ( X * − X ) − λ 2 (μ X − DX ) ) ⎝ ∂ S ⎠ ⎛ ∂μ ⎞ − ⎜⎜ X ⎟⎟ ⎝ ∂ S ⎠
−1
−1
⎛ ∂ μ ⎞ ⎛ ∂ μ ⎞ ∂ μ ⎜⎜ X − D + μ ⎟⎟(μ X − DX ) + ⎜⎜ X ⎟⎟ (k 1μ X + DS ) X (5.115) ∂ X ∂ S ∂ S ⎝ ⎠ ⎝ ⎠
5.5. Conducere unui bioproces de creştere microbiană 5.5.1. Comanda liniarizantă exactă
Pentru bioprocesul (5.108) se doreşte reglarea concentraţiei S = y a substratului la o valoare impusă, constantă S * = y * , utilizând drept mărime de comandă viteza de dilu ţie D, deci u = D. În această situaţie, se observă că (5.108b) este un model intrare-ieşire cu gradul relativ δ = 1 . În cazul ideal, în care modelul procesului este complet cunoscut (variabilele X , S şi S in sunt măsurabile, iar k 1 şi μ sunt cunoscute), comanda liniarizantă exactă 1 (k 1 μ( X , S ) X + λ1 (S * − S )) , (5.116) u = D = S in − S asigur ă pentru sistemul în circuit închis o comportare intrare-ie şire descrisă prin următoarea ecuaţie diferenţială stabilă de ordinul I: d d t
( S * − S ) + λ1 ( S * − S ) = 0, λ1 > 0 .
Se observă că oricare ar fi λ1 > 0 , eroarea sistemului S * − S tinde exponenţial la zero. 5.5.2. Strategii de conducere adaptivă a unui bioproces de cre ştere microbiană
• Cazul 1. Consider ăm că în modelul (5.108) variabila X este nemăsurabilă, variabilele S şi S in sunt măsurabile on-line, iar k 1 şi μ sunt cunoscute. În aceste condiţii, o primă variantă adaptivă a comanzii (5.112) este dată de: 1 ˆ + λ1 ( S * − S ) ) ( (5.117) u = D = k 1 μ( X , S ) X S in − S ˆ reprezintă estimarea on-line a variabilei nem ăsurabile X furnizată de un unde X observer asimptotic de stare [12], care, în acest caz, se deduce dup ă cum urmează. Se defineşte variabila auxiliar ă (5.118) z = k 1 X + S a carei dinamică, dedusă din modelul (5.108) este dată de & = − D z + D S in . (5.119) z Se observă că dinamica lui z este descrisă printr-o ecuaţie diferenţială liniar ă, nedepinzând de neliniaritatea μ. 5 - 30
Din (5.118) şi (5.119) se deduce următorul observer asimptotic pentru estimarea on-line a variabilei X : &ˆ = − D z ˆ + D S in z (5.120) ˆ ˆ − S ) / k 1 X = ( z Dacă coeficientul k 1 este necunoscut, din (5.118) se obţine că ˆ = z ˆ − S , k 1 X iar comanda adaptivă ((5.112)) capătă forma: 1 (( z ˆ − S )μ( X , S ) + λ1 (S * − S )) u = D = S in − S
(5.121) (5.122)
• Cazul 2. Consider ăm acum că în modelul (5.108) variabile X , S şi S in sunt măsurabile on-line, coeficientul k 1 este cunoscut, iar μ este complet necunoscută. În aceste condiţii, o a doua variantă adaptivă a comanzii (5.112) este dată de: 1 u = D = (5.123) (k 1 X μˆ + λ1 (S * − S )) S in − S unde μˆ reprezintă estimarea on-line a parametrului necunoscut μ furnizat de un estimator al parametrilor. În acest caz, pentru estimarea parametrului necunoscut μ vom folosi un estimator al parametrilor bazat pe observer de stare [16] care pentru procesul analizat se particularizez ă sub forma: &ˆ ˆ) = X μˆ − D X + ω1 ( X − X X &
ˆ = − k X μˆ − D S + D S in S 1
(5.124) + ω2 ( S − S ˆ ) ˆ) ˆ ) − γ 2 k 1 X ( S − S μ&ˆ = γ1 X ( X − X unde ω1 , ω2 , γ 1 şi γ 2 sunt parametrii pozitivi de proiectare pentru a controla stabilitatea şi convergenţa estimatorului.
• Cazul 3. Consider ăm acum că în modelul (5.108) singurele variabile măsurabile on-line sunt S şi S in, variabila X este nemăsurabilă, coeficientul k 1 este necunoscut, iar μ este complet necunoscută. În aceste condi ţii, o a treia variant ă adaptivă a comanzii (5.112) este dată de: 1 (( z ˆ − S ) μˆ + λ1 (S * − S )) (5.125) u = D = S in − S ˆ este furnitat de următorul observer asimptotic pentru estimarea ˆ − S = k 1 X unde z on-line a variabilei X : &ˆ = − D z ˆ + D S in z , (5.126) ˆ ˆ − S k 1 X = z iar μˆ reprezintă estimarea on-line a parametrului necunoscut μ furnizat de un estimator al parametrilor bazat pe observer de stare [12] care pentru cazul analizat se particularizeză sub forma: 5 - 31