Controllo non lineare

Da Wikipedia, l'enciclopedia libera.

Il Controllo non lineare è un'area dell'ingegneria del controllo che tratta sistemi non lineari, sistemi tempo varianti o sistemi con entrambe le caratteristiche. Tecniche di analisi e controllo per sistemi lineari tempo invarianti (LTI) sono ben conosciute e studiate (luogo delle radici, diagramma di Bode, criterio di Nyquist, controllo in retroazione per sistemi LTI, posizionamento dei poli); tuttavia, il sistema o il controllore potrebbero non essere in generale sistemi LTI e quindi potrebbe non essere possibile l'applicazione diretta di queste metodologie. Il controllo non lineare studia innanzitutto il modo per applicare questa ampia gamma di tecniche a questi modelli più generali. Inoltre, studia anche una serie di nuove tecniche pensate appositamente per i sistemi non lineari. Anche quando un buon modello lineare di un sistema è disponibile potrebbe essere comunque preferibile utilizzare controllori non lineari, che a scapito di una maggiore complessità e rigorosità matematica, offrono notevoli vantaggi quali una maggiore velocità, un minor costo di controllo (nell'ottica della minimizzazione di una funzione di costo dipendente dal controllore) ecc.

Proprietà dei sistemi non lineari[modifica | modifica sorgente]

Alcune proprietà dei sistemi non lineari sono le seguenti:

Analisi e controllo di sistemi non lineari[modifica | modifica sorgente]

Le tecniche più utilizzate per l'analisi e il controllo di sistemi non lineari sono le seguenti:

Esistono anche una serie di tecniche per la progettazione di controllori per sistemi non lineari. Queste possono essere divise in tecniche che trattano il sistema come lineare in un certo intorno (grazie al teorema di Teorema di Hartman-Grobman) e utilizzano metodi di progettazioni lineari come il Gain scheduling; in tecniche che sfruttano un feedback non lineare per eliminare le non linearità del sistema così da lavorare con un sistema a ciclo chiuso lineare (Feedback linearization); e in tecniche basate sulla stabilità secondo Lyapunov: Lyapunov redesign, Nonlinear damping, Backstepping, Controllo sliding mode.

Esempio: il problema di Lur'e[modifica | modifica sorgente]

Lur'e problem block diagram

Un semplice problema di analisi di un sistema non lineare in retroazione è stato formulato da A. I. Lur'e. Il sistema descritto nel problema di Lur'e consiste di un sottosistema lineare tempo invariante sul ramo di reazione e da un sistema non lineare, possibilmente tempo variante e a perdita di memoria sul ramo di retroazione.

La parte lineare può essere caratterizzata da quattro matrici (A,B,C,D), mentre la parte non lineare è Φ(y) con \frac{\Phi(y)}{y} \in [a,b],\quad a<b \quad \forall y

Analisi della stabilità[modifica | modifica sorgente]

Si considerino le seguenti ipotesi:

  1. (A,B) è controllabile e (C,A) è osservabile
  2. due numeri reali a, b con a<b, che definiscono un settore per la funzione Φ

Il problema consiste nel derivare le condizioni che, coinvolgendo solo la funzione di trasferimento H(s) e {a,b}, rendano x=0 un punto di equilibro globalmente asintoticamente stabile per il sistema.

Vi sono due principali teoremi che riguardano questo problema:

Sarà analizzato il caso del criterio di Popov.

Criterio di Popov[modifica | modifica sorgente]

La sotto classe del sistema di Lur'e studiata da Popov è descritta dal seguente sistema:


\begin{matrix}
\dot{x}&=&Ax+bu \\
\dot{\xi}&=&u  \\
y&=&cx+d\xi \quad (1) 
\end{matrix}

 \begin{matrix} u = -\phi (y) \quad (2) \end{matrix}

dove x ∈ Rn, ξ,u,y sono scalari e A,b,c,d hanno le giuste dimensioni. L'elemento non lineare Φ: R → R è una non linearità tempo invariante appartenente all'insieme aperto (0, ∞). Questo implica che:

Φ(0) = 0, y Φ(y) > 0, ∀ y ≠ 0;

La funzione di trasferimento da u a y è data da

 H(s) = \frac{d}{s} + c(sI-A)^{-1}b \quad \quad

Teorema: Considerando il sistema (1)-(2) e supponendo che:

  1. A sia di Hurwitz
  2. (A,b) è controllabile
  3. (A,c) è osservabile
  4. d>0 e Φ ∈ (0,∞)

Allora il sistema è globalmente asintoticamente stabile se esiste uno scalare r>0 tale che
infω ∈ R Re[(1+jωr)h(jω)] > 0 .

Si noti che:

  • Il criterio di Popov è applicabile solo a sistemi autonomi
  • Il sistema studiato da Popov ha un polo nell'origine e non c'è un legame ingresso uscita diretto
  • La non linearità Φ deve soddisfare la condizione sull'insieme aperto

Risultati teorici per il controllo non lineare[modifica | modifica sorgente]

Teorema di Frobenius[modifica | modifica sorgente]

Il teorema di Frobenius è un risultato della geometria differenziale. Quando applicato al controllo non lineare ha la seguente forma:

Dato un sistema del tipo:

 \dot x = \sum_{i=1}^k f_i(x) u_i(t) \,

dove x \in R^n, f_1, \dots, f_k sono vettori di campo appartenenti a una distribuzione \Delta e u_i(t) sono funzioni di controllo, le curve integrali di x sono ristrette ad una varietà di ordine m se lo span(\Delta) = m e \Delta è una distribuzione involutiva.

Bibliografia[modifica | modifica sorgente]

  • A. I. Lur'e and V. N. Postnikov, "On the theory of stability of control systems," Applied mathematics and mechanics, 8(3), 1944, (in Russian).
  • M. Vidyasagar, Nonlinear Systems Analysis, 2nd edition, Prentice Hall, Englewood Cliffs, New Jersey 07632.
  • A. Isidori, Nonlinear Control Systems, 3rd edition, Springer Verlag, London, 1995.
  • H. K. Khalil, Nonlinear Systems, 3rd edition, Prentice Hall, Upper Saddle River, New Jersey, 2002. ISBN 0-13-067389-7
  • B. Brogliato, R. Lozano, B. Maschke, O. Egeland, "Dissipative Systems Analysis and Control", Springer Verlag, London, 2nd edition, 2007.

Voci correlate[modifica | modifica sorgente]