Spazio di stato

Da Wikipedia, l'enciclopedia libera.

Nell'analisi dei sistemi dinamici, una rappresentazione in spazio di stato è una descrizione di un sistema dinamico in cui si fa particolare riferimento alle variabili di stato del sistema, che formano uno spazio vettoriale (spazio delle fasi) in cui esso viene rappresentato. Le variabili di stato sono un sottoinsieme delle variabili del sistema, e rappresentano la sua situazione ad ogni dato istante di tempo. Affiancando i diversi metodi nel dominio della frequenza (rappresentazione spettrale dei segnali, metodo simbolico) e del tempo, il formalismo fornito dalla rappresentazione di stato è una delle tecniche più diffuse per analizzare i sistemi dinamici, specialmente i sistemi lineari.

Un generico sistema dinamico può essere scritto come:

\mathbf{\dot{x}}(t) = \mathbf{f}(t, \mathbf x(t), \mathbf u(t))
\mathbf{y}(t) = \mathbf{h}(t, \mathbf x(t), \mathbf u(t))

dove \mathbf x(t) sono le variabili di stato e il termine \mathbf u(t) è l'ingresso, che viene omesso nel caso si voglia analizzare la risposta libera del sistema. La prima equazione è detta equazione di stato, mentre la seconda è l'equazione di uscita, dove l'uscita è denotata con \mathbf y(t).

Se \mathbf f è una combinazione lineare degli stati di ingresso, cioè è lineare e finito-dimensionale, l'equazione differenziale che lo definisce viene frequentemente scritta in forma matriciale, e le sue caratteristiche possono essere analizzate dalla funzione di trasferimento. Nei sistemi lineari stazionari il minimo numero di variabili di stato è uguale al grado del denominatore della funzione di trasferimento dopo che questa sia stata ridotta ad essere una frazione propria. In particolare, per il teorema fondamentale dell'algebra il denominatore ha un numero di zeri pari al suo grado (i poli della frazione). I poli della funzione di trasferimento sono generalmente utilizzati per analizzare la stabilità del sistema.[1]

Nei circuiti elettrici, ad esempio, il numero di variabili di stato è spesso pensato essere lo stesso del numero di elementi in grado di immagazzinare energia, come ad esempio condensatori e induttori.

Sistemi lineari[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Sistema dinamico lineare.

Una generica rappresentazione nel dominio del tempo di un sistema dinamico lineare con p ingressi e q uscite e n variabili di stato viene scritta nella seguente forma:[2]

\dot{\mathbf{x}}(t) = A(t) \mathbf{x}(t) + B(t) \mathbf{u}(t)
\mathbf{y}(t) = C(t) \mathbf{x}(t) + D(t) \mathbf{u}(t)

dove \mathbf{x} \in \R^n è il vettore di stato, \mathbf{y} \in \R^q è il vettore di uscita mentre \mathbf{u} \in \R^p è il vettore di ingresso.

La matrice A(\cdot) è la "matrice dinamica", con \operatorname{dim}[A(\cdot)] = n \times n, la matrice B(\cdot) è la "matrice di ingresso", con \operatorname{dim}[B(\cdot)] = n \times p, la matrice C(\cdot) è la "matrice di uscita", con \operatorname{dim}[C(\cdot)] = q \times n, e D(\cdot) è la "matrice di legame diretto ingresso-uscita" (nei casi in cui il sistema non abbia tale legame, D(\cdot) è una matrice nulla), con \operatorname{dim}[D(\cdot)] = q \times p.

La variabile temporale t può essere continua (cioè t \in \R) o "discreta" (t \in \Z), e in tal caso è spesso indicata con k. La rappresentazione in spazio di stato può quindi assumere anche le forme:

\dot{\mathbf{x}}(t) = A \mathbf{x}(t) + B \mathbf{u}(t)
\mathbf{y}(t) = C \mathbf{x}(t) + D \mathbf{u}(t)
  • Discreto tempo variante:
\mathbf{x}(k+1) = \mathbf{A}(k) \mathbf{x}(k) + \mathbf{B}(k) \mathbf{u}(k)
\mathbf{y}(k) = \mathbf{C}(k) \mathbf{x}(k) + \mathbf{D}(k) \mathbf{u}(k)
\mathbf{x}(k+1) = A \mathbf{x}(k) + B \mathbf{u}(k)
\mathbf{y}(k) = C \mathbf{x}(k) + D \mathbf{u}(k)

Stabilità[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Teoria della stabilità.

Studiare la stabilità e le caratteristiche della risposta di un sistema lineare continuo tempo-invariante (cioè lineare con matrici che sono costanti nel tempo) a partire dagli autovalori della matrice A è equivalente ad analizzare, nel dominio della frequenza, la sua funzione di trasferimento. Questa può essere come una frazione e apparire, ad esempio, nella forma:

 \textbf{G}(s) = k \frac{ (s - z_{1})(s - z_{2})(s - z_{3})
                              }{ (s - p_{1})(s - p_{2})(s - p_{3})(s - p_{4})
                                }

Il denominatore della funzione è uguale al polinomio caratteristico trovato calcolando il determinante della matrice sI - A:

\mathbf{\lambda}(s) = |sI - A|

Le radici del polinomio caratteristico corrispondono agli autovalori di A, e sono i poli della frazione (le singolarità dove il modulo della funzione di trasferimento è illimitato). I poli possono essere ad esempio utilizzati per vedere se il sistema è internamente o esternamente stabile.

La stabilità esterna (stabilità BIBO) consiste nella limitatezza dell'uscita se l'ingresso è limitato. Questo accade se i poli instabili sono cancellati dagli zeri durante il calcolo della funzione di trasferimento (cioè le sue singolarità sono rimovibili).

Gli zeri del numeratore di \textbf{G}(s), invece, possono essere similmente utilizzati per determinare se il sistema è o meno a fase minima.

Controllabilità[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Controllabilità.

La controllabilità implica che è possibile, attraverso l'uso di un ingresso ammissibile, portare lo stato del sistema a partire da qualsiasi valore iniziale fino a qualsiasi stato finale entro un tempo finito. La controllabilità di un sistema a tempo continuo LTI può essere verificata tramite la condizione di raggiungibilità (visto che in tali condizioni le due proprietà corrispondono)[3]:

\operatorname{rank}\begin{bmatrix}B& AB& A^{2}B& ...& A^{n-1}B\end{bmatrix} = n

dove il rango \operatorname{rank}(A) di una matrice A è il numero massimo di righe o colonne di una matrice linearmente indipendenti.

Osservabilità[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Osservabilità.

L'osservabilità quantifica in che misura è possibile ricavare lo stato del sistema a partire dalla sua uscita. L'osservabilità e la controllabilità di un sistema sono matematicamente duali[4] (la seconda ci dice che da un qualsiasi stato iniziale si va in un qualsiasi stato finale e la prima che dalla conoscenza dell'uscita si può risalire allo stato iniziale del sistema).

Un sistema continuo (e in questo caso anche discreto[5]) LTI è osservabile se e solo se

\operatorname{rank}\begin{bmatrix}C\\ CA\\ ...\\ CA^{n-1}\end{bmatrix} = n

Funzione di trasferimento[modifica | modifica wikitesto]

La funzione di trasferimento di un sistema continuo LTI può essere ricavata calcolando la trasformata di Laplace di:

\dot{\mathbf{x}}(t) = A \mathbf{x}(t) + B \mathbf{u}(t)

che è:

s\mathbf{X}(s) = A \mathbf{X}(s) + B \mathbf{U}(s)

Risolvendo rispetto a \mathbf{X}(s):

(s\mathbf{I} - A)\mathbf{X}(s) = B\mathbf{U}(s)

da cui:

\mathbf{X}(s) = (s\mathbf{I} - A)^{-1}B\mathbf{U}(s)

Sostituendo \mathbf{X}(s) nell'equazione di uscita \mathbf{Y}(s) = C\mathbf{X}(s) + D\mathbf{U}(s) si ottiene:

\mathbf{Y}(s) = C((s\mathbf{I} - A)^{-1}B\mathbf{U}(s)) + D\mathbf{U}(s)

Dal momento che la funzione di trasferimento \mathbf{G}(s) è definita come il rapporto tra l'uscita e l'ingresso del sistema, si ha:

\mathbf{G}(s) = \mathbf{Y}(s) / \mathbf{U}(s)

e sostituendo la precedente espressione di \mathbf{Y}(s):

\mathbf{G}(s) = C(s\mathbf{I} - A)^{-1}B + D

La matrice \mathbf{G}(s) ha dimensione q per p. Quindi per ogni ingresso ci sono dunque q funzioni di trasferimento, ovvero una per ogni uscita.

Sistemi causali[modifica | modifica wikitesto]

Un sistema causale è descritto da una funzione di trasferimento propria (il grado del numeratore è minore o uguale al grado del denominatore) e stabile. Viene detta strettamente propria se il grado del numeratore è minore al grado del denominatore, e può essere rappresentata come frazione complessa:

 \textbf{G}(s) = \frac{n_{1}s^{3} + n_{2}s^{2} + n_{3}s + n_{4}}{s^{4} + d_{1}s^{3} + d_{2}s^{2} + d_{3}s + d_{4}}.

Risulta spesso possibile scrivere il sistema nella forma:

\dot{\textbf{x}}(t) = \begin{bmatrix}
                               -d_{1}& -d_{2}& -d_{3}& -d_{4}\\
                                1&      0&      0&      0\\
                                0&      1&      0&      0\\
                                0&      0&      1&      0
                             \end{bmatrix}\textbf{x}(t) + 
                             \begin{bmatrix} 1\\ 0\\ 0\\ 0\\ \end{bmatrix}\textbf{u}(t)
 \textbf{y}(t) = \begin{bmatrix} n_{1}& n_{2}& n_{3}& n_{4} \end{bmatrix}\textbf{x}(t).

detta forma canonica di controllore perché per il sistema risultante è garantita la controllabilità.

La scrittura (duale):

\dot{\textbf{x}}(t) = \begin{bmatrix}
                               -d_{1}&   1&  0&  0\\
                               -d_{2}&   0&  1&  0\\
                               -d_{3}&   0&  0&  1\\
                               -d_{4}&   0&  0&  0
                             \end{bmatrix}\textbf{x}(t) + 
                             \begin{bmatrix} n_{1}\\ n_{2}\\ n_{3}\\ n_{4} \end{bmatrix}\textbf{u}(t)
 \textbf{y}(t) = \begin{bmatrix} 1& 0& 0& 0 \end{bmatrix}\textbf{x}(t).

è invece chiamata forma canonica di osservatore.

Retroazione o feedback[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Retroazione.

Un metodo comune per descrivere la retroazione è moltiplicare l'uscita del sistema per una matrice K e porre in ingresso al sistema:

\mathbf{u}(t) = K \mathbf{y}(t)

Se il valore di K è negativo si ha una retroazione negativa.

Il sistema:

\dot{\mathbf{x}}(t) = A \mathbf{x}(t) + B \mathbf{u}(t)
\mathbf{y}(t) = C \mathbf{x}(t) + D \mathbf{u}(t)

diventa:

\dot{\mathbf{x}}(t) = A \mathbf{x}(t) + B K \mathbf{y}(t)
\mathbf{y}(t) = C \mathbf{x}(t) + D K \mathbf{y}(t)

risolvendo l'equazione di uscita per \mathbf{y}(t) e inserendo \mathbf{y}(t) nell'equazione di stato si ha:

\dot{\mathbf{x}}(t) = \left(A + B K \left(I - D K\right)^{-1} C \right) \mathbf{x}(t)
\mathbf{y}(t) = \left(I - D K\right)^{-1} C \mathbf{x}(t)

Il vantaggio di questo approccio è che gli autovalori di A possono essere controllati settando K appropriatamente attraverso la decomposizione di \left(A + B K \left(I - D K\right)^{-1} C \right). Questo è possibile se il sistema in open-loop è controllabile o se tutti gli autovalori di A possono essere resi stabili.

Una semplificazione comune di questo sistema assume D nulla e C uguale all'identità. In questo modo l'equazione si riduce a:

\dot{\mathbf{x}}(t) = \left(A + B K \right) \mathbf{x}(t)
\mathbf{y}(t) = \mathbf{x}(t)

Retroazione con segnale di riferimento in ingresso[modifica | modifica wikitesto]

Se alla retroazione viene sommato un segnale aggiuntivo:

\mathbf{u}(t) = -K \mathbf{y}(t) + \mathbf{r}(t)

il sistema:

\dot{\mathbf{x}}(t) = A \mathbf{x}(t) + B \mathbf{u}(t)
\mathbf{y}(t) = C \mathbf{x}(t) + D \mathbf{u}(t)

diventa:

\dot{\mathbf{x}}(t) = A \mathbf{x}(t) - B K \mathbf{y}(t) + B \mathbf{r}(t)
\mathbf{y}(t) = C \mathbf{x}(t) - D K \mathbf{y}(t) + D \mathbf{r}(t)

risolvendo l'equazione di uscita per \mathbf{y}(t) e sostituendoci l'equazione dello stato si ha:

\dot{\mathbf{x}}(t) = \left(A - B K \left(I + D K\right)^{-1} C \right) \mathbf{x}(t) + B \left(I -  K \left(I + D K\right)^{-1}D \right) \mathbf{r}(t)
\mathbf{y}(t) = \left(I + D K\right)^{-1} C \mathbf{x}(t) + \left(I + D K\right)^{-1} D \mathbf{r}(t)

Una semplificazione comune è la rimozione del termine D, che riduce le equazioni a:

\dot{\mathbf{x}}(t) = \left(A - B K C \right) \mathbf{x}(t) + B \mathbf{r}(t)
\mathbf{y}(t) = C \mathbf{x}(t)

Note[modifica | modifica wikitesto]

  1. ^ O. M. Grasselli, L. Menini, S. Galeani, 2008, Sistemi dinamici - Introduzione all'analisi e primi strumenti di controllo, capitolo 4.7 pag. 249.
  2. ^ O. M. Grasselli, L. Menini, S. Galeani, 2008, Sistemi dinamici - Introduzione all'analisi e primi strumenti di controllo, capitolo 2 pag. 31.
  3. ^ O. M. Grasselli, L. Menini, S. Galeani, 2008, Sistemi dinamici - Introduzione all'analisi e primi strumenti di controllo, capitolo 5 pag. 272.
  4. ^ O. M. Grasselli, L. Menini, S. Galeani, 2008, Sistemi dinamici - Introduzione all'analisi e primi strumenti di controllo, capitolo 6 pag. 364.
  5. ^ O. M. Grasselli, L. Menini, S. Galeani, 2008, Sistemi dinamici - Introduzione all'analisi e primi strumenti di controllo, capitolo 6 pag. 341.

Bibliografia[modifica | modifica wikitesto]

  • E. Fornasini, G. Marchesini Appunti di teoria dei sistemi, Ed progetto Padova, 2013
  • O. M. Grasselli, L. Menini, S. Galeani, 2008, Sistemi dinamici - Introduzione all'analisi e primi strumenti di controllo
  • (EN) Antsaklis, P.J. and Michel, A. N. 2007. A Linear Systems Primer, Birkhauser. (ISBN 978-0-8176-4434-50)
  • (EN) Chen, Chi-Tsong 1999. Linear System Theory and Design, 3rd. ed., Oxford University Press (ISBN 0-19-511777-8)
  • (EN) Khalil, Hassan K. 2001 Nonlinear Systems, 3rd. ed., Prentice Hall (ISBN 0-13-067389-7)
  • (EN) Nise, Norman S. 2004. Control Systems Engineering, 4th ed., John Wiley & Sons, Inc. (ISBN 0-471-44577-0)
  • (EN) Hinrichsen, Diederich and Pritchard, Anthony J. 2005. Mathematical Systems Theory I, Modelling, State Space Analysis, Stability and Robustness. Springer. (ISBN 978-3-540-44125-0)
  • (EN) Sontag, Eduardo D. 1999. Mathematical Control Theory: Deterministic Finite Dimensional Systems. Second Edition. Springer. (ISBN 0-387-98489-5) (available free online)
  • (EN) Friedland, Bernard. 2005. Control System Design: An Introduction to State Space Methods. Dover. (ISBN 0-486-44278-0).
  • (EN) Zadeh, Lofti A. and Desoer, Charles A. 1979. Linear System Theory, Krieger Pub Co. (ISBN 978-0-88275-809-1)
  • (EN) Durbin, J. and S. Koopman (2001). Time series analysis by state space methods. Oxford University Press, Oxford.

Voci correlate[modifica | modifica wikitesto]