Controllo ottimo

Da Wikipedia, l'enciclopedia libera.

Il controllo ottimo è, nell'ambito dei controlli automatici, l'insieme di algoritmi di controllo che stabilizzano un sistema dinamico, minimizzando una cifra di merito che dipende dallo stato del sistema e dal vettore degli ingressi.

Controllo automatico

Formulazione del problema[modifica | modifica sorgente]

Sia definito il seguente sistema non lineare:

\dot x(t) = f(x(t),u(t)) con x \in \mathbb{R}^n, u \in \mathbb{R}^m

dove n è il numero degli stati del sistema e m è il numero degli ingressi.

Sia definito il seguente funzionale di costo:

J = \beta(x(t_f),t_f) + \int_{t_0}^{t_f} f_0(x(\tau),u(\tau))\, d\tau

Ipotizzando di essere all'istante iniziale t_0 e allo stato iniziale x_0 l'obiettivo è quello di trovare un controllo ottimo

u_{ott}(t), t \in [t_0,t_f]

che minimizzi J rispettando il vincolo:

\dot x - f(x, u) = 0 ,

equivalente a

x \in X
u \in U

Si ha quindi un problema di minimo vincolato.

Equazioni di Eulero-Lagrange e condizioni di trasversalità[modifica | modifica sorgente]

Detto problema di minimo vincolato può essere risolto mediante tecnica dei moltiplicatori di Lagrange, grazie ai quali viene ricondotto ad un problema equivalente di minimo non vincolato, pagando il prezzo dell'aumento delle dimensioni dello stesso.

 \min J = \beta(x_f, t_f) + \int_{t_0}^{t_f}  f_0(x, u) + \lambda^{T} \, [ f(x, u) - \dot{x} ]  \; d\tau

con \lambda vettore di funzioni \lambda(t), moltiplicatori di Lagrange da determinare.

Si definisce la quantità

H(x,u,\lambda) = f_0(x,u) + \lambda^T \, f(x,u)

funzione Hamiltoniana. Per cui il funzionale da minimizzare diviene:

J = \beta(x_f, t_f) + \int_{t_0}^{t_f}  H(x,u,\lambda)  - \lambda^{T} \dot{x}  \; d\tau.

Esiste un estremale della funzione J se la variazione prima \Delta J = 0.

\Delta J = \left( \frac{\partial \beta}{\partial x_f} \right)^T \Delta x_f \,+\, \frac{\partial \beta}{\partial t_f} \Delta t_f \,+\, (H_f - \lambda_f^T \dot{x}_f) \Delta t_f \,+\, \int_{t_0}^{t_f} \left[ \left( \frac{\partial H}{\partial x} \right)^T \delta x + \left( \frac{\partial H}{\partial u} \right)^T \delta u + \left( \frac{\partial H}{\partial \lambda}\right)^T \delta \lambda - \dot{x}^T \delta \lambda - \lambda^T \delta \dot{x} \right] \, d \tau

Si consideri il termine \int_{t_0}^{t_f} - \lambda^T \delta \dot{x} \, d\tau ; integrando per parti e tenendo presente che \Delta x_f = \delta x_f + \dot{x}_f \Delta t_f e che \delta x_0 = 0 essendo lo stato iniziale fissato, si ottiene:

 \int_{t_0}^{t_f} - \lambda^T \delta \dot{x} \, d\tau = -\lambda_f^T \Delta x_f + \lambda_f^T \dot{x}_f \Delta t_f + \int_{t_0}^{t_f} \dot{\lambda}^T \delta x\, d\tau

Sostituendo in \Delta J e raccogliendo opportunamente:

\Delta J = \left[ \frac{\partial \beta}{\partial x_f} - \lambda_f\right]^T \Delta x_f \,+\, \left[ \frac{\partial \beta}{\partial t_f} + H_f \right] \Delta t_f \,+\, \int_{t_0}^{t_f} \left[ \left( \frac{\partial H}{\partial u} \right)^T \delta u + \left( \frac{\partial H}{\partial \lambda} - \dot{x} \right)^T \delta \lambda \,+\, \left( \frac{\partial H}{\partial x} + \dot{\lambda} \right)^T \delta x \right] \; d\tau.

Il differenziale primo \Delta J è nullo se sono pari a zero tutte le variazioni. Si trovano, quindi, le equazioni di Eulero Lagrange

\frac{\partial H}{\partial u} = 0
\dot{x} = \frac{\partial H}{\partial \lambda}
\dot{\lambda} = - \frac{\partial H}{\partial x}

e le condizioni di trasversalità

\lambda_f = \frac{\partial \beta}{\partial x_f}
H_f = -\frac{\partial \beta}{\partial t_f}.

Il problema di ottimo si risolve perciò imponendo le equazioni soprascritte con le cosiddette condizioni di trasversalità che fanno le veci di condizioni al contorno. In base al fatto di avere stato finale x_f e tempo finale t_f liberi o fissati, si propongono quattro diversi problemi di ottimo.

Controllo LQR[modifica | modifica sorgente]

Il controllo LQR permette di ottenere un controllo in retroazione dallo stato ottimo rispetto ad un indice quadratico nello stato x(t) e nel controllo u(t). Il controllore sintetizzato dipende dalla soluzione di una opportuna equazione di Riccati.

Controllo ottimo a minima energia[modifica | modifica sorgente]

Utilizzato nel controllo di robot, è una strategia di controllo che permette di ottenere un segnale stabilizzante il sistema (eventualmente capace di fare tracking asintotico), che minimizzi il dispendio energetico, e quindi i consumi. Poiché l'energia è funzione del segnale di controllo al sistema, in genere la u(t) sintetizzata è piccola in modulo.

Controllo ottimo a minimo tempo[modifica | modifica sorgente]

Utilizzato nel controllo di robot, è una strategia di controllo che permette di ottenere un segnale stabilizzante il sistema (eventualmente capace di fare tracking asintotico), che minimizzi il tempo necessario per eseguire l'operazione. Poiché il tempo di salita necessario per arrivare regime è funzione inversa del segnale di controllo al sistema, in genere la u(t) sintetizzata è grande in modulo. L'estremizzazione del controllo a minimo tempo è il controllo BANG-BANG nel quale il controllo può assumere solo 3 valori: saturazione positiva, negativa e nulla.

Bibliografia[modifica | modifica sorgente]

Voci correlate[modifica | modifica sorgente]

Controlli automatici Portale Controlli automatici: accedi alle voci di Wikipedia che trattano di Controlli automatici