Stabilità interna

Da Wikipedia, l'enciclopedia libera.

In matematica, la stabilità interna o stabilità di Lyapunov di un sistema dinamico è un modo per caratterizzare la stabilità delle traiettorie compiute dal sistema nello spazio delle fasi in seguito ad una sua perturbazione in prossimità di un punto di equilibrio. Un punto di equilibrio è detto stabile (secondo Lyapunov) se ogni orbita del sistema che parte sufficientemente vicina al punto di equilibrio rimane nelle vicinanze del punto di equilibrio, ed è detto asintoticamente stabile se l'orbita converge al punto al crescere infinito del tempo.

L'analisi della stabilità interna di un sistema dinamico è di grande importanza nello studio dei fenomeni naturali, in cui ad una condizione di equilibrio stabile corrisponde un minimo dell'energia posseduta dal sistema, come conseguenza del fatto che esso tende spontaneamente a minimizzarla. Il teorema di Lagrange-Dirichlet, che considera sistemi olonomi soggetti a forze conservative e con vincoli perfetti (bilaterali) indipendenti dal tempo, stabilisce in particolare che l'energia potenziale ha un minimo relativo proprio quando il sistema assume una configurazione di equilibrio meccanico stabile (secondo Lyapunov).

Una palla nel fondo di una valle è in una posizione di equilibrio stabile, mentre una in cima ad una collina è in posizione di equilibrio instabile.

Punti di equilibrio[modifica | modifica wikitesto]

Stabilità in un sistema dinamico in prossimità del punto di equilibrio x_0: le soluzioni che partono dentro V rimangono in U per tutta l'evoluzione del sistema.
Instabilità in un sistema dinamico.

Si consideri un sistema dinamico:

\dot{\mathbf x} = \mathbf f(\mathbf x) \qquad \mathbf x \in \R^n

dove \mathbf f: \mathcal{D} \subset \R^n \rightarrow \R^n è una funzione lipschitziana in \mathbf x e continua in t.

Sia \mathbf x_0 un punto di equilibrio, cioè  \mathbf f(\mathbf x_0)=\mathbf 0 . Allora:[1]

  • Il punto di equilibrio \mathbf x_0 è detto stabile (secondo Lyapunov) se per ogni intorno U del punto \mathbf x_0 esiste un intorno V \subset U tale che le orbite che partono da punti interni a V rimangono dentro U per tutti i tempi t>0.
Esplicitamente, per ogni \epsilon > 0 esiste \delta = \delta(\epsilon) > 0 tale che, se \|\mathbf x(0)- \mathbf x_0 \| < \delta, allora per ogni t \geq 0 si ha \|\mathbf x(t)- \mathbf x_0 \| < \epsilon.
  • Il punto di equilibrio \mathbf x_0 è detto attrattivo se esiste un intorno U di \mathbf x_0 tale che per ogni orbita \mathbf x(t) che parta da un punto interno ad U si ha:
 \lim_{t \to +\infty} \mathbf x(t)=\mathbf x_0
Il più grande intorno U per cui ciò avviene è chiamato bacino di attrazione del punto \mathbf x_0.
  • Il punto di equilibrio \mathbf x_0 è detto asintoticamente stabile se è stabile e attrattivo. Ovvero, esiste \delta > 0 tale che se \| \mathbf x(0)- \mathbf x_0 \|< \delta allora \lim_{t \rightarrow \infty} \| \mathbf x(t)- \mathbf x_0\| = 0.
  • Un punto di equilibrio \mathbf x_0 è detto esponenzialmente stabile se è asintoticamente stabile ed esistono \alpha, \beta, \delta >0 tali per cui, se \| \mathbf x(0)- \mathbf x_0 \| < \delta, si ha:
\| \mathbf x(t)- \mathbf x_0\| \leq \alpha\| \mathbf x(0)- \mathbf x_0\|e^{-\beta t} \qquad t \geq 0
  • Un punto di equilibrio si dice instabile se non è stabile, ovvero se esiste un intorno U di \mathbf x_0 tale che, comunque si scelga un intorno V di \mathbf x_0 contenuto in U, si può sempre trovare una posizione iniziale \mathbf x \in V la cui orbita si allontana da \mathbf x_0 abbastanza da uscire da U.

Da un punto di vista geometrico, l'insieme (invariante) dei punti che si avvicinano a \mathbf x_0 (la cui orbita converge a \mathbf x_0 per t \to \infty) è detto varietà stabile, mentre per "varietà instabile" ci si riferisce all'insieme di quelli che si allontanano.

Attrattività e stabilità[modifica | modifica wikitesto]

Sistema dinamico con punto di equilibrio attrattivo e instabile

Un punto di equilibrio stabile in generale non è attrattivo, e un punto di equilibrio attrattivo non è necessariamente stabile. La proprietà di stabilità è una proprietà locale, potendo essere osservata considerando intorni arbitrariamente piccoli del punto di equilibrio, mentre la proprietà di attrattività non lo è: anche se il bacino di attrazione è molto piccolo, o contiene intorni arbitrariamente piccoli, per verificare se un punto vi appartiene occorre seguire tutta la sua traiettoria che potrebbe allontanarsi arbitrariamente da x_0.

Un esempio di sistema dinamico con un punto di equilibrio che è attrattivo ma non stabile è quello definito sulla circonferenza da:

\dot{\theta}=1-cos(\theta)

Qui \theta=0 è un punto di equilibrio e le soluzioni che partono da qualsiasi altro punto della circonferenza vi convergono "dal basso" girando in senso orario. Il punto è attrattivo ed il suo bacino di attrazione è l'intera circonferenza, ma il punto ha un equilibrio instabile dal momento che tutte le soluzioni che partono da punti "sopra" di esso (arbitrariamente vicini) si allontanano uscendo da qualsiasi intorno prefissato.

Criteri di Lyapunov[modifica | modifica wikitesto]

I criteri di Lyapunov forniscono condizioni sufficienti per la stabilità in prossimità di un punto di equilibrio, e sono estesi da un vasto numero di risultati. Il primo criterio riconduce l'analisi del sistema a quella della sua approssimazione lineare in un intorno del punto di equilibrio, il secondo utilizza una particolare funzione scalare, la funzione di Lyapunov, per "confinare" le soluzioni in una regione dello spazio delle fasi. Nello studio dei sistemi meccanici, a tale funzione si fa solitamente corrispondere l'energia potenziale del sistema.

Primo criterio di Lyapunov[modifica | modifica wikitesto]

Dato il sistema dinamico:

\dot \mathbf x = \mathbf f( \mathbf x)

con \mathbf x_0 un punto di equilibrio, ovvero:

 \mathbf f(\mathbf x_0)= \mathbf 0

la linearizzazione del sistema in un intorno di \mathbf x_0 si ottiene considerando la traiettoria perturbata:

\mathbf x(t) = \mathbf x_0 + \delta \mathbf x(t)

e inserendola nell'equazione:

\dot \mathbf x = \delta \dot \mathbf x = f(\mathbf x_0 + \delta \mathbf x(t) ) = f(\mathbf x_0) + \frac{\partial \mathbf f} {\partial \mathbf x^T} |_{\mathbf x= \mathbf x_0} \delta \mathbf x + O(\|\delta \mathbf x \|^2)

dove trascurando i termini di ordine superiore al primo si ha:

\delta \dot \mathbf x = A \delta \mathbf x \qquad A = \frac{\partial \mathbf f} {\partial \mathbf x^T} |_{\mathbf x= \mathbf x_0}

Il criterio di Lyapunov stabilisce che:[2]

  • se il punto di equilibrio \delta \mathbf x = \mathbf 0 del sistema linearizzato \delta \dot \mathbf x = A \delta \mathbf x è asintoticamente stabile allora \mathbf x_0 è un punto di equilibrio asintoticamente stabile del sistema non linearizzato
  • se \delta \mathbf x = \mathbf 0 è instabile allora \mathbf x_0 è un punto di equilibrio instabile del sistema non linearizzato
  • se \delta \mathbf x = \mathbf 0 è stabile non si può dire nulla del sistema non linearizzato.

Secondo criterio di Lyapunov[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Funzione di Lyapunov.

Sia a(t, \mathbf x) : \R \times B \to \R una funzione continua tale che a(t , \mathbf 0) = \mathbf 0 per ogni t \in \R, con B \subset \R^n un intorno di \mathbf 0. Si dice che a(t, \mathbf x) è definita positiva in B se esiste una funzione continua b(\mathbf x) : B \to \R definita positiva (cioè b(\mathbf x)>0 per ogni \mathbf x \in B \setminus \{ \mathbf 0 \}) tale che b(\mathbf 0) = \mathbf 0 e:

a(t, \mathbf x) > b(\mathbf x) \qquad \forall \mathbf x \in B

La definizione per una funzione delle variabili (t, \mathbf x) definita negativa si ottiene analogamente, rimpiazzando > con <.

Si dice che a(t, \mathbf x) è semidefinita positiva in B se esiste una funzione b(\mathbf x) : B \to \R semidefinita positiva (cioè b(\mathbf x) \ge 0 per ogni \mathbf x \in B ) tale che b(\mathbf 0) = \mathbf 0 e:

a(t, \mathbf x) \ge b(\mathbf x) \qquad \forall \mathbf x \in B

Invertendo il verso della disuguaglianza si definisce analogamente una funzione semidefinita negativa.

Dato un intorno D \subset \R^n del punto di equilibrio \mathbf x_0 per il sistema:

\dot \mathbf x = \mathbf f(t,  \mathbf x)

se esiste una funzione V : \R \times D \to \R di classe C^1 definita positiva e con derivata orbitale:

\dot V (t, \mathbf x) = \frac{\partial}{\partial t}V(t, \mathbf x) + \frac{\partial}{\partial \mathbf x_1}V(t, \mathbf x) f_1(\mathbf x) + \dots + \frac{\partial}{\partial \mathbf x_n}V(t, \mathbf x) f_n(\mathbf x)

semidefinita negativa, allora \mathbf x_0 è stabile nel senso di Lyapunov.

Il punto di equilibrio \mathbf x_0 è asintoticamente stabile nel senso di Lyapunov se esiste inoltre una funzione W : D \to \R definita positiva tale per cui:[3]

V(t,\mathbf x) < W(\mathbf x) \qquad \forall (t,\mathbf x) \in \R \times D

La stabilità così definita è una condizione sufficiente ma non necessaria, cioè un punto di equilibrio può essere stabile anche se non esistono funzioni di Lyapunov definite in un suo intorno.

Sistemi lineari[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Sistema dinamico lineare.

Nelle scienze applicate, specialmente in elettronica e nella teoria del controllo, è comune studiare la stabilità dei sistemi dinamici lineari. Spesso vengono studiati nel dominio della frequenza s = \sigma + i \omega, ovvero si analizza la loro risposta in frequenza, che per sistemi stazionari è data dalla funzione di trasferimento. Un sistema lineare di n stati \mathbf x \in \R^n, m input \mathbf u \in \R^m e q uscite \mathbf y \in \R^q viene descritto da un'equazione del tipo:

\dot \mathbf x(t) = A \mathbf x(t)+B \mathbf u(t)
\mathbf y(t) = C \mathbf x(t)+D \mathbf u(t)

ed è detto stabile se tutti gli autovalori di A hanno parte reale negativa.[4]

In particolare, è possibile mostrare che se l'ingresso è un'oscillazione del tipo \mathbf u= \bar \mathbf u e^{st} , con \bar \mathbf u \in \R^n un vettore arbitrario, ed il sistema è stabile, allora per un tempo che tende ad infinito l'uscita è un'oscillazione della stessa frequenza della perturbazione in ingresso:

\lim_{t \to \infty} \mathbf y(t)= [D+C(sI-A)^{-1} B] \bar \mathbf u e^{st}

dove il guadagno [D+C(sI-A)^{-1} B], con I la matrice identità, produce uno sfasamento ed un'amplificazione dell'input (senza variarne la frequenza).

Esempio: l'oscillatore armonico[modifica | modifica wikitesto]

L'oscillatore armonico è un classico esempio utilizzato per chiarire i concetti di stabilità. Il sistema è costituito da una molla che da un lato è vincolata ad un piano e dall'altro è collegata ad una massa. Se si suppone che nel sistema non ci sia attrito, dopo aver compresso (o allungato) la molla, la massa inizierà ad oscillare per un tempo indefinito, senza mai fermarsi. Se si provano ad immaginare le traiettorie del sistema, queste oscilleranno intorno al punto di equilibrio: si tratta di un sistema stabile, e le traiettorie non si allontanano mai eccessivamente dal punto di equilibrio. Se si suppone che nel sistema sia presente attrito, le oscillazioni saranno smorzate e dopo un po' di tempo il sistema si arresterà nella posizione di riposo (di equilibrio). Dunque le traiettorie inizialmente oscilleranno in un intorno del punto di equilibrio, per poi arrestarsi nella posizione di equilibrio. Si tratta di un sistema asintoticamente stabile, le traiettorie non si allontanano mai eccessivamente e dopo un certo tempo convergono al punto di equilibrio, arrestandosi in esso.

Note[modifica | modifica wikitesto]

  1. ^ (EN) Clemson University - Lyapunov Stability I: Autonomous Systems
  2. ^ (EN) Christopher J. Damaren - Lyapunov Stability
  3. ^ (EN) Christopher Grant - Lyapunov's Direct Method
  4. ^ (EN) Andrew Packard - Frequency Response for Linear Systems

Bibliografia[modifica | modifica wikitesto]

  • (EN) A.M. Lyapunov, Stability of motion , Acad. Press (1966)
  • (DE) O. Perron, Ueber Stabilität und asymptotisches Verhalten der Integrale von Differentialgleichungssystemen Math. Z. , 29 (1928) pp. 129–160
  • (EN) R.E. Bellman, Stability theory of differential equations , Dover, reprint (1969)
  • (EN) Jean-Jacques E. Slotine and Weiping Li, Applied Nonlinear Control, Prentice Hall, NJ, 1991
  • (EN) Parks P.C: "A. M. Lyapunov's stability theory - 100 years on", IMA Journal of Mathematical Control & Information 1992 9 275-303
  • (EN) G. Teschl, Ordinary Differential Equations and Dynamical Systems, Providence, American Mathematical Society, 2012, ISBN 978-0-8218-8328-0.
  • (EN) S. Wiggins, Introduction to Applied Nonlinear Dynamical Systems and Chaos, 2ª ed., New York, Springer Verlag, 2003, ISBN 0-387-00177-8.

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]