Sistema autonomo (matematica)

Da Wikipedia, l'enciclopedia libera.

In matematica, un sistema autonomo o equazione differenziale autonoma è un sistema di equazioni differenziali ordinarie che non dipendono esplicitamente dalla variabile indipendente.

I sistemi autonomi sono utilizzati nello studio dei sistemi dinamici, dove la variabile indipendente è il tempo, e in tal caso si parla di sistema tempo-invariante.

Definizione[modifica | modifica sorgente]

Un'equazione autonoma è un'equazione differenziale ordinaria del tipo:

y'(t) = f(y(t))

dove f è una funzione continua con derivata prima continua in tutto un intervallo I \subset \R, e che non dipende dalla variabile indipendente t. Se y è un vettore di \R^n si ha un sistema autonomo, ovvero un sistema di equazioni differenziali ordinarie autonome:

y'_i = f_i(y_1,y_2,\dots,y_n) \qquad i= 1,\dots,n

Di particolare importanza sono i punti x_0 tali per cui f(x_0)=0, detti punti di equilibrio, ai quali corrisponde la soluzione costante y = x_0.

Un generico sistema di equazioni differenziali ordinarie (in cui f dipende da t):

\frac{d}{dt}y(t)=f(y(t),t)

può essere reso autonomo introducendo una nuova incognita y_{n+1}=t.

Proprietà[modifica | modifica sorgente]

Sia x_1(t) l'unica soluzione del problema ai valori iniziali per il sistema autonomo:

\frac{d}{dt}x(t)=f(x(t)) \qquad x(0)=x_0

Allora x_2(t)=x_1(t-t_0) è soluzione di:

\frac{d}{dt}x(t)=f(x(t)) \qquad x(t_0)=x_0

Infatti, ponendo s=t-t_0 si ha x_1(s)=x_2(t) e ds=dt, sicché:

\frac{d}{dt}x_2(t)=\frac{d}{dt}x_1(t-t_0)=\frac{d}{ds}x_1(s)=f(x_1(s))=f(x_2(t))

e la condizione iniziale è verificata:

x_2(t_0)=x_1(t_0-t_0)=x_1(0)=x_0

Inoltre, se f(x_0)=0 allora la funzione costante x(t)=x_0 è una soluzione (come si verifica sostituendola nell'equazione, osservando che la sua derivata è nulla) che soddisfa la condizione iniziale x(0)=x_0. In particolare, un vettore x_0 \in I tale che x(t=t_0)=x_0 è un punto di equilibrio per il sistema se e solo se f(x_0) = 0.

Soluzioni[modifica | modifica sorgente]

La soluzione formale di un sistema del primo ordine si ottiene scrivendo:

\frac{dy}{dt} = f(y)

da cui:

\frac{dy}{f(y)} = dt

Integrando si ottiene la soluzione generale:

\int \frac{1}{f(y)} dy = \int dt = t + k

dove k è una costante dipendente dalle condizioni iniziali. Più precisamente, grazie al fatto che l'integrale precedente è una funzione invertibile, si mostra che se f è definita su I e x_0 \in I allora esistono un intorno di x_0 ed un intorno di t_0 \in \R tali per cui esiste almeno una soluzione x di x'=f(x) tale che x(t_0)=x_0. Considerando pertanto il problema di Cauchy abbinato all'equazione autonoma y(t_0) = y_0, se f(y_0) = 0 allora la soluzione è costante ( y(t) = y_0) mentre se f(y_0) \ne 0 la soluzione è data dall'integrale:

 \int_{y_0}^{y} \frac{1}{f(z)} dz = \int_{t_0}^t d\tau

A partire dalle soluzioni si possono ricavare proprietà generali per l'equazione autonoma: se la funzione f(y) ha segno costante allora anche la derivata y' ha segno costante, cioè mantiene la monotonia. Ad esempio, Si consideri:

y'(t) = a y \qquad a \ne 0

Questa equazione ha una soluzione costante y=0. Le altre soluzioni sono crescenti se a t_0 > 0 e decrescenti se a t_0 < 0 e non si hanno punti di flesso. Un altro esempio semplice è l'equazione logistica.

Secondo ordine[modifica | modifica sorgente]

Per un'equazione autonoma del secondo ordine:

\frac{d^2x}{dt^2} = f(x, x')

si introduce la variabile:

v = \frac{dx}{dt}

e si esprime la derivata seconda di x, sfruttando la regola della catena, come:

\frac{d^2x}{dt^2} = \frac{dv}{dt} = \frac{dx}{dt}\frac{dv}{dx} = v\frac{dv}{dx}

In questo modo l'equazione originale diventa:

v\frac{dv}{dx} = f(x, v)

che è un'equazione del primo ordine che non dipende esplicitamente da t. Risolvendola si ottiene v in funzione di x, e dalla definizione di v si ha:

\frac{dx}{dt} = v(x)

da cui:

t + C = \int \frac{d x}{v(x)}

che è la soluzione implicita.

Soluzioni periodiche[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Teorema di Bendixson-Dulac.

Si consideri un sistema autonomo di due variabili con relativo problema di Cauchy:

\begin{cases} x' = f(x,y) \\ y' = g(x,y) \end{cases}

Per stabilire se il sistema abbia soluzioni periodiche vale il criterio di Bendixon, il quale afferma che se il sistema ammette una soluzione periodica allora la divergenza del campo vettoriale:

\vec F = \{ f(x,y) , g(x,y) \}

non ha segno costante (anche se può essere nulla).

Dimostrazione[modifica | modifica sorgente]

La soluzione del sistema autonomo è una curva C: x = \phi(t), y = \psi(t). Applicando il teorema della divergenza:

\int_{C} \vec F \cdot \vec n ds = \iint_{\Sigma} div (\vec F) \ dx \ dy

dove \vec n è il versore normale dato da:

\vec n = \frac{\{ g,-f \}}{\sqrt{\phi'(t)^2 + \psi'(t)^2}}

Quindi l'integrale diventa:

\int_{0}^{T} (fg - gf) dt = 0

dove [0,T] è il periodo della soluzione periodica. Questo significa che la divergenza assume:

\iint_{\Sigma} div (\vec F) \ dx \ dy = 0

e quindi non può essere sempre positiva o sempre negativa, altrimenti non si potrebbe annullare.

Bibliografia[modifica | modifica sorgente]

  • (EN) William E. Boyce, Richard C. DiPrima, Elementary Differential Equations and Boundary Volume Problems, 8th ed., John Wiley & Sons, 2005, p. 133, ISBN 0-471-43338-1.
  • (EN) Blanchard, Devaney, Hall, Differential Equations, Brooks/Cole Publishing Co, 2005, pp. 540–543, ISBN 0-495-01265-3.
  • (EN) S.E. Cappell, J.L. Shaneson, Non-linear similarity Ann. of Math. , 113 (1981)
  • (EN) N.H. Kuiper, The topology of the solutions of a linear differential equation on , Proc. Internat. Congress on Manifolds (Tokyo, 1973)
  • (EN) N.H. Kuiper, J.W. Robbin, Topological classification of linear endomorphisms Inv. Math. , 19 (1973)

Voci correlate[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica