Equazione differenziale ordinaria

Da Wikipedia, l'enciclopedia libera.

Un'equazione differenziale ordinaria (abbreviata EDO, o ODE dall'acronimo inglese Ordinary Differential Equation) è un'equazione differenziale che coinvolge una funzione di una variabile e le sue derivate di ordine qualsiasi.

Come succede per tutte le equazioni differenziali, solitamente non è possibile risolvere esattamente una ODE, e comunque non esistono metodi generali per farlo. I diversi casi possibili sono pertanto analizzati singolarmente, e spesso ci si limita a studiare il comportamento qualitativo della soluzione senza che sia possibile ottenerne un'espressione analitica. Particolarmente semplici risultano le equazioni differenziali lineari (di qualunque ordine) poiché si possono sempre ricondurre ad un sistema di equazioni lineari del primo ordine.

Definizione[modifica | modifica sorgente]

Sia F: \Omega \subseteq \mathbb{C}^{n+2} \rightarrow \mathbb{C}, con \Omega \ne \varnothing un insieme aperto e connesso e  n \in \N .

Si definisce equazione differenziale ordinaria di ordine n una relazione del tipo:

F \left( x, u(x), u'(x), \ldots, u^{(n)}(x) \right) = 0

dove con u^{(i)}(x) si indica la derivata i-esima della funzione u(x).

Se  F \! è definita in una regione  \Omega \! dello spazio euclideo  \R^{n+2} , allora si considerano più propriamente equazioni differenziali ordinarie nel campo reale, a valori reali se  F \! è a valori in  \R .

L'ordine di un'equazione è l'ordine massimo di derivazione che vi compare, mentre l'aggettivo ordinario si riferisce al fatto che l'incognita è una funzione di una sola variabile. Nel caso l'incognita dipenda da più variabili si ha un'equazione differenziale alle derivate parziali.

Sia  I un intervallo di  \R . Si definisce soluzione o integrale dell'equazione differenziale ordinaria una funzione \varphi = \varphi(x) tale che:

\varphi(x) \in C^n(I) \qquad F \left( x, \varphi(x), \varphi'(x), \ldots, \varphi^{(n)}(x) \right) = 0 \qquad \forall x \in I

Un'equazione differenziale ordinaria si dice autonoma se F non dipende esplicitamente da x .

Un'equazione differenziale ordinaria si dice scritta in forma normale se può essere esplicitata rispetto u^{(n)}(x):

u^{(n)}(x) = G \left(x, u, u', \ldots, u^{(n-1)} \right)

Si dice inoltre lineare se F è combinazione lineare di u, u', \ldots, u^{(n)} , ovvero:

F \left(x, u, u', \ldots, u^{(n)} \right) = s(x) + b_0(x)u + b_1(x)u' + \ldots + b_{n}(x)u^{(n)}

o, in modo equivalente:

u^{(n)} = \sum_{i=0}^{n-1} a_i(x) u^{(i)} + r(x)

dove:

r(x), a_0(x), a_1(x), \ldots, a_{n-1}(x) \in C^0(I)

Il termine r(x) è detto sorgente o forzante, e se è nullo l'equazione differenziale lineare si dice omogenea.

Un'equazione ordinaria possiede soluzioni linearmente indipendenti in numero pari al grado dell'equazione, ed ogni loro combinazione lineare è a sua volta soluzione.

Data un'equazione differenziale ordinaria, nel caso si conosca una soluzione generale dell'equazione omogenea ad essa associata allora è possibile trovare una soluzione particolare dell'equazione "completa". A tal fine esistono diverse procedure, tra cui il metodo delle variazioni delle costanti e l'utilizzo della trasformata di Laplace. Per i casi più semplici vi sono inoltre alcune teorie: ad esempio, per le equazioni di primo grado è possibile cercare un opportuno fattore di integrazione, per quelle di secondo vi è la teoria di Sturm-Liouville. In generale, tuttavia, di solito l'unico modo possibile per studiare la soluzione è l'utilizzo di un metodo di soluzione numerica.

Sistemi di ODE[modifica | modifica sorgente]

Riduzione a sistema di equazioni di ordine 1[modifica | modifica sorgente]

Un sistema di equazioni differenziali ordinarie di ordine 1 in forma normale è una relazione vettoriale del tipo:

\mathbf{u}' = \mathbf{f} \left( x, \mathbf{u} \right )

Una soluzione classica di un tale sistema è una funzione \mathbf{u} : I \to \R^n tale che:

\mathbf{u}(x)\in C^1(I) \qquad \mathbf{u}'(x) = \mathbf{f} \left ( x, \mathbf{u}(x) \right ) \qquad \forall x \in I

Di particolare rilevanza ai fini pratici è la riduzione di un'equazione differenziale ordinaria di ordine n in forma normale ad un sistema differenziale del primo ordine. Questa tecnica permette di semplificare notevolmente alcuni tipi di problemi, evitando l'introduzione di complesse forme di risoluzione. Sia:

u^{(n)}(x) = G \left(x, u, u', \ldots, u^{(n-1)} \right)

un'equazione differenziale di ordine n di tipo normale. Si definiscono:

u_i = u^{(i-1)}(x) \qquad \mathbf{u} = \left ( u_i \right ) \qquad i \in\{1, \ldots, n\}

in modo che u_{i} '= u_{i+1} , ed in particolare u_{n}'=u^{(n)}(x) . L'equazione differenziale è dunque equivalente al sistema:

 \begin{cases} u_1'=u_2 \\ u_2'=u_3 \\ \vdots \\ u_{n-1}'=u_n \\ u_n' = G \left(x, u_1, u_2, \ldots, u_n \right) = G \left (x,\mathbf{u}\right )\! \end{cases}

Ponendo:

\mathbf{f} \left ( x, \mathbf{u} \right ) = \begin{pmatrix} u_2 \\ u_3 \\ \vdots \\ u_n \\ G \left (x,\mathbf{u}\right ) \end{pmatrix}

si ottiene:

\mathbf{u}' =  \mathbf{f} \left ( x, \mathbf{u} \right )

Sistema di equazioni di ordine n[modifica | modifica sorgente]

Se si considera un vettore \mathbf y definito come:

\mathbf y(x) = (y_1(x),y_2(x),\dots,y_m(x))

e una funzione \mathbf F che agisce su \mathbf y e le sue derivate, allora la scrittura:

\mathbf{y}^{(n)} = \mathbf{F}\left(x,\mathbf{y},\mathbf{y}',\mathbf{y}'',\cdots \mathbf{y}^{(n-1)} \right)

denota un sistema esplicito di equazioni differenziali ordinarie di ordine n. In forma di vettori colonna si ha:

\begin{pmatrix}
y_1^{(n)} \\
y_2^{(n)} \\
\vdots \\
y_m^{(n)}
\end{pmatrix} = 

\begin{pmatrix}
F_1 \left (x,\mathbf{y},\mathbf{y}',\mathbf{y}'',\cdots \mathbf{y}^{(n-1)} \right ) \\
F_2 \left (x,\mathbf{y},\mathbf{y}',\mathbf{y}'',\cdots \mathbf{y}^{(n-1)} \right ) \\
\vdots \\
F_m \left (x,\mathbf{y},\mathbf{y}',\mathbf{y}'',\cdots \mathbf{y}^{(n-1)} \right) \\
\end{pmatrix}

L'analogo sistema implicito è:

\mathbf{F} \left(x,\mathbf{y},\mathbf{y}',\mathbf{y}'',\cdots \mathbf{y}^{(n)} \right) = \boldsymbol{0}

dove \mathbf 0 = (0,0,\dots) . In forma matriciale:

\begin{pmatrix}
F_1(x,\mathbf{y},\mathbf{y}',\mathbf{y}'',\cdots \mathbf{y}^{(n)}) \\
F_2(x,\mathbf{y},\mathbf{y}',\mathbf{y}'',\cdots \mathbf{y}^{(n)}) \\
\vdots \\
F_m(x,\mathbf{y},\mathbf{y}',\mathbf{y}'',\cdots \mathbf{y}^{(n)}) \\
\end{pmatrix}=\begin{pmatrix}
0\\
0\\
\vdots\\
0\\
\end{pmatrix}

Soluzioni[modifica | modifica sorgente]

Data un'equazione:

F\left(x, y, y', \cdots, y^{(n)} \right) = 0

una funzione u : I \subset \R \to \R è detta soluzione (o integrale) dell'equazione differenziale ordinaria se u è differenziabile n volte su I e si ha:

F(x,u,u',\ \cdots,\ u^{(n)})=0 \quad x \in I

Date due soluzioni u : J \subset \R \to \R e v : I \subset \R \to \R, u è detta estensione di v se I \subset J e:

u(x) = v(x) \quad x \in I

Una soluzione che non possiede estensioni è detta soluzione massimale, mentre una soluzione definita su tutto \R è detta soluzione globale.

Una soluzione generale di un'equazione di ordine n è una soluzione contenente n costanti di integrazione indipendenti, mentre una soluzione particolare è ottenuta dalla soluzione generale conferendo un valore fissato alle costanti, solitamente in modo da soddisfare le condizioni iniziali o condizioni al contorno. In tale contesto, una soluzione singolare è una soluzione che non può essere ottenuta assegnando un valore definito alle costanti di integrazione.

Esistenza della soluzione e problema di Cauchy[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Problema di Cauchy.

Un problema ai valori iniziali è un'equazione differenziale ordinaria:[1]

y'(t) = f(t, y(t)) \qquad f: \Omega \subset \mathbb{R} \times \mathbb{R}^n

cui è associato un punto nel dominio di f:

(t_0, y_0) \in \Omega

chiamato condizione iniziale. La soluzione di un problema ai valori iniziali è quindi una funzione y che è soluzione dell'equazione differenziale e soddisfa la condizione y(t_0) = y_0. In altri termini, il problema di Cauchy consiste nel trovare una curva y, tra quelle definite da y'(t) = f(t, y(t)) , che passi per il punto y(t_0) = y_0.

L'esistenza locale di una soluzione fu provata da Augustin-Louis Cauchy sotto l'ipotesi di continuità e limitatezza di f in una regione del suo dominio (teorema di Peano o Cauchy-Peano).[2] Successivamente l'esistenza e l'unicità locali furono mostrate da Émile Picard con l'ipotesi di lipschitzianità rispetto a y (teorema di esistenza e unicità per un problema di Cauchy o Picard–Lindelöf), e tale risultato può essere esteso ad una forma globale. Se quindi f è lipschitziana in una regione D del dominio allora esiste almeno una curva-soluzione differenziabile con continuità passante per ogni punto interno a D. Semplificando la questione, se f e \partial f / \partial y sono continue in un rettangolo chiuso nel piano x-y della forma:

R=[x_0-a,x_0+a]\times [y_0-b,y_0+b]

dove a,b \in \R e \times è il prodotto cartesiano, allora vi è un intervallo:

I = [x_0-h,x_0+h] \subset [x_0-a,x_0+a]

dove per qualche h \in \R l'unica soluzione può essere trovata.[3] Questo risultato si applica anche ad equazioni non lineari della forma F(x,y) così come a sistemi di equazioni.

Il teorema di Cauchy-Kovalevskaya, che si applica anche per le equazioni alle derivate parziali, mostra in modo più generale che se l'incognita e le condizioni iniziali di un'equazione differenziale sono localmente funzioni analitiche allora una soluzione analitica esiste ed è unica.[4] La funzione incognita y può assumere valori su infiniti spazi dimensionali, come gli spazi di Banach o spazi di distribuzioni.

Esistenza e unicità locale[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Teorema di esistenza e unicità per un problema di Cauchy e Teorema di esistenza di Peano.

Vi sono diversi teoremi che consentono di stabilire l'esistenza e l'eventuale unicità locale di soluzioni per dati problemi iniziali. I due principali sono il teorema di esistenza e unicità per un problema di Cauchy, il quale assume la lipschitzianità della funzione che definisce l'equazione ordinaria e ne conclude l'esistenza e unicità locale, e il teorema di esistenza di Peano, che assume la continuità conclude soltanto l'esistenza. Il primo afferma che dato il problema ai valori iniziali:

y'(t)=f(t,y(t)) \qquad y(t_0)=y_0 \qquad t \in [t_0-\varepsilon, t_0+\varepsilon]

se f è una funzione lipschitziana in y e continua in t allora per qualche \epsilon>0 esiste un'unica soluzione y(t) al problema ai valori iniziali sull'intervallo [t_0-\epsilon, t_0+\epsilon]. Il teorema di esistenza di Peano assume F(x,y) soltanto continua, ma non garantisce l'unicità della soluzione, mostrandone solo la sua esistenza locale. Se essa esiste, o è unica o ne esistono infinite. Un'estensione di questo risultato si ha con il teorema di esistenza di Carathéodory, che si applica anche ai casi in cui l'equazione non è continua.

Unicità globale[modifica | modifica sorgente]

Se le ipotesi del teorema di esistenza e unicità per un problema di Cauchy sono soddisfatte allora la condizione di esistenza locale può essere estesa ad un risultato globale. Per ogni condizione iniziale (x_0,y_0) esiste un unico massimo intervallo aperto (che può avere estensione infinita):

I_{max} = (x_-,x_+) \qquad x_\pm \in \mathbb{R} \quad x_0 \in I_{max}

tale per cui ogni soluzione che soddisfa la condizione iniziale è una restrizione della soluzione soddisfacente tale condizione iniziale che è definita sul dominio I_{max}. Nel caso in cui x_\pm \nrightarrow \pm\infty, vi sono solo due possibilità:

\lim_{x \to x_\pm} \|y(x)\| \rightarrow \infty \qquad \lim_{x \to x_\pm} \in \partial \bar{\Omega}

dove \Omega è l'aperto in cui F è definita e \partial \bar{\Omega} è la sua frontiera.

Affichè la soluzione sia unica il massimo dominio in cui è definita la soluzione deve essere un intervallo, che in generale dipende dalla condizione iniziale. Ad esempio, si consideri:

y' = y^2

Dato che F(x,y) = y^2 è lipschitziana, soddisfa il teorema di Picard–Lindelöf. La soluzione:

y(x) = \frac{y_0}{(x_0-x)y_0+1}

ha come massimo intervallo per il suo dominio:

\begin{cases} \mathbb{R} & y_0 = 0 \\ 
(-\infty, x_0+\frac{1}{y_0}) & y_0 > 0 \\ 
(x_0+\frac{1}{y_0},+\infty) & y_0 < 0 \end{cases}

Equazioni del primo ordine[modifica | modifica sorgente]

Il caso più semplice è quello in cui:

y'(t) = f(t)

con f una funzione continua definita su un aperto di \R. Il problema si riconduce alla ricerca delle primitive y(t) di f(t). In tal caso se y(t) è una soluzione allora anche y(t)+c, con c \in \R, è ancora soluzione. Inoltre, se y_1(t) e y_2(t) sono soluzioni si ha che y_2 = y_1+c per qualche c \in \R.

Data una condizione iniziale y(t_0)=y_0, scrivendo l'equazione nella forma dy/dt = f(t), in modo che dy = f(t)dt, si ha:

\int_{y_0}^y d\xi = \int_{t_0}^t f(\tau)d\tau

e la soluzione è fornita dal teorema fondamentale del calcolo integrale:

y(t) = y_0 + \int_{t_0}^t f(\tau)d\tau

La soluzione è univocamente determinata dal dato iniziale y(t_0)=y_0: data una qualsiasi soluzione y_1(t), si ha y_1(t_0)+c=y_0 e pertanto c= y_0 - y_1(t_0).

Sistemi autonomi[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Sistema autonomo (matematica).

Un'equazione autonoma è un'equazione differenziale ordinaria del tipo:

y'(t) = f(y(t))

dove f è una funzione continua con derivata prima continua in tutto un intervallo I \subset \R, e che non dipende dalla variabile indipendente t. Se y è un vettore di \R^n si ha un sistema autonomo, ovvero un sistema di equazioni differenziali ordinarie autonome:

y'_i = f_i(y_1,y_2,\dots,y_n) \qquad i= 1,\dots,n

Di particolare importanza sono i punti x_0 tali per cui f(x_0)=0, detti punti di equilibrio, ai quali corrisponde la soluzione costante y = x_0.

Un generico sistema di equazioni differenziali ordinarie (in cui f dipende da t):

\frac{d}{dt}y(t)=f(y(t),t)

può essere reso autonomo introducendo una nuova incognita y_{n+1}=t.

Equazione differenziale esatta[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Equazione differenziale esatta.

Si considerino un insieme semplicemente connesso e aperto D \subset \R^2 e due funzioni I e J continue su D. L'equazione differenziale implicita:

I(x, y)\, \mathrm{d}x + J(x, y)\, \mathrm{d}y = 0

è un'equazione differenziale esatta se esiste una funzione differenziabile con continuità F, detta potenziale, tale che:

\frac{\partial F}{\partial x}(x, y) = I \qquad \frac{\partial F}{\partial y}(x, y) = J

Il termine "esatta" si riferisce alla derivata totale di una funzione, detta talvolta "derivata esatta", che per una funzione F(x_0, x_1,\dots,x_{n-1},x_n) è data in x_0 da:

\frac{\mathrm{d}F}{\mathrm{d}x_0}=\frac{\partial F}{\partial x_0}+\sum_{i=1}^{n}\frac{\partial F}{\partial x_i}\frac{\mathrm{d}x_i}{\mathrm{d}x_0}

Nelle applicazioni fisiche I e J non sono solitamente solo continue, ma anche differenziabili con continuità, ed il teorema di Schwarz fornisce allora una condizione necessaria e sufficiente per l'esistenza della funzione potenziale F (per equazioni definite su un insieme non semplicemente connesso tale criterio è solo necessario). Esso esiste se e solo se:

\frac{\partial I}{\partial y}(x, y) = \frac{\partial J}{\partial x}(x, y)

Soluzioni esatte[modifica | modifica sorgente]

Nel seguito si riportano alcuni importanti casi di equazioni differenziali ordinarie risolvibili esattamente.

Nella tabella le funzioni P(x), Q(x), P(y), Q(y), M(x,y) e N(x,y) sono funzioni integrabili in x, y, mentre b e c sono costanti reali date. Inoltre, C_1, C_2, \dots sono costanti arbitrarie, in generale complesse. La notazione \int^x F(\lambda)d\lambda indica l'integrazione di F(\lambda) rispetto a \lambda e la successiva sostituzione \lambda = x.

Equazione differenziale Metodo di soluzione Soluzione generale
Equazioni separabili
Primo ordine, separabile in x e y, caso generale.

 P_1(x)Q_1(y) + P_2(x)Q_2(y)\,\frac{dy}{dx} = 0 \,\!

 P_1(x)Q_1(y)\,dx + P_2(x)Q_2(y)\,dy = 0 \,\!

Separazione delle variabili (divisione per P2Q1).  \int^x \frac{P_1(\lambda)}{P_2(\lambda)}\,d\lambda + \int^y \frac{Q_2(\lambda)}{Q_1(\lambda)}\,d\lambda = C \,\!
Primo ordine, separabile in x.

\frac{dy}{dx} = F(x)\,\!

dy= F(x) \, dx\,\!

Integrazione diretta. y= \int^x F(\lambda) \, d\lambda + C \,\!
Primo ordine, autonoma, separabile in y.

\frac{dy}{dx} = F(y)\,\!

dy= F(y) \, dx\,\!

Separazione delle variabili (divisione per F). x=\int^y \frac{d\lambda}{F(\lambda)}+C\,\!
Primo ordine, separabile in x e y.

P(y)\frac{dy}{dx} + Q(x)= 0\,\!

P(y)\,dy + Q(x)\,dx =0\,\!

Integrazione su tutto il dominio. \int^y P(\lambda)\,{d\lambda} + \int^x Q(\lambda)\,d\lambda = C\,\!
Equazioni del primo ordine
Primo ordine, omogenea.

\frac{dy}{dx} = F \left( \frac{y}{x} \right ) \,\!

Si pone y = ux e si procede per separazione delle variabili in u e x.  \ln (Cx) = \int^{y/x} \frac{d\lambda}{F(\lambda) - \lambda} \, \!
Primo ordine, separabile.

 yM(xy) + xN(xy)\,\frac{dy}{dx} = 0 \,\!

 yM(xy)\,dx + xN(xy)\,dy = 0 \,\!

Separazione delle variabili (divisione per xy).

 \ln (Cx) = \int^{xy} \frac{N(\lambda)\,d\lambda}{\lambda [N(\lambda)-M(\lambda)] } \,\!

Se N = M la soluzione è xy = C.

Differenziale esatto, primo ordine.

 M(x,y) \frac{dy}{dx} + N(x,y) = 0 \,\!

 M(x,y)\,dy + N(x,y)\,dx = 0 \,\!

dove  \frac{\partial M}{\partial x} = \frac{\partial N}{\partial y} \, \!

Integrazione su tutto il dominio.  \begin{align}
F(x,y) & = \int^y M(x,\lambda)\,d\lambda + \int^x N(\lambda,y)\,d\lambda \\
 & + Y(y) + X(x) = C 
\end{align} \,\!
Differenziale inesatto, primo ordine.

 M(x,y) \frac{dy}{dx} + N(x,y) = 0 \,\!

 M(x,y)\,dy + N(x,y)\,dx = 0 \,\!

dove  \frac{\partial M}{\partial x} \neq \frac{\partial N}{\partial y} \, \!

Il fattore di integrazione μ(x, y) soddisfa:

 \frac{\partial (\mu M)}{\partial x} = \frac{\partial (\mu N)}{\partial y} \, \!

Se si può trovare μ(x, y):

 \begin{align}
F(x,y) & = \int^y \mu(x,\lambda)M(x,\lambda)\,d\lambda + \int^x \mu(\lambda,y)N(\lambda,y)\,d\lambda \\
& + Y(y) + X(x) = C \\
\end{align} \, \!

Equazioni del secondo ordine
Secondo ordine, autonoma.

\frac{d^2y}{dx^2} = F(y) \,\!

Si moltiplica l'equazione per 2dy/dx e si sostituisce 2 \frac{dy}{dx}\frac{d^2y}{dx^2} = \frac{d}{dx}\left(\frac{dy}{dx}\right)^2 \,\! quindi si integra due volte.  x = \pm \int^y \frac{ d \lambda}{\sqrt{2 \int^\lambda F(\varepsilon) \, d \varepsilon + C_1}} + C_2 \, \!
Equazioni lineari
Primo ordine, lineare, non omogenea.

\frac{dy}{dx} + P(x)y=Q(x)\,\!

Fattore di integrazione: e^{\int^x P(\lambda)\,d\lambda}. y = e^{- \int^x P(\lambda) \, d\lambda}\left[\int^x e^{\int^\lambda P(\varepsilon) \, d\varepsilon}Q(\lambda) \, {d\lambda} +C \right]
Secondo ordine, lineare, non omogenea, a coefficienti costanti.

\frac{d^2y}{dx^2} + b\frac{dy}{dx} + cy = r(x)\,\!

Funzione complementare yc: assumendo yc = eαx, si sostituisce e si risolve il polinomio in α, ottenendo le funzioni linearmente indipendenti e^{\alpha_j x}.

Integrale particolare yp: in generale si applica il metodo delle variazioni delle costanti, sebbene talvolta è sufficiente studiare r(x).

y=y_c+y_p

Se b2 > 4c, allora:

y_c=C_1e^{ \left ( -b+\sqrt{b^2 - 4c} \right )\frac{x}{2}} + C_2e^{-\left ( b+\sqrt{b^2 - 4c} \right )\frac{x}{2}}\,\!

Se b2 = 4c, allora:

y_c = (C_1x + C_2)e^{-bx/2}\,\!

Se b2 < 4c, allora:

 y_c = e^{ -b\frac{x}{2}} \left [ C_1 \sin{\left ( \sqrt{\left | b^2-4c \right |}\frac{x}{2} \right )} + C_2\cos{\left ( \sqrt{\left | b^2-4c \right |}\frac{x}{2} \right )} \right ]  \,\!

Ordine n, lineare, non omogenea, a coefficienti costanti.

 \sum_{j=0}^n b_j \frac{d^j y}{dx^j} = r(x)\,\!

Funzione complementare yc: assumendo yc = eαx, si sostituisce e si risolve il polinomio in α, ottenendo le funzioni linearmente indipendenti e^{\alpha_j x}.

Integrale particolare yp: in generale si applica il metodo delle variazioni delle costanti, sebbene talvolta sia sufficiente studiare r(x).

y=y_c+y_p

Dato che αj sono soluzioni del polinomio di grado n:

 \prod_{j=1}^n \left ( \alpha - \alpha_j \right ) = 0 \,\!

allora per αj tutti diversi:

 y_c = \sum_{j=1}^n C_j e^{\alpha_j x} \,\!

per ogni radice αj ripetutakj volte:

 y_c = \sum_{j=1}^n \left( \sum_{\ell=1}^{k_j} C_\ell x^{\ell-1}\right )e^{\alpha_j x} \,\!

per qualche αj complesso, si pone α = χj + iγj e si usa la formula di Eulero per ottenere che alcuni termini del precedente risultato si possono scrivere come:

 C_je^{\alpha_j x} = C_j e^{\chi_j x}\cos(\gamma_j x + \phi_j)\,\!

dove ϕj è una costante arbitraria.

Applicazioni[modifica | modifica sorgente]

In fisica, la modellizzazione di un sistema richiede spesso la risoluzione di un problema ai valori iniziali. In questo contesto, ad esempio, l'equazione differenziale può descrivere l'evoluzione di un sistema dinamico nel tempo in funzione delle condizioni iniziali: si consideri un punto materiale di massa m in caduta libera, sotto l'azione della forza di gravità. Attraverso le leggi descritte da Newton sulla dinamica dei corpi, si ha che:

\mathbf{F} = m \mathbf{a} = m \begin{bmatrix} x'' \\ y'' \\ z'' \end{bmatrix}

Riferendosi ad un sistema di coordinate cartesiane, con l'asse y parallelo e discorde al verso dell'accelerazione di gravità e proiettando la relazione vettoriale precedente sugli assi coordinati, si ha che l'unica equazione significativa è quella rispetto all'asse y:

my'' =- mg

Ciò fornisce y'' = -g . Per determinare la \varphi = \varphi (x), soluzione del problema, occorre conoscere posizione e velocità iniziale del corpo in un certo istante. Integrando:

\int_{t_0}^{t} y''(t)\,dt = -\int_{t_0}^{t} g\,dt

da cui:

 y'(t) = y'(t_0) -g (t-t_0)

e integrando nuovamente:

\int_{t_0}^{t} y'(t)\,dt = \int_{t_0}^{t} \left( y'(t_0) -g (t-t_0) \right) \,dt

da cui si ottiene:

y(t) = y(t_0)+ y'(t_0) (t-t_0) - g \frac{(t-t_0)^2}{2}

Come si vede, la soluzione dipende da due parametri y'(t_0) e y(t_0), rispettivamente velocità e posizione iniziale.

Esempio[modifica | modifica sorgente]

Si consideri il problema di Cauchy:

\begin{cases} y' = y^{\frac{1}{3}} \\ y(t_0) = 0 \end{cases}

Il teorema di esistenza locale garantisce l'esistenza di almeno una soluzione \varphi (t) . Una di queste è banale ed è anche globale, cioè definita su tutto l'insieme \R:

\varphi (t) = 0 \quad \forall t\in\R

Oltre a questa soluzione è tuttavia possibile trovarne un'altra integrando l'equazione, trattandosi di un'equazione differenziale a variabili separabili. Perciò:

\frac{dy}{dt} = y^{\frac{1}{3}}

da cui:

y^{-\frac{1}{3}}\,dy = dt

e quindi:

\int_0^y y^{-\frac{1}{3}}\,dy =\int_{t_0}^t\,dt \qquad y\ne 0

dalla quale si ottiene:

\varphi_\pm^0(t)= \pm \left(\frac{2}{3} (t-t_0)\right)^{\frac{3}{2}} \qquad t-t_0>0

Si possono così costruire delle funzioni che conservano la continuità a partire dalle due soluzioni trovate:

\psi^0_+ (t) = \begin{cases} \varphi^0_+(t) & t>t_0 \\ 0 & t\le t_o \end{cases} \qquad \psi^0_- (t) = \begin{cases} \varphi^0_-(t) & t>t_0 \\ 0 & t\le t_o \end{cases}

che sono anch'esse soluzioni del problema definite sull'insieme \R. Inoltre, fissato un t_1>t_0 e posto:

\varphi_\pm^1(t)= \pm \left(\frac{2}{3} (t-t_1)\right)^{\frac{3}{2}} \qquad t-t_1>0

si possono costruire nuove soluzioni dello stesso problema a partire a questa:

\psi^1_\pm (t) = \begin{cases} \varphi^1_\pm(t) & t>t_1 \\ 0 & t\le t_1 \end{cases}

definite anch'esse su \R. Tali soluzioni sono infinite, e se si rappresentano graficamente si ottiene una figura detta pennello di Peano. Il fatto che un problema di Cauchy può possedere infinite soluzioni è detto talvolta fenomeno di Peano, ed è dovuto al fatto che la derivata {df}/{dy} non è limitata nel punto y=0: per far fronte a questo problema vi è il teorema di esistenza globale.

Note[modifica | modifica sorgente]

  1. ^ Encyclopedia of Mathematics - Cauchy problem. URL consultato il 06-01-2013.
  2. ^ Encyclopedia of Mathematics - Peano theorem. URL consultato il 06-01-2013.
  3. ^ Elementary Differential Equations and Boundary Value Problems (4th Edition), W.E. Boyce, R.C. Diprima, Wiley International, John Wiley & Sons, 1986, ISBN 0-471-83824-1
  4. ^ Encyclopedia of Mathematics - Kovalevskaya theorem. URL consultato il 06-01-2013.

Bibliografia[modifica | modifica sorgente]

  • (EN) Vladimir Igorevich Arnold (1988): Geometrical Methods in the Theory of Ordinary Differential Equations, 2nd ed., Springer, ISBN 0-387-96649-8
  • (EN) Vladimir Igorevich Arnold (1992): Ordinary Differential Equations, Springer, ISBN 3-540-54813-0
  • (EN) Martin Braun (1993): Differential Equations and their Applications. An Introduction to Applied Mathematics, 4th ed., Springer, ISBN 0-387-97894-1
  • (EN) Coddington, Earl A.; Levinson, Norman (1955) Theory of ordinary differential equations, New York, Toronto, London: McGraw-Hill Book Company, Inc. XII, 429 p. (1955).
  • (EN) D. Zwillinger (1997): Handbook of Differential Equations 3rd ed., Academic Press
  • (EN) P. L. Sachdev (1997): A Compendium on Nonlinear Ordinary Differential Equations, John Wiley, ISBN 0-471-53134-0
  • (EN) Po-Fang Hsieh, Yasutaka Sibuya (1999): Basic Theory of Ordinary Differential Equations, Springer, ISBN 0-387-98699-5
  • (EN) Philip Hartman (2002): Ordinary Differential Equations, 2nd ed., SIAM, ISBN 0-89871-510-5
  • (EN) A. D. Polyanin, V. F. Zaitsev (2003): Handbook of Exact Solutions for Ordinary Differential Equations, 2nd ed., Chapman & Hall / CRC Press, ISBN 1-58488-297-2
  • (EN) Refaat El Attar (2005): Ordinary Differential Equations, Lulu Press, ISBN 1-4116-3920-0

Voci correlate[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica