Equazione differenziale

Da Wikipedia, l'enciclopedia libera.

In analisi matematica un'equazione differenziale è un'equazione che lega una funzione incognita alle sue derivate. Se l'equazione contiene derivate parziali della funzione è detta equazione alle derivate parziali, se invece la funzione è di una sola variabile l'equazione presenta soltanto derivate ordinarie e viene detta equazione differenziale ordinaria.

Le equazioni differenziali sono tra le equazioni più studiate in matematica, avendo un ruolo fondamentale nella controparte matematica di moltissimi ambiti della scienza e dell'ingegneria. Possono descrivere, per esempio, una situazione generale in cui una certa quantità f varia rispetto al tempo in maniera che dipende dal valore della quantità stessa in quel momento: ciò corrisponde al fatto che nell'equazione compare sia la funzione incognita f che la sua derivata rispetto al tempo df/dt. Nel caso più semplice compare solo la derivata:

\frac{df}{dt}=g(t)

e l'equazione viene risolta utilizzando il teorema fondamentale del calcolo integrale. Le sue soluzioni hanno cioè la forma:

f(t)=f_0 + G(t)

dove f_0 è costante e G è la primitiva di g:

G(t)= \int g(x)dx

Si tratta tuttavia di relazioni di cui è raramente possibile avere una forma analitica della soluzione, o una sua espressione in termini di funzioni elementari, ma vengono piuttosto studiate l'esistenza e l'unicità delle soluzioni e il loro comportamento in contesti di particolare interesse, solitamente in relazione alla situazione di un sistema fisico descritto dall'equazione differenziale. L'insieme di tutte le soluzioni di un'equazione differenziale è detto integrale generale dell'equazione differenziale data.

Lo studio delle equazioni differenziali, come avviene spesso in matematica, è stato fortemente influenzato dall'esigenza di analizzare problemi concreti; coinvolge poi diversi ambiti, come l'algebra lineare, l'analisi numerica e l'analisi funzionale. La loro analisi può inoltre raggiungere facilmente livelli di complessità che richiedono l'utilizzo di simulazioni al calcolatore. Ciò avviene ad esempio nello studio dei sistemi dinamici, ed in particolare dei loro comportamenti caotici.

Storia[modifica | modifica wikitesto]

Lo studio delle equazioni differenziali ha inizio in seguito all'introduzione del calcolo infinitesimale da parte di Newton e Leibniz nel diciassettesimo secolo. Nel secondo capitolo del suo testo del 1671 Methodus fluxionum et Serierum Infinitarum,[1] Isaac Newton focalizza il discorso su tre tipologie di equazioni differenziali di primo grado, di cui due ordinarie:

\frac {dy}{dx} = f(x) \qquad \frac {dy}{dx} = f(x,y)

e una con derivate parziali:

x_1 \frac {\partial y}{\partial x_1} + x_2 \frac {\partial y}{\partial x_2} = y

Ne risolve inoltre un esempio per ognuna delle tipologie, esprimendo il termine non derivato come serie di potenze e ponendo che abbiano come soluzione delle serie infinite, di cui nota che i coefficienti possono essere scelti in maniera arbitraria producendo così un'infinità di soluzioni particolari.[2]

Un importante contributo alle equazioni ordinarie fu dato dai fratelli Jacob e Johann Bernoulli. Nel 1695 Jacob Bernoulli si occupa dell'equazione oggi nota come equazione differenziale di Bernoulli:[3]

\frac {dy}{dx} + P(x)y = Q(x)y^n

per la quale Leibniz, l'anno successivo, ottiene delle soluzioni semplificandola ad un'equazione lineare.[4] L'anno successivo il fratello Johann si occupa invece del problema della curva brachistocrona.

Un altro importante problema meccanico, quello della corda vibrante, viene inoltre incluso negli studi di Jean le Rond d'Alembert, Leonhard Euler, Daniel Bernoulli, e Joseph-Louis Lagrange.[5][6][7][8] Nel 1746, d’Alembert affronta l'equazione delle onde monodimensionale:

 { \partial^2 u \over{ \partial x^2 }}  - \frac {1}{v^2} { \partial^2 u \over{ \partial t^2 }} = 0

e successivamente Eulero introduce il caso tridimensionale.[9]

A partire dal 1750 fu poi sviluppata l'equazione di Eulero-Lagrange da parte di Eulero e Lagrange, che è alla base della meccanica lagrangiana.

Un altro importante testo è Théorie analytique de la chaleur[10] del 1822, in cui Fourier espone l'equazione del calore.

Definizione[modifica | modifica wikitesto]

Le varie soluzioni per differenti condizioni iniziali delle equazioni (ordinarie) che descrivono sistemi dinamici si possono rappresentare geometricamente nello spazio delle fasi; tale raffigurazione è detta ritratto di fase (phase portrait). In figura il ritratto di fase dell'oscillatore di van der Pol.
Alcune soluzioni nello spazio delle fasi delle equazioni di Lotka-Volterra.

Data una funzione u:I\to \R definita in un intervallo I dell'insieme dei numeri reali, l'equazione differenziale ad essa associata è un'equazione differenziale ordinaria (abbreviato con ODE, acronimo di Ordinary Differential Equation) e si chiama ordine o grado dell'equazione il grado della più alta derivata presente. La scrittura generale di un'equazione differenziale ordinaria di ordine n per una funzione u(x) può avere la forma:

f(x, u(x), u'(x),\dots , u^{(n)}(x)) = 0

dove u, u',\dots , u^{(n)} sono le derivate di u fino all'ordine n. Se f è lineare, l'equazione è lineare. Per esempio, l'equazione differenziale di primo grado:

\frac{du}{d x} = u

viene soddisfatta dalla funzione esponenziale u(x) = e^x, che è uguale alla propria derivata.

Nel caso in cui la funzione incognita u dipende da più variabili, le derivate sono derivate parziali e si ha un'equazione differenziale alle derivate parziali (abbreviato con PDE, da Partial Differential Equation). Una PDE di ordine k per la funzione u(x_1, \cdots, x_n) : U \subset \R^n  \rightarrow \R ha la forma:

f \left (x_1, \ldots, x_n, u, \frac{\partial u}{\partial x_1}, \ldots, \frac{\partial u}{\partial x_n}, \frac{\partial^2 u}{\partial x_1 \partial x_1}, \ldots, \frac{\partial^2 u}{\partial x_1 \partial x_n}, \ldots \right) = 0

dove k è un numero intero e la funzione f è data. Esempi particolarmente importanti di equazioni (lineari) alle derivate parziali sono l'equazione delle onde, l'equazione del calore, l'equazione di Poisson, l'equazione del trasporto, l'equazione di continuità, o l'equazione di Helmholtz.

Per esempio, l'equazione:

\frac{\partial u(x,y)}{\partial x} = 0

afferma che u(x,y) è indipendente da x, e non avendo nessuna informazione sulla dipendenza da y ha soluzione generale:

u(x,y) = f(y)

dove f è una funzione arbitraria di y. L'equazione ordinaria:

\frac{du(x)}{d x} = 0

ha invece soluzione u(x) = c con c costante.

Soluzioni[modifica | modifica wikitesto]

Solitamente non è possibile trovare soluzioni esatte per le equazioni differenziali. Invece che trovare un'espressione analitica di una funzione che soddisfi l'equazione si è spesso limitati a strudiarne l'esistenza e l'andamento qualitativo, oppure se ne determinano soluzioni approssimate servendosi di computer in grado di effettuare approssimazioni tramite metodi di calcolo numerici. Nel corso dei secoli sono tuttavia stati trovati diversi casi in cui è possibile ricavare l'espressione analitica di funzioni che sono soluzione di un'equazione differenziale, così come sono stati sviluppati molti strumenti di vario tipo per la ricerca di tali soluzioni: per affrontare le equazioni ordinarie si può ricorrere ad esempio all'utilizzo di un fattore di integrazione, del metodo delle differenze finite, del metodo delle variazioni delle costanti e diversi altri metodi di soluzione analitica e numerica.

Per quanto riguarda le equazioni alle derivate parziali, non vi è una teoria generale per analizzarle ma vi sono casi in cui è possibile trovare una soluzione unica che dipende in modo continuo dai dati forniti dal problema. Tali soluzioni sono dette "classiche", e si distinguono da soluzioni deboli o generalizzate. Tra i molti metodi utilizzati per studiare le PDE vi è il metodo delle caratteristiche, l'utilizzo della funzione di Green, diverse trasformate integrali o il metodo di separazione delle variabili.

Accade inoltre spesso che si identificano classi di funzioni caratterizzate dal fatto che soddisfano alcune importanti equazioni differenziali, e per tale motivo godono di proprietà particolari che le rendono di notevole interesse. Ad esempio le onde, che soddisfanno l'equazione delle onde, le funzioni armoniche, che soddisfano l'equazione di Laplace, e le funzioni speciali, tra cui le funzioni ipergeometriche che soddisfano l'equazione ipergeometrica, oppure le funzioni di Struve, le funzioni di Anger e le funzioni di Weber che soddisfano le equazioni di Bessel.

Problema di Cauchy[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Problema di Cauchy.

Le equazioni differenziali vengono analizzate conferendo un preciso valore ad alcune delle variabili in gioco, in particolare la funzione incognita e le sue derivate (fino all'ordine \kappa-1 per un'equazione in forma normale di ordine \kappa) in certi punti del dominio di definizione dell'equazione. Il problema differenziale che ne risulta è detto "problema di Cauchy"; consiste solitamente nel porre delle condizioni iniziali o delle condizioni al contorno per gli estremi del dominio in cui è definita l'equazione.

Nel caso l'equazione sia definita su una superficie, fornire le condizioni al contorno consiste nel dare il valore della funzione sulla frontiera e della sua derivata rispetto alla direzione normale alla frontiera. Tale assegnazione viene detta condizioni al contorno di Cauchy, e corrisponde ad imporre sia le condizioni al contorno di Neumann (i valori che la soluzione assume sul bordo della superficie) che le condizioni al contorno di Dirichlet (i valori della derivata della soluzione).

Per le equazioni ordinarie il teorema di esistenza e unicità per un problema di Cauchy stabilisce che per un problema:

\begin{cases}f(x,y,y',y'', \dots , y^{(n)})=0 \\
y(a)=y_0 \\
y'(a)=y_1 \\
\dots \\
y^{(n-1)}(a)=y_{n-1} 
\end{cases}

esiste una sola funzione y(x) che soddisfa tutte le relazioni se  f è sufficientemente regolare, ad esempio se è differenziabile in un intorno di (y_0,\ldots,y_{n-1}).

Per un'equazione alle derivate parziali di ordine \kappa definita su \R^n le condizioni iniziali sono date dal valore dell'incognita e delle sue derivate fino all'ordine \kappa-1 su una varietà liscia S \subset \R^n di dimensione n-1, detta talvolta "superficie di Cauchy". Il problema di Cauchy consiste, nello specifico, nel trovare la funzione u soluzione della PDE che soddisfa:

u(x) = f_0(x) \qquad \forall x\in S
\frac{\part^k u(x)}{\part \nu^k} = f_k(x) \qquad k=1,\ldots,\kappa-1 \quad \forall x\in S

dove f_k sono funzioni date definite sulla superficie S e la derivata \part^k u(x) / \part \nu^k è calcolata rispetto alla direzione \nu del versore normale a S.[11]

Il teorema di Cauchy-Kovalevskaya, che si applica sia per le equazioni alle derivate parziali che per quelle ordinarie, stabilisce che se l'incognita e le condizioni iniziali di un'equazione differenziale sono localmente funzioni analitiche allora una soluzione analitica esiste ed è unica.[12]

Equazioni lineari[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Equazione differenziale lineare.

Data una generica equazione ordinaria:

f(x, u(x), u'(x),\dots , u^{(n)}(x)) = 0

è lineare se:

\frac{\partial f}{\partial u^{(i)} \partial u^{(j)}} = 0 \qquad \forall i,j

Un'equazione ordinaria lineare si può scrivere come:

a_0(x)u^{(n)} + a_1(x)u^{(n-1)} + \dots + a_{n-1}(x)u' + a_n(x)u  =  g(x)

Se a_i sono fattori costanti l'equazione si risolve trovando una soluzione all'equazione omogenea associata:

a_0(x)u^{(n)} + a_1(x)u^{(n-1)} + \dots + a_{n-1}(x)u' + a_n(x)u  =  0

alla quale si somma una soluzione particolare dell'equazione completa, ottenibile ad esempio con il metodo delle variazioni delle costanti. Per ogni equazione ordinaria lineare omogenea (anche a coefficienti non costanti) vale inoltre il principio di sovrapposizione: se u_1(t) e u_2(t) sono soluzioni, allora lo è anche ogni loro combinazione lineare \alpha_1 u_1(t) + \alpha_2 u_2(t), con \alpha_1 e \alpha_2 costanti.[13]

Un'equazione differenziale alle derivate parziali può essere invece lineare, semilineare, quasilineare o totalmente non lineare. L'equazione si dice lineare se ha la forma:

\sum_{|\alpha | \leq k} a_\alpha (x) D^{\alpha} u = h(x) \

per opportune funzioni a_\alpha (x) ed h, dove D^{\alpha} è la derivazione di ordine \alpha rispetto ad una o più variabili. Se h=0 l'equazione si dice omogenea.

Si dice semilineare se ha la forma:

\sum_{|\alpha | = k} a_\alpha (x) D^{\alpha} u + a_0(D^{k-1} u, \cdots , D u, u,x) = 0

quasilineare se ha la forma:

\sum_{|\alpha | = k} a_\alpha (D^{k-1} u, \cdots , D u, u,x)D^\alpha u + a_0(D^{k-1} u, \cdots , D u, u,x) = 0

e totalmente non lineare se dipende non-linearmente dal più alto grado di derivazione.

Le equazioni che non sono lineari sono spesso molto difficili da affrontare, ed in molti casi si cercano metodi per linearizzarle.

PDE del secondo ordine[modifica | modifica wikitesto]

Una classe di equazioni alle derivate parziali di cui si trovano frequentemente soluzioni analitiche, e che sono ampiamente utilizzate in fisica ed ingegneria, sono le equazioni lineari del secondo ordine, ovvero del tipo:

a_{11}(x, y) \frac{\partial^2 u} {\partial x^2} + 2a_{12}(x, y)\frac{\partial^2 u} {\partial x \partial y} + a_{22}(x, y)\frac{\partial^2 u} {\partial y^2}  + g(x, y, u, \nabla u) = 0

Supponendo che a_{11}, a_{12} e a_{22} non siano tutti nulli, i termini con le derivate seconde definiscono una forma quadratica nel punto (x_0, y_0):[14]

\sigma(x_0, y_0;p_1, p_2) = a_{11}(x_0, y_0) p_1^2 + 2a_{12}(x_0, y_0) p_1 p_2 + a_{12}(x_0, y_0) p_2^2

alla quale si associa la matrice simmetrica:

A(x_0, y_0) = \begin{pmatrix}
a_{11}(x_0, y_0) & a_{12}(x_0, y_0) \\
a_{12}(x_0, y_0) & a_{22}(x_0, y_0) 
\end{pmatrix}

L'equazione nel punto (x_0, y_0) si dice:

  • Iperbolica se a_{12}^2 - a_{11}a_{22} > 0. In tal caso A(x_0, y_0) non ha autovalori nulli.
  • Ellittica se a_{12}^2 - a_{11}a_{22} < 0. In tal caso tutti gli autovalori di A(x_0, y_0) sono tutti positivi o tutti negativi.
  • Parabolica se a_{12}^2 - a_{11}a_{22} = 0. In tal caso A(x_0, y_0) ha almeno un autovalore nullo.

Le equazioni a coefficienti costanti sono iperboliche, ellittiche o paraboliche in tutti i punti del loro dominio, ed in tal caso si parla rispettivamente di "equazione iperbolica", "equazione ellittica" o "equazione parabolica". Ad esempio l'equazione di Poisson (e la sua versione omogenea, l'equazione di Laplace) è ellittica, l'equazione del calore è parabolica, e l'equazione delle onde è iperbolica.

Le equazioni a coefficienti non costanti possono tuttavia presentare un carattere "misto", cioè possono essere iperboliche in alcune regioni del dominio ed ellittiche o paraboliche in altre. Ad esempio l'equazione di Eulero-Tricomi:

\frac{\partial^2 u} {\partial x^2} = x \frac{\partial^2 u} {\partial y^2}

è ellittica nella regione x < 0, iperbolica nella regione x > 0 e parabolica degenere sulla retta x = 0.

Equazioni differenziali algebriche[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Equazione differenziale algebrica.

Formulazione debole di un problema differenziale[modifica | modifica wikitesto]

Exquisite-kfind.png Lo stesso argomento in dettaglio: Formulazione debole.

Esempio[modifica | modifica wikitesto]

Un esempio elementare di come le equazioni differenziali possano emergere naturalmente nello studio dei sistemi è il seguente: si supponga di avere una popolazione di batteri composta inizialmente da P(t=0)=P_0 individui e sia P(t) la popolazione al tempo t. È ragionevole aspettarsi che, in media, in ogni istante t dopo un tempo relativamente piccolo dt nasca una quantità di nuovi individui proporzionale alla popolazione e al tempo trascorso dt, cioè pari a n P(t) dt, dove n è un numero (che si suppone costante) che individua il tasso di natalità. Analogamente è ragionevole aspettarsi che muoiono m  P(t) dt individui nello stesso intervallo di tempo, essendo m il tasso (costante) di mortalità. La popolazione al tempo t+dt, quindi, sarà data dalla popolazione al tempo t a cui si aggiunge la popolazione appena nata e si sottrae quella morta, ovvero:

P(t+dt)=P(t)+nP(t)dt-mP(t)dt=P(t)+(n-m)P(t)dt

Quindi si ha che:

\frac {P(t+dt)-P(t)} {dt}=(n-m)P(t)

Si può riconoscere nell'espressione a primo membro il rapporto incrementale della funzione P(t); se dt è molto piccolo, tale rapporto verrà sostituito con la derivata  P'(t) e si scriverà:

P'(t)=(n-m)P(t)

Questa è un'equazione differenziale ordinaria del primo ordine. Risolvere questa equazione significa determinare l'andamento nel tempo della popolazione, cioè la funzione P(t). Si sta cercando quindi una funzione che sia dimensionalmente sommabile alla sua derivata prima, ovvero la funzione esponenziale (la cui derivate sono la funzione stessa per una costante):

P(t)=ae^{kt}

dove a e k sono costanti. Imponendo di rispettare il vincolo P'(t)-(n-m)P(t)=0 si ha:

P(t)=P_0 e^{(n-m)t}

Si tratta di una funzione esponenziale che cresce nel tempo se n>m, cioè se la natalità è maggiore della mortalità, e decresce fino ad annullarsi velocemente se m>n. Il modello che si è esaminato è particolarmente semplificato; in generale il tasso di crescita non è semplicemente proporzionale alla popolazione presente con una costante fissa di proporzionalità: è ragionevole aspettarsi ad esempio che le risorse a disposizione siano limitate ed insufficienti a soddisfare una popolazione arbitrariamente grande. Si possono considerare, inoltre, situazioni più complicate come quella in cui ci siano più popolazioni che interagiscono tra loro, come ad esempio prede e predatori nel modello di Volterra-Lotka.

Note[modifica | modifica wikitesto]

  1. ^ Newton, Isaac. (c.1671). Methodus Fluxionum et Serierum Infinitarum (The Method of Fluxions and Infinite Series), published in 1736 [Opuscula, 1744, Vol. I. p. 66].
  2. ^ John E. Sasser - History of Ordinary Differential Equations: The First Hundred Years.
  3. ^ Jacob Bernoulli, Explicationes, Annotationes & Additiones ad ea, quae in Actis sup. de Curva Elastica, Isochrona Paracentrica, & Velaria, hinc inde memorata, & paratim controversa legundur; ubi de Linea mediarum directionum, alliisque novis in Acta Eruditorum, 1695.
  4. ^ Ernst Hairer, Syvert Paul Nørsett e Gerhard Wanner, Solving ordinary differential equations I: Nonstiff problems, Berlin, New York, Springer-Verlag, 1993, ISBN 978-3-540-56670-0.
  5. ^ John T. Cannon e Sigalia Dostrovsky, The evolution of dynamics, vibration theory from 1687 to 1742, Studies in the History of Mathematics and Physical Sciences, vol. 6, New York, Springer-Verlag, 1981, pp. ix + 184 pp., ISBN 0-387-90626-6. JW GRAY, BOOK REVIEWS in BULLETIN (New Series) OF THE AMERICAN MATHEMATICAL SOCIETY, vol. 9, nº 1, July 1983. (retrieved 13 Nov 2012).
  6. ^ Gerard F. Wheeler e William P. Crummett, The Vibrating String Controversy in Am. J. Phys., vol. 55, nº 1, 1987, pp. 33–37, DOI:10.1119/1.15311.
  7. ^ For a special collection of the 9 groundbreaking papers by the three authors, see First Appearance of the wave equation: D'Alembert, Leonhard Euler, Daniel Bernoulli. - the controversy about vibrating strings (retrieved 13 Nov 2012). Herman HJ Lynge and Son.
  8. ^ For de Lagrange's contributions to the acoustic wave equation, can consult Acoustics: An Introduction to Its Physical Principles and Applications Allan D. Pierce, Acoustical Soc of America, 1989; page 18.(retrieved 9 Dec 2012)
  9. ^ Speiser, David. Discovering the Principles of Mechanics 1600-1800, p. 191 (Basel: Birkhäuser, 2008).
  10. ^ (FR) Joseph Fourier, Théorie analytique de la chaleur, Paris, Firmin Didot Père et Fils, 1822, OCLC 2688081.
  11. ^ Encyclopedia of Mathematics - Cauchy problem. URL consultato il 06-07-2015.
  12. ^ Encyclopedia of Mathematics - Kovalevskaya theorem. URL consultato il 06-01-2013.
  13. ^ Paul's Online Math Notes - Second Order DE's / Basic Concepts
  14. ^ Vladimir Tkatjev - Lecture 5. Classification of the second-order equations in two variables

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]

Altri progetti[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

Controllo di autorità GND: (DE4012249-9
matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica