Differenziale (matematica)

Da Wikipedia, l'enciclopedia libera.
Se riscontri problemi nella visualizzazione dei caratteri, clicca qui.

In matematica, in particolare nel calcolo infinitesimale, il differenziale di una funzione quantifica la variazione della funzione rispetto ad una variabile indipendente. Per una funzione y=f(x) di una sola variabile x, per esempio, il differenziale dy di f è definito dalla 1-forma:

d y(x,d x) = f'(x) d x

dove f' denota la derivata di f rispetto a x, ovvero il limite del rapporto incrementale \Delta f / \Delta x per \Delta x infinitamente piccolo, e dx è una variabile reale aggiuntiva. Si tratta del prodotto dell'incremento della variabile indipendente per la derivata della funzione stessa.

Se si considera una funzione f:U \to \R derivabile, con U aperto in \R, essa può essere approssimata in un intorno di un qualsiasi punto x_0 del dominio mediante la funzione:

l(x)=f'(x_0)(x-x_0) + f(x_0)

il cui grafico è la retta tangente al grafico di f in (x_0 , f(x_0)). La funzione l è un'applicazione affine da \R in sé, cioè un'applicazione lineare sulla distanza da x_0 composta con una traslazione (l'aggiunta del termine + f(x_0). Il differenziale è allora la parte lineare di l.

Le derivate direzionali di una funzione indicano di quanto varia la funzione al primo ordine lungo un determinato vettore, mentre il differenziale è l'applicazione lineare che associa a quel vettore la variazione al primo ordine. Si tratta pertanto di un oggetto utile per avere informazioni locali sulla funzione di partenza, ad esempio mostra se è localmente invertibile.

Definizione[modifica | modifica sorgente]

Nella trattazione moderna del calcolo differenziale, il differenziale di una funzione f(x) di una sola variabile x è la funzione df di due variabili indipendenti x e h data da:

df(x, h) \stackrel{\rm{def}}{=} f'(x)h

dove f' è la derivata di f.

Tale nozione trova la sua principale applicazione nell'approssimazione lineare di una funzione. Siano E e F due spazi di Banach (ad esempio E può coincidere con \R^m e F con \R^n) ed  U \subset E aperto. Una funzione f:U \to F si dice differenziabile in x \in U se la sua variazione quando si allontana da x è approssimabile tramite una applicazione lineare continua (se E ha dimensione finita la continuità è assicurata). In modo esplicito, esistono \phi : E \to F lineare ed \sigma : U \to F tali che:[1]

f(x + h) = f(x) + \phi(h) + \|h\|\sigma(h) \qquad \lim_{h \to 0} \sigma (h) = 0

usando la notazione con o-piccolo si ha, in modo equivalente:

f(x + h) = f(x) + \phi(h) + o(\|h\|)

Se f è differenziabile in x, l'applicazione lineare \phi si chiama differenziale di f in x ed è talvolta denotata con df(x), f'(x), Df(x) o \partial f(x).

Il differenziale è la parte lineare dell'applicazione affine che ha il grafico tangente a quello della funzione

La presenza dell'o-piccolo indica che i grafici di f e f(x) + df(x) sono tangenti in x. Intuitivamente si può pensare che f sia una funzione da \R^2 in R, e quindi che il grafico di f sia una superficie e quello di f(x) + df(x) un piano. In tal caso, se i due grafici incontrandosi in x formassero un angolo \theta allora la differenza:

\ \varepsilon(h) = f(x+h) - ( f(x) + df (x) (h) )

dovrebbe essere lineare avvicinandosi ad x in una certa direzione e il rapporto \varepsilon / {\| h \|} tenderebbe alla tangente dell'angolo \theta formato tra il piano e la superficie nella direzione considerata. Segue che se f è differenziabile in x il differenziale df(x) è la parte lineare della applicazione affine il cui grafico è tangente a quello di f in x.

In modo equivalente, se f è differenziabile in x si può scrivere:

f(x+h) -f(x) - \phi(h) = o(\|h\|)

e per definizione di o-piccolo:

\frac{f ( x + h ) - f ( x ) - \phi ( h )}{\|h\|} \to 0 \qquad h \to 0

Considerando tale espressione come definizione, f è differenziabile in x se esiste \phi tale per cui il limite sia nullo (l'altra implicazione per dimostrarne l'equivalenza si ottiene prendendo \sigma ( h ) = \|h\|^{-1} ( f (x + h ) - f ( x ) - \phi ( h ) )).

Scelte delle basi per E e F, se questi sono di dimensione finita allora si può rappresentare \phi con una matrice detta matrice jacobiana. Si possono distinguere, in particolare, tre casi:

  • Sia f:D \subset \R \to \R. Il concetto di differenziale coincide con quello di derivata, essendo il differenziale di f in x un'applicazione lineare df:\R \to \R e quindi una funzione del tipo df(x)(h)=ah per qualche numero reale a (tutte le applicazioni lineari \R \to \R sono di tale forma fissata la base canonica). Il numero a è la derivata di f in x, infatti per definizione:
f(x+h) -f(x) = ah + \sigma(h)\|h\|
Dividendo per h e considerando il limite h \to 0 si ottiene f'(x)=a in quanto \lim_{h \to 0} \sigma (h) = 0.
  • Sia f:D \subset \R^n \to \R. La jacobiana è in tal caso una matrice 1 \times n perché rappresenta un'applicazione lineare \R^n \to \R (prese sempre le basi canoniche per dominio e codominio), ed è pertanto un vettore riga detto gradiente. Tale vettore può essere considerato un vettore colonna (prendendone la trasposta), ed in questo caso si calcola l'immagine di h tramite il gradiente di f facendone il prodotto scalare, e non la moltiplicazione tra matrici.
Solitamente si usano funzioni f:D \subset \R^n \to \R per definire implicitamente delle ipersuperfici su D. Ad esempio, per n=2 si può definire una curva \gamma come l'insieme degli x \in D per cui f(x)=0, mentre per n=3 si avrebbe una superficie. È inoltre possibile dimostrare che se il gradiente di una funzione non è nullo il nucleo della funzione, opportunamente traslato, è il sottospazio affine tangente all'ipersuperficie in x (quando si prende come gradiente il vettore colonna il nucleo è il sottospazio ortogonale al gradiente).
  • Sia f: [a,b] \subset \R \to \R^n. L'immagine di f è una curva in \R^n. La jacobiana n \times 1 ha le stesse componenti del vettore che si ottine come limite del rapporto incrementale. Quando f rappresenta la posizione di un punto materiale nello spazio, per esempio, df è la velocità. L'insieme di tutti i suoi multipli (o considerando df come un'applicazione lineare, la sua immagine) è una retta che opportunamente traslata è tangente alla curva.

La notazione di Leibniz nel caso di funzioni da \R in \R[modifica | modifica sorgente]

Giustificazione della notazione di Leibniz in termini del differenziale della funzione

La funzione identità associa x a sé stesso ed è lineare e differenziabile. Come ogni funzione lineare, il suo differenziale è uguale alla funzione stessa e indipendente dal punto x in cui lo si calcola. Se lo indichiamo con dx(x) si ha, indipendentemente da x:

dx(x)(h) = h \

Dal momento che la derivata è la jacobiana del differenziale per funzioni da \R in \R si ottiene:

df(x)(h) = f'(x)h = f'(x)dx(h)

da cui:

f'(x)=\frac{df(x)(h)}{dx(h)}

Quindi, il rapporto delle due funzioni lineari (i due differenziali) è costante ed è uguale alla derivata nel punto. In questo modo è possibile dare un senso rigoroso alla notazione di Leibniz, che esprime la derivata di una funzione come il quoziente tra il differenziale della funzione e quello della variabile indipendente. Tuttavia, la trattazione svolta in questa forma non è in grado di giustificare le operazioni aritmetiche sui differenziali che, nella notazione di Leibniz, nonostante la mancanza di una base rigorosa forniscono un metodo mnemonico semplice per la scrittura di proprietà delle derivate. Per un recupero rigoroso dei metodi leibniziani è invece necessario rifarsi a metodi che appartengono all'analisi non standard, formulata da Abraham Robinson negli anni sessanta.

Differenziale in più variabili[modifica | modifica sorgente]

Data una funzione  y = f(x_1,\dots,x_n), il differenziale parziale di y rispetto ad ognuna delle variabili x_1,\dots,x_n è  (\partial y / \partial x_i) dx_i , dove \partial y / \partial x_i è la derivata parziale rispetto all'i-esima coordinata. Il differenziale totale della funzione è dato dalla somma dei differenziali parziali relativi a tutte le variabili indipendenti:

 dy = \frac{\partial y}{\partial x_1} dx_1 + \cdots + \frac{\partial y}{\partial x_n} dx_n

In maniera più compatta si può indicare come

 dy=\nabla y \cdot d\mathbf{x}

Dove con \nabla y si indica il gradiente di y, con d\mathbf{x} la variazione infinitesima che è un vettore con componenti infinitesime e con \cdot il prodotto scalare. In un contesto più formale, se f è una funzione differenziabile l'incremento è dato da:

\Delta y \equiv f(x_1+\Delta x_1, \dots, x_n+\Delta x_n) - f(x_1,\dots,x_n)
= \frac{\partial y}{\partial x_1} \Delta x_1 + \cdots + \frac{\partial y}{\partial x_n} \Delta x_n + \varepsilon_1\Delta x_1 +\cdots+\varepsilon_n\Delta x_n

dove i termini di errore \varepsilon_i si annullano all'annullarsi di \Delta x_i. In modo rigoroso si definisce quindi il differenziale totale nel modo seguente:

dy = \frac{\partial y}{\partial x_1} \Delta x_1 + \cdots + \frac{\partial y}{\partial x_n} \Delta x_n

Con tale definizione si ha:

dx_i(\Delta x_1,\dots,\Delta x_n) = \Delta x_i

e quindi si può scrivere:

dy = \frac{\partial y}{\partial x_1}\,d x_1 + \cdots + \frac{\partial y}{\partial x_n}\,d x_n

Analogamente al caso di una sola variabile vale l'approssimazione:

dy \approx \Delta y

in cui l'errore totale può essere reso piccolo a piacere relativamente a \sqrt{\Delta x_1^2+\cdots +\Delta x_n^2} considerato incrementi sufficientemente piccoli.

Differenziali di ordine superiore[modifica | modifica sorgente]

I differenziali di ordine superiore di una funzione y=f(x) di una sola variabile x possono essere definiti nel modo seguente:

d^2y = d(dy) = d(f'(x)dx) = f''(x)\,(dx)^2

e più in generale:

d^ny = f^{(n)}(x)\,(dx)^n

Informalmente, questo giustifica l'utilizzo della notazione di Leibniz per derivate di ordine superiore:

f^{(n)}(x) = \frac{d^n f}{dx^n}

Quando la variabile indipendente x dipende da altre variabili l'espressione diventa più complessa, ad esempio:

d^2 y = f''(x)\,(dx)^2 + f'(x)d^2x d^3 y = f'''(x)\, (dx)^3 + 3f''(x)dx \, d^2x + f'(x)d^3x

Considerazioni simili permettono di definire differenziali di ordine superiore di funzioni in più variabili. Ad esempio, se f dipende da due variabili x e y si ha:

d^nf = \sum_{k=0}^n \binom{n}{k}\frac{\partial^nf}{\partial x^k \partial y^{n-k}}(dx)^k(dy)^{n-k}

dove \scriptstyle{\binom{n}{k}} è il coefficiente binomiale. In più variabili l'espressione è analoga a patto di utilizzare l'appropriata espansione multinomiale.

I differenziali di ordine superiore in più variabili diventano ulteriormente complessi quando le variabili indipendenti dipendono a loro volta da altre variabili. Ad esempio, se x e y dipendono da altre variabili:

d^2f = \left(\frac{\partial^2f}{\partial x^2}(dx)^2+2\frac{\partial^2f}{\partial x\partial y}dx\,dy + \frac{\partial^2f}{\partial y^2}(dy)^2\right) + \frac{\partial f}{\partial x}d^2x + \frac{\partial f}{\partial y}d^2y

Il differenziale dell'n-esimo ordine di una funzione f ed un incremento \Delta x può essere anche definito come:

d^nf(x,\Delta x) = \left.\frac{d^n}{dt^n} f(x+t\Delta x)\right|_{t=0}

o, in modo equivalente, come \lim_{t\to 0}\frac{\Delta^n_{t\Delta x} f}{t^n}, dove \Delta^n_{t\Delta x} f è una differenza finita in avanti con incremento t\Delta x. Tale definizione ha senso anche per una f di più variabili.

Push-forward di una curva

Differenziale di morfismi tra varietà[modifica | modifica sorgente]

Si considerino due varietà lisce M e N, ed un morfismo tra esse, ovvero una applicazione differenziabile f:M \to N. Si può definire il differenziale df_m di f in m \in M come l'applicazione lineare dallo spazio tangente T_{m}M a M in m allo spazio tangente T_{f(m)}N a N in f(m) che manda v \in T_{m}M in df_m(v) \in T_{f(m)}N, con:

df_m(v)(g)=v(g\circ f)

per ogni g\in {C^\infty}(f(m)), dove si sono considerati i vettori tangenti come derivazioni.[2] Considerando i vettori tangenti come classi di equivalenza di curve passanti per m si ottiene la definizione corrispondente:

df_m([\gamma])=[f_* \gamma] = [f \circ \gamma]\,.

La mappa df_p (scritta anche come Tf_p, Df_p, f_*, f'(p)) è detta anche mappa tangente, perché il simbolo T definisce un funtore covariante dalla categoria delle varietà differenziabili in quella dei fibrati vettoriali.

Differenziale esatto[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Differenziale esatto.

Un differenziale esatto è una 1-forma:

\operatorname d Q = A_1(x_1,x_2,\dots)dx_1 + A_2(x_1,x_2,\dots)dx_2 + \dots

tale per cui esiste una funzione Q(x_1,x_2,\dots), detta potenziale, che soddisfa:[3]

A_1 = \frac{\partial Q}{\partial x_1} \qquad A_2 = \frac{\partial Q}{\partial x_2} \qquad \dots

In altri termini, considerando uno spazio tridimensionale e una forma differenziale A(x,y,z) dx + B(x,y,z) dy + C(x,y,z) dz, essa è una forma esatta su un dominio D \subset \mathbb{R}^3 se esiste una qualche funzione scalare Q = Q(x,y,z) definita su D tale che:

dQ \equiv \left ( \frac{\partial Q}{\partial x} \right )_{y,z} dx + \left ( \frac{\partial Q}{\partial y} \right )_{z,x} dy + \left ( \frac{\partial Q}{\partial z} \right )_{x,y} dz = A dx + B dy + C dz

su tutto D. Questo è equivalente a dire a che il campo vettoriale (A, B, C) è un campo vettoriale conservativo, corrispondente al gradiente di un campo scalare (chiamato potenziale) Q.

In una dimensione, una forma differenziale A(x)dx è esatta se A ha una primitiva. Altrimenti, se A non possiede primitiva non si può scrivere dQ = A(x) dx e la forma non è esatta.

Note[modifica | modifica sorgente]

  1. ^ W. Rudin, op. cit., Pag. 213
  2. ^ M. Abate, F. Tovena, op. cit., p. 83
  3. ^ Enciclopedia Treccani - Differenziale. URL consultato il 26 luglio 2011.

Bibliografia[modifica | modifica sorgente]

  • M. Abate, F. Tovena, Geometria Differenziale, Springer, 2011, ISBN 978-88-470-1919-5.
  • Walter Rudin, Principi di analisi matematica, Milano, McGraw-Hill, 1991, ISBN 88-386-0647-1.
  • Giuseppe De Marco, Analisi Due, Decibel-Zanichelli, 1999.
  • (EN) Serge Lang, Undergraduate Analysis, Springer, 1997.
  • (EN) Serge Lang, Real and Functional Analysis, Springer, 1993.
  • (EN) James Munkres, Analysis on Manifolds, Westview Press, 1991.
  • (EN) Frank Warner, Foundations of Differentiable Manifolds and Lie Groups, Springer, 1983.

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica