Derivata

Da Wikipedia, l'enciclopedia libera.
La retta L tangente in P al grafico della funzione ha pendenza data dalla derivata della funzione in P

In matematica, la derivata è la misura di quanto il valore di una funzione cambi al variare del suo argomento.

Un esempio molto noto di derivata è la variazione della posizione di un oggetto rispetto al tempo, chiamata velocità istantanea.

La derivata di una funzione è una grandezza puntuale, cioè si calcola punto per punto. Nel caso di funzioni a valori reali, essa è la pendenza della tangente al grafico della funzione in quel punto e ne rappresenta la migliore approssimazione lineare. Nel caso in cui la derivata esista (cioè la funzione sia derivabile) in ogni punto del dominio, la si può vedere a sua volta come una funzione che associa ad ogni punto proprio la derivata in quel punto.

Il concetto di derivata è, insieme a quello di integrale, uno dei cardini dell'analisi matematica e del calcolo infinitesimale.

Descrizione[modifica | modifica sorgente]

La derivata di una funzione in un punto è il coefficiente angolare della retta tangente alla curva nel punto. Si tratta quindi di un numero che misura la pendenza della retta tangente.

La derivata di una funzione f in un punto x_0 è il valore del coefficiente angolare della retta tangente alla curva nel punto, cioè la tangente trigonometrica dell'angolo formato dalla tangente in un punto della curva di equazione y=f(x) e l'asse delle ascisse. Se la derivata è uguale a zero la retta tangente alla curva di equazione y=f(x) risulta parallela all'asse delle ascisse, mentre se la derivata tende a infinito la retta tangente alla curva di equazione y=f(x) è parallela all'asse delle ordinate. La funzione derivata si ricava con una serie di operazioni algebriche note come regole di derivazione, applicabili universalmente a tutte le funzioni derivabili.

Nel caso di funzioni di più variabili la tangente in un punto alla curva della funzione non è unica, ma varia a seconda della direzione scelta. Non si può più quindi definire una sola funzione delle stesse variabili indipendenti che renda conto della pendenza del grafico della funzione in un punto: si ricorre allora alle derivate parziali della funzione, cioè ai coefficienti angolari di tangenti considerate lungo direzioni parallele agli assi che rappresentano le variabili indipendenti. Le derivate parziali sono in numero pari alle variabili stesse, ed una loro notevole proprietà è che se la funzione è sufficientemente "regolare" (cioè differenziabile) è possibile calcolarne la tangente lungo una direzione qualunque con una combinazione lineare delle derivate parziali stesse. Questo è possibile perché l'operatore di derivazione è un operatore lineare, e quindi la derivata di una combinazione lineare di funzioni derivabili è la combinazione lineare delle derivate delle singole funzioni, e la derivata del prodotto di uno scalare per una funzione è il prodotto dello scalare per la derivata della funzione.

Definizione[modifica | modifica sorgente]

La nozione di derivata si introduce, nel caso più semplice, considerando una funzione reale f(x) di variabile reale x ed un punto x_0 del suo dominio. La derivata di f(x) in x_0 è definita come il numero f'(x_0) pari al limite del rapporto incrementale al tendere a 0 dell'incremento, sotto l'ipotesi che tale limite esista e sia finito. In modo esplicito, detto h l'incremento, una funzione f definita in un intorno di x_0 si dice derivabile nel punto x_0 se esiste ed è finito il limite:

f'(x_0) = {\mathop {\lim_{h \to 0}} {{f\left( {x_0 + h} \right) - f\left( x_0 \right)} \over h}}

ed il valore di questo limite è la derivata della funzione nel punto x_0. Se la funzione f(x) è derivabile in ogni punto di un dato intervallo (a, b), allora si dice che essa è derivabile in (a, b) e la funzione f' : x \in (a,b) \to f'(x) che associa ad ogni punto x la derivata f'(x) di f(x) è la funzione derivata di f.

Derivata complessa[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Derivata complessa.

Nonostante il caso più semplice sia quello delle funzioni reali, la definizione di derivata trova la sua collocazione più naturale nell'ambito dell'analisi complessa, dove, applicata alle funzioni di variabile complessa, prende il nome di derivata complessa.[1] Detto U un sottoinsieme aperto del piano complesso \mathbb C, una funzione complessa  f:U\to\mathbb C è differenziabile in senso complesso in un punto z_0 \in U se esiste il limite:[2]

f'(z_0) = \lim_{z \rightarrow z_0} {f(z) - f(z_0) \over z - z_0 }

Tale limite va inteso in relazione alla topologia del piano. In altre parole, per ogni successione di numeri complessi che converge a z_0, il rapporto incrementale deve tendere a un medesimo numero, indicato con f'(z_0) . Se  f è differenziabile in senso complesso in ogni punto z_0 \in U , si dice che è una funzione olomorfa su  U .

Relazione tra derivata reale e complessa[modifica | modifica sorgente]

La relazione tra la differenziabilità di funzioni reali e funzioni complesse è data dal fatto che se una funzione complessa:

f(z) \equiv f(x + iy)=u(x,y)+ i \, v(x,y)

è olomorfa allora  u e  v possiedono derivata parziale prima rispetto a  x e  y e soddisfano le equazioni di Cauchy-Riemann:[3]

\frac{\partial u}{\partial x} = \frac{\partial v}{\partial y} \qquad \frac{\partial u}{\partial y} = -\frac{\partial v}{\partial x}\,

In modo equivalente, la derivata di Wirtinger \partial f / \partial\overline{z} di f rispetto al complesso coniugato  \overline{z} di  z è nulla.

Derivata destra e derivata sinistra[modifica | modifica sorgente]

La derivata destra di f in x_0 è il numero:

f'_+(x_0) = \lim_{h \to 0^+}{{f(x_0+h)-f(x_0)}\over{h}}

Analogamente, la derivata sinistra di f in x_0 è il numero:

f'_-(x_0) = \lim_{h \to 0^-}{{f(x_0+h)-f(x_0)}\over{h}}

Una funzione è derivabile in x_0 se e solo se esistono finite e uguali le derivate destra e sinistra. Queste permettono inoltre di definire la derivabilità su un intervallo non aperto: se f è definita ad esempio nell'intervallo chiuso [a,b], si dice che f è derivabile in [a,b] se è derivabile in ogni punto interno x \in [a,b] e se esistono le derivate destra e sinistra rispettivamente negli estremi x = a e x = b.

Notazioni[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Notazione per la differenziazione.

La prima notazione di derivata nel punto x0 che compare storicamente è:

\left(\frac {\mathrm{d} f}{\mathrm{d} x} \right)_{(x_0)}

ancora oggi usata in fisica. In alternativa, secondo la notazione di Lagrange viene indicata con:

f ^{\prime} (x_0)

secondo la notazione di Cauchy - Eulero con:

\operatorname D \left[{f}({x_0})\right]

secondo la notazione di Leibniz con:

\frac {\mathrm{d} f(x_0)}{\mathrm{d} x}

e secondo la notazione di Newton con:

\dot f(x_0)

Derivata parziale[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Derivata parziale.

La nozione di derivata si può estendere al caso di una funzione di più variabili. Qualora si voglia considerare l'incremento della funzione rispetto ad una sola variabile, la derivata calcolata con il rapporto incrementale rispetto alla variabile è la derivata parziale della funzione rispetto a tale variabile. In generale, si consideri una funzione vettoriale di più variabili \mathbf{F}: E \subset \mathbb R^n \rightarrow \mathbb R^m definita su un insieme aperto dello spazio euclideo  \mathbb R^n . Dette \{\mathbf e_i\}_{1 \le i \le n} e \{\mathbf u_i\}_{1 \le i \le m} le basi canoniche di  \mathbb R^n e  \mathbb R^m rispettivamente, la funzione può essere scritta nel seguente modo:

\mathbf{F}(\mathbf x ) = \sum_i^m F_i(\mathbf x ) \mathbf u_i \quad \mathbf x = (x_1,x_2, \dots , x_n) \in E

La componente i-esima della funzione è allora:

F_i(\mathbf x ) = \mathbf F(\mathbf x ) \cdot \mathbf u_i \quad 1 \le i \le m

Si definisce derivata parziale di  F_i rispetto alla variabile x_j il limite:[4]

\frac{\partial F_i (\mathbf {x})}{\partial x_j} = \lim_{t\to 0} \frac{F_i (\mathbf x + t\mathbf e_j) - F_i (\mathbf x)}{t} = \lim_{t\to 0} \frac{F_i (x_1,x_2, \dots x_j + t, \dots, x_n) - F_i (x_1,x_2, \dots , x_n)}{t}

Tale limite è a volte chiamato limite del rapporto incrementale di f nel punto \mathbf {x}, e viene denotato anche con D_jF_i. La derivata parziale di una funzione, o nel caso di funzione vettoriale di una sua componente, si effettua quindi considerando le variabili diverse da quella rispetto a cui si vuole derivare come costanti e calcolandone il rapporto incrementale.

Derivata direzionale[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Derivata direzionale.

La derivata direzionale di una funzione scalare f(\mathbf{x}) = f(x_1, x_2, \ldots, x_n) lungo un vettore unitario \mathbf{u} = (u_1, \ldots, u_n) è la funzione definita dal limite:

D_{\mathbf{u}}{f}(\mathbf{x}) = \lim_{h \rightarrow 0^+}{\frac{f(\mathbf{x} + h\mathbf{u}) - f(\mathbf{x})}{h}}

Se la funzione f è differenziabile in \mathbf{x}, allora la derivata direzionale esiste lungo ogni vettore unitario \mathbf{u}, e si ha:[5]

D_{\mathbf{u}}{f}(\mathbf{x}) = \nabla f(\mathbf{x}) \cdot \mathbf{u}

dove \nabla f al secondo membro rappresenta il gradiente di f e \cdot il prodotto scalare euclideo. In \mathbf{x} la derivata direzionale di f rappresenta la variazione di f lungo \mathbf{u}.

Generalizzazioni della derivata[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Generalizzazioni della derivata.

Differenziabilità di una funzione[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Funzione differenziabile, Classe C di una funzione e Differenziale (matematica).
Una funzione da \R in \R è derivabile in un punto se è approssimabile vicino a quel punto da una retta. Tale retta deve quindi essere tangente al grafico della funzione. Questa nozione si estende in dimensioni arbitrarie, e prende il nome di funzione differenziabile.

Una funzione differenziabile in un punto è una funzione che può essere approssimata da una trasformazione lineare nel punto. Affinché ciò si verifichi è necessario che tutte le derivate parziali calcolate nel punto esistano, ovvero esistono finiti i limiti dei rapporti incrementali direzionali (dunque, se una funzione è differenziabile in un punto allora è derivabile nel punto). La proprietà di differenziabilità di una funzione consente di generalizzare il concetto di funzione derivabile a funzioni vettoriali di variabile vettoriale, e permette di individuare per ogni punto del suo grafico un iperpiano tangente.

Una funzione \mathbf{F}: U \rightarrow \mathbb R^m definita su un insieme aperto dello spazio euclideo  \mathbb R^n è detta differenziabile in un punto \mathbf{x}_0 del dominio se esiste una applicazione lineare \mathbf{L}:\mathbb R^n \rightarrow \mathbb R^m tale che valga l'approssimazione:

\mathbf{F}(\mathbf{x}_0+\mathbf{h})-\mathbf{F}(\mathbf{x}_0) = \mathbf{L}(\mathbf{x}_0)\mathbf{h} + \mathbf r(\mathbf{h})

dove \mathbf r(\mathbf{h}) si annulla all'annullarsi dell'incremento \mathbf{h}. Tale condizione si può scrivere in modo equivalente:

\lim_{\mathbf{h}\to \mathbf{0}} \frac { \mathbf{F}(\mathbf{x}_0+\mathbf{h})-\mathbf{F}(\mathbf{x}_0)-\mathbf{L}(\mathbf{x}_0)\mathbf{h} } {\begin{Vmatrix} \mathbf{h} \end{Vmatrix}} = \mathbf{0}

Se la funzione \mathbf{F} è differenziabile in \mathbf{x}_0, l'applicazione \mathbf{L} è rappresentata dalla matrice jacobiana J_F \ .

Il vettore:

\mathbf{L}(\mathbf{x}_0)\mathbf{h} =\mathrm{d}\mathbf{F}(\mathbf{x}_0) = J_F \mathbf h

si chiama differenziale di \mathbf{F} in \mathbf{x}_0 ed \mathbf{L}(\mathbf{x_0}) è la derivata totale della funzione \mathbf{F}.

La funzione \mathbf{F} è infine differenziabile se lo è in ogni punto del dominio.[6] In particolare, il teorema del differenziale totale afferma che una funzione è differenziabile in un punto se tutte le derivate parziali esistono in un intorno del punto per ogni componente della funzione e se sono inoltre funzioni continue. Se inoltre l'applicazione che associa \mathbf{x} a \mathbf{L} (\mathbf{x}) è continua, la funzione si dice differenziabile con continuità.[7]

Continuità e derivabilità[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Funzione continua.

Il teorema di continuità asserisce che se f(x) è derivabile in x_0 allora f(x) è anche continua in x_0.

L'inverso non è sempre vero: ad esempio, la funzione f(x) = |x| è continua su tutto il dominio, ma non è derivabile nel punto x=0, perché la derivata destra non coincide con la derivata sinistra. La continuità di una funzione è quindi condizione necessaria, ma non sufficiente, per determinarne la derivabilità. Una funzione può inoltre essere derivabile (e quindi continua) in un punto p, ma essere discontinua in ogni punto intorno a p. Questo accade per funzioni come:

f(x) = \begin{cases} 0 \text{ se } x \in \mathbb{Q} \\x^2 \text{ se } x \in \mathbb{R}\setminus \mathbb{Q} \end{cases}

essendo \mathbb{Q} l'insieme dei numeri razionali e \mathbb{R} l'insieme dei numeri reali, mentre il simbolo \ denota la differenza tra insiemi. La funzione in esame ammette derivata in 0 (vale 0 il limite del rapporto incrementale) ma non è continua in nessun punto eccetto lo 0. Notiamo che se invece una funzione è due volte derivabile in un punto, allora è continua in un intorno di quel punto.

Per mostrare che se f(x) è derivabile in x_0 allora è continua in x_0, si considera l'uguaglianza precedente:

f(x)= f(x_0) + f^{\prime}(x_0)(x - x_0) + o(x-x_0)

da cui:

\lim_{x \to x_0}f(x)= \lim_{x \to x_0}{f(x_0) + f^{\prime}(x_0)(x - x_0) + o(x-x_0)} = f(x_0)

Quindi la funzione è continua in x_0. La stima lineare della funzione attorno a x_0 costituisce una migliore approssimazione rispetto a:

f(x) = f(x_0) + o(1)

garantita dalla sola continuità (qui o(1) \underset{x \to x_0}{\longrightarrow} 0). Se la funzione è derivabile in x_0 si può "scomporre" l'infinitesimo o(1) in un termine lineare e un infinitesimo di ordine superiore. Il teorema di Lagrange fornisce una diversa approssimazione (sempre lineare) nell'ipotesi che la funzione sia derivabile in un intorno di x_0:

f(x) = f(x_0) + f^{\prime}(\xi)(x-x_0)

per tutti gli x in tale intorno, e con \xi un dato punto in (x_0, x) (o (x, x_0), se è un intorno sinistro). Benché ora l'approssimazione sia "esatta" (non ci sono termini infinitesimi che vengono trascurati), il teorema non è in grado di mostrare per quale \xi sia vera l'uguaglianza.

Funzioni non derivabili[modifica | modifica sorgente]

La funzione valore assoluto non è derivabile nell'origine, dove ha un punto angoloso

Una funzione continua può essere non derivabile. Ad esempio, una funzione continua può non essere derivabile in un punto isolato del dominio, in presenza di un punto angoloso, una cuspide o un flesso a tangente verticale. Esistono anche funzioni continue che presentano forme più complesse di non derivabilità, come ad esempio la funzione di Cantor.

Teoremi[modifica | modifica sorgente]

Vengono enunciati di seguito alcuni teoremi e risultati significativi.

Regole di derivazione[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Regole di derivazione.

Siano f(x) e g(x) funzioni reali di variabile reale x derivabili, e sia \mathrm{D} l'operazione di derivazione rispetto a x:

\mathrm{D}[f(x)]=f'(x) \qquad \mathrm{D}[g(x)]=g'(x)
\mathrm{D}[\alpha f(x)+ \beta g(x)] = \alpha f'(x) + \beta g'(x) \qquad \alpha, \beta \in \R
\mathrm{D} [ {f(x) \cdot g(x)}] = f'(x) \cdot g(x) + f(x) \cdot g'(x)
\mathrm{D}\! \left[ {f(x) \over g(x)} \right] = { f'(x) \cdot g(x) - f(x) \cdot g'(x) \over g(x)^2}
\mathrm{D}\! \left[ {1 \over f(x)} \right] = -{f'(x) \over f(x)^2}
\mathrm{D}[f^{-1}(y)] = {1 \over f'(x)}
con:
 y = {f(x)} \qquad x = {f^{-1}(y)}
\mathrm{D} \left[ f \left( g(x) \right) \right] = f' \left( g(x) \right) \cdot g'(x)

Teorema di Fermat[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Teorema di Fermat sui punti stazionari.

Sia f(x) una funzione derivabile, e quindi continua, in un punto x_0 interno al dominio. Se x_0 è un punto di massimo o di minimo per la funzione f allora la derivata della funzione in x_0 è nulla, cioè f ' (x_0) = 0.

Non è indispensabile che x_0 sia interno al dominio, essendo sufficiente che si tratti di un punto di accumulazione da destra e da sinistra per il dominio, mentre è essenziale porre che la funzione sia derivabile nel punto x_0 in quanto non è possibile dedurne la derivabilità dalle altre ipotesi del teorema. Ogni punto in cui f'(x) si annulla (cioè è uguale a zero) è chiamato punto stazionario. I massimi e minimi relativi sono chiamati punti stazionari di f'(x).

Questo teorema è molto usato nello studio di funzione, in quanto definisce la possibilità di avere un punto di massimo o di minimo dove la funzione derivata si annulla.

Teorema di Rolle[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Teorema di Rolle.

Sia f(x) una funzione continua nell'intervallo chiuso [a,b] e derivabile nell'intervallo aperto (a,b). Se f(a)=f(b) allora esiste almeno un punto x_0 \in (a,b) dove la derivata prima f'(x) si annulla.

Teorema di Lagrange[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Teorema di Lagrange.

Sia f(x) una funzione continua in [a,b] e derivabile nell'intervallo aperto (a,b). Allora esiste almeno un punto x_0 \in (a,b) tale per cui:

f'(x_0) = {{f(b) - f(a)} \over {b-a}}

Il teorema afferma che esiste almeno un punto (x_0,f(x_0)) del grafico della funzione in cui la retta tangente ha coefficiente angolare uguale a quello della corda della retta passante per i punti (a,f(a)) e (b,f(b)). Si tratta di una generalizzazione del teorema di Rolle che analizza il caso in cui f(a) è diverso da f(b).

Teorema di Cauchy[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Teorema di Cauchy (analisi matematica).

Siano f(x) e g(x) funzioni continue in [a,b] e derivabili in (a,b) con g'(x) diversa da 0 per ogni punto dell'intervallo. Allora esiste almeno un punto x_0 \in (a,b) tale per cui:

{f'(x_0) \over g'(x_0)} = {{f(b) - f(a)} \over {g(b)-g(a)}}

Considerando in particolare la funzione g(t) = t, si ottiene l'affermazione del teorema di Lagrange.

Con il teorema di Cauchy è inoltre possibile dimostrare la regola di de l'Hôpital.

Monotonia a partire dalla derivata[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Teorema di Lagrange#Monotonia a partire dalla derivata.

Sia f(x) continua in [a,b] e derivabile in (a,b). Allora:

  • Per ogni x \in (a,b) si ha f'(x) \leqslant 0 se e solo se la funzione è decrescente in (a,b).

La funzione può non essere strettamente crescente (o decrescente), ed il teorema è direttamente ricavabile dall'enunciato di Lagrange.

Analogamente, valgono anche i fatti seguenti:

  • Se per ogni x \in (a,b) si ha f'(x) < 0 allora la funzione è strettamente decrescente in (a,b).

Una funzione strettamente crescente non ha necessariamente derivata ovunque positiva. Ad esempio,  f(x) = x^3 è strettamente crescente, ma ha derivata nulla nell'origine, dove c'è un punto di flesso.

Il teorema della funzione costante afferma che una funzione è costante in un intervallo [a,b] se e solo se è derivabile e la derivata è ovunque nulla nell'intervallo. Mentre la condizione necessaria è conseguenza della definizione di derivata (la derivata di una costante è uguale a zero), la sufficienza segue dal teorema di Lagrange.

Derivate di ordine superiore[modifica | modifica sorgente]

La derivata n-esima f^{(n)} di una funzione f è la funzione che si ottiene derivando successivamente n volte la funzione f. Si definiscono così la derivata seconda, terza, e così via; e si usa generalmente una delle seguenti notazioni:

\begin{align}
f'' &= f^{(2)} = \frac{\mathrm{d}^2f}{\mathrm{d}x^2} \\
f''' &= f^{(3)} = \frac{\mathrm{d}^3f}{\mathrm{d}x^3} \\
... \\
f^{(n)} &= \frac{\mathrm{d}^nf}{\mathrm{d}x^n}
\end{align}

Una funzione derivabile non è necessariamente derivabile n volte. Ad esempio, la funzione f(x) = x |x| ha una derivata prima, ma non una seconda: infatti, la derivata di f è f'(x)=2|x|, che non è a sua volta derivabile nell'origine.

La classe delle funzioni derivabili n volte e la cui derivata n-esima è continua si indica con C^n.

Convessità[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Funzione convessa.

Sia f: [a,b] \to \mathbb{R} derivabile. Allora f(x) è convessa se e solo se f'(x) è crescente in [a,b]. Se f possiede derivata seconda, allora la convessità della funzione è data dalla disequazione:

f''(x) \geq 0

Il cambiamento di segno della derivata seconda determina quindi un cambiamento di convessità della funzione e un relativo punto di flesso.

Significato geometrico della derivata[modifica | modifica sorgente]

La retta in rosso è la tangente al grafico della f(x) nel punto (x0, f(x0))

Il valore della derivata di f(x) calcolata in x_0 ha un significato geometrico: è il coefficiente angolare della retta tangente alla curva rappresentata dal grafico di f(x) nel punto di coordinate (x_0,f(x_0)). In altre parole, la derivata è il valore della tangente trigonometrica dell'angolo (convesso) che la retta tangente in x_0 al grafico della funzione forma con l'asse delle ascisse (a patto che tale angolo non sia retto).

L'equazione della retta tangente in x_0 risulta:

y = f(x_0) + f '(x_0)(x-x_0) \

Più precisamente, se f(x) è derivabile nel punto x_0, allora esiste una funzione o(x-x_0) definita in un intorno di x_0 tale che:

f(x) = f(x_0) + f '(x_0) (x - x_0) + o(x-x_0)

con:

\lim_{x \to x_0}{{o(x-x_0)}\over{x-x_0}} = 0

e tale formula è l'espansione di Taylor di f(x) troncata al termine di primo grado. Si dice che o(x-x_0) è un infinitesimo di ordine superiore alla funzione (x-x_0), e con questo si vuole esprimere l'idea che il termine o(x-x_0) fornisce un contributo che diventa trascurabile rispetto agli altri termini quando ci si avvicina a x_0. Si può anche dire che una funzione derivabile in x_0 è approssimabile linearmente intorno a x_0 con la sua retta tangente in tale punto.

Se si definisce infatti o(x-x_0), avente lo stesso dominio di f, come:

 o(x-x_0) = f(x) - f(x_0) - f ^{\prime}(x_0) (x - x_0)

si verifica che:

\lim_{x \to x_0}{{o(x-x_0)}\over{x-x_0}} = \lim_{x \to x_0}\left(\frac{f(x)-f(x_0)}{x-x_0} - f ^{\prime}(x_0)\right)

Ricordando che per x \to x_0 allora x-x_0 \to 0, e quindi  h = x-x_0. Sostituendo questa ultima uguaglianza con la precedente equazione si ha:

\lim_{h \to 0}\frac{f(x_0+h)-f(x_0)}{h} - f ^{\prime}(x_0) = 0

Esempi[modifica | modifica sorgente]

Derivata di una serie di potenze[modifica | modifica sorgente]

Una funzione espressa come serie di potenze \sum_{n=0}^\infty a_n X^n con raggio di convergenza r è continua e derivabile su tutto l'intervallo (-r, r). La derivata può essere calcolata derivando termine a termine la serie nel modo seguente:

f'(x) = \sum_{n=1}^\infty n a_n x^{n-1}

Tuttavia, in una serie di potenze si preferisce che "n" sia proprio l'indice della potenza quindi utilizzando uno shift diventa:

f'(x) = \sum_{n=0}^\infty {(n+1)} a_{n+1} x^{n}

Questo tipo di derivata è importante per lo sviluppo di Taylor e Mc-Laurin.

Derivazione nel tempo[modifica | modifica sorgente]

L'operazione di derivazione nel tempo nel suo caso più generale è data da:

\frac{\mathrm{d}{\vec v}}{\mathrm{d}t} = \frac{\mathrm{d}v}{\mathrm{d}t} \hat v + v \frac{\mathrm{d}{\hat v}}{\mathrm{d}t}

Il primo termine ha come modulo la derivata di \,\! v nel tempo e come direzione e verso quello di \vec v. Il secondo termine è il prodotto del modulo del vettore per la derivata temporale del suo versore, la quale può essere trovata come segue (considerando il vettore \Delta \vec \theta di modulo pari a \Delta \theta e con versore uscente dal piano individuato da \vec v(t) e \vec v(t + \Delta t) in modo da formare una terna destrorsa).

Note[modifica | modifica sorgente]

  1. ^ Weisstein, Eric W. Derivative. From MathWorld. URL consultato il 25-11-2012.
  2. ^ Rowland, Todd. Complex Differentiable. From MathWorld. URL consultato il 25-11-2012.
  3. ^ Weisstein, Eric W. Cauchy-Riemann Equations. From MathWorld. URL consultato il 25-11-2012.
  4. ^ W. Rudin, op. cit., Pag. 216
  5. ^ W. Rudin, op. cit., Pag. 219
  6. ^ W. Rudin, op. cit., Pag. 214
  7. ^ W. Rudin, op. cit., Pag. 220

Bibliografia[modifica | modifica sorgente]

  • Walter Rudin, Principi di analisi matematica, Milano, McGraw-Hill, 1991, ISBN 88-386-0647-1.
  • (EN) Abramowitz, M. and Stegun, I. A. (Eds.). Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables, 9th printing. New York: Dover, p. 11, 1972.
  • (EN) Amend, B. Camp FoxTrot. Kansas City, MO: Andrews McMeel, p. 19, 1998.
  • (EN) Anton, H. Calculus: A New Horizon, 6th ed. New York: Wiley, 1999.
  • (EN) Beyer, W. H. Derivatives. CRC Standard Mathematical Tables, 28th ed. Boca Raton, FL: CRC Press, pp. 229-232, 19

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica