Teorema di Schwarz

Da Wikipedia, l'enciclopedia libera.
bussola Disambiguazione – Se stai cercando il Lemma di Schwarz sulle funzioni olomorfe, vedi Lemma di Schwarz.

In analisi matematica, il teorema di Schwarz è un importante teorema che afferma che (sotto opportune ipotesi) l'ordine con il quale vengono eseguite le derivate parziali in una derivata mista di una funzione a variabili reali è ininfluente.

Il teorema in due variabili[modifica | modifica wikitesto]

Sia f : \Omega  \subseteq \mathbb{R}^{2} \longrightarrow \mathbb{R} una funzione in due variabili, definita su un aperto \Omega del piano \mathbb{R}^{2}. Se  f ammette derivate seconde miste continue, cioè f\in \mathcal{C}^2(\Omega), allora queste coincidono in ogni punto  p , ovvero:

\frac{\partial^2 f}{\partial x \partial y} \equiv \frac{\partial^2 f}{\partial y \partial x}

In altre parole, invertendo l'ordine di derivazione di una doppia derivazione parziale mista, il risultato non cambia.

Come conseguenza, se una funzione ha derivate parziali continue la sua matrice hessiana è simmetrica.

Dimostrazione[modifica | modifica wikitesto]

Sia  p = (x_0, y_0) \in \Omega . Si scelgono due reali  \varepsilon \, ,  \delta > 0 \, tali che  (x_0 - \varepsilon, x_0 + \varepsilon) \times (y_0 - \delta, y_0 + \delta) \subset \Omega \, . Ciò è possibile, poiché  \Omega \, è un aperto di  \mathbb{R}^2 .

Si definiscono due funzioni  F \, e  G come segue:

 F : (-\varepsilon, \varepsilon) \subset \mathbb{R} \longrightarrow \mathbb{R}
 G : (-\delta, \delta) \subset \mathbb{R} \longrightarrow \mathbb{R}

in modo che:

 F(t) = f(x_0 + t, y_0 + s) - f(x_0 + t, y_0) \qquad \forall s \in (-\delta, \delta)
 G(s) = f(x_0 + t, y_0 + s) - f(x_0, y_0 + s) \qquad \forall t \in (-\varepsilon, \varepsilon)

Si prova facilmente che, fissati  t \, e  s \, nei rispettivi intervalli:

 F(t) - F(0) = G(s) - G(0)

Inoltre, applicando due volte il teorema di Lagrange:

 F(t) - F(0) = t F'(\xi_1) = t \left[ \frac{\partial f}{\partial x} (x_0 + \xi_1, y_0 + s) - \frac{\partial f}{\partial x} (x_0 + \xi_1, y_0) \right] =
 = t s \frac{{\partial}^2 f}{\partial y \partial x} (x_0 + \xi_1, y_0 + \sigma_1)

e analogamente:

 G(s) - G(0) = s t \frac{{\partial}^2 f}{\partial x \partial y} (x_0 + \xi_2, y_0 + \sigma_2)

con  \xi_i \in (0, t) e  \sigma_i \in (0, s), dove per comodità di scrittura si sono assunti  t, s > 0 \, .

Facendo tendere  t \, e  s \, a  0 \, (e quindi anche  \xi_i \, e  \sigma_i \, ) si ha la tesi.

Esempio[modifica | modifica wikitesto]

Sia:

f(x,y) = x^{2} y^{2} + y^{3} x

Entrambe le derivate parziali prime sono continue. Risulta rispettivamente :

f_x = 2x y^{2} + y^{3}
f_y = 2y x^{2} + 3 x y^{2}

queste due funzioni sono ulteriormente derivabili e le derivate miste sono:

f_{xy} = 4xy + 3 y^{2}
f_{yx} = 4xy + 3 y^{2}

Quindi f_{xy} = f_{yx} .

Necessità delle ipotesi[modifica | modifica wikitesto]

L'ipotesi di continuità delle derivate parziali è in effetti (almeno in parte) necessaria. Si consideri il seguente esempio (dovuto a G. Peano). Data la funzione:

f(x,y)=\left\{\begin{matrix} xy \frac{x^2-y^2}{x^2+y^2}, & \forall (x,y) \in \mathbb{R}^2 \setminus \ (0,0) \\ 0, & (x,y) = (0,0)
\end{matrix}\right.

Si ha:

f_x (x,y) = y \frac{x^2-y^2}{x^2+y^2} + xy \frac {2x (x^2+y^2) - 2x (x^2-y^2)}{(x^2+y^2)^2}
 f_y (x,y)= - \left(x \frac {y^2-x^2}{x^2+y^2} + xy \frac{2y (x^2+y^2) - 2y (y^2-x^2)}{(x^2+y^2)^2}\right)

e quindi:

f_{yx} (0,0) = \lim_{k \to 0} \frac{f_x (0,k) - f_x (0,0)}{k} = -1
f_{xy} (0,0) = \lim_{h \to 0} \frac{f_y (h,0) - f_y (0,0)}{h} = +1

Dunque f_{yx} \ne \ f_{xy}.

Infatti in questo esempio manca la continuità di entrambe le derivate miste.

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica