Disuguaglianza di Jensen

Da Wikipedia, l'enciclopedia libera.

La disuguaglianza di Jensen (dal nome del matematico danese Johan Jensen) è una disuguaglianza che lega il valore di una funzione convessa al valore della medesima funzione calcolata nel valor medio del suo argomento. Essa è stata enunciata e dimostrata da Jensen nel 1906[1]. La disuguaglianza di Jensen può essere introdotta in diversi contesti e con diversi gradi di generalità, i più rilevanti dei quali sono presentati nel seguito.

Enunciati[modifica | modifica wikitesto]

La forma più elementare della disuguaglianza di Jensen può essere enunciata come media pesata di un numero finito di numeri reali. Essa può essere ampiamente generalizzata nel contesto della teoria della misura, e trova la sua forma più naturale e potente nel formalismo della teoria della probabilità. Nel seguito si forniscono prima gli enunciati della disuguaglianza (partendo dai più semplici fino ad arrivare a quelli più generali), e quindi le dimostrazioni degli stessi.

Ricordiamo che se \varphi è una funzione convessa, allora -\varphi è concava, e pertanto delle disuguaglianze analoghe a quelle riportate sotto possono essere ottenute per funzioni concava, a patto di invertire il verso delle disuguaglianze stesse.

Forma discreta[modifica | modifica wikitesto]

Sia n un intero positivo. Per una funzione convessa a valori reali \varphi, e per dei numeri reali x_1,\,x_2,\ldots,\,x_n nel dominio di \varphi, e per dei pesi positivi a_1,\,a_2,\ldots,\,a_n, la disuguaglianza di Jensen afferma:

\varphi\left(\frac{\sum_i a_{i} x_{i}}{\sum_i a_{i}}\right) \le \frac{\sum_i a_{i} \varphi (x_{i})}{\sum_i a_{i}}.

In particolare, se i pesi a_i sono tutti uguali ad 1:

\varphi\left(\frac{\sum_i x_{i}}{n}\right) \le \frac{\sum_i \varphi (x_{i})}{n}

ovverosia il valore di \varphi calcolato nella media degli x_i è più piccolo della media dei valori di \varphi sugli x_i.

La disuguaglianza nella notazione della teoria della misura[modifica | modifica wikitesto]

Nelle precedenti formule, è naturale chiedersi se è possibile effettuare una sorta di passaggio al continuo. La risposta è affermativa, e la disuguaglianza di Jensen può essere generalizzata come segue.

Sia (\Omega,\mathfrak{F},\mu) uno spazio di misura, tale che \mu(\Omega) = 1. Se g è una funzione integrabile da \Omega a valori reali, e \varphi è una funzione convessa sull'immagine di g, allora:[2]

\varphi\left(\int_{\Omega} g\, d\mu\right) \le \int_\Omega \varphi \circ g\, d\mu.

La disuguaglianza nella notazione della teoria della probabilità[modifica | modifica wikitesto]

Lo stesso risultato può più naturalmente essere enunciato nel contesto della teoria della probabilità. Sia (\Omega, \mathfrak{F},\mathbb{P}) uno spazio di probabilità, X una variabile aleatoria a valori reali che possieda valore atteso, e \varphi una funzione convessa tale che anche \varphi(X) possieda valore atteso. Allora:

\varphi\left(\mathbb{E}\{X\}\right) \leq \mathbb{E}\{\varphi(X)\}.

In questa notazione probabilistica, la misura \mu va appunto intesa come una probabilità \mathbb{P}, l'integrale rispetto a \mu come un valore atteso \mathbb{E}, e la funzione g come una variabile aleatoria X.

La disuguaglianza generale nella teoria della probabilità[modifica | modifica wikitesto]

Più in generale, sia T uno spazio vettoriale topologico, ed X una variabile aleatoria integrabile a valori in T. In questo contesto generale, integrabile significa che per ogni elemento z nel duale di T accade \mathbb{E}|\langle z, X \rangle|<\infty , e che esiste un elemento \mathbb{E}\{X\} in T tale che \langle z, \mathbb{E}\{X\}\rangle=\mathbb{E}\{\langle z, X \rangle\}. Allora, per ogni funzione convessa misurabile \varphi su T, e per ogni sub-σ-algebra \mathfrak{G} di \mathfrak{F}:

\varphi\left(\mathbb{E}\{X|\mathfrak{G}\}\right) \leq  \mathbb{E}\{\varphi(X)|\mathfrak{G}\}.

Qui \mathbb{E}\{\cdot|\mathfrak{G} \} indica l'attesa condizionata rispetto alla σ-algebra \mathfrak{G}. Questo enunciato più generale si riduce al precedente qualora il generico spazio topologico vettoriale T sia rimpiazzato dall'asse reale, e \mathfrak{G} dalla σ-algebra banale \{\emptyset, \Omega\}.

Media aritmetica e geometrica[modifica | modifica wikitesto]

La funzione \log(x) è concava, utilizzando in questo caso la disuguaglianza di Jensen essa si riduce alla disuguaglianza della media aritmetica e della media geometrica.

 { {x_1 + x_2 + \cdots + x_n} \over {n}} \geq \sqrt[n]{x_1 \cdot x_2 \cdots x_n}

Infatti:

\mbox{log}\left(\sqrt[n]{x_1 \cdots x_n}\right)=\frac{1}{n}\left(\mbox{log}\  x_1+\cdots+\mbox{log}\ x_n\right)\leq \mbox{log}\left(\frac{1}{n}\left(x_1+\cdots+x_n\right)\right)

dove l'ultima disuguaglianza discende dalla disuguaglianza di Jensen.

Applicazioni per disuguaglianze specifiche[modifica | modifica wikitesto]

La disuguaglianza di Jensen consente di dimostrare con facilità molte disuguaglianze elementari. Ad esempio, per ogni coppia di numeri reali positivi x, y > 0 tali che x+y = 1 è valida la disuguaglianza

\left (x + {1 \over x}\right )^2 + \left ( y+ {1 \over y} \right )^2 \geq {25 \over 2}

Per dimostrarlo, osserviamo che la funzione

g(z) = \left ( z + {1 \over z} \right )^2

è convessa per z positivo, in quanto la sua seconda derivata è sempre positiva per tali valori di z. Dalla disuguaglianza di Jensen segue

{{g(x)+g(y)}\over 2} \geq g \left ( {{x+y}\over 2} \right ) = g \left ( {1 \over 2} \right ) = {25 \over 4}

ossia appunto

{g(x) + g(y)} \geq {25 \over 2}

Note[modifica | modifica wikitesto]

  1. ^ Jensen, J. Sur les fonctions convexes et les inégalités entre les valeurs moyennes.
  2. ^ W. Rudin, Pag. 61

Bibliografia[modifica | modifica wikitesto]

  • Walter Rudin, Real and Complex Analysis, Mladinska Knjiga, McGraw-Hill, 1970, ISBN 0-07-054234-1.

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica