Distribuzione (matematica)

Da Wikipedia, l'enciclopedia libera.

In analisi matematica, le distribuzioni, note anche come funzioni generalizzate, sono oggetti che generalizzano il concetto di funzione. Rivestono grande importanza in diversi settori della fisica e dell'ingegneria, in cui molti problemi non continui conducono in modo naturale a equazioni differenziali le cui soluzioni sono distribuzioni.

Nello spazio delle distribuzioni sono inclusi tutti gli abituali spazi funzionali, dalle funzioni continue a quelle integrabili secondo Lebesgue e non solo. Per esse la definizione di derivata può essere estesa in quella di derivata distribuzionale o debole in modo tale che ogni distribuzione sia derivabile e la sua derivata sia ancora una distribuzione. Questa caratteristica rende l'insieme delle distribuzioni l'ambiente ideale per formulare e studiare le equazioni differenziali alle derivate parziali, in particolare nella formulazione debole dei problemi differenziali classici.

Il fisico Paul Dirac le utilizzò alla fine degli anni 1920 per i suoi studi sulla meccanica quantistica, pur non dandone una definizione rigorosa. La definizione matematica delle "funzioni generalizzate" fu successivamente formulata da Sergej L'vovič Sobolev nel 1935. La teoria delle distribuzioni venne poi sviluppata da Laurent Schwartz.

La più importante delle funzioni generalizzate, che non sia una funzione ordinaria, è la cosiddetta delta di Dirac.

Definizione[modifica | modifica wikitesto]

Per definire il concetto di distribuzione è necessario introdurre lo spazio delle funzioni di test: il suo duale è lo spazio delle distribuzioni.

Lo spazio delle funzioni di test[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi funzione di test.

Una funzione \phi: U \to \R è detta avere supporto compatto se esiste un sottoinsieme compatto K di U tale che \phi(x)=0 per ogni x \in U che non appartiene a K. Una funzione di test è una funzione di variabile reale a valori reali liscia, a supporto compatto e definita sullo spazio euclideo. Lo spazio delle funzioni di test è lo spazio vettoriale D(U).

Lo spazio D(U) può essere munito di una topologia definendo il limite di una successione di suoi elementi. Una successione \phi_k converge a \phi \in D(U) se sono soddisfatte le seguenti condizioni:

  • Esiste un insieme compatto K \subset U contenente il supporto di tutte le successioni \phi_k:
\bigcup_k \operatorname{supp}(\phi_k)\subset K

Con tale definizione D(U) è uno spazio vettoriale topologico localmente convesso e completo che soddisfa la condizione di Heine-Borel.[1]

In particolare, se U_i è una famiglia numerabile di sottoinsiemi aperti di U a chiusura compatta K_i = \bar{U}_i \ e tali che U_j \subset U_{j+1}, allora:

\mathrm{D}(U) = \bigcup_i \mathrm{D}_{K_i}

dove {D}_{K_i} è un insieme di funzioni lisce con supporto appartenente a K_i. La topologia su D(U) è quindi la topologia finale della famiglia di spazi metrici {D}_{K_i}.

Le distribuzioni[modifica | modifica wikitesto]

Una distribuzione su U è un funzionale lineare S: D(U) \to \R continuo, cioè tale che:[2]

\lim_{n\to\infty}S(\phi_n)= S\left(\lim_{n\to\infty}\phi_n\right)

per ogni successione convergente \phi_n \in D(U). Lo spazio delle distribuzioni su U è denotato con D'(U) ed è lo spazio vettoriale duale continuo dello spazio vettoriale topologico D(U).[3]

L'accoppiamento duale tra una distribuzione S \in D'(U) ed una funzione di prova \phi \in D(U) è spesso denotato dalle parentesi bracket nel seguente modo:

\mathrm{D}'(U) \times \mathrm{D}(U) \ni (S, \phi) \mapsto \langle S, \phi \rangle \in \R

Munito di una topologia debole, lo spazio D'(U) è uno spazio vettoriale topologico localmente convesso. In particolare, una successione S_k \in D'(U) converge alla distribuzione S se e solo se:

\langle S_k, \phi\rangle \to \langle S, \phi\rangle \qquad \forall \phi \in D(U)

Questo accade se e solo se S_k converge uniformemente a S in ogni sottoinsieme limitato di D(U).

Funzioni come distribuzioni[modifica | modifica wikitesto]

Ogni funzione f: U \to \R localmente integrabile secondo Lebesgue[4] "produce" un funzionale lineare e continuo su D(U), denotato con T_f, il cui valore sulla funzione di prova \phi è dato dall'integrale di Lebesgue:

\langle T_f,\phi \rangle = \int_U f\phi\,dx

Convenzionalmente si identifica con abuso di notazione T_f con la funzione f senza che questo generi ambiguità, sicché l'accoppiamento tra f e \phi si può scrivere come:

\langle f, \phi\rangle = \langle T_f,\phi\rangle

Se f e g sono due funzioni localmente integrabili, inoltre, le distribuzioni ad esse associate T_f e T_g coincidono in D'(U) se e solo se f e g sono uguali quasi ovunque.

Le funzioni di prova sono esse stesse localmente integrabili, e dunque definiscono a loro volta delle distribuzioni. Dal momento che sono dense in D'(U) rispetto alla topologia in esso definita, per ogni distribuzione S \in D'(U) esiste una successione  \phi_n \in D(U) tale che:

\langle \phi_n,\phi\rangle\to \langle S,\phi\rangle

per ogni \phi \in D(U).

Operazioni sulle distribuzioni[modifica | modifica wikitesto]

Molte delle operazioni definite sulle funzioni lisce a supporto compatto possono essere definite allo stesso modo per le distribuzioni. In generale, se:

T : \mathrm{D}(U) \to \mathrm{D}(U)

è una funzione lineare di uno spazio vettoriale continua rispetto alla topologia debole, allora è possibile estendere T ad una funzione:

 T : \mathrm{D}'(U) \to \mathrm{D}'(U)

grazie al passaggio al limite.

Solitamente, tuttavia, si preferisce definire le operazioni sulle distribuzioni attraverso l'applicazione aggiunta: se T:D(U) \to D(U) è un operatore lineare continuo, l'aggiunto è l'operatore T^*:D(U) \to D(U) tale che:

\langle T\varphi,\psi\rangle = \langle\varphi, T^*\psi\rangle

per ogni \phi , \psi \in D(U). Se tale operatore T^* esiste ed è continuo, allora l'operatore di partenza T può essere esteso alle distribuzioni definendo:

Tf(\psi) = f(T^*\psi) \

Complesso coniugato[modifica | modifica wikitesto]

È possibile anche definire il complesso coniugato di una distribuzione nel modo seguente. Dato T:D(U) \to D(U), T^* è definito da:

\langle T^*,\phi \rangle = (\langle T,\phi^* \rangle)^*

Si possono così definire la parte reale e immaginaria di una distribuzione:

\mbox{Re } T := \frac{1}{2}(T + T^*) \qquad \mbox{Im }T := \frac{1}{2i}(T - T^*)

che sono a loro volta distribuzioni. Una distribuzione si dice reale se T = \mbox{Re}T.

Derivazione[modifica | modifica wikitesto]

Sia T: D(U) \to D(U) la derivata parziale di una funzione test \phi rispetto alla variabile x_k:

T\phi = \frac{\partial\phi}{\partial x_k}

Grazie alla regola di integrazione per parti si dimostra che vale la relazione:[5]

\langle T\phi,\psi\rangle=\left\langle\frac{\partial\phi}{\partial x_k},\psi\right\rangle = -\left\langle\phi,\frac{\partial\psi}{\partial x_k}\right\rangle \qquad \psi,\phi \in D(U)

sicché T^* = -T, dove l'asterisco denota l'aggiunto. Si tratta di una trasformazione lineare continua da D(U) in sé, e segue che se S \in D'(U) è una distribuzione allora la sua derivata parziale rispetto alla cordinata x_k è definita dalla relazione:

\left\langle \frac{\partial S}{\partial x_{k}}, \phi \right\rangle = - \left\langle S, \frac{\partial \phi}{\partial x_{k}} \right\rangle \qquad \forall \phi \in D(U)

In questo modo è evidente che ogni distribuzione è infinitamente differenziabile, e che le derivata nella direzione x_k è un operatore lineare su D'(U).

In generale, se \alpha = (\alpha_1, \dots , \alpha_n) è un arbitrario multi-indice e \partial^\alpha indica la relativa derivata parziale mista, allora la derivata di ordine \alpha di una distribuzione S \in D'(U) è data da:[6]

\left\langle \partial^{\alpha} S, \phi \right\rangle = (-1)^{| \alpha |} \left\langle S, \partial^{\alpha} \phi \right\rangle \qquad \forall\phi \in \mathrm{D}(U)

ed esplicitamente si ha:

\int \left\langle \partial^{\alpha} S, \phi \right\rangle dx = (-1)^{| \alpha |} \int \left\langle S(x) , \left[\frac{\partial^{|\alpha |} }{\partial x^{\alpha_1}_1 \cdots \partial x^{\alpha_n}_n} \phi \right](x) \right\rangle dx

L'operazione di derivazione è dunque lineare su D'(U).

La definizione di derivata si può estendere in modo naturale a distribuzioni di più variabili usando come modello l'integrazione per parti di funzioni ordinarie. Si può notare che la definizione di derivata di una distribuzione, a differenza di quanto avviene per le funzioni ordinarie - dove le funzioni derivabili sono una classe relativamente ristretta - è applicabile a qualunque distribuzione senza eccezioni. In particolare, si possono derivare tutte le distribuzioni regolari corrispondenti a funzioni non derivabili. In questo modo le funzioni che non hanno derivata in senso ordinario hanno una distribuzione, generalmente non regolare, come derivata generalizzata.

Un esempio è dato dalla funzione di Heaviside:

\Theta(x)=\begin{cases} 0, & x < 0 \\ 1, & x \ge 0 \end{cases}

che, essendo discontinua, non è derivabile nello 0. Tuttavia, applicando la definizione di derivata di una distribuzione, si trova:

\langle \Theta',\phi \rangle = - \langle \Theta,\phi' \rangle = - \int \Theta(t) \phi'(t)dt = - \int^{\infty}_0 \phi'(t)dt = \phi(0) = \langle \delta,\phi \rangle

dove  \phi(\infty) = 0 perché  \phi è a supporto compatto. Si conclude che la derivata della funzione gradino è la delta di Dirac.

Moltiplicazione per una funzione liscia[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi funzione liscia.

Data una funzione infinitamente derivabile m : U \to \R ed una distribuzione S su U, il prodotto mS è definito da:[7]

(mS)(\phi) = S(m \phi)

per ogni funzione di prova \phi. Tale definizione è equivalente alla trasformazione aggiunta:

T_m : \varphi\mapsto m\varphi

con \phi \in D(U). Allora, per ogni funzione di prova \psi si ha:

\langle T_m\varphi,\psi\rangle = \int_U m(x)\varphi(x)\psi(x)\,dx = \langle\varphi, T_m\psi\rangle

e dunque T^*m = Tm, ovvero T_m è autoaggiunta.

La moltiplicazione di una distribuzione S per una funzione liscia m è quindi definita da:

mS(\psi) = \langle mS, \psi\rangle = \langle S, m\psi\rangle = S(m\psi)

Con la moltiplicazione per una funzione liscia D'(U) è un modulo sull'anello C^\infty (D). Tale definizione rende possibile definire l'azione di un operatore differenziale P, i cui coefficienti sono funzioni lisce, su una distribuzione. Un operatore differenziale agisce su S \in D'(U) restituendo un'altra distribuzione data da una sommatoria della forma:

PS = \sum_{|\alpha|\le k} p_\alpha \partial^\alpha S

dove i coefficienti p_\alpha sono funzioni lisce su U. Se P è un operatore differenziale, l'intero più piccolo k per cui la precedente espansione vale per ogni distribuzione è detto ordine di P. L'aggiunto di P è definito da:

\left\langle \sum_\alpha p_\alpha \partial^\alpha S,\varphi\right\rangle = \left\langle S,\sum_\alpha (-1)^{|\alpha|} \partial^\alpha(p_\alpha\varphi)\right\rangle

Distribuzioni temperate[modifica | modifica wikitesto]

Le distribuzioni sono definite come gli elementi dello spazio duale di uno spazio di funzioni, lo spazio delle funzioni di test. Le forti restrizioni imposte alle funzioni di test nella definizione permettono di fornire agli elementi dello spazio duale le caratteristiche volute. Le distribuzioni temperate sono gli elementi dello spazio duale di uno spazio più grande, lo spazio di Schwartz \mathcal{S}(\R^n), che è lo spazio delle funzioni che decrescono più velocemente di un polinomio.[8] Lo spazio di Schwartz è lo spazio delle funzioni a decrescenza rapida all'infinito e infinitamente derivabili, le cui derivate parziali sono ancora a decrescenza rapida. Una funzione \phi: \R^n \to \R è quindi nello spazio di Schwartz se ogni derivata di \phi moltiplicata per una potenza di |x| converge a zero per |x| \to \infty.

Vi è una relazione tra la limitatezza del tasso di decrescita delle funzioni dello spazio di Schwartz e la crescita delle distribuzioni temperate: si mostra che una distribuzione temperata può essere sempre vista come il risultato della derivazione di una funzione limitata da un polinomio.[9] Nel momento in cui si vuole avere una classe di distribuzioni che siano limitate e localmente integrabili è quindi necessario estendere lo spazio delle funzioni di test allo spazio \mathcal{S}(\R^n) delle funzioni a decrescenza rapida all'infinito su \R^n. Le distribuzioni temperate costituiscono un sottospazio di D'(\R^n), e si tratta di una classe di funzionali di notevole importanza dal momento che ogni distribuzione temperata ha una trasformata di Fourier, cosa che non caratterizza ogni distribuzione. Tali funzioni formano uno spazio topologico vettoriale completo la cui metrica è definita da una famiglia di seminorme. Più precisamente, dato:

 p_{\alpha , \beta} (\varphi) = \sup_{x \in \mathbf{R}^n} | x^\alpha D^\beta \varphi(x)|

per \alpha e \beta multiindici \phi è una funzione di Schwartz se:

 p_{\alpha, \beta} (\varphi) < \infty

La famiglia di seminorme p_{\alpha , \beta} definisce una topologia localmente convessa sullo spazio di Schwartz.[10] Dal momento che le funzioni di Schwartz sono lisce, la famiglia di seminorme costituisce una norma sullo spazio di Schwartz. La trasformata di Fourier, inoltre, trasforma l'operazione di derivazione rispetto a x^\alpha in moltiplicazione e viceversa: tale simmetria implica che la trasformata di una funzione di Schwartz è ancora una funzione di Schwartz.

Da quanto detto, una distribuzione F è definita temperata se e solo se:

 \lim_{m\to\infty} F(\varphi_m)=0

e si ha:

 \lim_{m\to\infty} p_{\alpha , \beta} (\varphi_m) = 0

La derivata di una distribuzione temperata è ancora una distribuzione temperata, e questa classe di funzioni generalizza il concetto di funzione limitata localmente integrabile: tutte le distribuzioni a supporto compatto e tutte le funzioni a quadrato integrabili sono distribuzioni temperate.

Inoltre, tutte le funzioni localmente integrabili f con una crescita al massimo polinomiale, cioè tali che:

f(x) = O(|x|^r) \

per un dato r, sono distribuzioni temperate, e questo implica che anche le funzioni a p-esima potenza sommabile, con p > 1, lo sono.

Trasformata di Fourier di una distribuzione[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi trasformata di Fourier.

Si considerino le funzioni di prova e le distribuzioni temperate nel campo complesso. La trasformata di Fourier F definisce un automorfismo sullo spazio di Schwartz:

\langle FS,\phi \rangle = \langle S, F \phi \rangle

per ogni funzione di prova \phi. FS è ancora una distribuzione temperata, e la trasformata è un operatore continuo, lineare e biunivoco dallo spazio delle distribuzioni temperate in sé. La trasformata si relazione con l'operazione di derivazione nel seguente modo:

F\dfrac{dS}{dx}=ixFS

Per quanto riguarda la convoluzione, se S è una distribuzione temperata e \psi una funzione infinitamente derivabile lentamente crescente su \R^n, S\psi è ancora una distribuzione e:

F(S\psi)=FS*F\psi

è la convoluzione di FS e F\psi.

Convoluzione[modifica | modifica wikitesto]

Exquisite-kfind.png Per approfondire, vedi convoluzione.

Sotto determinate ipotesi è possibile definire la convoluzione di una funzione con una distribuzione e la convoluzione tra due distribuzioni.

Convoluzione di una funzione con una distribuzione[modifica | modifica wikitesto]

Sia f \in D(\R^n) una funzione di prova liscia a supporto compatto. La convoluzione di una distribuzione con f definisce l'operatore lineare:

C_f : D(\R^n)\to D(\R^n) \qquad C_f g = f*g

La convoluzione di f con una distribuzione S \in D'(\R^n) può essere definita considerando l'aggiunto di C_f relativo all'accoppiamento duale di D(\R^n) e D'(\R^n). Se f, g e \varphi sono in D(\R^n), allora grazie al teorema di Fubini:

\langle C_fg, \varphi\rangle = \int_{\mathbf{R}^n}\varphi(x)\int_{\mathbf{R}^n}f(x-y)g(y)\,dydx = \langle g, C_{\tilde{f}}\varphi\rangle

dove \scriptstyle{\tilde{f}(x) = f(-x)}. Estendendo per continuità, la convoluzione di f con una distribuzione S è data da:

\langle f*S, \varphi\rangle = \langle S, \tilde{f}*\varphi\rangle

per ogni funzione di prova \varphi \in D(\R^n).

Si può definire in modo equivalente la convoluzione di una funzione f con una distribuzione S usando l'operatore di traslazione \tau_x, definito su una funzione di prova da:

\tau_x \varphi(y) = \varphi(y-x)

Tale operatore può essere esteso attraverso il suo aggiunto allo spazio delle distribuzioni. La convoluzione di una funzione a supporto compatto con una distribuzione è allora la funzione definita per ogni x \in \R^n nel seguente modo:

(f*S)(x) = \langle S, \tau_x\tilde{f}\rangle

Si dimostra che la convoluzione di una funzione a supporto compatto con una distribuzione è una funzione liscia a supporto compatto ed il teorema di convoluzione di Titchmarsh mostra che:

\operatorname{ch}(f*S) = \operatorname{ch}f + \operatorname{ch}S

dove ch denota l'inviluppo convesso.

Convoluzione di due distribuzioni[modifica | modifica wikitesto]

Date due distribuzioni S e T su \R^n, con T a supporto compatto, è possibile definire la loro convoluzione S*T estendendo il concetto di convoluzione ad operazione lineare sulle distribuzioni, in modo che la formula associativa:

S*(T*\varphi) = (S*T)*\varphi

continui a valere per tutte le funzioni di prova \varphi, e tale estensione è unica. Per caratterizzare esplicitamente la convoluzione di due distribuzioni, per ogni funzioni di prova \varphi \in D(R^n) si consideri la funzione:

\psi(x) = \langle T, \tau_{-x}\varphi\rangle

Tale funzione è liscia in x ed è a supporto compatto. La convoluzione S*T è allora definita da:

\langle S * T,\varphi\rangle = \langle S, \psi\rangle

Questo generalizza la nozione di convoluzione di funzioni e si relaziona con l'operazione di derivazione nel seguente modo:

\partial^\alpha(S*T)=(\partial^\alpha S)*T=S*(\partial^\alpha T)

Tale definizione rimane valida anche per assunzioni meno restrittive su S e T.

Applicazioni[modifica | modifica wikitesto]

Un'applicazione delle distribuzioni si ha nel calcolo delle probabilità, come illustrato dal seguente esempio. Si supponga di voler studiare i tempi di attesa dei veicoli a un semaforo stradale. C'è una probabilità P_0 non nulla che un veicolo trovi il semaforo verde, e quindi non debba attendere. Per ogni numero positivo di secondi t c'è una probabilità che un veicolo debba attendere meno di t secondi. Tale funzione è crescente. Pertanto la distribuzione cumulativa di probabilità risultante avrà il seguente andamento: per t<0, vale zero; per t=0, vale P_0 , compreso tra zero e uno; per t>0, ha valori crescenti con continuità da P_0 a uno. Tale funzione è derivabile per t \ne 0, ma ha una discontinuità intorno a zero. Pertanto, non si tratta né di una distribuzione di probabilità continua, né di una distribuzione di probabilità discreta, bensì di una mista. Con le funzioni ordinarie, l'unico modo di trattarla, è attenersi alla cumulativa. Grazie alle funzioni generalizzate, invece, qualunque cumulativa è derivabile, e quindi si può ottenere una funzione generalizzata di densità di probabilità.

Pertanto, l'uso delle funzioni generalizzate permette di descrivere con un solo formalismo sia le densità di probabilità discrete, che le densità di probabilità continue, nonché le densità di probabilità miste.

Un'altra motivazione per l'uso delle funzioni generalizzate si ha, in fisica e ingegneria, nello studio di fenomeni impulsivi. Ad esempio, in un lampo di luce si può voler tener conto dell'energia luminosa emessa, pur considerando nulla la durata del lampo, e quindi infinita la luminosità istantanea. Nell'urto di due palle da biliardo, si può voler tener conto della quantità di moto delle palle prima e dopo l'urto, pur considerando nulla la durata dell'urto, e quindi infinite le accelerazioni. Nello studio dell'elettromagnetismo e delle sue applicazioni tecniche, ci sono numerosi casi di fenomeni impulsivi, come la scarica elettrostatica e la commutazione di circuiti.

Note[modifica | modifica wikitesto]

  1. ^ Reed, Simon, Pag. 147
  2. ^ F. Farassat, Pag. 3
  3. ^ Reed, Simon, Pag. 148
  4. ^ Tale richiesta implica una vasta classe di funzioni, tra le quali le funzioni a p-esima potenza sommabile.
  5. ^ F. Farassat, Pag. 10
  6. ^ Reed, Simon, Pag. 138
  7. ^ F. Farassat, Pag. 7
  8. ^ Reed, Simon, Pag. 134
  9. ^ Reed, Simon, Pag. 145
  10. ^ Reed, Simon, Pag. 133

Bibliografia[modifica | modifica wikitesto]

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

matematica Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica