Distribuzione di Maxwell-Boltzmann

Da Wikipedia, l'enciclopedia libera.
bussola Disambiguazione – Se stai cercando distribuzione di Boltzmann, vedi Distribuzione di Boltzmann.
Distribuzione di Maxwell-Boltzmann
Funzione di densità
Maxwell-Boltzmann distribution pdf.svg
Funzione di ripartizione
Maxwell-Boltzmann distribution cdf.svg
Parametri a>0\,
Supporto x\in [0;\infty)
Funzione di densità \sqrt{\frac{2}{\pi}} \frac{x^2 e^{-x^2/(2a^2)}}{a^3}
Funzione di ripartizione \textrm{erf}\left(\frac{x}{\sqrt{2} a}\right) -\sqrt{\frac{2}{\pi}} \frac{x e^{-x^2/(2a^2)}}{a} , dove \mathrm{erf} è la funzione degli errori
Valore atteso \mu=2a \sqrt{\frac{2}{\pi}}
Mediana
Moda \sqrt{2} a
Varianza \sigma^2=\frac{a^2(3 \pi - 8)}{\pi}
Indice di asimmetria \gamma_1=\frac{2 \sqrt{2} (16 -5 \pi)}{(3 \pi - 8)^{3/2}}
Curtosi 0
Entropia \frac{1}{2}-\gamma-\ln(a\sqrt{2\pi})
Funzione generatrice dei momenti
Funzione caratteristica

La distribuzione di Maxwell-Boltzmann è una funzione di distribuzione delle particelle con una certa energia, in un sistema che obbedisce alle leggi della fisica classica: fornisce cioè la probabilità che una particella abbia un'energia compresa fra E ed E + \mathrm{d}E, oppure una velocità compresa fra v e v + \mathrm{d}v.

Le ipotesi fondamentali alla base di questa distribuzione sono che le particelle componenti il sistema siano distinguibili, che il sistema sia lineare, isotropo e che i processi statistici alla base dello stato del sistema obbediscano alla statistica di Markov. In termini fisici, si dice allora che il sistema è perfettamente termalizzato. Questo avviene per esempio se la frequenza di collisioni all'interno del sistema (che per esempio può essere un gas) è abbastanza elevata rispetto ai tempi dei processi che si vogliono analizzare.

Quando la prima ipotesi cade, per esempio nella meccanica quantistica, la distribuzione di Maxwell-Boltzmann non è più valida, e compaiono invece due tipi di distribuzioni diverse, note come distribuzione di Fermi-Dirac e di Bose-Einstein.

Quando le ipotesi sulla linearità, isotropia o sulla statistica Markoviana cadono, la distribuzione di Maxwell-Boltzmann viene variamente modificata, a seconda delle proprietà del sistema. In questo secondo caso, non esiste una trattazione organica completa, ma ci sono varie teorie che permettono di trattare alcuni casi particolari. Qui di seguito verrà esposto il caso dei sistemi debolmente caotici, cioè di quei sistemi che nella teoria del caos non sono ergodici, ma sono caratterizzati da regioni ordinate immerse in regioni più caotiche.

Deduzione della distribuzione di Maxwell-Boltzmann[modifica | modifica wikitesto]

La distribuzione di Maxwell-Boltzmann venne per la prima volta introdotta dal fisico James Clerk Maxwell, ma giunse a celebrità tramite le intuizioni di Ludwig Boltzmann. Viene qui di seguito esposta la deduzione classica, fornita da Boltzmann a partire da una colonna di gas sottoposta alla gravità.

Il modello fisico[modifica | modifica wikitesto]

Schema della pressione che agisce su un elemento fluido alto dz in una colonna di gas sottoposta a gravità.

Consideriamo una colonna di gas sotto effetto della gravità[1]: all'altezza z + \mathrm{d}z si avrà la pressione P + \mathrm{d} P, dove vale la relazione:

\, \mathrm{d}P = - \rho g \, \mathrm{d}z

poiché \rho g \mathrm{d}z è il peso che grava su una superficie unitaria di una colonna di gas di altezza \mathrm{d}z. Per un gas ideale vale la legge dei gas PV = nRT, che riscriviamo come:

\, P = \frac{\rho}{M} RT   .

Usando la definizione di volume molare \rho/M = n/V. L'equazione per lo sbilancio di pressione \mathrm{d}P diventa pertanto

\, \frac{\mathrm{d}P}{P} = - M g \; \frac{\mathrm{d}z}{RT}   .

Questa è una equazione differenziale che integrata fornisce:

\, P = P_{0} e^{-Mgz/RT}

dove P_0 è la pressione alla base della colonna.

Siccome densità di particelle n e pressione P sono proporzionali, si può anche dire che

\, n = n_{0} e^{-Mgz/RT} =  n_{0} e^{-mgz/K_BT}

dove K_B = R/N_A, è la costante di Boltzmann, che è la costante dei gas divisa per il numero di Avogadro. La legge esponenziale che abbiamo dedotto è fondamentale, e può essere generalizzata facilmente, tenendo conto che l'energia potenziale della colonna è E = mgz, da cui si deduce subito che la densità della colonna varia con l'energia tramite un fattore e^{-E/K_B T} detto fattore di Boltzmann.

Il modello statistico[modifica | modifica wikitesto]

Considerando un sistema formato da N particelle totali con energia totale

E=\begin{matrix}\sum_{i} N_i\end{matrix} \varepsilon_i

si assume che la distribuzione all'equilibrio sia quella più probabile e quella a cui compete il valore massimo del peso statistico W. Se in queste condizioni ha luogo una variazione infinitesima \delta della distribuzione, ricordando che

W=\frac {N!}{\prod_{i} N_i!}

ovvero in forma logaritmica

\ln W = \ln N! - \begin{matrix}\sum_{i}\end{matrix} \ln N_i!

e la restrizione che non cambi né il numero totale di particelle né l'energia totale del sistema, si perviene a

\delta(\ln W)=\begin{matrix}\sum_{i}\end{matrix} \delta(\ln N_i!)=0

Visto che si ha a che fare con valori elevati (es. un numero di Avogadro di particelle), si può applicare l'approssimazione di Stirling

\ln x! = x \ln x - x

ottenendo in tal modo

\begin{matrix}\sum_{i}\end{matrix} \delta(\ln N_i!)= \begin{matrix}\sum_{i} \end{matrix}\delta(N_i \ln N_i - N_i)=\begin{matrix}\sum_{i}\end{matrix} (\ln N_i)\delta N_i=0

Tenendo contemporaneamente conto delle equazioni che vincolano le fluttuazioni di distribuzione, ovvero

\begin{cases} \begin{matrix}\sum_{i}\end{matrix} \delta N_i =0 \\ \begin{matrix}\sum_{i}\end{matrix} \varepsilon_i \delta N_i =0 \\ \delta(\ln W)=\begin{matrix}\sum_{i}\end{matrix} \delta(\ln N_i!)=0 \end{cases}

è possibile affrontare il problema utilizzando il metodo dei moltiplicatori di Lagrange introducendo i coefficienti \alpha e \beta. Assegnando a questi due coefficienti un valore tale che ad esempio i termini \delta N_1 e \delta N_2 dell'equazione

\begin{matrix}\sum_{i}\end{matrix} (\alpha + \beta \varepsilon_i + \ln N_i)\delta N_i=0

risultino nulli, allora non si fa altro che imporre che la somma dei termini in \delta N_i con i>2 sia eguale a zero. Il che equivale quindi alla condizione generale

\alpha + \beta \varepsilon_i + \ln N_i = 0 \

che può anche essere espressa nella forma esponenziale

N_i = e^{-\alpha}e^{-\beta \varepsilon_i}

con e^{-\alpha} costante.

L'identificazione di e^{-\beta \varepsilon_i} con il modello fisico della colonna di gas sottoposta a gravità, permette di ricavare la relazione \beta = \frac{1}{K_B T}.

Distribuzione in una sola direzione[modifica | modifica wikitesto]

Spesso nei casi pratici è meglio esprimere la densità di particelle in funzione della velocità della particella. Definiamo pertanto h(v_z) la distribuzione di velocità monodimensionale in direzione z: cioè, h(v_z) \mathrm{d}v_z è la probabilità che la componente della velocità lungo z sia compresa fra v_z e v_z + \mathrm{d}v_z. Dalla legge di conservazione dell'energia, si ha che una particella con velocità v_z può arrivare fino a un'altezza

\,  v_z^2 = 2 gz  .

da cui differenziando si ottiene v_z \mathrm{d} v_z = g \mathrm{d} z. Queste sono proprio le molecole che raggiungono il livello z, ma non il livello z + \mathrm{d}z perché non hanno abbastanza energia cinetica per farlo. Differenziando la legge esponenziale per la densità si ottiene:

\, \mathrm{d}n = - \frac{n_0 m g}{K_B T} \; e^{-m g z/K_B T} \, \mathrm{d}z .

e utilizzando la relazione che lega altezza raggiunta z alla velocità v_z si ottiene:

 \mathrm{d}n = - \frac{n_0 m g}{K_B T} \; e^{- m v_z^2/2 K_B T} \; \frac{v_z \mathrm{d}v_z}{g} .

Siccome per definizione |\mathrm{d}n| = h(v_z) \mathrm{d}v_z, si ottiene che

\, h(v_z) = \frac{n_0 m}{K_B T} \; e^{- m v_z^2/2 K_B T} \; |v_z| .

Definendo la media del modulo della velocità come \langle |v_z|\rangle  = \int_{-\infty}^{\infty} |v_z| h(v_z) \mathrm{d} v_z , si ottiene che

\, h(v_z) = \frac{m \langle |v_z|\rangle}{K_B T}  \; e^{- m v_z^2/2 K_B T} = C e^{- m v_z^2/2 K_B T} .

dove C è una opportuna costante di normalizzazione. In pratica, la distribuzione di velocità in una sola direzione è una gaussiana di ampiezza K_B T/m: ciò significa che il moto delle particelle lungo z è completamente caotico (ipotesi del caos molecolare), e la distanza quadratica media che una particella percorre in direzione z è proporzionale alla temperatura del sistema.

Per ottenere il valore della costante, si impone che la distribuzione sia normalizzata all'unità, cioè si integra l'espressione per h(v_z) su un dominio infinito (ritorneremo poi su questo aspetto):

\, \int_{-\infty}^{+\infty} C e^{- m v_z^2/2 K_B T} \,  \mathrm{d}v_z = 1 .

Per trovare l'integrale si utilizzano le proprietà degli integrali della funzione Gamma, con il cambio di variabili \zeta = \sqrt{\frac{m}{2 K_B T}} \, v_z, per ottenere alla fine la distribuzione correttamente normalizzata su tutto l'asse reale:

 h(v_z) = \left( \frac{m}{2 \pi K_B T}\right)^{1/2} \; e^{- m v_z^2/2 K_B T} .

Momenti della distribuzione monodimensionale[modifica | modifica wikitesto]

Uno dei cardini del pensiero di Boltzmann è che le quantità misurabili nel mondo macroscopico (cioè, le quantità termodinamiche come temperatura e pressione) si possano ottenere con operazioni di media su quantità microscopiche, utilizzando la funzione di distribuzione: come si dice in statistica, utilizzando il metodo dei momenti.

È interessante a questo punto chiedersi quali siano i momenti della distribuzione monodimensionale, cioè le quantità:

 \langle v_z^{n} \rangle = \int_{-\infty}^{+\infty} \left( \frac{m}{2 \pi K_B T}\right)^{1/2} \; v_z^n \,  e^{- m v_z^2/2 K_B T} \,  \mathrm{d}v_z .

con n arbitrario, dove rimarchiamo ancora che l'integrale è effettuato su un dominio infinito.
Da semplici considerazioni di parità della funzione integranda, si ottiene che \langle v_z^{n} \rangle = 0 per n intero dispari: nel caso n=1, questo significa semplicemente che la velocità media in direzione z è nulla (conseguenza dell'ipotesi del caos molecolare).

Se invece n è intero pari, l'integrale si risolve facendo uso di uno degli integrali che definiscono la funzione Gamma:

\, \int_{-\infty}^{+\infty} \zeta^n e^{-\zeta^2} \, \mathrm{d}\zeta = \frac{1}{2} \; \Gamma\left( \frac{n + 1}{2}\right) .

Usando il consueto cambio di variabili si ottiene per n=2,4,6 \ldots che i momenti n-simi sono

 \langle v_z^{n} \rangle = \frac{1}{\sqrt{\pi}} \, \left( \frac{2 K_B T}{m} \right)^{n/2} \; \Gamma\left( \frac{n+1}{2}\right) .

Il risultato si legge come segue: nonostante la distribuzione sia definita su un dominio infinito, tutti i momenti di velocità sono finiti. Ciò significa in particolare che lo spostamento quadratico medio di una particella è non nullo anche a distanze infinite (il che implica un conflitto con la dinamica del sistema): in realtà, tutte le distribuzioni reali sono troncate: ritorneremo su questo punto più avanti.

Distribuzioni della velocità per un gas di ossigeno alle temperature di -100, 20 e 600 °C.

In particolare, il momento secondo (velocità quadratica media in direzione z) è dato dall'espressione generale nel caso n=2:

\, \langle v_z^{2} \rangle = \frac{K_B T}{m} .

oppure, in termini di energia cinetica media:

\, \frac{1}{2} m \langle v_z^{2} \rangle = \frac{1}{2} \, K_B T .

Quest'ultima è la celebre legge che dice che la temperatura è proporzionale tramite la costante di Boltzmann all'energia cinetica media del sistema.

Deduzione della distribuzione completa[modifica | modifica wikitesto]

La deduzione della distribuzione completa tridimensionale è relativamente semplice, se si suppone che il sistema sia isotropo, cioè che il moto delle particelle non abbia direzioni preferenziali. In queste ipotesi, la distribuzione completa è il prodotto delle distribuzioni monodimensionali sui singoli assi x, y e z.

 f(v_x,v_y,v_z) = h(v_x) h(v_y) h(v_z)  = \left( \frac{m}{2 \pi K_B T}\right)^{3/2} e^{- m (v_x^2+v_y^2+v_z^2) /2 K_B T}

L'espressione può essere semplificata, usando il modulo della velocità v = \sqrt{v_x^2 + v_y^2 + v_z^2}, e usando l'elemento di volume in coordinate sferiche \mathrm{d}\Omega = v^2 \mathrm{d}v \, \sin \theta \, \mathrm{d}\theta \mathrm{d}\phi, e integrando sulle coordinate angolari:

 f(v) = 4 \pi \left( \frac{m}{2 \pi K_B T}\right)^{3/2} v^2 e^{- m v^2 /2 K_B T} \,

Quest'ultima espressione è l'espressione classica della distribuzione. Si vede subito che in 3 dimensioni non si tratta più di una gaussiana: all'aumentare della temperatura la distribuzione si allarga, ma contemporaneamente il massimo si sposta verso valori di velocità più elevati.

Per quanto riguarda il momento secondo, la velocità quadratica media si ottiene usando l'indipendenza dei moti nei tre assi x, y e z:

 \langle v^{2} \rangle = \langle v_x^{2} \rangle + \langle v_y^{2} \rangle + \langle v_z^{2} \rangle = \frac{3 K_B T}{m} \,

oppure, in termini di energia cinetica media (totale) del sistema:

 \frac{1}{2} m \langle v^{2} \rangle = \frac{3}{2} K_B T \,

cioè, tre volte l'energia cinetica media per ciascuna direzione del moto. Questo risultato è in accordo col teorema di equipartizione dell'energia.

Generalizzando quanto trovato per la distribuzione monodimensionale, si può dedurre che i momenti successivi della distribuzione completa (tridimensionale) sono dati da:

 \langle v^{n} \rangle = \frac{2}{\sqrt{\pi}} \; \left( \frac{2 K_B T}{m} \right)^{n/2} \; \Gamma \left(  \frac{n + 3}{2} \right) \,

Questo significa che, per es. per i momenti pari

\langle v^{2} \rangle = \frac{3 K_B T}{m}, \langle v^{4} \rangle = 15 \left( \frac{K_B T}{m} \right)^2, \langle v^{6} \rangle = 105 \left( \frac{K_B T}{m} \right)^3

e così via.

Validità della distribuzione in sistemi reali[modifica | modifica wikitesto]

La deduzione della distribuzione di Maxwell-Boltzmann è una delle dimostrazioni più eleganti e geniali della fisica: essa è di fatto l'unica distribuzione analitica che permetta (in un sistema classico), in modo relativamente semplice, di connettere grandezze termodinamiche e dinamica microscopica. Per questo motivo essa è largamente usata in tutti i campi della fisica applicata, al punto da fare spesso dimenticare quali siano le ipotesi alla base della dimostrazione. Ignorare queste ipotesi porta spesso a incontrare deviazioni dai dati sperimentali, riconducibili al fatto che i sistemi reali sono spesso molto più complessi.

Le ipotesi principali usate sono le seguenti:

Ipotesi stocastica[modifica | modifica wikitesto]

Ipotesi che il sistema obbedisca all'ipotesi del caos molecolare. Questo implica che la distribuzione di velocità in una qualsiasi direzione sia gaussiana: cioè, le particelle non hanno una direzione preferenziale di moto. Se questo è vero nel caso di un gas perfetto, non è sempre vero per tutti i sistemi. Infatti in meccanica si possono risolvere in modo analitico, tramite l'equazione di Newton, solo sistemi relativamente semplici, come il sistema a due corpi. Esistono poi alcuni sistemi caotici che possono essere trattati analiticamente nella teoria del caos, come il biliardo di Sinai e l'attrattore di Lorenz: talvolta si parla per essi di caos deterministico. Tuttavia, la caratteristica di questi sistemi è che sono caratterizzati da pochi gradi di libertà.

Per i sistemi reali, che sono generalmente caratterizzati da un gran numero di gradi di libertà, è difficile trovare un ponte semplice che leghi la dinamica microscopica ai comportamenti macroscopici della termodinamica: la semplificazione adottata da Boltzmann è proprio quella di portare il numero di gradi di libertà a infinito, e supporre che il moto delle particelle sia stocastico. Questo generalmente è abbastanza ben verificato: per esempio, il numero di particelle contenuto in un metro cubo d'aria è 10^{25}, il che giustifica questa supposizione.

Per alcuni sistemi invece, l'ipotesi stocastica non funziona bene: quando il numero dei gradi di libertà è grande, ma non infinito, il comportamento del sistema può essere intermedio fra quello di un sistema predicibile (come i sistemi della teoria del caos) e il caos molecolare. Cioè, possono esistere delle zone di caos debole immerse in un mezzo stocastico. Un esempio tipico è quello dei plasmi immersi in campi magnetici caotici vicini alla soglia di ergodicità. In questi casi occorrono delle distribuzioni diverse (per esempio, la distribuzione di Lévy), che però spesso non sono analitiche, e complicano notevolmente i calcoli.

Ipotesi di isotropia[modifica | modifica wikitesto]

Se ci sono direzioni preferenziali del moto, la distribuzione globale non è più dipendente solo dal modulo della velocità, ma anche dalla posizione[2].

Ipotesi di sistema infinito[modifica | modifica wikitesto]

Come visto sopra, la distribuzione di Maxwell-Boltzmann è definita su tutto l'asse reale. Nella realtà, nessun sistema è infinito, ma ha una dimensione finita: tuttavia, perché la deduzione abbia senso, occorre che lo spazio \Delta x che una particella può percorrere in un tempo \Delta t sia sufficientemente piccolo rispetto alla dimensione globale del sistema L. Cioè, in formule, deve valere il limite:

 \lim_{L \rightarrow \infty} \frac{\Delta x}{L} = 0 .

Nel caso Maxwell-Boltzmann si ha che

 \Delta x = \sqrt{\langle v_x^2 \rangle} \, \Delta t = \sqrt{\frac{K_B T}{m}} \Delta t .

pertanto il limite va a zero per temperature ragionevoli: ciò significa che la dimensione del salto elementare che può fare una particella deve essere comunque piccola rispetto al sistema. Se ciò non avviene, ci sono importanti deviazioni alla distribuzione, genericamente indicate come subdiffusione o superdiffusione[3].

Ipotesi di sistema markoviano[modifica | modifica wikitesto]

Un'ipotesi sottintesa nella trattazione termodinamica è che le proprietà degli urti fra le particelle non dipendano dalla storia pregressa delle particelle (cioè da come si è arrivati all'urto) ma solo dalle condizioni istantanee al momento dell'urto. Questa ipotesi può cadere, ad esempio, se la distanza media fra due urti è dell'ordine della lunghezza d'onda di De Broglie della particella: in tal caso, quest'ultima deve essere trattata come un'onda secondo le regole della meccanica quantistica. Non è più possibile, quindi, trascurare i fenomeni di interferenza fra i vari eventi di scattering e l'ipotesi di processo markoviano cade. Si possono anche verificare situazioni, come quella della localizzazione di Anderson, dove i processi di diffusione necessari alla termalizzazione del sistema sono proibiti e quindi la statistica di Boltzmann smette di valere.

Applicazioni[modifica | modifica wikitesto]

Biofisica[modifica | modifica wikitesto]

In neuroscienze, si descrivono spesso i meccanismi di apertura e chiusura dei canali ionici attraverso una funzione di Boltzmann semplificata quando questi sono dipendenti dal potenziale di membrana. La formula utilizzata è quindi:

\frac{G(V)}{G_{max}}=\frac{1}{1+e^{\frac{V-V_{1/2}}{k}}} ,

dove

  • V è il potenziale di membrana,
  • G(V) è la conduttività elettrica ionica associata ai canali, dipendente dal potenziale di membrane,
  • Gmax è la conduttività massima,
  • La metà del potenziale d'attivazione (V1/2 ) è il potenziale di membrana per cui la metà dei canali sono aperti,
  • k è la dipendenza dall'apertura dei canali in rapporto al cambiamento di potenziale.

La distribuzione di Boltzmann è qui utilizzata per descrivere i risultati sperimentali ottenuti dalla misura patch-clamp delle correnti di membrana, e così determinare le proprietà delle diverse categorie di correnti transmembrana. I parametri V1/2 e k sono determinanti per la modellizzazione informatica delle proprietà elettriche di una cellula nervosa.

Note[modifica | modifica wikitesto]

  1. ^ (EN) Questa deduzione si può trovare in John D. McGervey, Introduction to Modern Physics, seconda edizione, Academic Press, San Diego, CA, 1983, pp. 6-9. ISBN 0-12-483560-0.
  2. ^ (EN) Una trattazione completa nel libro di Radu Balescu, Statistical Dynamics: Matter Out of Equilibrium, World Scientific Publishing Company (giugno 1997). ISBN 1-86094-046-3.
  3. ^ (EN) I problemi relativi alla definizione di una distribuzione che leghi la termodinamica alla dinamica di un sistema realistico di dimensioni finite è un argomento di frontiera: un articolo di rassegna degli ultimi risultati nel campo è G. M. Zaslavsky, Chaos, fractional kinetics and anomalous transport, Physics Reports 371 (2002), pp. 461-580.

Voci correlate[modifica | modifica wikitesto]

Collegamenti esterni[modifica | modifica wikitesto]

fisica Portale Fisica: accedi alle voci di Wikipedia che trattano di fisica