Distribuzione di Boltzmann

Da Wikipedia, l'enciclopedia libera.
bussola Disambiguazione – Se stai cercando la distribuzione di Maxwell-Boltzmann, vedi Distribuzione di Maxwell-Boltzmann.

In fisica e matematica, la distribuzione di Boltzmann è una funzione di distribuzione per gli stati di un sistema. Si tratta di una misura di probabilità che sta alla base del concetto di insieme canonico, del quale descrive la distribuzione degli stati. Un caso particolare è la distribuzione di Maxwell-Boltzmann, usata per descrivere la velocità delle particelle nei gas.

Definizione[modifica | modifica sorgente]

La distribuzione di Boltzmann descrive la funzione di distribuzione per la frazione di particelle Ni / N che occupa uno stato i-esimo con energia Ei:

{{N_i}\over{N}} = {{g_i e^{-E_i/k_BT}}\over{Z(T)}}

dove k_B è la costante di Boltzmann, T è la temperatura (che si assume essere ben definita), g_i è il numero di stati aventi energia E_i, N è il numero totale delle particelle:

N=\sum_i N_i

e Z(T) è chiamata funzione di partizione, che è data da

Z(T)=\sum_i g_i e^{-E_i/k_BT}.

Alternativamente, per un singolo sistema ad una temperatura ben definita, la distribuzione di Boltzmann è la distribuzione di probabilità che il sistema sia in uno stato specifico.

La distribuzione di Boltzmann si applica solo a particelle ad una temperatura abbastanza elevata e densità sufficientemente bassa affinché gli effetti quantistici possano essere ignorati e le particelle obbediscano alla statistica di Maxwell-Boltzmann. La distribuzione di Boltzmann è spesso espressa in termini di β = 1/kT dove β è riferita alla beta termodinamica. Il termine e^{-E_i/k_BT}, che indica la probabilità relativa, non normalizzata, di uno singolo stato, è chiamato fattore di Boltzmann e appare spesso nello studio della fisica e chimica.

Quando l'energia è semplicemente l'energia cinetica della particella

E_i = {\begin{matrix} \frac{1}{2} \end{matrix}} mv^{2},

la distribuzione dà correttamente la distribuzione di Maxwell-Boltzmann delle velocità molecolari dei gas, enunciata da Maxwell nel 1859. La distribuzione di Boltzmann è, comunque, molto più generale. Per esempio, prevede anche la variazione della densità delle particelle in un campo gravitazionale con l'altezza, se E_i = {\begin{matrix} \frac{1}{2} \end{matrix}} mv^{2} + mgh. Infatti la distribuzione si applica ogni volta che possono essere trascurati effetti quantistici.

In alcuni casi, può essere usata un'approssimazione continua. Se vi sono g(EdE stati con energia E a E + dE, la distribuzione di Boltzmann predice una probabilità di distribuzione per l'energia:

p(E)\,dE = {g(E) \ e^{-\beta E}\over {\int g(E') \ e^{(-\beta E')}}\,dE'}\, dE.

In questa formula g(E) è definita come densità degli stati; la sua espressione esplicita stabilisce se lo spettro energetico è continuo.

Nel limite classico, a un grande valore di E/kT o a bassa densità degli stati (quando le funzioni a onda delle particelle praticamente non coincidono), sia la statistica di Bose-Einstein sia quella di Fermi-Dirac sono ben approssimate dalla distribuzione di Boltzmann.

Il problema principale della meccanica statistica[modifica | modifica sorgente]

In meccanica statistica, un sistema macroscopico composto da N particelle ha 3N gradi di libertà descritti dalle 3N coordinate generalizzate. Questi gradi di libertà sono rappresentabili nello spazio delle fasi a 6N dimensioni. Lo stato di un sistema macroscopico viene rappresentato da un punto nello spazio delle fasi. Quando lo stato del sistema varia nel tempo, il punto rappresentativo del sistema percorre una traiettoria nello spazio delle fasi. Trattare classicamente un sistema macroscopico composto da un numero di particelle molto grande è chiaramente inutile anche se teoricamente possibile. Per studiare i sistemi macroscopici con un numero enorme di particelle si fa uso del metodo statistico, che fornisce proprietà medie del sistema che permettono di superare il problema del gran numero di elementi che lo compongono.

Il metodo statistico si basa sul postulato fondamentale dell'uguale probabilità a priori: secondo questo postulato, se consideriamo un sistema grande (ambiente) e un suo sottosistema più piccolo ma macroscopicamente significativo (cioè che costituito da un numero sufficientemente grande di elementi), e prendiamo tutti i volumi piccoli a piacere, nello spazio delle fasi di tale sottosistema \Delta q_i \cdot \Delta p_i, allora durante un intervallo di tempo sufficientemente lungo la traiettoria T dello spazio delle fasi, per quanto complicata, passerà per ognuno di questi volumi. Il limite

w = \lim_{T \to \infty} \frac{\Delta t}{T}

tende ad un valore finito e rappresenta la probabilità che osservando il sistema ad un qualsiasi istante esso si possa trovare entro un elemento \Delta q \Delta p dello spazio delle fasi, se \Delta t rappresenta l'intervallo di tempo in cui il punto rappresentativo si trova in tale elemento.

Se l'elemento dello spazio delle fasi è infinitesimo:

dqdp = dq_1 dq_2 \dots dq_n dp_1 dp_2 \dots dp_n

allora si può introdurre la probabilità come:

dw = \rho(q_1, \dots, q_n, p_1 , \dots p_n) dq dp

dove \rho rappresenta una funzione di tutte le coordinate e tutti gli impulsi e si chiama densità di distribuzione statistica. Questa densità deve essere ovviamente normalizzata:

\int \rho \, dq dp = 1

La ricerca della più opportuna distribuzione statistica è il problema principale della meccanica statistica. Infatti ogni grandezza fisica f del sistema può essere ricavata come valore medio pesato con la distribuzione opportuna:

\bar f = \int f(q,p) \rho(q,p) \, dq dp

Il comportamento statistico di ogni grandezza f è quindi strettamente legato alla distribuzione \rho e il valore medio di f = \bar f presenta un picco pronunciato in corrispondenza del picco di \rho.

Due sottosistemi che compongono un sistema più grande sono detti quasi-isolati se le uniche interazioni sono effetti di superficie e sono trascurabili rispetto all'energia interna posseduta da ogni sottosistema. In tal caso si possono considerare tali sottosistemi statisticamente indipendenti. Questo vuol dire che tra due sottosistemi:

\rho_{12} = \rho_1 \cdot \rho_2

e vale anche l'inverso. Così anche i valori medi delle grandezze f in ogni sottosistema:

\overline{f_1 f_2} = \overline{f_1}\, \overline{f_2}

Si noti che la densità \rho si conserva entro lo spazio delle fasi: essa può essere visualizzata come un insieme di punti, ognuno dei quali rappresenta un possibile stato del sistema che occupa un certo volume nello spazio delle fasi stesso. Per il teorema di Liouville, tale volume, pur modificandosi nel tempo al variare di q e p e del tempo, si mantiene costante.

Entropia ed energia[modifica | modifica sorgente]

Prendiamo due sottosistemi quasi-isolati appartenenti ad un sistema molto più grande. In tal caso possiamo scrivere:

\ln \rho_{12} = \ln \rho_1 + \ln \rho_2 \

L'uso del logaritmo è opportuno per l'introduzione dell'entropia. Consideriamo un sistema isolato e dividiamo tale sistema in tanti sottosistemi. Ebbene possiamo ricavare una funzione di distribuzione semplice per descrivere le proprietà di un sistema. Sia d\Gamma = \Pi_{i} d\Gamma_i il numero degli stati (precisamente dovremmo considerare stati quantistici) dei sottosistemi, allora una funzione di distribuzione:

dw = cost \cdot \delta (E-E_0) \cdot \Pi_{i} d\Gamma_i

infatti l'unico parametro che possiamo considerare costante entro i sottosistemi è l'energia e la funzione delta di Dirac spiega la tipologia del picco di tale distribuzione intorno ad un determinato valore E_0 assegnato per l'energia, mentre è ovvio che tale distribuzione sia pesata per il fatto che il sistema si trovi in uno degli stati d\Gamma. Per ogni valore di E_n possiamo calcolare la funzione di distribuzione w_n. Possiamo ricavare la probabilità W(E)dE che l'energia del sottosistema si trovi nell'intervallo E, E+dE. Basta moltiplicare la distribuzione w(E) per il numero di stati con energia compresa in questo stato:

W(E) dE = d\Gamma (E) \cdot w(E)

con la condizione di normalizzazione:

\int W(E) dE = 1

W(E)dE possiede un massimo in corrispondenza di E = \overline{E} riconoscendo il valore medio dell'energia. Dobbiamo tenere presente che \Delta \Gamma rappresenta il numero di stati (quantistici) che sono compatibili con i vincoli microscopici del sistema, in questo caso con l'energia. Esso ha un diretto legame con il volume dello spazio delle fasi:

\Delta \Gamma = \frac{\Delta q \Delta p}{(2 \pi h)^n}

però solo nella trattazione della meccanica statistica quantistica. Essa impone un limite tra la meccanica quantistica e quella classica, determinata dalla costante di Planck h. Il logaritmo di questa funzione:

S = k_B \ln \Delta \Gamma

si chiama entropia del sistema, propriamente nel caso quantistico. Sostituendo:

S = k_B \ln \frac{\Delta q \Delta p}{(2 \pi h)^n}

e in questo modo risulta una grandezza adimensionale. Inoltre l'entropia è una grandezza sempre positiva e additiva. Nel caso classico essa è definita a meno di una costante additiva, mentre nel caso quantistico no.

Voci correlate[modifica | modifica sorgente]

fisica Portale Fisica: accedi alle voci di Wikipedia che trattano di fisica