Distribuzione di Boltzmann

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Disambiguazione – Se stai cercando la distribuzione di Maxwell-Boltzmann, vedi Distribuzione di Maxwell-Boltzmann.

In fisica e matematica, la distribuzione di Boltzmann è una funzione di distribuzione per gli stati di un sistema. Si tratta di una misura di probabilità che sta alla base del concetto di insieme canonico, del quale descrive la distribuzione degli stati. Un caso particolare è la distribuzione di Maxwell-Boltzmann, usata per descrivere la velocità delle particelle nei gas.

Definizione[modifica | modifica wikitesto]

La distribuzione di Boltzmann descrive la funzione di distribuzione per la frazione di particelle che occupa uno stato -esimo con energia :

dove è la costante di Boltzmann, è la temperatura (che si assume essere ben definita), è il numero di stati aventi energia , è il numero totale delle particelle:

e è chiamata funzione di partizione, che è data da:

Alternativamente, per un singolo sistema a una temperatura ben definita, la distribuzione di Boltzmann è la distribuzione di probabilità che il sistema sia in uno stato specifico.

La distribuzione di Boltzmann si applica solo a particelle a una temperatura abbastanza elevata e densità sufficientemente bassa affinché gli effetti quantistici possano essere ignorati e le particelle obbediscano alla statistica di Maxwell-Boltzmann. La distribuzione di Boltzmann è spesso espressa in termini di dove è riferita alla beta termodinamica. Il termine , che indica la probabilità relativa, non normalizzata, di un singolo stato, è chiamato fattore di Boltzmann e appare spesso nello studio della fisica e chimica.

Quando l'energia è semplicemente l'energia cinetica della particella:

la distribuzione dà correttamente la distribuzione di Maxwell-Boltzmann delle velocità molecolari dei gas, enunciata da Maxwell nel 1859. La distribuzione di Boltzmann è, comunque, molto più generale. Per esempio, prevede anche la variazione della densità delle particelle in un campo gravitazionale con l'altezza, se . Infatti la distribuzione si applica ogni volta che possono essere trascurati effetti quantistici.

In alcuni casi, può essere usata un'approssimazione continua. Se vi sono stati con energia da a , la distribuzione di Boltzmann predice una probabilità di distribuzione per l'energia:

In questa formula è definita come densità degli stati; la sua espressione esplicita stabilisce se lo spettro energetico è continuo.

Nel limite classico, a un grande valore di o a bassa densità degli stati (quando le funzioni a onda delle particelle praticamente non coincidono), sia la statistica di Bose-Einstein sia quella di Fermi-Dirac sono ben approssimate dalla distribuzione di Boltzmann.

Il problema principale della meccanica statistica[modifica | modifica wikitesto]

In meccanica statistica, un sistema macroscopico composto da particelle ha gradi di libertà descritti dalle coordinate generalizzate. Questi gradi di libertà sono rappresentabili nello spazio delle fasi a dimensioni. Lo stato di un sistema macroscopico viene rappresentato da un punto nello spazio delle fasi. Quando lo stato del sistema varia nel tempo, il punto rappresentativo del sistema percorre una traiettoria nello spazio delle fasi. Trattare classicamente un sistema macroscopico composto da un numero di particelle molto grande è chiaramente inutile anche se teoricamente possibile. Per studiare i sistemi macroscopici con un numero enorme di particelle si fa uso del metodo statistico, che fornisce proprietà medie del sistema che permettono di superare il problema del gran numero di elementi che lo compongono.

Il metodo statistico si basa sul postulato fondamentale dell'uguale probabilità a priori: secondo questo postulato, se consideriamo un sistema grande (ambiente) e un suo sottosistema più piccolo ma macroscopicamente significativo (cioè che costituito da un numero sufficientemente grande di elementi), e prendiamo tutti i volumi piccoli a piacere, nello spazio delle fasi di tale sottosistema , allora durante un intervallo di tempo sufficientemente lungo la traiettoria dello spazio delle fasi, per quanto complicata, passerà per ognuno di questi volumi. Il limite

tende a un valore finito e rappresenta la probabilità che osservando il sistema a un qualsiasi istante esso si possa trovare entro un elemento dello spazio delle fasi, se rappresenta l'intervallo di tempo in cui il punto rappresentativo si trova in tale elemento.

Se l'elemento dello spazio delle fasi è infinitesimo:

,

allora si può introdurre la probabilità come:

dove rappresenta una funzione di tutte le coordinate e tutti gli impulsi e si chiama densità di distribuzione statistica. Questa densità deve essere ovviamente normalizzata:

La ricerca della più opportuna distribuzione statistica è il problema principale della meccanica statistica. Infatti ogni grandezza fisica del sistema può essere ricavata come valore medio pesato con la distribuzione opportuna:

.

Il comportamento statistico di ogni grandezza è quindi strettamente legato alla distribuzione e il valore medio di presenta un picco pronunciato in corrispondenza del picco di .

Due sottosistemi che compongono un sistema più grande sono detti quasi-isolati se le uniche interazioni sono effetti di superficie e sono trascurabili rispetto all'energia interna posseduta da ogni sottosistema. In tal caso si possono considerare tali sottosistemi statisticamente indipendenti. Questo vuol dire che tra due sottosistemi:

e vale anche l'inverso. Così anche i valori medi delle grandezze in ogni sottosistema:

.

Si noti che la densità si conserva entro lo spazio delle fasi: essa può essere visualizzata come un insieme di punti, ognuno dei quali rappresenta un possibile stato del sistema che occupa un certo volume nello spazio delle fasi stesso. Per il teorema di Liouville, tale volume, pur modificandosi nel tempo al variare di e e del tempo, si mantiene costante.

Entropia ed energia[modifica | modifica wikitesto]

Prendiamo due sottosistemi quasi-isolati appartenenti a un sistema molto più grande. In tal caso possiamo scrivere:

L'uso del logaritmo naturale è opportuno per l'introduzione dell'entropia. Consideriamo un sistema isolato e dividiamo tale sistema in tanti sottosistemi. Ebbene possiamo ricavare una funzione di distribuzione semplice per descrivere le proprietà di un sistema. Sia il numero degli stati (precisamente dovremmo considerare stati quantistici) dei sottosistemi, allora una funzione di distribuzione:

infatti l'unico parametro che possiamo considerare costante entro i sottosistemi è l'energia e la funzione delta di Dirac spiega la tipologia del picco di tale distribuzione intorno a un determinato valore assegnato per l'energia, mentre è ovvio che tale distribuzione sia pesata per il fatto che il sistema si trovi in uno degli stati . Per ogni valore di possiamo calcolare la funzione di distribuzione . Possiamo ricavare la probabilità che l'energia del sottosistema si trovi nell'intervallo . Basta moltiplicare la distribuzione per il numero di stati con energia compresa in questo stato:

,

con la condizione di normalizzazione:

.

possiede un massimo in corrispondenza di riconoscendo il valore medio dell'energia. Dobbiamo tenere presente che rappresenta il numero di stati (quantistici) che sono compatibili con i vincoli microscopici del sistema, in questo caso con l'energia. Esso ha un diretto legame con il volume dello spazio delle fasi:

,

però solo nella trattazione della meccanica statistica quantistica. Essa impone un limite tra la meccanica quantistica e quella classica, determinata dalla costante di Planck . Il logaritmo naturale di questa funzione:

si chiama entropia del sistema, propriamente nel caso quantistico. Sostituendo si ottiene:

e in questo modo risulta una grandezza adimensionale. Inoltre l'entropia è una grandezza sempre positiva e additiva. Nel caso classico essa è definita a meno di una costante additiva, mentre nel caso quantistico no.

Voci correlate[modifica | modifica wikitesto]

  Portale Fisica: accedi alle voci di Wikipedia che trattano di fisica