Insieme microcanonico

Da Wikipedia, l'enciclopedia libera.
Insieme microcanonico nello spazio delle fasi.

In meccanica statistica, l'insieme microcanonico è un insieme statistico che descrive i sistemi isolati, cioè quei sistemi che hanno un valore definito di energia e numero di particelle. Esso si basa sul postulato dell'uguale probabilità a priori (Ipotesi ergodica): quando un sistema isolato è in equilibrio termodinamico, il suo stato può essere qualunque tra quelli che soddisfano le condizioni macroscopiche del sistema, ognuno con la stessa probabilità.

In pratica ciò che è utile in meccanica statistica, non è accertare lo stato per ogni istante, ma solo le sue proprietà macroscopiche; inoltre non è utile (oltre che possibile) risolvere le equazioni hamiltoniane delle N particelle che compongono il nostro sistema. L'ensemble microcanonico permette di correlare la termodinamica alle proprietà statistiche microscopiche di un corpo. Per fare ciò, si considera un sistema chiuso di N particelle e volume V, che ha energia ben definita e costante E. L'energia è compresa tra E \ e E+\Delta E \ , dove \Delta E \ll E, dal momento che non può essere definita con esattezza.

Descrizione nello spazio delle fasi[modifica | modifica sorgente]

Si considera lo spazio delle fasi come lo spazio 6N-dimensionale, i cui assi sono tutte le 3N coordinate e i 3N impulsi coniugati: ogni punto dello spazio delle fasi rappresenta uno stato del sistema in questione. Col passare del tempo il punto rappresentativo del sistema si muove nello spazio delle fasi e descrive una traiettoria, passando per un numero praticamente infinito di stati: questa traiettoria giace su una superficie (o meglio un'ipersuperficie) che è la superficie identificata dall'energia E = \mathcal{H}(p,q), dove \mathcal{H} è l'Hamiltoniano del sistema.

Assegnando quindi E ed E + \Delta E, assegnamo due superfici molto vicine nello spazio delle fasi, sulle quali il nostro sistema descrive una traiettoria. È da notare che le condizioni fissate di energia sono soddisfatte da un numero infinito di stati compatibili con essi: questo significa che possiamo pensare di rappresentare il sistema come un'infinità di copie identiche del sistema ad un certo istante, ognuna delle quali è uno stato compatibile con le condizioni macroscopiche imposte al sistema: questo è quello che si intende per ensemble di Gibbs. Esso è rappresentato da un insieme di punti nello spazio delle fasi caratterizzato da una funzione densità \rho(q,p,t) definita in modo che:

\rho (q,p,t) d^{3N}q d^{3N}p \

rappresenti il numero dei punti rappresentativi del sistema contenuti nel volume infinitesimo dello spazio delle fasi d^{3N} q d^{3N} p all'istante t. Come sappiamo dal teorema di Liouville tale densità si deforma nello spazio delle fasi, mantenendo il suo volume, cioè segue un'equazione di continuità di tipo idrodinamico.

Seguendo il postulato dell'uguale probabilità a priori, si evince che la funzione densità classica deve essere del tipo:

\, \, \rho (p,q) = \left\{\begin{matrix} cost & \mbox{per} \, E < \mathcal{H}(p,q) < E+\Delta E \\ 0 & \mbox{altrove} 
\end{matrix}\right.

Un altro modo di scrivere in modo generale la densità di distribuzione microcanonica è:

\rho (p,q) = C \cdot \delta(E - H)

facendo intervenire la funzione delta di Dirac, vediamo che questa densità è diversa da zero solo in prossimità dell'energia H assegnata e zero altrove. Tale funzione densità deve essere normalizzata,:

\int d^{3N} p d^{3N} q \rho (p_i q_i) = C \int_{E \le \mathcal{H} \le E + \Delta E} d^{3N} q d^{3N} p = 1

La conoscenza della funzione densità permette di ricavare tutte le informazioni macroscopiche del sistema. Definiamo \Gamma(E) (vedi figura): il volume dello spazio delle fasi occupato dall'ensemble microcanonico come:

\Gamma (E) = \int_{E< \mathcal{H} < E + \Delta E} d^{3N}q \, d^{3N} p

oppure definiamo \Sigma (E) come il volume dello spazio delle fasi al di sotto della superficie di energia E come:

\Sigma (E) = \int_{\mathcal{H} < E} d^{3N}q \, d^{3N} p

e quindi:

\Gamma (E) = \Sigma (E+\Delta E) - \Sigma (E) \

oppure ancora definiamo la densità degli stati con energia E:

\omega (E) = \frac{\partial \Sigma (E)}{\partial E}

in modo che:

\Gamma (E) = \omega (E) \cdot \Delta E

Allora l'entropia S di un sistema in equilibrio termodinamico si definisce come:

S (E,V) = k_{B} \cdot \log \Gamma (E)

dove k_{B} = 1.38 \cdot 10^{-23} \, J/K è la costante di Boltzmann, questa rappresenta la connessione tra la meccanica statistica e la termodinamica.

Conteggio del numero dei microstati[modifica | modifica sorgente]

Come abbiamo detto consideriamo un ensemble microcanonico costituito da \mathcal N copie identiche del sistema chiuso ognuna di esse identificata da grandezze macroscopiche E,V,N. Ognuno di questi sistemi si trova in un microstato identificato da (q_i, p_i) dello spazio delle fasi, diversi uno dall'altro, ma tutti si trovano sulla superficie di energia E. Dividiamo la superficie di energia E in tante celle di uguale grandezza \Delta \sigma_i. In ognuna di queste celle si trovano in generale n_i sistemi per cui:

\mathcal N = \sum_i n_i

Il numero n_i rappresenta proprio il peso del corrispondente microstato nell'ensemble. La quantità p_i = n_i / \mathcal N può essere interpretata come la probabilità che il microstato i si trovi nella cella \Delta \sigma_i. Questa quantità corrisponde esattamente alla \rho d^{3N} q d^{3N} p nella formulazione precedente cioè considerando i punti nello spazio delle fasi talmente densi da essere continui.

Per definire il sistema dobbiamo trovare la distribuzione degli n_i microstati più probabile. Quindi dobbiamo essere in grado di conteggiare il numero totale di modi in cui possiamo ottenere una certa configurazione (macrostato) \{n_1, n_2, \dots\} degli \mathcal N sistemi. Ognuna di queste configurazioni è ottenibile in:

W\{ n_i \} = \frac{\mathcal N !}{\prod_i n_i !}

modi diversi. Ora però dobbiamo pesare ognuna di queste configurazioni secondo la probabilità \omega_i di trovare esattamente n_i sistemi in \Delta \sigma_i e tale probabilità è (\omega_i)^{n_i}. La distribuzione totale di probabilità è quindi:

W_{tot} \{ n_i \} = \mathcal N ! \prod_i \frac{(\omega_i)^{n_i}}{n_i !}

Per ottenere la distribuzione più probabile \{ n_i \}^* sappiamo essere quella per cui W_{tot} è massima. Usiamo convenientemente il logaritmo e approssimiamo con la formula di Stirlng per i fattoriali \ln n! \approx n \ln n - n, quindi massimizziamo:

 \begin{align} \ln W_{tot} &= \ln \mathcal N! + \sum_i (n_i \ln \omega_i - \ln n_i!) \\ &= 
\mathcal N \ln \mathcal N - \mathcal N + \sum_i (n_i \ln \omega_i - [n_i \ln n_i - n_i]) \end{align}

Per massimizzare deve essere:

d \ln W_{tot} = - \sum_i (\ln n_i - \ln \omega_i) dn_i = 0 \

Questo è un problema vincolato che si risolve con il metodo di Lagrange e un moltiplicatore di Lagrange \lambda sul numero totale di particelle:

d \ln W_{tot} = -\sum_i (\ln n_i - \ln \omega_i - \lambda) d n_i = 0 \

L'unico modo per ottenere l'annullamento dell'equazione sopra è che:

 \ln n_i - \ln \omega_i - \lambda = 0 \, \, \Rightarrow \, \, n_i = \omega_i e^{\lambda} = cost

Ora questa ci dice che il numero di sistemi negli elementi di superficie \Delta \sigma_i è proporzionale alla probabilità \omega_i di trovare un sistema in un elemento suddetto. Quindi è chiaro che \omega_i è proporzionale a \Delta \sigma_i, per cui il postulato di eguale probabilità a priori è plausibile: come sopra per lo spazio delle fasi \rho rappresenta la probabilità di trovare un sistema nell'elemento dello spazio delle fasi d^{3N}p d^{3N}q allora p_i = n_i / \mathcal N è la probabilità di trovare un sistema dell'enseble nel microstato i.

Siamo in grado di riesprimere la (1) come:

\, \, \rho (p,q) = \left\{\begin{matrix} 1/\Gamma(E) & \mbox{per} \, E < \mathcal{H}(p,q) < E+\Delta E \\ 0 & \mbox{altrove} 
\end{matrix}\right.

e quindi la connessione con la termodinamica tramite la:

S(E,V,N) = k_B \ln \Gamma(E,V,N) \

Entropia e ensemble microcanonico[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Entropia.

L'entropia definita nella (7), ha un valore ben definito in un sistema in equilibrio termodinamico: questa proprietà si esprime dicendo anche che l'entropia è un differenziale esatto. Poiché \Gamma (E) rappresenta il volume dello spazio delle fasi con l'imprecisione di \Delta E, anche l'entropia assume lo stesso significato, essa rappresenta una misura dell'imprecisione della conoscenza del sistema. Se un sistema è in non equilibrio, col passare del tempo esso tende spontaneamente all'equilibrio (si considerano solo sistemi che raggiungono l'equilibro), cioè i vari stati compatibili con le condizioni macroscopiche tendono allo stato di equilibrio, che è lo stato più probabile, passando cioè per stati sempre più probabili: questo vuol dire che \Gamma (E) diventa via via più grande fino al suo massimo valore per lo stato di equilibrio, di conseguenza l'entropia per uno stato di equilibrio è massima, questa è anche detta legge dell'aumento dell'entropia o Secondo principio della termodinamica.

Ricordiamo che l'entropia per come è definita è una quantità additiva come in termodinamica ed è una funzione non decrescente, cioè dati due sottosistemi di energia E_1 ed E_2, e trascurando l'interazione tra essi, l'hamiltoniana totale è:

\mathcal{H} = \mathcal{H}_1 + \mathcal{H}_2

Il volume dello spazio delle fasi è:

\Gamma (E) = \Gamma (E_1) \cdot \Gamma (E_2)

per cui l'entropia totale del sistema:

S = k \cdot \log \Gamma (E) = k \cdot \log \Gamma (E_1) + k \cdot \log \Gamma (E_2) = S_1 + S_2

Si può dimostrare che l'entropia si può definire alternativamente:

S = k \cdot \log \Sigma (E)
S = k \cdot \log \omega (E)

Formalmente basta scrivere:

\begin{align} S (E, V, N) &= \int_{E \le \mathcal H \le E + \Delta E} d^{3N} q d^{3N}p \rho (- k_B \ln \rho) \\ 
&= \int_{E \le \mathcal H \le E + \Delta E} d^{3N}q d^{3N} p \frac{1}{\Gamma} \left(-k_B \ln \frac{1}{\Gamma} \right) \\ &= \frac{1}{\Gamma} k_B \ln \frac{1}{\Gamma} \int_{E \le \mathcal H \le E + \Delta E} d^{3N}q d^{3N} p \\ &= 
\frac{1}{\Gamma} k_B \ln \Gamma \cdot \Gamma = k \ln \Gamma \end{align}

o equivalentemente una delle definizioni sopra.

Deduzione della termodinamica[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Relazioni di Maxwell.

Abbiamo visto che dall'entropia possiamo ricavare naturalmente il secondo principio della termodinamica. Ora cerchiamo tutte le altre relazioni termodinamiche per il microcanonico, nel quale sono fissati il numero di particelle N, il volume V e l'energia E. La variazione di entropia per una trasformazione che sia quasi-statica, cioè sufficientemente lenta in modo da poter supporre che il sistema passi solo attraverso stati di equilibrio successivi:

dS (E,V,N) = \left(\frac{\partial S}{\partial E} \right)_{V,N} \cdot dE + \left(\frac{\partial S}{\partial V} \right)_{E,N} \cdot dV + \left(\frac{\partial S}{\partial N} \right)_{E,V} \cdot dN

Definiamo allora la temperatura assoluta:

\left(\frac{\partial S}{\partial E} \right)_{V,N} = \frac{1}{T}

la pressione:

T \cdot \left(\frac{\partial S}{\partial V} \right)_{E,N} = P

e il potenziale chimico:

- T \cdot \left(\frac{\partial S}{\partial N} \right)_{E,V} = \mu

Di conseguenza la (8) diventa:

dS = \frac{1}{T} dE + \frac{P}{T} dV - \frac{\mu}{T} dN

ossia:

dE = T \cdot dS - P \cdot dV + \mu \cdot dN

che rappresenta il Primo principio della termodinamica (per ritrovare la formula più nota alla termodinamica dU \equiv dE). Infatti fissato il numero di particelle, l'ultimo termine è nullo, il primo termine invece rappresenta la variazione di energia interna per pressione e volume costanti:

\delta Q = T \cdot dS

cioè il calore dovuto a variazione della temperatura. Il secondo termine rappresenta la variazione di energia interna causata dagli agenti esterni:

\delta L = - p \cdot dV

cioè il lavoro fatto sul sistema dagli agenti esterni.

Possiamo introdurre tutti potenziali termodinamici, per cui, l'energia libera di Helmholtz:

F = U - T \cdot S

e l'energia libera di Gibbs:

G = U + P \cdot V - T \cdot S

Ensemble microcanonico in meccanica statistica quantistica[modifica | modifica sorgente]

In meccanica quantistica uno stato del sistema |\psi \rangle viene descritto da una funzione d'onda nello spazio di Hilbert, in generale a infinite dimensioni. La funzione d'onda descrive completamente uno stato del sistema. La funzione d'onda \psi di un sistema può essere espressa come combinazione lineare di un insieme ortonormale e completo di autofunzioni \phi_n cioè:

\psi = \sum_n c_n \phi_n \

dove c_n sono coefficienti complessi, il cui modulo quadro rappresenta una probabilità. Le grandezze fisiche del sistema si chiamano osservabili e in accordo con l'interpretazione probabilistica della meccanica quantistica, sono rappresentati da un operatore il cui valore medio fornisce il valore più probabile per la grandezza fisica in questione:

\langle f \rangle = \langle \psi |f|\psi \rangle = \sum_{nm} c_{n}^{*} c_m f_{nm}

dove:

f_{nm} = \int \phi_{n}^{*} \, \hat f \, \phi_m \, dq

sono gli elementi di matrice dell'operatore \hat f. Vediamo come l'ensemble microcanonico sia immediatamente trasportabile nella meccanica statistica quantistica. In generale il valore medio di una grandezza fisica in meccanica statistica deve essere calcolato in base al fatto che non conosciamo i coefficienti c_n dello sviluppo della funzione d'onda o almeno non li conosciamo tutti. Questo implica che al posto del prodotto c_{n}^{*} c_m dobbiamo inserire la matrice \omega_{nm} intesa come matrice statistica, cioè la matrice che ha come elementi le probabilità dei coefficienti c_n. In tal caso:

\bar f = \sum_{n} (\hat \omega \hat f )_{nn} = Tr (\hat \omega \hat f)

dove per Tr si intende la traccia dell'operatore. Consideriamo un sistema composto da N particelle in un volume V e la sua energia si trovi in un intervallo E, E+\Delta E con \Delta E \ll E. Sia H l'hamiltoniana del sistema, allora bisogna risolvere l'equazione agli autovalori:

H \phi_n = E_n \phi_n \

in tal modo otteniamo che gli autovalori del sistema sono le energie E_n di ogni autofunzione  \phi_n del sistema. I postulati della meccanica statistica quantistica impongono che se introduciamo la matrice densità \hat \rho che è un operatore in meccanica quantistica, allora:

\hat \rho = \left\{\begin{matrix} 1 & E < E_n < E + \Delta E \\
0 & altrove \end{matrix} \right.

e che la funzione d'onda completa del sistema:

\Psi = \sum_n b_n \phi_n \

dove:

|b_n|^2 = \rho \

in tal caso una qualsiasi grandezza fisica del sistema può essere ricavata da:

\langle f \rangle = \frac{\sum_n |b_n|^2 \langle |f| \rangle}{\sum_n |b_n|^2}

La matrice densità non è altro che:

\rho = \sum_n |\phi_n \rangle |b_n|^2 \langle b_n|

con elementi dati da:

\rho_{mn} = \delta_{mn} |b_n|^2 \

Per l'ensemble microcanonico si assume:

|b_n|^2 = \left\{\begin{matrix} cost & E < E_n < E + \Delta E \\
0 & altrove \end{matrix} \right.

Il numero di stati la cui energia è compresa tra E, E+ \Delta E è dato da:

\sum_n \rho_{nn} = \Gamma (E) \

Per sistemi macroscopici, lo spettro di energia è continuo e quindi possiamo scrivere:

\Gamma (E) = \omega (E) \cdot \Delta E

dove \omega (E) è la densità degli stati all'energia E. L'entropia si può ottenere da:

S(E,V) = k \cdot \log \Gamma (E)

e questa definizione non porta al paradosso di Gibbs. Da questa definizione di entropia possiamo ricavare tutte le grandezze termodinamiche.

Voci correlate[modifica | modifica sorgente]

Bibliografia[modifica | modifica sorgente]

  • Kerson Huang - Meccanica statistica Zanichelli
  • Landau, Lifŝits - Fisica statistica
meccanica Portale Meccanica: accedi alle voci di Wikipedia che trattano di meccanica