Meccanica statistica

Da Wikipedia, l'enciclopedia libera.

In fisica, la meccanica statistica è l'applicazione della teoria della probabilità, che include strumenti matematici per gestire insiemi formati da numerosi elementi, al comportamento termodinamico di sistemi composti da un grande numero di particelle. La meccanica statistica fornisce un modello per collegare le proprietà dei singoli atomi e molecole alle proprietà macroscopiche del sistema da essi composto.

Da un punto di vista classico lo studio di un sistema con N particelle non interagenti richiede la soluzione di N equazioni differenziali, che descrivono il moto di ogni particella. Quando il numero di particelle è molto grande, dell'ordine del numero di Avogadro, la meccanica statistica permette di poter caratterizzare il sistema attraverso grandezze macroscopiche, come il calore, l'energia libera, la pressione o il volume.

Il postulato dell'equiprobabilità a priori[modifica | modifica sorgente]

Il postulato dell'equiprobabilità a priori è un postulato fondamentale della meccanica statistica, ed afferma che dato un sistema isolato in equilibrio, ogni microstato ha eguale probabilità di manifestarsi.

Questo postulato è una premessa fondamentale in meccanica statistica – stabilisce infatti che un sistema isolato in equilibrio non ha nessuna preferenza per nessuno dei suoi microstati possibili. Dati \Omega microstati associati ad una particolare energia, la probabilità di trovare il sistema in un particolare microstato è dunque

P = \frac{1}{\Omega} \ .

Questo postulato è necessario perché permette di concludere che per un sistema in equilibrio lo stato termodinamico che può risultare dal maggior numero di microstati è anche il macrostato più probabile del sistema.

Il postulato è giustificato in parte, per i sistemi classici, dal teorema di Liouville, il quale mostra che se la distribuzione di punti accessibili al sistema nello spazio delle fasi è uniforme in un certo tempo allora rimarrà tale anche in tempi successivi. Una simile giustificazione per un sistema discreto è fornita dal meccanismo di bilancio dettagliato.

Nel contesto della teoria dell'informazione questo permette la definizione della funzione informazione:

I = \sum_i \rho_i \ln\rho_i = \langle \ln \rho \rangle

Quando tutti i \rho_i sono uguali, I è minima, e ciò riflette il fatto che abbiamo minime informazioni riguardo al sistema. Quando la nostra informazione è massima, ad esempio quando \rho_k è uguale ad 1 e gli altri a zero, ovvero sappiamo in quale stato si trova il sistema, la funzione è massima. La "funzione informazione" è l'equivalente della funzione entropica ridotta in termodinamica.

Insiemi statistici[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Insieme statistico.

Un insieme statistico è un insieme che rappresenta tutte le possibili configurazioni di un sistema e la loro probabilità di verificarsi. Ad ogni insieme statistico è associata una funzione di partizione dalla quale si possono dedurre le proprietà termodinamiche del sistema.

Vi sono, in generale, tre tipi di insieme statistico:


Insieme microcanonico Insieme canonico Insieme gran canonico
Variabili costanti E, N, V o B T, N, V o B T, μ, V o B
Funzioni microscopiche Numero di microstati

 \Omega
Funzione di partizione canonica

Z = \sum_k e^{-\beta E_k}
Funzione di partizione (meccanica statistica)

 \mathcal{Z} \ = \ \sum_k e^{ -\beta (E_k - \mu N_k ) }
Funzioni macroscopiche S \ = \ k_B \ \ln \Omega F \ = \ - \ k_B T \ \ln Z F-G=-p V =- \ k_B T \ln \mathcal{Z}

Insieme microcanonico[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Insieme microcanonico.

L'insieme microcanonico descrive un sistema isolato, caratterizzato dall'avere energia, volume e numero di particelle costante, e quindi dal non scambiare materia o energia con il resto dell'universo. L'entropia di un tale sistema può solo aumentare, e lo stato di massima entropia del sistema corrisponde allo stato di equilibrio termodinamico per il sistema.

Poiché un sistema isolato mantiene costante l'energia, l'energia totale del sistema non fluttua. Pertanto il sistema può accedere solamente a quei microstati che corrispondono al valore dato E dell'energia: l'energia interna è quindi strettamente uguale alla sua energia.

Chiamiamo \Omega(E) il numero di microstati corrispondenti a questo valore dell'energia del sistema. Lo stato macroscopico di massima entropia per il sistema è quello per il quale tutti i microstati sono ugualmente probabili, e la loro probabilità è {1/{\Omega (E)}} . L'equazione di Boltzmann grazie alla quale è possibile calcolare il valore dell'entropia in un sistema isolato è la seguente:

S=-k_B\sum_{i=1}^{\Omega (E)} \left \{ {1\over{\Omega (E)}} \ln{1\over{\Omega (E)}} \right \} =k_B\ln \left(\Omega (E) \right)

dove S è l'entropia del sistema e k_B la costante di Boltzmann.

Insieme canonico[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Insieme canonico.

L'insieme canonico descrive un sistema in equilibrio termico con il resto dell'universo, caratterizzato dall'avere numero di particelle, volume e temperatura costante, e quindi dal poter scambiare solamente energia in forma di calore.
La probabilità P_i \ che un sistema macroscopico in equilibrio termico col proprio ambiente a temperatura T \ sia in un dato microstato con energia E_i \ è data dalla distribuzione di Boltzmann:

P_i = {\exp\left(-\beta E_i\right)\over{\sum_j^{j_{max}}\exp\left(-\beta E_j\right)}}

dove

\beta={1\over{k_B T}},

La temperatura  T \ deriva dal fatto che il sistema è in equilibrio termico con il proprio ambiente. Le probabilità dei vari microstati devono aggiungersi ad 1, ed i fattore di normalizzazione nel denominatore è la funzione di partizione canonica:

Z = \sum_j^{j_{max}} \exp\left(-\beta E_j\right)

dove E_i \ è l'energia dell'i \ -esimo microstato del sistema. La funzione di partizione è una misura del numero di stati accessibili al sistema a una data temperatura. L'articolo insieme canonico contiene una derivazione del fattore di Boltzmann e la forma della funzione di partizione dai primi principi.
In definitiva, la probabilità del microstato è:

P_i = \frac{e^{-\beta E_i}}{Z}.

Connessione termodinamica[modifica | modifica sorgente]

La funzione di partizione può essere usata per trovare il valore previsto medio di una proprietà microscopica del sistema, la quale può poi essere collegata a variabili macroscopiche. Per esempio, il valore previsto dell'energia  E \ è interpretato come la definizione microscopica della variabile termodinamica energia interna  U \ , e può essere ottenuto prendendo la derivata della funzione di partizione con riguardo alla temperatura. Infatti,

\langle E\rangle={\sum_i E_i e^{-\beta E_i}\over Z}=-{1 \over Z} {dZ \over d\beta}

implica, insieme all'interpretazione di <E> \ come  U \ , la seguente definizione microscopica di energia interna:

U\colon = -{d\ln Z\over d \beta}.

L'entropia può essere calcolata con

{S\over k} = - \sum_i p_i \ln p_i = \sum_i {e^{-\beta E_i}\over Z}(\beta E_i+\ln Z) = \ln Z + \beta U

e questo implica che

-\frac{\ln(Z)}{\beta} = U - TS = F

è l'energia libera del sistema, o in altre parole:

Z=e^{-\beta F}

Avere una descrizione microscopica per i potenziali di base termodinamici, l'energia interna  U \ (), l'entropia  S \ e l'energia libera  F \ , è sufficiente per dedurre espressioni per altre quantità termodinamiche. La strategia di base è la seguente: può esserci una quantità intensiva o estensiva che entra esplicitamente nell'espressione per l'energia microscopica E_i \ , per esempio il campo magnetico o il volume. Allora, le variabili termodinamiche coniugate sono derivate dell'energia interna. La magnetizzazione macroscopica è infatti la derivata di  U \ con riguardo al campo magnetico, e la pressione è la derivata di  U \ con riguardo al volume.

Il valore medio, che corrisponde al valore macroscopico, di una proprietà J che dipende dallo stato energetico del sistema è pari a:

 \langle J \rangle = \sum_i p_i J_i = \sum_i J_i \frac{\exp(-\beta E_i)}{Z}

dove <J> \ è il valore medio della proprietà  J \ . Questa equazione può essere applicata all'energia interna,  U \ :

U = \sum_i E_i \frac{\exp(\beta E_i)}{Z}

In seguito, queste equazioni possono essere combinate con relazioni termodinamiche note tra U \ e  V \ per giungere ad esprimere la pressione in termini solo di temperatura, volume e funzione di partizione. Relazioni simili in termini di funzione di partizione possono essere dedotte per altre proprietà termodinamiche mostrate nella seguente tabella.

Energia libera di Helmholtz: F = - {\ln Z\over \beta}
Energia interna: U = -\left( \frac{\partial\ln Z}{\partial\beta} \right)_{N,V}
Pressione: P = -\left({\partial F\over \partial V}\right)_{N,T}= {1\over \beta} \left( \frac{\partial \ln Z}{\partial V} \right)_{N,T}
Entropia: S = k (\ln Z + \beta U)
Energia libera di Gibbs: G = F+PV=-{\ln Z\over \beta} + {V\over \beta} \left( \frac{\partial \ln Z}{\partial V}\right)_{N,T}
Entalpia: H = U + PV
Capacità termica a volume costante: C_V = \left( \frac{\partial U}{\partial T} \right)_{N,V}
Capacità termica a pressione costante: C_P = \left( \frac{\partial H}{\partial T} \right)_{N,P}
Potenziale chimico: \mu_i = -{1\over \beta} \left( \frac{\partial \ln Z}{\partial N_i} \right)_{T,V,N}

Contributi energetici[modifica | modifica sorgente]

È spesso utile considerare che l'energia di una data molecola è distribuita fra diversi tipi di energie. Il principale è l'energia di traslazione, che si riferisce a quella porzione di energia associata al moto del centro di massa della molecola. Vi è inoltre l'energia di configurazione, che si riferisce a quella porzione di energia associata con le varie forze attrattive e repulsive fra le molecole di un sistema. Le altre energie in gioco riguardano i gradi di libertà interni alla molecola, come l'energia rotazionale, vibrazionale, elettrica e nucleare. Se si suppone che ogni contributo energetico sia indipendente dagli altri l'energia totale può essere espressa come la somma di ciascuna componente:

E = E_t + E_c + E_n + E_e + E_r + E_v

Dove le lettere  t \ ,  c \ ,  n \ ,  e \ ,  r \ , e  v \ corrispondono rispettivamente ai tipi: traslazionale, configurazionale, nucleare, elettrica, rotazionale e vibrazionale. La relazione di quest'ultima equazione può essere sostituita nella prima equazione ottenendo:

Z = \sum_i \exp\left(-\beta(E_{ti} + E_{ci} + E_{ni} + E_{ei} + E_{ri} + E_{vi})\right) =
= \sum_i
\exp\left(-\beta E_{ti}\right)
\exp\left(-\beta E_{ci}\right)
\exp\left(-\beta E_{ni}\right)
\exp\left(-\beta E_{ei}\right)
\exp\left(-\beta E_{ri}\right)
\exp\left(-\beta E_{vi}\right)

Se è corretto supporre che tutte questi tipi d'energia siano indipendenti l'uno dall'altro, in modo che anche tutti questi fattori siano completamente indipendenti, allora: Z = Z_t Z_c Z_n Z_e Z_r Z_v

Pertanto per ogni tipo può essere definita una funzione di partizione. Semplici espressioni sono state dedotte collegando ciascuno dei vari tipi a varie proprietà molecolari misurabili, come le frequenze rotazionali o vibrazionali caratteristiche.

Espressioni per le varie funzione di partizione molecolari sono mostrate nella seguente tabella.

Nucleare Z_n = 1 \qquad (T < 10^8 K)
Elettrica Z_e = W_0 \exp(kT D_e + W_1 \exp(-\theta_{e1}/T) + \cdots)
Vibrazionale Z_v = \prod_j \frac{\exp(-\theta_{vj} / 2T)}{1 - \exp(-\theta_{vj} / T)}
Rotazionale (lineare) Z_r = \frac{T}{\sigma} \theta_r
Rotazionale (non-lineare) Z_r = \frac{1}{\sigma}\sqrt{\frac{{\pi}T^3}{\theta_A \theta_B \theta_C}}
Traslazionale Z_t = \frac{(2 \pi mkT)^{3/2}}{h^3}
Configurazionale (gas ideale) Z_c = V

Queste equazioni possono essere combinate con quelle nella prima tabella per determinare il contributo di un particolare tipo d'energia ad un proprietà termodinamica. Per esempio è in questo modo che si può determinare la "pressione rotazionale". La pressione totale può essere trovata sommando i contributi alla pressione di tutti i singoli tipi:

P = P_t + P_c + P_n + P_e + P_r + P_v

Insieme gran canonico[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Insieme gran canonico.

L'insieme gran canonico descrive un sistema aperto, caratterizzato dall'avere temperatura, volume e potenziale chimico fissati, e quindi dal poter scambiare materia ed energia con il resto dell'universo. In un tale sistema il numero di particelle non è conservato, e diventa necessario introdurre i potenziali chimici μj, con j=1,...,n, e rimpiazzare la funzione di partizione canonica con la funzione di partizione per l'insieme gran canonico:

\mathcal{Z} = \sum_{N=0}^\infty\,\sum_{\{n_i\}}\,\prod_i e^{-\beta n_i(\varepsilon_i-\mu)}

dove N è il numero totale di particelle nel volume V, e l'indice i varia a ogni microstato del sistema, essendo ni il numero di particelle nello stato i ed εi l'energia dello stato i. {ni} è l'insieme di tutti i possibili numeri di occupazione per ciascuno dei microstati come Σini = N.

Nel caso di un gas ideale quantistico occorre usare il "conteggio corretto di Boltzmann" e dividere il fattore Boltzmann e^{-\beta (\varepsilon_i-\mu)} per ni!.

\mathcal{Z}_i
= \sum_{n_i=0}^\infty \frac{e^{-\beta n_i(\varepsilon_i-\mu)}}{n_i!}
= \exp \left( e^{-\beta (\varepsilon_i-\mu)}\right).

Il numero di occupazione medio risulta essere:


\langle n_i\rangle
= -\left(\frac{\partial\ln(\mathcal{Z}_i)}{\partial (\beta \mu)} \right)_{\beta,V}
= \frac{1}{\beta}\left(\frac{\partial\ln(\mathcal{Z}_i)}{\partial \mu} \right)_{\beta,V}.

che per le particelle di Boltzmann implica:


\langle n_i\rangle
= e^{-\beta(\varepsilon_i-\mu)}.

Statistiche di Bose-Einstein e Fermi-Dirac[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi statistica di Bose-Einstein e statistica di Fermi-Dirac.

In un sistema composto da bosoni non interagenti non vi è un limite al numero di occupazione di uno stato, pertanto la funzione di granpartizione è:

\mathcal{Z}_i
= \sum_{n_i=0}^\infty e^{-\beta n_i(\varepsilon_i-\mu)}
= \frac{1}{1-e^{-\beta (\varepsilon_i-\mu)}}

In un sistema composto di fermioni non interagenti, invece, per il principio di esclusione di Pauli il numero di occupazione può essere 0 o 1, pertanto:

\mathcal{Z}_i
= \sum_{n_i=0}^1 e^{-\beta n_i(\varepsilon_i-\mu)}
= \left(1+e^{-\beta (\varepsilon_i-\mu)}\right).

Il numero di occupazione più probabile per i bosoni è quindi:


\langle n_i\rangle
= \frac{1}{e^{\beta(\varepsilon_i-\mu)}-1}.

mentre per i fermioni:


\langle n_i\rangle
= \frac{1}{e^{\beta(\varepsilon_i-\mu)}+1}.

che sono i risultati trovati dalla statistica di Bose-Einstein e dalla statistica di Fermi-Dirac rispettivamente.

Grandezze termodinamiche[modifica | modifica sorgente]

A partire dalla funzione di partizione per l'insieme gran canonico il numero medio delle particelle del sistema è:

 \langle N \rangle = z\frac{\partial} {\partial z} \ln \mathcal{Z}(z, V, T).

e l'energia interna media:

 \langle E \rangle = k_B T^2 \frac{\partial} {\partial T} \ln \mathcal{Z}(z, V, T).

Si hanno inoltre le seguenti grandezze termodinamiche:

Energia libera di Gibbs: G = - {\ln \mathcal{Z}\over \beta}
Energia interna: U = -\left( \frac{\partial\ln \mathcal{Z}}{\partial\beta} \right)_{\mu}+\sum_i{\mu_i\over\beta}\left({\partial \ln \mathcal{Z}\over \partial \mu_i}\right )_{\beta}
Numero di particelle: N_i={1\over\beta}\left({\partial \ln \mathcal{Z}\over \partial \mu_i}\right)_\beta
Entropia: S = k (\ln \mathcal{Z} + \beta U- \beta \sum_i \mu_i N_i)
Energia libera di Helmholtz: F = G+\sum_i \mu_i N_i=-{\ln \mathcal{Z}\over \beta} +\sum_i{\mu_i\over \beta} \left( \frac{\partial \ln \mathcal{Z}}{\partial \mu_i}\right)_{\beta}

Equivalenza delle descrizioni al limite termodinamico[modifica | modifica sorgente]

Tutte le descrizioni precedenti differiscono nel modo in cui permettono al sistema dato di fluttuare fra le sue configurazioni.

Nell'insieme micro canonico, il sistema non scambia energia col resto dell'universo, e non è di conseguenza soggetto a fluttuazioni di energia, mentre nell'insieme canonico, il sistema è libero di scambiare energia col resto dell'universo in forma di calore.

Al limite termodinamico (quando il numero di particelle prese in esame tende a infinito, N → ∞), che è il limite dei grandi sistemi, le fluttuazioni diventano trascurabili, così che tutte queste descrizioni convergano in una sola. In altre parole, il comportamento macroscopico di un sistema non dipende dal particolare insieme usato per la descrizione.

Fatte questa considerazioni, il miglior insieme da scegliere per il calcolo delle proprietà di un sistema microscopico è quel sistema che permette di ricavare più facilmente il risultato.

Cammini casuali[modifica | modifica sorgente]

Lo studio delle lunghe catene di polimeri è diventato una fonte di problemi nell'ambito della meccanica statistica fin dagli anni cinquanta. Una delle ragioni per le quali gli scienziati erano interessati a questi studi è che le equazioni che governano il comportamento di una catena di polimeri sono indipendenti dalla chimica delle catene. Inoltre, le equazioni che governano questo comportamento si rivelano essere (cammini diffusivi) casuali nello spazio. Infatti, l'equazione di Schrodinger è anch'essa una equazione di diffusione se si considera un tempo immaginario, t' = it.

Cammini casuali nel tempo[modifica | modifica sorgente]

Il primo esempio di cammino casuale è un cammino nello spazio, in base al quale una particella si muove di moto casuale dovuto a forze esterne nel mezzo che la circonda. Un esempio tipico potrebbe essere un granello di polline in una bacinella piena d'acqua. Se si potesse in qualche modo evidenziarne il percorso, questo sarebbe definito un cammino casuale.

Si consideri un problema "giocattolo", un treno che si muove lungo un tracciato monodimensionale nella direzione delle x. Supponiamo anche che il treno si muova avanti o indietro di una distanza fissata b, a seconda che lanciando una moneta esca testa o croce. Partiamo considerando le statistiche dei passi che il treno giocattolo percorre:

\langle S_{i} \rangle = 0

dovuto all'equiprobabilità a priori, e

\langle S_{i} S_{j} \rangle = b^2 \delta_{ij}

conosciuta come la funzione correlazione.
Il delta è la delta di Kronecker, che vale 0 se gli indici i e j sono differenti, e vale 1 se i = j, così che la funzione correlazione dà un valore di b^2. Questo ha senso, perché se i = j allora noi stiamo considerando lo stesso passo. Piuttosto semplicemente può allora essere mostrato che lo spostamento medio del treno dall'asse x è 0;

x = \sum_{i=1}^{N} S_{i}
\langle x \rangle = \langle \sum_{i=1}^{N} S_{i} \rangle
\langle x \rangle = \sum_{i=1}^{N} \langle S_{i} \rangle

Come detto \langle S_{i} \rangle è 0, quindi la somma di 0 è sempre 0. Può essere anche calcolata, usando lo stesso metodo dimostrato sopra, la radice della media aritmetica dei quadrati del problema, il cui valore risulta

x_{rms} = \sqrt {\langle x^2 \rangle} = b \sqrt N

Dall'equazione di diffusione si può vedere che la distanza percorsa da una particella che si diffonde in un mezzo è proporzionale alla radice del tempo nel quale il sistema si è diffuso, dove la costante di proporzionalità è la radice della costante di diffusione. La relazione di sopra, sebbene esteticamente differente, rivela un significato fisico simile, dove N è semplicemente il numero di passi percorsi, che è approssimativamente connesso con il tempo, e b è la lunghezza caratteristica del passo. Di conseguenza possiamo considerare la diffusione come un processo di cammino casuale.

Cammini casuali nello spazio[modifica | modifica sorgente]

I cammini casuali nello spazio possono essere pensati come istantanee del tragitto percorso da un camminatore casuale nel tempo. Un esempio di questo è la configurazione spaziale delle lunghe catene di polimeri.

Ci sono due tipi di cammini casuali nello spazio: cammini "autoevitanti" , dove le connessioni della catena di polimeri interagiscono e non si sovrappongono nello spazio, e cammini "puramente casuali", dove le connessioni della catena di polimeri non interagiscono e sono libere di sovrapporsi. Il primo tipo è più applicabile ai sistemi fisici, ma la sua soluzione sono più difficili da trovare da principî primi.

Considerando una catena di polimeri liberamente collegata, senza interazioni, il vettore testa-coda è

\mathbf{R} = \sum_{i=1}^{N} \mathbf r_i

dove \mathbf {r}_{i} è il vettore posizione delli-esima connessione nella catena. Come risultato del teorema del limite centrale, se N » 1 allora ci si aspetta una distribuzione Gaussiana per il vettore testa-coda. Possiamo anche fare affermazioni delle statistiche delle connessioni stesse:

\langle \mathbf{r}_{i} \rangle = 0

dall'isotropia dello spazio

\langle \mathbf{r}_{i} \cdot \mathbf{r}_{j} \rangle = b^2 \delta_{ij}

se tutte le connessioni nella catena sono indipendenti l'una dall'altra.
Usando le statistiche della singola connessione, si trova facilmente che

\langle \mathbf R \rangle = 0

e

\langle \mathbf R \cdot \mathbf R \rangle = Nb^2.

Da notare che quest'ultimo risultato è lo stesso trovato per i cammini casuali nel tempo.
Presupponendo, come stabilito, che la distribuzione dei vettori testa-coda per un numero molto grande di identiche catene di polimeri è gaussiana, la distribuzione delle probabilità ha la seguente forma

P = \frac{1}{\left (\frac{2 \pi N b^2}{3} \right )^{3/2}} \exp \frac {-3 \mathbf R \cdot \mathbf R}{2NB^2}

Richiamando il principio dell'equiprobabilità a priori, il numero di microstati, \Omega, corrispondenti a qualche valore fisico è direttamente proporzionale alla distribuzione delle probabilità a quel valore fisico:

\Omega \left ( \mathbf{R} \right ) = c P\left ( \mathbf{R} \right )

dove c è una costante di proporzionalità. Data la nostra funzione di distribuzione, c'è una massimo in corrispondenza di \mathbf {R} = 0. Fisicamente questo significa che ci sono più microstati aventi un vettore testa-coda di 0 di qualsiasi altro microstato. Ora considerando

S \left ( \mathbf {R} \right ) = k_B \ln \Omega {\left ( \mathbf R \right) }
\Delta S \left( \mathbf {R} \right ) = S \left( \mathbf {R} \right ) - S \left (0 \right )
\Delta F = - T \Delta S \left ( \mathbf {R} \right )

dove F è l'energia libera di Helmholtz, è semplice dimostrare che

\Delta F = k_B T \frac {3R^2}{2Nb^2} = \frac {1}{2} K R^2 \quad ; K = \frac {3 k_B T}{Nb^2}

che è analoga alla legge di Hooke per una molla. Questo risultato è noto infatti come risultato della molla entropica ed equivale a dire che distendendo una catena di polimeri si sta facendo un lavoro sul sistema per toglierlo dal suo stato (preferito) di equilibrio. Un esempio di questo è un comune elastico, composto di lunghe catene di polimeri (gomma).

Quello che è particolarmente sorprendente di questo risultato, è che il lavoro fatto per distendere la catena di polimeri può essere collegato interamente alla variazione di entropia del sistema come risultato dell'allungamento.

Bibliografia[modifica | modifica sorgente]

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]