Entropia

Da Wikipedia, l'enciclopedia libera.
Se riscontri problemi nella visualizzazione dei caratteri, clicca qui.
bussola Disambiguazione – Se stai cercando altri significati, vedi Entropia (disambigua).
La fusione del ghiaccio avviene con aumento dell'entropia.

In meccanica statistica l'entropia (dal greco antico ἐν en, "dentro", e τροπή tropé, "trasformazione") è una grandezza (più in particolare una coordinata generalizzata) che viene interpretata come una misura del disordine presente in un sistema fisico qualsiasi, incluso, come caso limite, l'universo. Viene generalmente rappresentata dalla lettera S. Nel Sistema Internazionale si misura in joule su kelvin (J/K).

In termodinamica classica, il primo campo in cui l'entropia venne introdotta, S è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme al secondo principio della termodinamica. In base a questa definizione si può dire, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato ad uno disordinato la sua entropia aumenta; questo fatto fornisce indicazioni sulla direzione in cui evolve spontaneamente un sistema.

L'approccio molecolare della meccanica statistica generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema[1].

Il concetto di entropia ha potuto grazie a questa generalizzazione essere esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione e conoscere quindi una vastissima popolarità.

Entropia e disordine[modifica | modifica sorgente]

Il concetto di "entropia" è piuttosto complesso e per comprendere appieno il suo significato è necessaria almeno una conoscenza di base della termodinamica e della meccanica quantistica; esistono infatti almeno due definizioni rigorose dell'entropia: una definizione macroscopica, fornita dalla termodinamica e una definizione microscopica, fornita dalla meccanica quantistica.

È possibile comunque dare una spiegazione semplicistica dell'entropia, interpretandola come il "grado di disordine" di un sistema. Quindi un aumento del "disordine" di un sistema è associato ad un aumento di entropia, mentre una diminuzione del "disordine" di un sistema è associata ad una diminuzione di entropia.

Per maggiore chiarezza, nella figura seguente sono mostrate tre configurazioni dello stesso sistema costituito da 24 oggetti, in cui si ha un aumento di disordine (cioè un aumento di entropia) andando da sinistra a destra e una diminuzione di disordine (cioè una diminuzione di entropia) andando da destra a sinistra.

Rappresentazione del grado di disordine di un sistema: sistema ordinato (a), con basso grado di disordine (b) e disordinato (c).

Nella figura seguente è rappresentato un esempio pratico in termodinamica in cui si assiste ad un aumento di disordine (cioè un aumento di entropia). In questo caso gli "oggetti" sono delle molecole di due gas (ogni gas è contraddistinto da un colore diverso), ad esempio si supponga che le sferette blu siano molecole di ossigeno e le sferette rosse siano molecole di azoto.

Rappresentazione di un sistema (costituito da due gas differenti) in cui si ha aumento di entropia.

Inizialmente i gas sono situati in due compartimenti stagni, per cui in ciascun compartimento sono presenti solo molecole dello stesso tipo di gas. Se i due compartimenti sono messi in comunicazione (ad esempio aprendo una valvola), i due gas si mescolano tra di loro e si ha un aumento di disordine, ovvero un aumento di entropia (che in tal caso viene detta "variazione di entropia di miscelamento").

Nell'esempio precedente si è assistito ad un aumento di entropia "spontaneo" (è bastato infatti mettere in comunicazione i due compartimenti). Tale aumento di entropia spontaneo avviene sempre in natura, mentre non avviene una diminuzione di entropia spontanea. Tale constatazione empirica si traduce nel fatto che le configurazioni "disordinate" sono le più probabili e corrisponde al cosiddetto "Secondo principio della termodinamica".

Altri sistemi che possono assumere diversi gradi di disordine sono i materiali metallici. Essi infatti possono assumere le seguenti strutture:

  • struttura cristallina (ordinata): gli atomi sono disposti in maniera ordinata; una struttura cristallina è formata da diverse "celle" tutte uguali tra loro, che si ripetono nello spazio; si parla in questo caso di "ordine a lungo raggio";
  • struttura policristallina (parzialmente ordinata): si riscontrano più "cristalli" (strutture ordinate) all'interno del materiale; si parla in questo caso di "ordine a corto raggio";
  • struttura amorfa (disordinata): gli atomi sono disposti in maniera completamente disordinata; non si ha né ordine a corto raggio né ordine a lungo raggio.
Possibili strutture di un materiale metallico: struttura cristallina (a sinistra), struttura policristallina (al centro) e struttura amorfa (a destra).

Il disordine delle strutture dei materiali metallici aumenta anche in presenza dei cosiddetti "difetti cristallini" (tra cui l'inclusione di atomi di altro tipo o la mancanza di un atomo in una posizione del reticolo), la cui presenza determina appunto un aumento del contenuto entropico del materiale.

Storia e definizione[modifica | modifica sorgente]

Il concetto di entropia venne introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per descrivere una caratteristica (la cui generalità venne osservata per la prima volta da Sadi Carnot nel 1824) di tutti i sistemi allora conosciuti, nei quali si osservava che le trasformazioni avvenivano spontaneamente in una direzione sola, quella verso il maggior disordine.

In particolare la parola entropia venne introdotta per la prima volta da Rudolf Clausius nel suo Abhandlungen über die mechanische Wärmetheorie (Trattato sulla teoria meccanica del calore), pubblicato nel 1864. In tedesco Entropie deriva dal greco ἐν en, "dentro", e da τροπή tropé, "cambiamento", "punto di svolta", "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava dove va a finire l'energia fornita ad un sistema. Propriamente Clausius intendeva riferirsi al legame tra movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento meccanico di particelle interne al corpo. Egli infatti la definì come il rapporto tra la somma dei piccoli incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante il cambiamento di stato.

Per chiarire il concetto di entropia possiamo presentare alcuni esempi:

  • Si faccia cadere una gocciolina d'inchiostro in un bicchiere d'acqua: si osserva che, invece di restare una goccia più o meno separata dal resto dell'ambiente (che sarebbe uno stato completamente ordinato), l'inchiostro inizia a diffondere e, in un certo tempo, si ottiene una miscela uniforme (stato completamente disordinato). È esperienza comune che, mentre questo processo avviene spontaneamente, il processo inverso, separare l'acqua e l'inchiostro, richiede energia esterna.
  • Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi dotate di una certa velocità derivante dalla temperatura del profumo. Fino a quando la boccetta è tappata, ossia isolata dal resto dell'universo, le molecole saranno costrette a rimanere all'interno e non avendo spazio (la boccetta è colma) rimarranno abbastanza ordinate (stato liquido). Nel momento in cui la boccetta viene stappata le molecole della superficie del liquido inizieranno a staccarsi dalle altre e, urtando casualmente tra di loro e contro le pareti della boccetta, usciranno da questa disperdendosi all'esterno (evaporazione). Dopo un certo tempo tutte le molecole saranno uscite disperdendosi. Anche se casualmente qualche molecola rientrerà nella boccetta, il sistema complessivo è ormai disordinato e l'energia termica che ha messo in moto il fenomeno è dispersa e quindi non più recuperabile (si ha un equilibrio dinamico).

Il concetto di entropia ha conosciuto grandissima popolarità nell'Ottocento e nel Novecento, grazie alla grande quantità di fenomeni che aiuta a descrivere, fino ad uscire dall'ambito prettamente fisico ed essere adottato dalle scienze sociali, nella teoria dei segnali, nell'informatica teorica e nell'economia. È tuttavia bene notare che esiste una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale.

Postulato dell'entropia[modifica | modifica sorgente]

Una proprietà fondamentale, anche chiamata (impropriamente[2]) postulato dell'entropia, afferma che in un sistema isolato l'entropia S del sistema non diminuisce mai e, durante un ordinario processo irreversibile, aumenta. La dimostrazione è la seguente: si consideri un sistema isolato sia meccanicamente che termicamente che, a causa di una perturbazione interna, si porta da uno stato 1 ad uno stato 2. Essendo l'entropia una funzione di stato, per definizione la variazione della stessa non dipende dal percorso seguito ma solo dallo stato iniziale e finale, è possibile concepire un processo reversibile che ci riporti da 2 a 1. Per la disuguaglianza di Clausius si ha:

\oint_{}\frac{\delta Q}{T} \leq 0

Ma questa circuitazione può essere spezzata nella somma dei due integrali, dallo stato 1 al 2 e viceversa:

\int_{1}^{2}\frac{\delta Q}{T} + \int_{2}^{1}\frac{\delta Q_{R}}{T} \leq 0

Il primo integrale è nullo poiché il processo è adiabatico, ovvero essendo il sistema isolato non subisce trasferimenti di calore con l'esterno. Il secondo integrale si può scrivere nella forma:

 \int_{2}^{1}\frac{\delta Q_{R}}{T} = \int_{2}^{1} dS \leq 0

Allora:

 S_{1}-S_{2} \leq0

Ovvero:

 S_{2} \geq S_{1}

Definizione termodinamica[modifica | modifica sorgente]

La variazione della funzione di stato entropia S venne introdotta nel 1864 da Rudolf Clausius nell'ambito della termodinamica come:[3]

\Delta S = \frac{Q_{rev}}{T}

dove Q_{rev} è la quantità di calore assorbita o ceduta in maniera reversibile e isoterma dal sistema a temperatura T.

In forma differenziale, la legge si presenta così:[4]

{\rm d} S = \frac{\delta Q_{rev}}{T}

È importante notare come, mentre \delta Q_{rev} non è un differenziale esatto, dividerlo per la temperatura T lo rende tale: \frac 1 T è dunque il fattore d'integrazione. Occorre sottolineare che dS è un differenziale esatto se e solo se è valido il secondo principio della termodinamica.

In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un sistema isolato l'entropia può solo aumentare, o al limite rimanere costante per cicli termodinamici reversibili.

Gas perfetti[modifica | modifica sorgente]

Trasformazione reversibile isoterma[modifica | modifica sorgente]

Essendo per un gas ideale l'energia interna U funzione della sola temperatura, in condizioni isoterme \Delta U = 0, quindi applicando il primo principio della termodinamica abbiamo l'eguaglianza del calore e del lavoro scambiati, ovvero:

Q = W \

ne segue che per una trasformazione tra gli stati A e B in assenza di lavoro isocoro, abbiamo:

\Delta S = S_B-S_A = \frac {Q_{rev}}{T} = \frac{W}{T} = \int_A^B\frac{p \rm{d}v}{T}[5]

per una mole di gas ideale, dalla equazione di stato dei gas perfetti:

pv = nRT \

ovvero:

\int_{v_A}^{v_B}\frac{pdv}{T} \frac{v}{v}=\int_{v_A}^{v_B} nR \frac{dv}{v} = nR \cdot \ln \left(\frac{v_B}{v_A}\right)

quindi:

\Delta S|_T = nR \cdot \ln \left(\frac{v_B}{v_A}\right)

Possiamo riscrivere l'equazione sopra in funzione della pressione, se consideriamo che in questo particolare caso (trasformazione isoterma reversibile di un gas ideale) pdv = -vdp [6].

pdv = -vdp = -nRT \cdot \frac {dp}{p}

ovvero:

\int_{p_A}^{p_B}-\frac{vdp}{T} \frac{p}{p}=\int_{p_A}^{p_B} -nR \frac{dp}{p} = -nR \cdot \ln \left(\frac{p_B}{p_A}\right) = nR \cdot \ln \left(\frac{p_B}{p_A}\right)^{-1} = nR \cdot \ln \left(\frac{p_A}{p_B}\right)

quindi:

\Delta S|_T = nR \cdot \ln \left(\frac{p_A}{p_B}\right)

Trasformazione reversibile isocora[modifica | modifica sorgente]

Dalla definizione di entropia:

\Delta S = \int_A^B \frac {Q|_V}{T} = \int_A^B c_v \cdot \frac {dT}{T} = \bar c_v \cdot \ln \left(\frac{T_B}{T_A}\right)

in cui c_v è il calore specifico molare a volume costante (funzione della temperatura) e \bar c_v è la sua media tra le temperature T_B e T_A.

Per cui, per una mole di gas perfetto:

\Delta S|_v = \bar c_v \cdot \ln \left(\frac{T_B}{T_A}\right)

Trasformazione reversibile isobara[modifica | modifica sorgente]

Seguendo la stessa procedura, possiamo scrivere:

\Delta S = \int_A^B \frac {Q_p}{T} = \int_A^B c_p \cdot \frac {dT}{T} = \bar c_p \cdot \ln \left(\frac{T_B}{T_A}\right)

in cui c_p è il calore specifico molare a pressione costante (funzione della temperatura) e \bar c_p è la sua media tra le temperature T_B e T_A.

Per cui, per una mole di gas perfetto:

\Delta S|_p = \bar c_p \cdot \ln \left(\frac{T_B}{T_A}\right)

Trasformazione reversibile[modifica | modifica sorgente]

Essendo l'entropia una funzione di stato, considerando una qualsiasi trasformazione reversibile da uno stato A ad uno B, con definite pressione, temperatura e volume occupato, è possibile calcolare la variazione di entropia eseguendo l'integrale di Clausius

\int_A^B{ \left( \frac{\delta Q}{T} \right)}_{\rm{rev}}

su di un qualsiasi cammino reversibile, ad esempio sulla composizione di una isocora reversibile con una isoterma reversibile. Si ottiene per n moli (dipendentemente solo dagli stati A e B):

\Delta S = n \, c_V \log{ \left( \frac{T_B}{T_A} \right) } + n \, R \log{ \left( \frac{V_B}{V_A} \right) }

da cui, applicando la nozione di funzione di stato si ottiene una formulazione analitica per l'entropia in funzione delle variabili di stato, a meno di una costante additiva:

S = n \, c_V \log{T} + n \, R \log \! {V}

Essa è equivalente, tramite l'equazione di stato dei gas perfetti, alle altre due forme, talvolta utili, definite sempre a meno di una costante additiva:

S = n \, c_V \log{ \left( TV^{\gamma-1} \right) } \, = \, n \, c_V\log{ \left( pV^{\gamma} \right) }

In cui  \gamma è il coefficiente della politropica. Si nota così che nelle trasformazioni adiabatiche reversibili l'entropia rimane costante.

Sistemi materiali[modifica | modifica sorgente]

Per calcolare l'entropia associata a sistemi materiali è possibile effettuare una integrazione che tenga conto anche dei contributi dovuti ai passaggi di stato. Per una sostanza gassosa ad una temperatura T, l'entropia molare si può ricavare da

S =\int_{T_{0}}^{T_{fus}} \left( \frac {c_{ps}}{T} \right) dT+
\frac {\Delta H_{fus}}{T_{fus}}+
\int_{T_{fus}}^{T_{eb}} \left( \frac {c_{pl}}{T} \right) dT+
\frac {\Delta H_{eb}}{T_{eb}}+
\int_{T_{eb}}^{T} \left( \frac {c_{pg}}{T} \right) dT

dove c_{ps}, c_{pl}, c_{pg} sono rispettivamente i calori specifici della sostanza allo stato solido, liquido e gassoso mentre \Delta H_{fus}, \Delta H_{eb} sono rispettivamente il calore latente di fusione e il calore latente di ebollizione.

Definizione matematica[modifica | modifica sorgente]

Accanto a questa trattazione dell'entropia, ne esiste un'altra, matematica, che tratta l'entropia come una funzione di stato, ossia come una grandezza che dipende esclusivamente dallo stato iniziale e dallo stato finale del sistema e non dal particolare cammino seguito (definita a meno di una costante arbitraria; come l'energia interna, anch'essa funzione di stato). In quanto funzione limitata, continua e monotona crescente della temperatura essa ammette un massimo e un minimo assoluti (teorema di Weierstrass) cui l'universo converge con continuità (principio di aumento dell'entropia).

L'aumento di entropia è un fattore strutturale dell'universo. Impossibile è al momento quantificare tale entropia massima, non essendo noto un legame analitico fra le variabili entropia e temperatura, poiché nell'intera teoria termodinamica (nei diagrammi T-S) si rappresentano come variabili indipendenti.

Dunque dell'universo si conosce lo stato iniziale, entropia nulla, non lo stato finale a cui converge (entropia e temperatura massime); la funzione entropia non dipende e non dà informazioni sul cammino che è stato e che sarà seguito per arrivarci, ovvero non ci dice il futuro termodinamico dell'universo. Tuttavia, è possibile inferire alcune ipotesi riguardo al destino ultimo dell'Universo da considerazioni termodinamiche.

Definita come vettore di probabilità, l'entropia è una funzione strettamente concava definita su un dominio convesso compreso tra 0 e 1, che pertanto possiede un unico massimo, quando tutti i valori sono equiprobabili (distribuzione uniforme). È inoltre un funzione non-negativa, simmetrica, invariante rispetto alla permutazione degli assi cartesiani.

Energia ed entropia[modifica | modifica sorgente]

Assumendo che l'intero universo sia un sistema isolato - ovvero un sistema per il quale è impossibile scambiare materia ed energia con l'esterno - il primo ed il secondo principio della termodinamica possono essere riassunti come segue:

l'energia totale dell'universo è costante e l'entropia totale è in continuo aumento, fino a raggiungere un equilibrio

affermazione valida per qualsiasi sistema isolato.

Ciò significa che non solo non si può né creare né distruggere l'energia, ma nemmeno la si può completamente trasformare da una forma in un'altra senza che una parte venga dissipata sotto forma di calore.

Se per esempio si brucia un pezzo di carbone, la sua energia si conserva e si converte in energia contenuta nell'anidride carbonica, nell'anidride solforosa e negli altri residui di combustione, oltre che in forma di calore. Sebbene nel processo non si sia perduta energia, non possiamo invertire il processo di combustione e ricreare dai suoi scarti il pezzo di carbone originale.

Il secondo principio della termodinamica può quindi essere così riscritto:

ogni volta che una certa quantità di energia viene convertita da una forma ad un'altra si ha una penalizzazione che consiste nella degradazione di una parte dell'energia stessa in forma di calore. Questa parte non sarà utilizzabile per produrre lavoro.

Lo stato in cui l'entropia raggiunge il massimo valore e non vi è più energia libera disponibile per compiere lavoro è detto stato di equilibrio. Per l'intero universo, concepito come sistema isolato, ciò significa che la progressiva conversione di lavoro in calore (per il principio di aumento dell'entropia totale), a fronte di una massa dell'universo finita, porterà infine ad uno stato in cui l'intero universo si troverà in condizioni di temperatura uniforme; la cosiddetta morte termica dell'Universo.

L'entropia caratterizza il verso di qualunque trasformazione reale come trasformazione irreversibile: infatti anche tornando da uno stato finale a uno identico allo stato iniziale per temperatura, volume, pressione o altri parametri, come continuamente avviene nei cicli di una macchina termica, almeno una variabile fisica differirebbe dal punto da cui si è partiti: l'entropia (che inevitabilmente è aumentata).

Ogni trasformazione reale è una trasformazione irreversibile perché l'entropia aumenta; viceversa l'ipotesi di idealità equivale all'ipotesi di una variazione d'entropia nulla.

Definizione quantistica dell'entropia[modifica | modifica sorgente]

Mentre nella visione classica l'entropia è sempre espressa in termini di variazione, e mai in termini assoluti, in meccanica quantistica è possibile definire l'entropia in termini assoluti, ad esempio attraverso l'entanglement.

Si considerino due sistemi A e B, ognuno con associato uno spazio di Hilbert H_A, H_B. Lo stato del sistema composito è allora:

 |\Psi \rangle \in H_A \otimes H_B.

In generale, non è possibile associare uno stato puro al componente A. Tuttavia è comunque possibile associarvi una matrice di densità. Sia definito l'operatore proiezione

\rho_T = |\Psi\rangle \; \langle\Psi|.

Lo stato di A è la traccia parziale di \rho_T sulle basi del sistema B:

\rho_A \equiv \sum_j \langle j|_B \left( |\Psi\rangle \langle\Psi| \right) |j\rangle_B = \hbox{Tr}_B \; \rho_T .

Ad esempio, per lo stato entangled "classico" di A e B, ognuno composto da due stati puri "0" e "1"

{1\over \sqrt{2}}\bigg(|0\rangle_A \otimes|1\rangle_B - |1\rangle_A \otimes |0\rangle_B \bigg)

la matrice densità è

\rho_A = (1/2) \bigg(  |0\rangle_A \langle 0|_A + |1\rangle_A \langle 1|_A \bigg)

e la matrice densità dello stato puro di A è

\rho_A = |\psi\rangle_A \langle\psi|_A

ossia semplicemente l'operatore proiezione di |ψ〉A. Da notare che la matrice densità del sistema composto, ρT, ha la stessa forma. Ciò non sorprende, in quanto lo stato entangled classico è uno stato puro.

Data una matrice di densità qualsiasi, \rho, possiamo calcolare la quantità

S = - k \hbox{Tr} \left( \rho \ln{\rho} \right)

dove k è la costante di Boltzmann, e la traccia è presa sullo spazio H in cui è definita \rho. Risulta che S è esattamente l'entropia del sistema corrispondente ad H.

L'entropia di ogni stato puro è zero, in quanto non vi è indeterminazione sullo stato del sistema. L'entropia di ciascuno dei due sottosistemi A e B entangled è semplicemente k \ln 2, il massimo ammissibile per un sistema a due stati.

Se il sistema nel suo complesso è puro, l'entropia di ogni sottosistema può essere usata per misurarne il grado di "entanglement" con gli altri sottosistemi.

Si può anche mostrare come gli operatori unitari che agiscono su uno stato, come ad esempio l'operatore di evoluzione temporale ottenuto dall'equazione di Schrödinger, lasciano invariata l'entropia. Si associa dunque la reversibilità di un processo alla sua variazione di entropia, confermando dunque la teoria termodinamica e, contemporaneamente, l'entropia di un segnale secondo la teoria dell'informazione.

Definizione statistica[modifica | modifica sorgente]

In meccanica statistica lo studio sull'entropia è un tramite per ottenere informazioni macroscopiche a partire dalle configurazioni microscopiche. Intuitivamente si immagina che ad una certa condizione macroscopica di equilibrio del sistema (macrostato o stato termodinamico del sistema, definito da precisi valori di grandezze come pressione e temperatura) corrispondano diverse configurazioni microscopiche (stati dinamici o microstati, definiti solo se si conoscono posizione e velocità di tutte le molecole del sistema).

Tali configurazioni microscopiche occupano un volume nello spazio delle fasi il quale viene indicato con \Gamma. Allora possiamo definire l'entropia secondo il principio di Boltzmann come:[7][3]

S=k~\ln \Gamma

dove k è la costante di Boltzmann.

Possiamo definire \Gamma come la misura dell'insieme di tutte le possibili disposizioni (o probabilità a livello macroscopico) dei livelli molecolari: \Gamma rappresenta quindi il numero di stati totali accessibili al sistema alla temperatura T. Questa misura tiene conto dell'indistinguibilità tra le particelle introducendo il fattore correttivo di Gibbs.

Per capire il significato fisico di \Gamma prendiamo in esempio un caso di entropia per miscelamento riferendoci ad un cristallo di atomi A. Supponiamo di inserire atomi B (simili in dimensione e dal punto di vista elettronico) nei siti di A per semplice sostituzione: in questo modo abbiamo un numero di atomi A N_A e un numero di atomi B N_B che si distribuiscono nei siti N del cristallo. Man mano che introduciamo gli atomi B nei siti di A aumenta il numero delle configurazioni possibili tra gli atomi A e B, cioè aumenta la possibilità di ottenere distribuzioni diverse: questo fatto coincide con un aumento del grado di disordine del sistema, e quindi con un aumento di entropia. Il numero massimo di configurazioni \Gamma corrisponde al numero di modi possibili di distribuire a caso N_A e N_B oggetti su N (= N_A + N_B) siti e vale:

\Gamma = \frac{\left ( N_A + N_B \right )!} { N_A! ~ N_B!}

In generale, se nel cristallo di A vengono introdotti diversi tipi di atomi simili (B, C, ecc...), il numero massimo di configurazioni possibili vale:

 \Gamma = \frac{\left (N_A + N_B + N_C + ... \right )!} {N_A! \cdot N_B! \cdot N_C! \cdot ...} = \frac{\left ( \sum_i N_i \right )!} {\prod_i N_i ! }

A temperature ordinarie, nei gas, queste disposizioni seguono la distribuzione di Maxwell-Boltzmann, ma l'approccio può opportunamente estendersi, in maniera più complessa, a liquidi e solidi dove ad esempio non vige l'indistinguibilità delle singole particelle (poiché spazialmente vincolate ad esempio al reticolo cristallino). A basse temperature, prossime allo zero assoluto, le distribuzioni, in virtù del fatto che le particelle si concentrano nei livelli di energia più bassi, seguiranno differenti distribuzioni, come quella di Fermi-Dirac o di Bose-Einstein (a seconda del fatto che ricadano o meno sotto il principio di esclusione di Pauli).

La definizione statistico-molecolare è considerata la fondamentale definizione di entropia, dato che tutte le altre possono esserne matematicamente derivate, ma non viceversa. Nelle lezioni di teoria del gas di Boltzmann, del 1896, si è dimostrata l'espressione della misura entropica per i sistemi di atomi e molecole in fase gassosa, fornendo quindi una misura per l'entropia in termodinamica classica.

Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica ed in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici). La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale ad una identica allo stato iniziale. La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema, la seconda lo stato (energetico) di agitazione molecolare.

Dall'equazione S=k~\ln \Gamma, con alcune considerazioni combinatorie su \Gamma e dalla distribuzione di Boltzmann degli stati possibili, si giunge alla:

S=\frac{E-E_0}{T} + R \ln \frac {Z}{N_A}+R

dove T è la temperatura, E-E_0 energia termica, R costante dei gas, Z la funzione di partizione, e N_A il Numero di Avogadro.
La formula torna utile per il calcolo di S nei gas.

Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto ad una delle sue variabili naturali E, N e V (energia, numero di particelle e volume) tenendo costanti le altre. È necessario tenere conto che questa trattazione riposa sull'ipotesi ergodica che postula di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente sostituire le medie temporali con quelle sull'ensemble -Gibbs- ).

Equazione di bilancio[modifica | modifica sorgente]

In un sistema isolato, il secondo principio della termodinamica asserisce che l'entropia può solo aumentare. In un sistema aperto, in cui quantità come calore, energia e massa possono fluire verso e dall'esterno, l'entropia del sistema può anche scendere. In un sistema aperto è spesso utile scrivere una equazione di bilancio.

Un sistema aperto è generalmente definito da un volume di controllo, ovvero una porzione dello spazio che determina il sistema in esame. Tutto ciò che non è contenuto in questo volume è esterno al sistema. L'entropia del sistema S varia nel tempo, e la sua derivata è determinata da un'equazione di bilancio del tipo

\dot S = J_S + {\partial S \over \partial t}

dove J_S, {\partial S \over \partial t} denotano rispettivamente la corrente di entropia netta e quella generata all'interno del sistema. Tutte queste quantità sono derivate temporali. In una equazione di bilancio normalmente il secondo termine può essere negativo, qui invece no conformemente al secondo principio della termodinamica.

I termini di bilancio possono essere esplicitati nel modo seguente:

\dot S =  \sum_{i} \left({\dot Q_i \over T_i} + \dot m_i s_i\right) + {\partial S \over \partial t}.

In questa espressione ciascuna delle correnti di entropia S_{i} è spezzata in due addendi:

  • il termine conduttivo tiene conto dello scambio di calore Q con una sorgente termica esterna a temperatura T .
  • il termine convettivo tiene conto della variazione di entropia dovuta a masse entranti o uscenti dal sistema; il termine \dot m indica la variazione di massa e s l'entropia per unità di massa;

In un sistema chiuso il termine convettivo è nullo, per cui la relazione diventa:

\dot S = \sum_{i} {\dot Q_i \over T_i } + {\partial S \over \partial t}

In un sistema isolato si annullano anche i termini entropici legati al flusso termico, per cui:

\dot S = {\partial S \over \partial t}

Entropia nell'informazione[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Entropia (teoria dell'informazione).

Si deve a Claude Shannon lo studio dell'entropia nella teoria dell'informazione, il suo primo lavoro sull'argomento si trova nell'articolo Una teoria matematica della comunicazione del 1948. Nel primo teorema di Shannon, o teorema di Shannon sulla codifica di sorgente, egli dimostrò che una sorgente casuale d'informazione non può essere rappresentata con un numero di bit inferiore alla sua entropia, cioè alla sua autoinformazione media.

Nella teoria dell'informazione - e in rapporto alla teoria dei segnali - l'entropia misura dunque la quantità di incertezza o informazione presente in un segnale aleatorio, che può essere interpretata anche come la minima complessità descrittiva di una variabile aleatoria, ovvero il limite inferiore della compressione dei dati. La connessione con l'entropia termodinamica sta allora nel rapporto di compressione: al diminuire della temperatura corrisponde la riduzione della ridondanza del segnale, e quindi l'aumento della compressione. L'entropia dell'informazione raggiunge un minimo che, in generale è diverso da zero, al contrario dell'entropia termodinamica (vedi terzo principio della termodinamica).

Tale risultato era implicito nella definizione statistica dell'entropia di John Von Neumann, anche se lo stesso Von Neumann, interrogato al riguardo da Shannon nel forse unico scambio di opinioni tra loro, non ritenne la cosa degna di attenzione. Come ricordò Shannon più tardi a proposito del risultato da lui trovato:

« La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarla informazione, ma la parola era fin troppo usata, così decisi di chiamarla incertezza. Quando discussi della cosa con John Von Neumann, lui ebbe un'idea migliore. Mi disse che avrei dovuto chiamarla entropia, per due motivi: "Innanzitutto, la tua funzione d'incertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza l'entropia, così in una discussione sarai sempre in vantaggio" »

Entropia nell'economia[modifica | modifica sorgente]

Exquisite-kfind.png Per approfondire, vedi Entropia (economia).

Georgescu-Roegen applicando il secondo principio della termodinamica all'economia, e in particolare all'economia della produzione, ha introdotto una teoria economica che discute i fondamentali della decrescita: ogni processo produttivo non diminuisce (e quindi incrementa irreversibilmente o lascia uguale) l'entropia del sistema-Terra: tanta più energia si trasforma in uno stato indisponibile, tanta più sarà sottratta alle generazioni future e tanto più disordine proporzionale sarà riversato sull'ambiente.

Note[modifica | modifica sorgente]

  1. ^ Gordon M. Barrow, Physical Chemistry, WCB, McGraw-Hill, 1979
  2. ^ Poiché è dimostrabile, non è un vero postulato.
  3. ^ a b (EN) IUPAC Gold Book, "entropy"
  4. ^ (EN) J. M. Smith, H.C.Van Ness; M. M. Abbot, Introduction to Chemical Engineering Thermodynamics, 4ª ed., McGraw-Hill, 1987, p. 150. ISBN 0-07-100303-7
  5. ^ v indica il volume molare, pari al volume rapportato al numero di moli, ovvero:
    v = V/n \
  6. ^ Infatti, dalla definizione dell'entalpia: H = U + pv; e in termini differenziali: dH = dU + d(pv). Ma dU e dH sono nulli essendo la trasformazione a temperatura costante, quindi d(PV) = 0, ovvero pdv = -vdp
  7. ^ (EN) J. M. Smith, H.C.Van Ness; M. M. Abbot, Introduction to Chemical Engineering Thermodynamics, 4ª ed., McGraw-Hill, 1987, pp. 159-163. ISBN 0-07-100303-7

Bibliografia[modifica | modifica sorgente]

Voci correlate[modifica | modifica sorgente]

Altri progetti[modifica | modifica sorgente]

Collegamenti esterni[modifica | modifica sorgente]