Discussione:Entropia

Da Wikipedia, l'enciclopedia libera.
Vai alla navigazione Vai alla ricerca
Questa voce rientra tra gli argomenti trattati dai progetti tematici sottoindicati.
Puoi consultare le discussioni in corso, aprirne una nuova o segnalarne una avviata qui.
Chimica
Fisica
La voce è stata monitorata per definirne lo stato e aiutarne lo sviluppo.
Ha ottenuto una valutazione di livello sufficiente (settembre 2009).
BLievi problemi relativi all'accuratezza dei contenuti. Informazioni esaustive nella gran parte dei casi, ma alcuni aspetti non sono del tutto approfonditi o altri non sono direttamente attinenti. Il tema non è stabile e potrebbe in breve necessitare di aggiornamenti. (che significa?)
CSeri problemi di scrittura. Linguaggio comprensibile, ma con stile poco scorrevole. Strutturazione in paragrafi carente. (che significa?)
CSeri problemi relativi alla verificabilità della voce. Carenza di fonti attendibili. Alcuni aspetti del tema sono completamente privi di fonti a supporto. Presenza o necessità del template {{cn}}. La delicatezza del tema richiede una speciale attenzione alle fonti. (che significa?)
CSeri problemi relativi alla dotazione di immagini e altri supporti grafici nella voce. Mancano alcuni file importanti per la comprensione del tema. (che significa?)
Monitoraggio effettuato nel settembre 2009
In data 7 aprile 2010 la voce Entropia è stata respinta per la rubrica Lo sapevi che.
commento: Presenza dell'avviso "curiosità da riorganizzare"; voce troppo tecnica per risultare curiosa al lettore medio
Le procedure prima del 2012 non venivano archiviate, perciò possono essere trovate solo nella cronologia della pagina di valutazione.
Entropia
Argomento di scuola secondaria di II grado
Materiachimica
Dettagli
Dimensione della voce46 376 byte
Progetto Wikipedia e scuola italiana

Gli articoli si modificano, non si accatastano. --Snowdog 09:18, Feb 1, 2005 (UTC)

...e inoltre non si firmano!
La buona volontà è apprezzabile, ma Wikipedia ha anche delle regole e delle convenzioni da rispettare per poter contribuire. Sbattere il proprio lavoro in testa alla pagina, senza curarsi di vedere cosa hanno fatto gli altri, non è un buon approccio. -- Paginazero - Ф 09:39, Feb 1, 2005 (UTC)

Abbiamo solo inserito un'introduzione che mancava e ci sembrava necessaria comunque era scritto che si trattava di un abbozzo e che era possibile modificarlo. In quanto alla firma trattasi di lavoro scolastico che necessita di identificazione.--Ely&ery 07:28, Feb 4, 2005 (UTC)

Per convenzione, su Wikipedia gli articoli non si firmano. Il vostro contributo è visibile nella cronologia dell'articolo - quando siete sulla pagine dell'articolo cliccate sulla linguetta "cronologia" accanto a "modifica".
Come vedi, il vostro contributo non è stato cancellato, è stato solo spostato in un paragrafo a sé. Ciao. -- Paginazero - Ф 07:33, Feb 4, 2005 (UTC)

Sarebbe così gentile da dirci dove ha spostato il nostro articolo? --Ely&ery 07:47, Feb 4, 2005 (UTC)

È sempre dove l'avete messo, ma chiude l'articolo anziché aprirlo. -- Paginazero - Ф 08:02, Feb 4, 2005 (UTC)

Contrario di entropia[modifica wikitesto]

Qual'è il contrario della parola entropia? Perché secondo il mio primario, o almeno come lui ci ha spiegato per quanto riguarda la risonanza magnetica, che il contrario è disentropia. Ma esiste questa parola? Io non l'ho mai sentita!

Ciao e grazie!

Io sapevo escotroia, ma non credo sia quello che chiedi. Forse Neghentropia --BW Insultami 08:48, 2 dic 2008 (CET)[rispondi]
Etimologicamente potrebbe aver ragione la prima di Blakwolf, ma in genere basta entropia negativa, a volte, dall'inglese contratta in negentropia. Disentropia credo sia concettualmente scorretto in tutti i sensi possibili termodinamici e non. --Maxcip (msg) 11:33, 2 dic 2008 (CET)[rispondi]
Antientropia?--NUMB3RN7NE (msg) 03:05, 28 ago 2017 (CEST)[rispondi]

definizione[modifica wikitesto]

ciao,

mi pare che nella definizione ci sia un erroruccio, invece che "Joule per Kelvin J/K" forse sarebbe meglio "Joule a Kelvin..." o "Joule su Kelvin..."

--Mauriziogio 17:33, Feb 16, 2005 (UTC)


Hai ragione; ora abbiamo inserito anche i commenti. Abbiamo concluso il lavoro; speriamo sia di gradimento a tutti i wikipediani! --Ely&ery 07:57, Feb 25, 2005 (UTC)

Il lavoro è ovviamente ben gradito. Così com'è adesso però l'articolo è un po' frammentario e dovrebbe essere integrato con una introduzione generale di cui si sta dicutendo alla pagina Entropia (termodinamica)/Draft. Se avete tempo e voglia potreste passare a dire la vostra. --Berto 08:51, Feb 25, 2005 (UTC)

Precisazione[modifica wikitesto]

L'attuale introduzione, che in cronologia risulta attribuita solamente a Madaki, è il risultato del lavoro degli utenti Betarice, Berto e Madaki che hanno lavorato nell'ambito del progetto Il cappellaio matto.--Madaki 13:48, Mar 1, 2005 (UTC)

Traccia del lavoro svolto rimane nella pagina di discussione archiviata: Discussione:Entropia (termodinamica)/Draft. Frieda (dillo a Ubi) 08:33, Mar 4, 2005 (UTC)

E l'entropia quantistica ?-)[modifica wikitesto]

Ehm... tra clienti e cappellai, noto che nessuno ha neanche accennato all'entropia quantistica, a quella relativa, mutuale e di Von Neumann... Sottosezioniamo ? --BW Insultami 07:05, Mar 1, 2005 (UTC)

Ok, ammetto la mia ignoranza. Non solo non avevo mai sentito parlare di entropia relativa e di entropia mutuale (BW mi puoi dare delle referenze?) ma nenache sapevo che Von Neumann avesse definito un'entropia diversa da quella della meccanica statistica. Per quanto riguarda l'entropia quantistica: la definizione è già, per sua natura, quantistica in quanto assume che il numero di microstati accessibili ad un sistema sia numerabile e non formi un continuo (come invece avviene in meccanica classica). Non sono un esperto di meccanica statistica quantistica (neanche di quella classica per dire la verità) e quindi non mi sentirei in grado di scrivere un discorso semplice, compatto e coerente (ovvero enciclopedico) sull'argomento. D'altra parte qui il lavoro era quello di fare un cappello all'articolo. Se qualcuno vuole aggiungere un paragrafo su altri tipi di entropia faccia pure ma direi che dovrebbe farlo sull'articolo principale. --Berto 07:48, Mar 1, 2005 (UTC)

Credo che sia possibile, partendo dal discorso di sostanziale identità tra informazione ed entropia di un sistema (anche nei gas: una distribuzione uniforme di gas non ci dice nulla, due zone a differenti temperature indicano un processo in atto), tirare fuori qualcosa di utile... però ci sarebbe da destrutturare l'articolo, ripensandolo in questi termini. Forse è meglio attendere la consegna del cappello. Per i riferimenti:

  • "Quantum entropy and its use" ISBN 3540208062, che purtroppo non ho più la possibilità di consultare (l'ho letto a casa di un amico in Svezia durante un lungo inverno artico, ma lasciamo perdere :)
  • Von Neumann: Intro, poi [1] e [2]
  • Mutuale e relativa: forse conosci la distanza di Kullback-Leibler tra due funzioni di probabilità ψ(x) e φ(x), definita come . Questa definisce l'entropia relativa. L'entropia mutuale è l'estensione al prodotto tra le funzioni. ([3])
  • Entropia, incertezza ed informazione (magari ti interessa) MQ come informazione quantistica

Salumi e vasi --BW Insultami 13:46, Mar 1, 2005 (UTC)

Cerchiamo una definizione più comprensibile e corretta[modifica wikitesto]

Nel libro di Manfred Eigen e Ruthild Winkler Il Gioco Ed. Adelphi (pag. 133 e succ.), vi è una definizione della entropia veramente chiara e libera da schemi preconcettuali, se avessi letto il libro prima dell'esame di Fisica forse avrei le idee più chiare...

Consideriamo una frase composta da 100 simboli, nel nostro esempio un simbolo è una parola dell'alfabeto 21 caratteri + lo spazio per un totale di 22 caratteri. Il totale di combinazioni possibili di frasi è di:

22*22*22...*22 (cento volte) = 22^100 ovvero circa 2^134

Poiché l'entropia, come grandezza estensiva, deve rappresentare una proprietà quantitativa (il raddoppio di una quantità deve diventare il doppio più grande), la formula 22*22... diventa log22) + log(22) (cento volte) ovvero: log(134)...

L'entropia è rappresentata dal logartimo del numero dei microstati

Ed infatti nel paragrafo La definizione statistica dell'entropia si dice proprio che l'entropia è definita come il logaritmo naturale del numero di microstati accessibile al sistema. Questa però è solo una delle moltepilici definizioni possibili di entropia e, forse, non proprio la più intutiva. --J B 14:52, Lug 18, 2005 (CEST)

Definizione quantistica dell'entropia[modifica wikitesto]

Tanto per discutere. Non ne so abbastanza per scriverci sopra ma mi sembra di ricordare che in teoria quantistica dei campi a temperatura finita ci siano dei problemi a definire l'entropia perché il teorema di Wick non è più applicabile. --J B 14:45, ott 17, 2005 (CEST)

Trasferisco qui un contributo che mi lascia perplesso sia per la forma che per il contenuto:

La prima espressione di entropia quantistica si deve a John Von Neumann, e la sua estensione alla teoria dell'informazione a Claude Shannon.

La formula correla l'aumento d'entropia all'aumento di probabilità e suggerisce che ogni sistema tende a una configurazione stabile(più probabile della precedente). L'entropia sarà massima al minimo della temperatura(che compare a denominatore) che per il terzo principio della termodinamico è intorno allo zero assoluto(-373 gradi centgradi, se si passa dalla scala Kelvin alla scala Celsius), impossibile da raggiungere.

L'aumento di entropia spiega la tendenza di varie grandezze fisiche (pressione, volume, densità,etc.)all'equilibrio, a distribuirsi uniformemente secondo una trasformazione spontanea(es.principio dei vasi comunicanti).

Statisticamente l'ipotesi è di avere grandezze fisiche distribuite secondo una legge normaledi probabilità in cui tali variabili aleatorie evolvono verso una normale degenereossia che collassa su un valore costante cessando di essere una distribuzione.

Tale costante è il valore atteso che in qualunque distribuzione di probabilità è il valore più probabile.

La "campana" di Gaussavrà una pancia sempre più stretta intorno al valore atteso fino a coincidervi puntualmente.

La "degenerazione" della normale è una conferma fisica della legge dei grandi numeri, secondo la quale la varianza di una distribuzione di variabili aleatorie tende azero se il loro numero è elevato; se le variabili aleatorie sono prese nel tempo(e non molte in uno stesso tempo t), in particolare,la varianza tende a zero nel tempo.

Dire che la varianza tende a zero nel tempo significa che la variabile aleatoria viene a coincidere col suo valore atteso e diviene una variabile deterministica(modo tecnico per dire che è una costanete e cessa di variare).

Avvenuta la morte entropicadell'universo l'uniformità di temperatura impedirà lo scambio di calore e la generazione di energia8che è sempre legataad altre dissipazioni); l'uniformità delle altre grandezze fisiche(derivante) da questo principio impedirà qualunque trasformazione e vita chimica, fisica e biologica.

Le teorie sull'evoluzione dell'universo, come detto in precedenza, sono però molteplici perché è incerto cosa potrà accadere prima del raggiungimento dello stato a massima entropia.

Come detto, l'entropia ha potuto darci informazioni sullo stato finale, ma non sul cammino intemedio: ciò significa che non sappiamo non solo come arriverà allo stato finale di massima entropia, ma nemmeno se vi arriverà. Il teorema di Weierstrass quando aferma che ogni funzione continua possiede un massimo assoluto, non intende che questo massimo per forza debba essere raggunto.

Le versioni tra loro sono compatibili perché parlano di eventi diversi ma riferiti a differenti istanti della storia dell'universo: l'idea è che succederebbe tutto questo se si arriverà allo stato di massima entropia, ma se l'universo cominciasse a implodere prima,.. --Madaki 10:18, ott 29, 2005 (CEST)

Sicuramente questo intervento soffre di un difetto di fondo: tratta la termodinamica classica come se fosse LA teoria che descrive l'evoluzione dell'universo. Se questo poteva andar bene a fine '800 adesso è palesemente falso. --J B 12:29, ott 29, 2005 (CEST)

la voce potrebeb accennare alla matematica dei frattali e alla geometria frattale. Esiste una geometria del tutto nuova, nata negli anni '80, puramente matematica astratta, e non euclidea che cioè non richiama nè i postulati di Euclide nè i teoremi conseguenti.

eppure, diversamente dalle prime e più note geometrie non euclidee scoperte nell '800, si può disegnare (tramite programmi che elaborano funzioni matematiche), e ha un vasto campo di applicazioni reali: geometria molecolare, anche nella scienza dei materiali, progettazione di reti informatiche più efficienti, cristallografia, teoria del caos (moto browniano--->le Borse valori che nel lungo termine aumentano e creano valore senza ravvisare alcuna legge numerica nelle continue fluttuazioni; nel mondo infinitamente grande, il moto delle galassie). I cristalli, le stalattiti, le stallagmiti, in natura (e molte cose che l'uomo progetta) ci dicono, forti di una solida struttura matematica dietro, che il disordine non è (non sempre è) la realtà più probabile e che la morte entropica non è la "innata" tendenza di un sistema; al contrario, nel lungo termine, vari tipi di sistemi tendono alla vita ordinata.

Definizione Termodinamica[modifica wikitesto]

Se mi permettete (e credo non ci siano problemi) vorrei introdurre una definzione termodinamica più seria dell'entropia per poi approdare a quella citata che non rappresenta altro che la ariazione di entropia per un sistema che scambia esclusiamente calore con un SET (serbatoio di energia termica che ha determinate caratteristiche ideali). Se mi lasciate fare correggo. Grazie.--Karmine 19:29, 13 mag 2006 (CEST)[rispondi]

Prego, fai pure. Non c'è bisogno di chiedere il permesso :-) --J B 09:35, 15 mag 2006 (CEST)[rispondi]

Trovo che la frase "La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema e la seconda, lo stato di agitazione molecolare." sia molto ambigua. In particolare sembra che sia possibile definire la temperatura soltanto in un sistema composto di molecole, mentre sappiamo che possiamo definire la temperatura anche per un gas di fotoni o di elettroni, o in un plasma, o anche in un gas monoatomico. Purtroppo penso che sia difficile estendere il discorso con la dovuta precisione in un solo paragrafo.

sD

21 dic. 2010, 18:04 --SAPP --

Io vorrei aggiungere una definizione più semplice, ma credo inerente solo alle macchine termiche: "L'entropia è la grandezza la cui variazione misura il grado di reversibilità di una trasformazione." (correggetemi se ho sbagliato o se qualcun'alro aveva già dato questa affermazione!) Ps: non so come fare a firmarmi!

la presenza di forme complesse e ordinate, come i cristalli (osservati al microscopio) o altre forme geometriche presenti in natura, vanno contro il concetto dell'entropia... perché? non è forse la dimostrazione che esiste un creatore? come quando si vede una casa si è consapevoli che la stessa deve aver avuto un progettatore e un costruttore, così anche la terra - infinite volte più complessa - deve aver avuto Qualcuno cui vi ha messo 'ordine'. attribuire la formazione della terra e dei suoi sistemi ad un esplosione - la quale non poteva avere un margine di tolleranza superiore ad un miliardesimo di un milionesimo dell'1 %, per poter 'dar vita' a questo meraviglioso sistema - mi sembra un'affermazione priva di coscienza. non vi sembra?

Temo che questo sia il posto sbagliato per discutere dei grandi temi della fede. Se tu credi nell'esistenza di un creatore chi sono io per contestare quella che è una credenza intima e personale? Se invece parliamo di fisica le tue argomentazioni sono estremamente superficiali e segno di una scarsa conoscenza dell'argomento. Ti consiglierei la lettura di un testo elementare di termodinamica magari focalizzandoti sui concetti di entalpia e di energia libera. :-) --J B 10:18, 16 mag 2006 (CEST)[rispondi]
Caro 84.222.31.146 , Wikipedia non è un forum. Questa è una pagina di discussione : "Le pagine di discussione sono intese ad ospitare uno scambio di informazioni utile a migliorare la voce cui si riferiscono e, anche se talvolta è difficile, dovrebbero restare destinate a questo scopo."(da Aiuto:Cosa non mettere su Wikipedia, che sarebbe opportuno che leggessi prima di postare qui).
Se invece era tua intenzione proprio proporre d'inserire tali considerazioni nella voce entropia, ricordo che questa è un'enciclopedia, non adatta a ricerche originali o nuove teorie: altre alle pagine di aiuto che ho già indicato, vedi Wikipedia:Niente_ricerche_originali.
Riguardo alla teoria in questione, accennerò ora al fatto (giusto nella speranza di prevenire il continuare o il ripetersi di interventi che la presentano) che: Tale teoria parte da ipotesi e presupposti erronei, i solidi reali sono ben più disordinati dei cristalli (ideali) ordinati, che sono solo un'astrazione teorica, un modello. Quanto al (limitato e tutt'altro che perfetto) ordine nelle forme di vita, è realizzato a costo di un continuo dispendio energetico.--ChemicalBit 11:02, 16 mag 2006 (CEST)[rispondi]


E' corretto dire che l'entropia e' il motivo per cui e' impossibile realizzare la famosa macchina a "moto perpetuo" ? Grazie.

No, non è propriamente corretto, perché il motivo non è l'entropia, bensì il secondo principio della termodinamica. --Aushulz (msg) 17:48, 17 giu 2011 (CEST)[rispondi]

definizione[modifica wikitesto]

Nella discussione e nella voce non si capisce molto bene la definizione di entropia. Io la definirei come la parte di informazione sconosciuta contenuta in un sistema fisico. Così mi pare un po' più semplice da capire no?

L'ossimoro da te proposto non è che sia tanto azzeccato... Comunque se ti riferisci al concetto entropia/informazione la voce entropia (teoria dell'informazione) tratta approfonditamente l'argomento in questione, a ogni modo la tua osservazione non era fuori luogo e mi ha dato spunto per inserire la sezione Entropia e informazione. --Cisco79 14:22, 16 giu 2007 (CEST)[rispondi]
Appunto perché esiste già la voce Entropia (teoria dell'informazione), non è meglio inserire lì la sezione sul concetto entropia/informazione? Mi pare che le sezioni della voce Entropia (termodinamica) siano già abbastanza confusionarie. --Aushulz (msg) 00:43, 1 set 2008 (CEST)[rispondi]

Ipotesi ergodica[modifica wikitesto]

C'è un piccolo errore di battitura alla fine del paragrafo "La definizione statistica dell'entropia". E' stato scritto "ergotica" anzichè "ergodica". Questo commento senza la firma utente è stato inserito da 151.12.113.66 (discussioni · contributi).

Chissà, forse qualcuno voleva riferirsi all'ergot...-:) Comunque potevi correggere anche tu (non morde nessuno), e peraltro esiste anche un link interno. --Cisco79 (msg) 12:57, 31 mar 2008 (CEST)[rispondi]

Mi pare che la voce contenga al suo interno troppi ambiti, che ne dite di separare la voce? Io farei così:

  1. Trasportare la sezione Entropia e informazione alla voce Entropia (teoria dell'informazione)
  2. Creare una nuova voce, Entropia (quantistica) dalla sezione Definizione quantistica dell'entropia, inserendo il link alla pagina di disambiguazione Entropia.
  3. Lasciare in questa voce solo le nozioni di carattere termodinamico, termodinamico-statistico, e matematico, dal momento che questa voce si chiama Entropia (termodinamica).

Critiche e commenti sono sempre graditi. --Aushulz (msg) 01:02, 1 set 2008 (CEST)[rispondi]

Peraltro non capisco perché questa voce si chiami Entropia (termodinamica) e non Entropia, come se non fosse l'uso prevalente. --ChemicalBit (msg) 21:06, 1 set 2008 (CEST)[rispondi]

Cioè, io inviterei tutti quanti seriamente a ricontrollare l'introduzione, in cui si cerca di far capire il concetto. Parlare di universo e 'entropia che aumenta sempre' è molto fuorviante e sa da preconcetto da due soldi. Se qualcuno conosce un modo migliore, lo faccia, io non voglio sparare idiozie, ma questo è certo: Non è vero che entropia = disordine (vedi le macchine termiche) ed è una grande boiata "disordine dell'universo". L'entropia può aumentare e diminuire in un sistema, estendendo il concetto come puro esempio al sistema chiuso "universo" che si suppone sia circondato da null'altro, allora si dice che è soggetto a sole trasformazioni irreversibili e la sua entropia non può che aumentare.

Md1053 (msg) 11:31, 9 set 2008 (CEST)[rispondi]

Contributi e suggerimenti sono sempre ben accetti. Tuttavia ti pregherei cortesemente di evitare un linguaggio da bar sport che potrebbe inutilmente innervosire gli altri utenti. Tra le altre entropia=disordine è (a meno di questioni di lana caprina) fondamentalmente esatto: in un sistema perfettamente ordinato l'entropia è zero ed aumenta all'aumentare del numero di configurazioni possibili ed equivalenti del sistema (che, in moltissimi casi di interesse, vuol dire aumentare il disordine). --J B 12:09, 9 set 2008 (CEST)[rispondi]
Quoto Berto. Il disordine non va inteso nel senso comune del termine, ma nel senso fisico-matematico. Si potrebbe chiarire l'argomento con una buona trattazione matematica, ma non so fino a che punto risulterebbe pesante. Se volete possiamo scomodare quelli del progetto matematica a proposito. Anche il concetto di universo non è nei termini quotidiani, ma si tratta di Universo termodinamico), che per definizione è un sistema chiuso. Dal momento che si parla di disordine, vorrei esprimere un dubbio, a proposito di questa frase: «È tuttavia bene notare che esiste tutta una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale». Questo vuol dire che il caos matematico non ha nulla a che vedere con il disordine di cui stiamo parlando? --Aushulz (msg) 13:33, 9 set 2008 (CEST)[rispondi]
A proposito del rapporto disordine-caos-entropia penso che una trattazione dei vortici di Kolmogorov potrebbe rendere più precisi i concetti. Purtroppo in italiano manca una buona trattazione, che invece si trova nela wiki inglese (en:Andrey Kolmogorov). --Aushulz (msg) 13:57, 9 set 2008 (CEST)[rispondi]
Esatto, il caos deterministico (quello della teoria del caos) non ha granché a vedere col caos stocastico (quello della termodinamica) sebbene i nomi siano simili (in realtà a questa mia affermazione si potrebbero fare le pulci ma sto cercando di semplificare). Ogni voce, questa inclusa, è migliorabile ma non credo che una trattazione formale dell'entropia (che non abbisogna di un matematico, basta un libro di meccanica statistica e qualche ricordo dell'università) renderebbe la voce più fruibile. --J B 14:04, 9 set 2008 (CEST)[rispondi]

Ho spostato la sezione "Entropia e informazione" dalla voce Entropia (termodinamica) alla voce Entropia (teoria dell'informazione). Ho lasciato i link in "voce correlate". --Aushulz (msg) 02:00, 30 set 2008 (CEST)[rispondi]

«Occorre sottolineare che dS è un differenziale esatto se e solo se è valido il secondo principio della termodinamica.»

Questa frase mi lascia perplesso, questo "se e solo se" mi sembra un po' troppo forte, ovviamente potrei sbagliarmi. Si possono spiegare meglio entrambe le implicazioni? Ylebru dimmela 10:21, 3 mar 2009 (CET)[rispondi]

Discussione iniziata in Discussione:Secondo principio della termodinamica

Un ultimo dubbio: continuo a non capire perché usare nella stessa equazione due simboli diversi per la derivata rispetto al tempo. Vedo che viene fatto così anche nella versione inglese. Ylebru dimmela 11:31, 3 mar 2009 (CET)[rispondi]
Nella voce Stato stazionario, si legge: "un sistema che si trovi allo stato stazionario tende a mantenere il proprio comportamento col trascorrere del tempo". Per capire cos'è in pratica lo stato stazionario, puoi leggere la sezione "Esempio pratico" che ho scritto adesso nella voce Bilancio (fenomeni di trasporto). Il termine "t" è scritto in maniera esplicita proprio per evidenziare il fatto che solo quel termine "dipende dal tempo", cioè possono esserci delle situazioni in cui le condizioni del sistema non variano nel tempo; nell'esempio ala voce Bilancio (fenomeni di trasporto) che ti dicevo queste condizioni sono quelle in cui il livello di acqua nella vasca è costante. Questo però non vuol dire però che l'acqua non entra e non esce dal sistema, ma che la quantità di acqua nel sistema è sempre costante (vedi la parte sullo stato stazionario: Bilancio (fenomeni di trasporto)#Stato stazionario). Forse non sono stato molto chiaro. Probabilmente bisognerebbe ampliare la voce Stato stazionario (fisica) per quello che riguarda il significato nell'ambito dei fenomeni di trasporto. (p.s.: cerchiamo di creare un nuovo titolo per ogni argomento di discussione, o se qualcuno è interessato ad un aspetto particolare della voce non sa dove leggere prima) --Aushulz (msg) 15:28, 3 mar 2009 (CET)[rispondi]
Ma siamo d'accordo che sia il puntino che d/dt indicano la stessa cosa, e cioè una derivata parziale rispetto al tempo? Inoltre non capisco perché solo il totale dovrebbe dipendere dal tempo: a me sembra che tutti gli addendi dipendano dal tempo, anche se in alcuni sistemi alcuni di questi possono essere costanti. Tra l'altro, proprio nel caso stazionario, se non ho capito male, la massa totale di acqua non dipende dal tempo, mentre la quantità di acqua entranti e uscenti possono variare (purché restino uguali). Ma questa discrepanza di notazione è specifica dell'entropia o c'è in ogni equazione di bilancio? Ciao e grazie, Ylebru dimmela 16:45, 3 mar 2009 (CET)[rispondi]
Mmmh... credo che questa differenza di notazione sia dovuta al fatto che l'entropia totale è un differenziale esatto, mentre gli addendi no. Ylebru dimmela 17:03, 3 mar 2009 (CET)[rispondi]
Può darsi, però al momento ho le idee un po' confuse, infatti bisogna capire dove ci sta la derivata parziale e dove no e cosa sia differenziale esatto e cosa no. Io penso che nei termini del bilancio la quantità entrata e quella uscita siano dei differenziali esatti, mentre la generazione di entropia e di conseguenza l'accumulo dovrebbe essere non esatti. Forse è meglio che ragioniamo sia in termini infinitesimi (come adesso, con le derivate) sia in termini finiti (con le variazioni finite), e magari aggiungiamo qualche esempio numerico. --Aushulz (msg) 19:39, 3 mar 2009 (CET)[rispondi]
Anche secondo me a occhio dovrebbe essere come tu dici. Comunque al di là della notazione la formula è giusta, e quindi direi che va bene. Ylebru dimmela 14:30, 5 mar 2009 (CET)[rispondi]

Gas perfetti[modifica wikitesto]

Ma l'eqauzione dei gas perfetti non pV=nRT? Il numero di moli manca nell'articolo e l'errore sembra propagarsi per tutta la sezione. --93.65.60.102 (msg) 11:11, 28 giu 2009 (CEST)[rispondi]

Non è affatto un errore. Come si dice in una nota della voce in questo caso con "v" viene indicato il volume molare, pari a V/n, quindi il numero di moli non compare perché è inglobato in v. Ti faccio i passaggi:
(con V volume)
sostituisco v=V/n (con v volume molare)
divido ambo i membri per n:
--Aushulz (msg) 13:25, 28 giu 2009 (CEST)[rispondi]

Il ghiaccio?[modifica wikitesto]

Da quando in qua la liquefazione è un processo irreversibile!?--78.40.128.7 (msg) 09:49, 29 gen 2010 (CET)fullma[rispondi]

Grazie per la segnalazione. Ho modificato la didascalia dell'immagine, sperando che ora vada meglio.
La fusione del ghiaccio (e di molte altre sostanze) è associato un ΔS°fus (variazione di entropia relativa al processo di fusione). Una trasformazione che avviene con variazione di entropia non è necessariamente irreversibile, giusto?
Bisognerebbe rendere più chiara da qualche parte la relazione tra entropia e reversibilità, mi pare che nella voce ci siano molte incongruenze su questo aspetto. Qualunque intervento in questa discussione è ben accetto.
--Aushulz (msg) 03:21, 1 feb 2010 (CET)[rispondi]

Trasformazioni reversibili[modifica wikitesto]

Ho modificato la frase In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un sistema isolato l'entropia può solo aumentare, o al limite rimanere costante per trasformazioni termodinamiche reversibili scrivendo cicli termodinamici reversibili in quanto una trasformazione reversibile provoca una variazione di entropia positiva che diventa zero quando viene chiuso il ciclo reversibile con una uguale e contraria variazione di entropia. Mi prendo l'impegno di migliorare la voce che mi appassiona, la metto nei miei osservati speciali con la promessa di fare un pezzo ogni tanto! -- cheip 20:50, 18 lug 2010 (CEST)[rispondi]

Grazie mille. :) --Aushulz (msg) 13:46, 20 lug 2010 (CEST)[rispondi]

Mancanza di divulgazione[modifica wikitesto]

Penso che oltre a scrivere cose così tecniche sarebbe bello scrivere delle considerazioni e dei principi in modo che la maggior parte delle persone possa capirlo, e non pochi eletti. Dopo tutto, un'enciclopedia è fatta perché la conoscenza sia accessibile a tutti e non solo a pochi eletti. Questo commento senza la firma utente è stato inserito da 151.49.243.125 (discussioni · contributi) 18:20, 9 giu 2012 (CEST).[rispondi]

Ho inserito una sezione per spiegare ai non addetti ai lavori il concetto di entropia. Dovrei aggiungere anche degli accenni alla variazione di entropia durante i passaggi di stato.
Dimmi se ti sembra chiara come spiegazione e se pensi che possano essere inseriti esempi più semplici. --Aushulz (msg) 21:04, 9 giu 2012 (CEST)[rispondi]

Nel paragrafo "Storia e definizione" ho modificato una caratteristica ... di tutti i sistemi allora conosciuti, nei quali si osservava che le trasformazioni avvenivano invariabilmente in una direzione sola, quella verso il maggior disordine. Ho sostituito "spontaneamente" a "invariabilmente", perchè l'entropia può anche diminuire in alcune trasformazioni. Però non ho il testo di Carnot di riferimento e non posso garantire che invece Carnot facesse riferimento a sistemi chiusi.

Altro dubbio nel paragrafo "Definizione matematica": qui la frase Dunque dell'universo si conosce lo stato iniziale, entropia nulla, non lo stato finale a cui converge (entropia e temperatura massime) mi convince poco. Ho la sensazione che definire entropia nulla nello stato iniziale dell'universo possa essere una convenzione, ma non sia dimostrabile.--Truman (msg) 23:33, 24 feb 2013 (CET)[rispondi]

  • Sul primo punto non ho capito cosa vuoi dire, in particolare non ho capito cosa intendi con l'avverbio "invariabilmente".
  • Sul secondo punto, concorderei con te, ma siccome non ho studiato astrofisica e roba del genere, non so se ci sono effettivamente teorie in cui si dimostra che l'entropia iniziale dell'Universo è (o meglio "fu") nulla. --Daniele Pugliesi (msg) 02:43, 25 feb 2013 (CET)[rispondi]
  • La frase come era prima era errata, perchè affermava che l'entropia aumenta sempre ("invariabilmente"). In un sistema aperto ciò in generale non è vero.
  • Sul secondo punto, che finora non ho toccato, potremmo richiedere una fonte inserendo il relativo avviso.--Truman (msg) 13:39, 25 feb 2013 (CET)[rispondi]
L'entropia è definita a meno di una costante additiva, per cui ... Il paragrafo andrebbe tuttavia sistemato magari riferendosi a qualche testo classico di meccanica statistica/termodinamica. "Dunque dell'universo si conosce lo stato iniziale" messa così sembra quasi che si conoscano tutte le variabili dello stato iniziale, il che è di fatto impossibile X-Dark (msg) 15:51, 25 feb 2013 (CET)[rispondi]
Non credo esista, ad oggi, una teoria adeguata che descriva l'universo nell'Era di Planck, cioè nei primi 10-43 secondi dell'Universo, quindi non penso si possa stimare l'entropia dell'epoca. Qui si parla invece dell'entropia che c'era al termine dell'era di Planck, cioè dopo che sono trascorsi i primi 10-43 secondi. --Nungalpiriggal (msg) 16:19, 25 feb 2013 (CET)[rispondi]

Definizione matematica[modifica wikitesto]

Posso sapere da quale fonte gli autori hanno distillato le loro affermazioni sulla "definizione matematica" di entropia, finora a me sconosciute ? Neanche nell'articolo inglese di Wikipedia ho trovato una simile definizione. Le proprietà supposte non mi sembrano consistenti con la realtà, l'entropia di un sistema isolato è una funzione monotona non decrescente del tempo, non della temperatura, che non è una grandezza definita per un sistema non in equilibrio, meno di non riferirsi alla temperatura media. Dove si dimostra che è una funzione monotona non decrescente della temperatura ? Verrebbe fuori che l'universo tende alla massima temperatura, a seguito dell'aumento col tempo dell'entropia e dell'affermazione per cui sarebbe una funzione crescente della temperatura (media ?). Ma allora cosa dire di un sistema isolato, come l'universo, con due corpi a temperature inizialmente differenti posti a contatto ? Se non ci sono variazioni di energia potenziale la temperatura media (pesi: capacità termiche) rimane uguale, non aumenta, al contrario dell'entropia. Poi, tornando alla realtà, si ricorda che T ed S sono considerate due variabili indipendenti, mentre prima erano strettamente correlate. Già la partenza non è un granché: se è una funzione di stato non dipende dallo stato iniziale (che è arbitrario) ma da quello attuale; se si vuol dire che è definita a meno di una costante arbitraria va bene (ma esiste un terzo principio della termodinamica a proposito) ma la definizione in base allo stato iniziale presuppone la possibilità di assegnare un valore assoluto all'entropia in tale stato mentre poco dopo si afferma la sua arbitrarietà. Dove poi traggono l'informazione che l'universo avrebbe avuto all'inizio entropia nulla ? Cosa poi accada alla povera entropia, definita alla fine in un intervallo da 0 a 1, per essere invariante rispetto alla permutazione degli assi cartesiani mi sfugge proprio. Forse si potrebbe eliminare del tutto la voce "definizione matematica" dall'articolo, senza perderci nulla. Questo commento senza la firma utente è stato inserito da Balutre44 (discussioni · contributi).

Credo che tu abbia ragione, si può cancellare la sezione. X-Dark (msg) 15:10, 21 giu 2016 (CEST)[rispondi]

Collegamenti esterni interrotti[modifica wikitesto]

Una procedura automatica ha modificato uno o più collegamenti esterni ritenuti interrotti:

In caso di problemi vedere le FAQ.—InternetArchiveBot (Segnala un errore) 05:25, 1 feb 2022 (CET)[rispondi]