mercoledì 11 giugno 2014

Entropia statistica e termodinamica

Nei due post "Entropia: una grandezza anomala!" e "L'Entropia secondo Boltzmann" (a cui rimandiamo) sono stati introdotti due diversi modelli fisici per definire il concetto di entropia; rispettivamente uno di tipo termodinamico (dove dS=δQ/T) e l'altro di tipo statistico (con S=kBlnP).

Vogliamo ora mostrare come queste due descrizioni siano tra loro profondamente collegate e che in effetti abbiamo derivato, a partire da due modelli teorici diversi, lo stesso tipo di grandezza fisica: l'entropia di un sistema di particelle.

Riscriviamo quindi il risultato ottenuto per l'entropia statistica (vedi il post "La Legge statistica di Distribuzione"):
S=kBlnP=kBNlnN-kBiniln(ni/gi)
rimarcando che tale relazione è sempre valida, anche fuori dall'equilibrio; mentre P è la probabilità di una data distribuzione delle particelle nei vari livelli di energia.

Nello stesso post abbiamo anche derivato la legge di distribuzione delle particelle del sistema sui vari livelli di energia in condizioni di massima probabilità, cioè per ipotesi nello stato di equilibrio termodinamico:
ni=(N/Z)gie-Ei/kBT
oppure utilizzando le proprietà dei logaritmi:
ln(ni/gi)=-ln(Z/N)-Ei/kBT.
Nota: ricordiamo che per ipotesi il sistema passa la maggior parte del tempo nello stato che può realizzarsi nel maggior numero di modi, cioè quello di massima probabilità o di massima entropia.

Considereremo perciò una trasformazione reversibile, dove possiamo supporre che il sistema passi da una distribuzione all'altra in modo che si realizzi sempre lo stato di massima probabilità e valga quindi la legge di distribuzione ni sopra riportata.
Nota: ricordiamo che quando una trasformazione è reversibile il sistema passa per definizione solo attraverso stati di equilibrio termodinamico.


Sostituiamo quindi il valore di ln(ni/gi) nell'equazione di S ottenendo (in condizioni di equilibrio o di massima entropia): 
S=kBNlnN+kBln(Z/N)∑ini+(1/T)∑iniEi
da cui, ricordando le due condizioni N=∑ini e E=∑iniEi (dove N sono le particelle mentre E è l'energia totale del sistema) segue infine:
S=kBN(lnN+ln(Z/N))+E/T=kBNlnZ+E/T.
Tale relazione esprime l'entropia S(N,Z,E,T) in funzione dei parametri caratteristici del sistema (cioè il numero di particelle N, la funzione di partizione Z, l'energia totale E e la temperatura assoluta T).
Nota: ricordiamo che Z dipende dalla struttura microscopica del sistema e vale Z=∑igie-Ei/kBT (vedi il post "La Legge statistica di Distribuzione").

Poiché stiamo trattando una trasformazione reversibile possiamo supporre* che S sia una funzione differenziabile (dato l'elevato numero di particelle supponiamo che ni vari con continuità) così possiamo calcolare il dS=(∂S/∂Z)dZ+(∂S/∂E)dE+(∂S/∂T)dT (fissando il numero N di particelle e utilizzando le regole di derivazione):
dS=d(kBNlnZ+E/T)=kB(N/Z)dZ+(1/T)dE-(1/T2)EdT.
Nota: stiamo considerando un sistema chiuso che può scambiare solo energia con l'ambiente ma non massa, quindi N è costante.

A questo punto vogliamo derivare una relazione che leghi il primo termine del terzo membro dell'equazione precedente (cioè kB(N/Z)dZ) all'energia E e alla temperatura T (come risulta per gli altri due termini).

Poichè sappiamo che Z(Ei,T)=∑igie-Ei/kBT dove gi è costante per ogni dato livello Ei (vedi il post "La Legge statistica di Distribuzione"), calcoliamo il differenziale dZ=i(∂Z/∂Ei)dEi+(∂Z/∂T)dT:
dZ=-(1/kBT)∑igie-Ei/kBTdEi+(1/kBT2)∑igiEie-Ei/kBTdT.
Perciò il termine kB(N/Z)dZ contenuto nel dS prima ricavato diventa:
kB(N/Z)dZ=-(1/T)∑i(N/Z)gie-Ei/kBTdEi+(1/T2)∑i(N/Z)giEie-Ei/kBTdT
ed infine ricordando che ni=(N/Z)gie-Ei/kBT si ha:
 kB(N/Z)dZ=-(1/T)∑inidEi+(1/T2)∑iniEidT.

Facciamo ora qualche considerazione per attribuire un significato fisico al primo termine inidEi che compare al secondo membro della precedente equazione; mentre per il secondo termine sappiamo che E=∑iniEi è l'energia del sistema.

Come abbiamo mostrato nel post "Il Principo di Conservazione... termodinamico!", per il primo principio della termodinamica possiamo scrivere, per una trasformazione reversibile (e quindi differenziabile):
dE=δL+δQ
dove dE indica una variazione infinitesimale dell'energia interna dovuta al lavoro elementare δL (fatto sul sistema) e al calore δQ (fornito al sistema).
Nota: ricordiamo che l'energia interna E è una funzione di stato quindi dE è un differenziale esatto.

Inoltre, poiché nel nostro modello statistico vale la relazione E=∑iniEi, possiamo calcolare il differenziale dE=i(∂E/∂Ei)dEi+i(∂E/∂ni)dni (supponiamo che E(ni,Ei) sia una funzione differenziabile, essendo le particelle dell'ordine del Numero di Avogadro e i livelli di energia praticamente continui):
dE=∑inidEi+∑iEidni.
Nota: questa relazione statistica vale anche in condizioni di non equilibrio, come la definizione di entropia statistica (vedi il post "L'Entropia secondo Boltzmann").

Essendo evidente l'analogia tra le due precedenti relazioni (quella termodinamica e quella statistica rispettivamente), supporremo che valga l'equivalenza tra i singoli termini al secondo membro delle due equazioni**; poniamo quindi:
δL=∑inidEi   e   δQ=∑iEidni.
Ciò significa che per ipotesi il termine inidEi indica la variazione di energia dei livelli, dovuta al lavoro elementare δL fatto sul sistema durante una trasformazione; mentre iEidni indica la variazione dni delle particelle sui livelli dovuta al calore elementare δQ fornito al sistema.

Possiamo perciò riprendere l'equazione precedente che definisce il termine kB(N/Z)dZ (vedi sopra); quindi sostituendo i valori rispettivamente di δL=∑inidEi e di E=∑iniEi otteniamo:
kB(N/Z)dZ=-(1/T)δL+(1/T2)EdT. 

Questo risultato ci permette di ottenere il valore del dS che avevamo lasciato in sospeso (nel quale è presente il termine kB(N/Z)dZ appena ricavato) e quindi si ha (essendo dE=δL+δQ):
dS=-(1/T)δL+(1/T)dE=(1/T)δQ 
ricordando che tale relazione è valida, per come è stata ricavata, solo per una trasformazione reversibile. 
Nota: per quanto detto sopra il calore δQ deve essere scambiato in maniera reversibile (vedi anche il post "Entropia: una grandezza anomala!").

Abbiamo perciò ottenuto, a partire dalla definizione di entropia statistica S=kBlnP, la relativa relazione termodinamica dS=δQ/T; le due definizioni sono quindi da considerarsi dal punto di vista fisico del tutto equivalenti (ovviamente nei limiti dei due modelli e delle ipotesi avanzate)***.

(*) Una trasformazione reversibile e quindi quasi-statica "considera variazioni di tempo infinitesime, istantanee, e consente di applicare il calcolo infinitesimale e i differenziali alle equazioni termodinamiche, senza variarne il significato fisico" (vedi Wikipedia); estendiamo questa considerazione al modello statistico.
(**) Possiamo però dare qualche motivazione: se ad esempio δL è dovuto ad una variazione di volume del sistema, è corretto aspettarsi una corrispondente variazione dEi di energia dei livelli (perché cambia la struttura del sistema); mentre una variazione di calore δQ può certamente provocare una corrispondente variazione dni delle particelle sui livelli, cioè un salto delle particelle da un livello all'altro.
(Il caso quantistico di una buca di potenziale è esplicativo poiché i livelli di energia dipendono dalle dimensioni fisiche della buca, vedi Wikipedia).
(***) Si ricordi infatti che l'entropia statistica vale solo quando sono soddisfatte le ipotesi statistiche, come descritto nel post "L'Entropia secondo Boltzmann"; ciò è sicuramente vero nel caso di un gas ideale.

mercoledì 4 giugno 2014

La Legge statistica di Distribuzione

Nel post "L'Entropia secondo Boltzman" abbiamo fatto l'ipotesi che un sistema termodinamico possa essere descritto statisticamente attraverso la distribuzione delle particelle ni poste nei rispettivi livelli di energia Ei.
Abbiamo quindi ottenuto che la probabilità P di una data distribuzione n1, n2, n3, ... è pari a
P=N!(g1n1g2n2g3n3...)/(n1!n2!n3!...)
dove i valori di gi definiscono le probabilità intrinseche di riempimento dei vari livelli di energia.

Ricordiamo che il sistema è per ipotesi isolato (cioè non scambia né energia né massa con l'ambiente) e che sono date le due seguenti condizioni o vincoli fisici:
N=n1+n2+n3+...
E=n1E1+n2E2+n3E3+...
dove N è il numero totale di particelle, E l'energia del sistema e n1, n2, n3, ... sono rispettivamente il numero di particelle di energia E1, E2, E3, ....

Dato che, per ipotesi, la probabilità di una distribuzione è massima quando il sistema si trova in uno stato di equilibrio, vogliamo calcolare per quale distribuzione delle particelle la probabilità P è massima.

Poiché il massimo di P corrisponde con quello di lnP (e poiché è più facile valutare lnP) diamo la sua espressione esplicita (secondo le proprietà dei logaritmi):
lnP=lnN!+n1lng1+n2lng2+n3lng3+...-lnn1!-lnn2!-lnn3!-...
o in modo più conciso:
lnP=lnN!+∑inilngi-ilnni!

A questo punto è utile introdurre la nota formula di Stirling valida per grandi numeri (poiché il numero di particelle di un sistema è solitamente molto grande, dell'ordine del Numero di Avogadro): lnN!≈NlnN-N.
Possiamo perciò scrivere con buona approssimazione:
lnP=NlnN-N+∑inilngi-∑inilnni+∑ini
da cui segue secondo le proprietà dei logaritmi (ed essendo N=∑ini):
lnP=NlnN-iniln(ni/gi).

Ora poiché vogliamo trovare per quali valori di n1, n2, n3, ..., si ottiene il massimo di lnP, supponiamo di poter trattare la probabilità P(n1,n2,n3,...come una funzione differenziabile (dato l'elevato numero di particelle in pratica ni vari con continuità); basterà quindi porre dlnP(ni)=0 per trovare il punto di massimo.

Possiamo perciò scrivere, rammentando le regole di derivazione (ed essendo NlnN costante):
dlnP(ni)=-diniln(ni/gi)=-∑idniln(ni/gi)-inidln(ni/gi)=-∑idniln(ni/gi)
poiché risulta:
inidln(ni/gi)=inidlnni-∑inidlngi=∑idni=0 
essendo dlnni=(1/ni)dni, dlngi=0 e dN=∑idni=0 con gi ed N costanti.
Nota: ricordiamo che in generale il differenziale di una funzione F(ni) a più variabili è: dF(ni)=(∂F/∂n1)dn1+(∂F/∂n2)dn2+(∂F/∂n3)dn3+... .

Ora al fine di soddisfare i vincoli delle condizioni fisiche del sistema (cioè N=ini e E=iniEi) dobbiamo porre oltre alla condizione dlnP(ni)=-∑iln(ni/gi)dni=0 anche dN=∑idni=0 e dE=∑iEidni=0 e perciò seguendo il metodo dei moltiplicatori di Lagrange*:
i(ln(ni/gi)+A+BEi)dni=0
dove le costanti A e B sono da determinare in base alle due condizioni di conservazione di N ed E.

Si ottiene perciò la distribuzione di probabilià massima (o di equilibrio termodinamico) quando ln(ni/gi)+A+BEi=0 da cui segue subito (risultando ln(ni/gi)=-(A+BEi)):
ni=gie-(A+BEi)
dove il fattore di probabilità gi pesa sul riempimento dei singoli livelli di energia.
Nota: per la definizione della funzione continua di probabilità g(E) vedi il post "Il calcolo degli stati di energia: dN=g(E)dE".

A questo punto dalla condizione N=ini si può ricavare il valore della costante A; infatti possiamo scrivere (utilizzando l'equazione appena ricavata per ni):
N=∑ini=∑igie-(A+BEi)=e-Aigie-BEi
da cui si ottiene, posto Z=∑igie-BEi:
e-A=N/Z 
perciò A si riconduce al calcolo della cosiddetta funzione di partizione Z.
Nota: Z dipende dalla struttura microscopica del sistema** ed è quindi diversa per un gas ideale, un gas reale, un liquido oppure un solido.

Mentre dalla seconda condizione E=iniEi si ha (essendo ni=(N/Z)gie-BEi):
E=iniEi=(N/Z)igiEie-BEi.
Si osservi ora che, introducendo qualche derivata, possiamo riscrivere il valore di E nel modo seguente:
E=-(N/Z)d(∑igie-BEi)/dB=-(N/Z)dZ/dB=-NdlnZ/dB
da cui, ricordando che il valore medio di energia <E> di ogni singola molecola è definito come E/N, avremo:
<E>=E/N=-dlnZ/dB
perciò l'energia media delle particelle dipende in qualche modo dal parametro incognito B.

Poiché sappiamo (vedi il post "L'Equipartizione dell'Energia") che l'energia media è proporzionale alla temperatura assoluta (cioè <E>~kBT) e che B deve avere come unità di misura il reciproco di una energia (affinché l'equazione adimensionale di ni sia consistente), allora fissiamo in modo non del tutto arbitrario (ma da verificare sperimentalmente): B=1/kBT.
Nota: per una deduzione formale del valore di B vedi, ad esempio, il confronto tra un particolare modello fisico, cioè una colonna piena di gas, e quello statistico relativo (vedi Wikipedia).

In definitiva, sostituendo i valori di A e B appena ricavati, si ottiene la seguente relazione per ni:
ni=(N/Z)gie-Ei/kBT
che è quindi funzione dei parametri caratteristici del sistema (cioè il numero di particelle N, la funzione di partizione Z, la probabilità intrinseca gi, l'energia dei rispettivi livelli Ei e la temperatura assoluta T).
Nota: si ricordi che questa relazione è vera, per come è stata derivata, per una distribuzione di massima probabilità e quindi, per ipotesi, in condizioni di equilibrio termodinamico.

Nel post "Entropia statistica e termodinamica" vedremo come sia possibile, grazie ai calcoli fin qui svolti, collegare la definizione statistica di entropia S=kBlnP (vedi il post "L'Entropia secondo Boltzmann") direttamente a quella termodinamica dS=δQ/T (vedi il post "Entropia: una grandezza anomala!") in modo da attribuirgli un preciso significato fisico.

(*) Tenendo conto dei vincoli fisici (N=ini e E=iniEi) possiamo scrivere l'ovvia equivalenza:
lnP(ni)=lnP(ni)+A(N-∑ini)+B(E-∑iEini)
dove A e B sono due costanti generiche; se ora calcoliamo il differenziale:
dlnP(ni)=-∑iln(ni/gi)dni-A∑idni-B∑iEidni
si ha dlnP(ni)=0 (punto di massimo) se poniamo i(ln(ni/gi)+A+BEi)dni=0.
(**) Ad esempio nel caso di un gas ideale risulta Z=V(2πmkBT)3/2/h3 dove V è il volume che contiene il gas, m la massa delle singole particelle, kB la costante di Boltzmann, T la temperatura assoluta e h la costante di Planck (vedi il post "Il calcolo degli stati di energia: dN=g(E)dE").