mercoledì 28 maggio 2014

L'Entropia secondo Boltzmann

Riprendiamo da Wikipedia alcuni concetti fondamentali che ci permetteranno di definire statisticamente il concetto termodinamico di entropia (già introdotto nel post "Entropia: una grandezza anomala!"):

- Sistema termodinamico
"Un sistema termodinamico è una porzione di spazio materiale, separata dal resto dell'universo termodinamico (ovvero dall'ambiente esterno) mediante una superficie di controllo (o confine) reale o immaginaria, rigida o deformabile".

- Stato termodinamico
"Uno stato termodinamico di un sistema termodinamico è l'insieme dei valori assunti dai parametri macroscopici che lo caratterizzano, come la pressione, il volume, l'entropia, la temperatura e così via".

- Equilibrio termodinamico
"Si dice che un sistema è in equilibrio termodinamico se le sue variabili (o parametri o coordinate) termodinamiche, (ad esempio pressione, volume e temperatura nel caso di un fluido omogeneo), sono ben definite e non variano nel tempo".
Nota: per poter definire lo stato di un sistema termodinamico è quindi necessario che sia in condizioni di equilibrio.

Deve essere inoltre chiaro che per trasformazione termodinamica "si intende un processo tramite il quale un sistema termodinamico passa da uno stato di equilibrio termodinamico ad un altro" (vedi Wikipedia).
Nota: la termodinamica studia le trasformazioni quasi-statiche che passano attraverso infiniti stati di equilibrio (come quelle reversibili).

L'osservazione fondamentale per trattare statisticamente un sistema termodinamico, "uno dei cardini del pensiero di Boltzmann, è che le quantità misurabili nel mondo macroscopico (cioè, le quantità termodinamiche come temperatura e pressione) si possano ottenere con operazioni di media su quantità microscopiche" (vedi Wikipedia).

È proprio grazie a questa ultima ipotesi, come vedremo, che possiamo collegare le grandezze termodinamiche di un sitema classico alla dinamica microscopica delle particelle che lo compongono; tuttavia solo se il numero N di particelle del sistema è abbastanza grande si possono applicare considerazioni statistiche*.
Nota: per N che tende ad infinito avremo (per mantenere la densità costante) che anche il volume V tende a infinito (limite termodinamico).

Questo assunto si basa su alcune ipotesi fondamentali (vedi Wikipedia):

- Ipotesi stocastica
"Il sistema obbedisce all'ipotesi del caos molecolare. Questo implica che la distribuzione di velocità in una qualsiasi direzione sia gaussiana: cioè, le particelle non hanno una direzione preferenziale di moto. Se questo è vero nel caso di un gas perfetto, non è sempre vero per tutti i sistemi".

- Ipotesi di sitema infinito
"Nella realtà, nessun sistema è infinito, ma ha una dimensione finita: tuttavia, perché la deduzione abbia senso, occorre che lo spazio ∆x che una particella può percorrere in un tempo ∆t sia sufficientemente piccolo rispetto alla dimensione globale del sistema L" (ciò è vero per temperature non troppo elevate).

- Ipotesi di sistema markoviano
"Un'ipotesi sottintesa nella trattazione termodinamica è che le proprietà degli urti fra le particelle non dipendano dalla storia pregressa delle particelle (cioè da come si è arrivati all'urto) ma solo dalle condizioni istantanee al momento dell'urto".

Consideriamo quindi per semplicità un gas ideale (composto da particelle identiche ma distinguibili), per il quale valgono le ipotesi enunciate sopra oltre a quelle specifiche della Teoria cinetica dei gas che abbiamo già trattato nel post "L'Equipartizione dell'Energia" (a cui rimandiamo).

Se il sistema è isolato (cioè non scambia né energia né massa con l'ambiente) saranno vere le due seguenti condizioni:
N=n1+n2+n3+...
E=n1E1+n2E2+n3E3+...
dove N è il numero totale di particelle, E l'energia del sistema e n1, n2, n3, ... sono rispettivamente il numero di particelle di energia E1, E2, E3, ....

Possiamo ragionevolmente assumere che ad una data energia E del sistema (macrostato) possano corrispondere diverse configurazioni (microstati) di particelle n1, n2, n3, ... poste nei rispettivi livelli di energia; si possono perciò avere, per uno dato stato termodinamico, diverse distribuzioni delle particelle del sistema, una delle quali sarà la più favorita statisticamente (cioè la più probabile).
Nota: supponiamo che all'equilibrio e in assenza di perturbazioni il sistema mantenga la sua configurazione statistica (a meno di piccole fluttuazioni).

Si pone quindi il problema di come contare tutte le possibili configurazioni e stabilire quale sia la più probabile (cioè quale dei microstati possibili del sistema si possa realizzare nel maggior numero di modi).
Nota: le seguenti assunzioni fanno riferimento alla fisica classica e non a quella quantistica delle particelle (che sono indistinguibili) e dei loro stati.

Assumiamo quindi che tutti gli stati di energia E1, E2, E3, ... abbiano la stessa probabilità di essere occupati (cioè senza nessuna preferenza tra i livelli) e consideriamo una ben definita distribuzione descritta, come abbiamo detto, dal numero di particelle n1, n2, n3, ... poste nei rispettivi livelli di energia.

Possiamo presumere che se permutiamo tra loro le N particelle, lo stato del sistema complessivo non cambi: il numero di modi possibili per ottenere la stessa identica distribuzione è perciò pari a N! essendo N!=1x2x3x...xN il numero di tutte le permutazioni possibili (vedi Wikipedia).
Nota: abbiamo implicitamente assunto che le particelle, sebbene identiche, siano tra loro distinguibili e quindi permutabili (l'indistinguibilità porta invece alle statistiche quantistiche).

Ma dobbiamo anche considerare che se permutiamo tra loro le n1 particelle del livello E1 non otteniamo una nuova configurazione (supponiamo cioè che lo stato di E1 sia indipendente da come le particelle vengono ordinate); ciò significa che dovremo dividere per n1! il risultato prima ottenuto:
N!/n1!
dove n1!=1x2x3x...xn1 è il numero delle permutazioni possibili su E1.

Poiché ciò vale coerentemente per tutti i livelli di energia E1, E2, E3, ... si ottiene infine il numero complessivo W di tutti i modi possibili di riempimento dei livelli con le rispettive particelle:
W=N!/(n1!n2!n3!...).

Tuttavia la situazione che abbiamo rappresentato non è completa poiché dobbiamo considerare che i livelli di energia hanno una diversa probabilità di essere occupati (ad esempio per la loro compatibilità o meno con i momenti delle particelle, vedi la nota seguente) e quindi dobbiamo assegnare un valore di probabilità gi ad ogni livello di energia Ei (dove i=1, 2, 3, ...) con la condizione che g1+g2+g3+...=1.
Nota: è noto che la relazione tra energia e momento di una particella è E=p2/2m=(px2+py2+pz2)/2m quindi ad un dato livello di energia E possono corrispondere diverse orientazioni di p.

Ciò significa che la probabilità di trovare 2 particelle nel livello E1 sarà pari a g12 (poiché le probabilità vanno moltiplicate tra loro) e quindi per tutte le n1 particelle avremo la probabilità g1n1 che occupino quello stato; in generale dovremo perciò tener conto del fattore gini nel calcolo delle probabilità.
Nota: per la definizione della funzione continua di probabilità g(E) vedi il post "Il calcolo degli stati di energia: dN=g(E)dE".

Se quindi consideriamo tutti i livelli di energia del sistema otterremo infine che la probabilità della particolare distribuzione n1, n2, n3, ... è pari a
P=N!(g1n1g2n2g3n3...)/(n1!n2!n3!...).
Nota: la somma delle probabilità Pi di tutte le possibili configurazioni è correttamente pari a 1 risultando: ∑Pi=(g1+g2+g3+...)N=1 (vedi Wikipedia).

È a questo punto che Boltzmann (nel 1877) fa la seguente fondamentale ipotesi che lega l'entropia S (già definita termodinamicamente nel post "Entropia: una grandezza anomala!") alla probabilità P di una data distribuzione di particelle**:
S=kBlnP
dove kB è la costante di Boltzmann (ln indica il logaritmo naturale); il termine kBlnP rappresenta quindi l'entropia statistica del sistema. 

Questa definizione di entropia è generale e vale per qualsiasi distribuzione del sistema, anche quando ci troviamo fuori dall'equilibrio*** ed è evidente che il termine kBlnP è indipendente dal percorso seguito dal sistema ma solo dallo stato in cui esso si trova (cioè dalla sua particolare configurazione): l'entropia S è, come nel caso termodinamico, una funzione di stato. 
Nota: se P=1 (cioè se si ha una sola possibile distribuzione delle particelle) risulta S=0 e l'entropia è nulla (vedi il Terzo principio della termodinamica).

Se ora supponiamo che il sistema isolato passi, in modo regolare nel tempo, da tutte le configurazione previste per quel sistema a parità di energia (ipotesi ergodica), allora la distribuzione che si realizza nel maggior numero di modi (cioè quella più probabile) è quella in cui il sistema passa in media la maggior parte del tempo (a parte cioè piccole fluttuazioni).

Proseguendo con questa ipotesi di evoluzione dinamica del sistema, diventa lecito supporre che se ci troviamo lontano dall'equilibrio (bassa entropia) il sistema evolverà verso l'equilibrio (massima entropia) poiché tenderà naturalmente (in senso statistico) a quello stato di massima probabilità compatibile con le sue caratteristiche fisiche.

Rimandiamo infine al post "La Legge statistica di Distribuzione" per il calcolo della distribuzione delle particelle ni nei vari livelli di energia Ei quando il sistema si trova all'equilibrio, cioè quando per ipotesi la probabilità dello stato è massima.

(*) Solitamente abbiamo a che fare con sistemi fisici composti da un grande numero di particelle, dell'ordine del Numero di Avogadro.
(**) Supponiamo che esista una relazione tra S e P cioè S=f(P) allora se consideriamo un sistema composto da due parti (dove S1 e S2 sono le rispettive entropie mentre P1 e P2 le probabilità dei due stati) ed essendo S=S1+S2 (le entropie si sommano) e P=P1P2 (le probabilità si moltiplicano) avremo S(P1P2)=S(P1)+S(P2); ora come è noto l'unica funzione che soddisfa questa relazione è proprio quella logaritmica.
(***) Al contrario le variabili termodinamiche come temperatura, pressione o volume sono ben definite solo all'equilibrio dove non variano nel tempo.