giovedì 10 luglio 2014

Il calcolo degli stati di energia: dN=g(E)dE

In questo post approfondiremo quanto già accennato in "L'Entropia secondo Boltzmann" (a cui rimandiamo) a proposito della relazione tra energia cinetica E, quantità di moto p di una particella libera e il fattore di probabilità g(E) di ogni livello E del sistema di particelle considerato.

Ricordiamo che valendo la relazione classica E=p2/2m=(px2+py2+pz2)/2m ciò significa che ad un dato livello di energia E (scalare) possono corrispondere diverse orientazioni di (vettore) e che quindi è diversa la probabilità che le particelle occupino un dato stato di energia.
Nota: consideriamo particelle libere e puntiformi (come quelle di un gas ideale) perciò la loro energia sarà solo quella cinetica (trascuriamo cioè quella potenziale e di rotazione).

Ora in accordo con la nostra ipotesi statistica delle distribuzioni possibili di un sistema di particelle (vedi il post "L'Entropia secondo Boltzmann"), si avrà che i vari livelli di energia hanno una diversa probabilità di essere occupati in relazione al numero di stati possibili N(E) (da non confondere col numero di particelle) che corrispondono ad una fissata energia E.

Ci proponiamo perciò di trovare, considerando una variazione continua di energia (ciò vale per grandi volumi come vedremo), il numero elementare dN di stati compresi nell'intervallo infintesimo dE; vogliamo cioè ricavare il cosiddetto fattore di degenerazione dei livelli g(E)=dN(E)/dE.

Si osservi innanzitutto che se fissiamo la quantità di moto p allora tutte le possibili orientazioni del vettore p (posto in un punto qualsiasi dello spazio) definiscono un guscio sferico di area 4πp2 e quindi gli stati con momento compreso tra p e p+dp saranno compresi nello strato sferico 4πp2dp.
Nota: stiamo in effetti considerando lo spazio delle fasi dove alle coordinate spaziali sono associate le coordinate dei momenti.

Se ora consideriamo tutto lo spazio contenuto nel volume V (dove sono confinate le particelle) otteniamo che il numero elementare di stati dN con momento compreso tra p e p+dp è dato da (basta moltiplicare 4πp2dp per V cioè per tutti i possibili punti di applicazione di p):
dN=CV4πp2dp
dove il fattore C è una costante dimensionale da definire.

Poiché vogliamo esprimere dN in funzione di dE, utilizziamo la relazione differenziale dp=(1/2)(2m)1/2E-1/2dE (essendo p=(2mE)1/2) e sostituiamo i valori di dp e p2 nell'equazione precedente:
dN=CV(2m)3/2E1/2dE
e quindi in definitiva si ottiene
g(E)=dN/dE=2πCV(2m)3/2E1/2.
Nota: se vogliamo trattare g(E) come una funzione di probabilità dobbiamo normalizzare a 1 l'integrale di dN=g(E)dE introducendo la costante di normalizzazione 1/N (vedi Wikipedia).

Resta perciò da determinare la costante C che tuttavia può essere ottenuta solo attraverso considerazioni di tipo quantistico, in particolare facendo riferimento al caso tipico di una buca di potenziale (vedi Wikipedia).

Infatti in questo modello teorico si ottiene che i possibili livelli discreti di energia E di una particella, contenuta in un volume cubico di lato a, sono dati dalla relazione:
E=(h2/8ma2)k2
dove k2=n12+n22+n32 (con n1, n2 e n3 interi positivi) e h è la costante di Planck; è chiaro che i livelli di energia dipendono dal parametro k (essendo h2/8ma2 una quantità costante), cioè da quali e quanti valori può assumere questo parametro discreto nell'intervallo considerato.
Nota: si osservi che per grandi volumi (cioè per a elevati) i livelli discreti E formano in pratica uno spettro continuo di energia.

Ebbene poiché k può essere visto come un punto nello spazio di coordinate (n1, n2, n3), allora tutti gli stati N di energia saranno compresi nel volume di una sfera di raggio k (con k>>0 per avere una buona approssimazione) moltiplicato per il fattore 1/8 (poiché consideriamo solo gli interi positivi):
N=(1/8)(4/3)πk3.
Nota: data una sfera centrata nell'origine, se consideriamo solo lo spicchio compreso tra gli assi positivi il volume si riduce a 1/8 della sfera.

A questo punto dalla relazione precedente di E possiamo ricavare k3 (basta elevare k2=(8ma2/h2)E alla 3/2) ottenendo:
k3=(8ma2/h2)3/2E3/2=(8m)3/2(a3/h3)E3/2
da cui segue* (ricordando che V=a3):
N=(8/6)(πV/h3)(2m)3/2E3/2.

Se consideriamo un volume molto grande come dicevamo (questa è in effetti una delle ipotesi statistiche per i sistemi termodinamici, vedi Wikipedia) possiamo derivare rispetto a E (essendo N(E) in pratica una funzione continua), ottenendo perciò:
g(E)=dN/dE=(2πV/h3)(2m)3/2E1/2.
Se infine confrontiamo questa relazione con quella analoga trovata prima classicamente, si ricava subito il valore della costante C=1/h3.
Nota: ciò significa che, nel caso classico, per calcolare il numero esatto degli stati dobbiamo dividere lo spazio delle fasi in cellette di dimensione h3.

Per concludere possiamo calcolare la funzione di partizione Z già introdotta nel post "La Legge statistica di Distribuzione" che, ricordiamo, è stata così definita: Z=∑igie-Ei/kBT; passando al continuo il simbolo di sommatoria può essere sostituito con quello di integrale (tra zero ed infinito) ottenendo**:
Z=e-E/kBTg(E)dE=(V/h3)(2πmkBT)3/2
dove V è il volume del gas, m la massa delle singole particelle, kB la costante di Boltzmann, T la temperatura assoluta e h la costante di Planck
Nota: questo risultato è valido per un gas ideale dove sono soddisfatte le ipotesi statistiche, come descritto nel post "L'Entropia secondo Boltzmann".

(*) Forse è utile ricordare che 83/2=(83)1/2=(2343)1/2=23/2(43)1/2=23/28.
(**) Sostituendo nell'integrale di Z il valore di g(E) prima ottenuto si ha:
 Z=e-E/kBTg(E)dE=(2πV/h3)(2m)3/2e-E/kBTE1/2dE=(V/h3)(2πmkBT)3/2
essendo ∫e-E/kBTE1/2dE=(1/2)(π)1/2(kBT)3/2.

mercoledì 11 giugno 2014

Entropia statistica e termodinamica

Nei due post "Entropia: una grandezza anomala!" e "L'Entropia secondo Boltzmann" (a cui rimandiamo) sono stati introdotti due diversi modelli fisici per definire il concetto di entropia; rispettivamente uno di tipo termodinamico (dove dS=δQ/T) e l'altro di tipo statistico (con S=kBlnP).

Vogliamo ora mostrare come queste due descrizioni siano tra loro profondamente collegate e che in effetti abbiamo derivato, a partire da due modelli teorici diversi, lo stesso tipo di grandezza fisica: l'entropia di un sistema di particelle.

Riscriviamo quindi il risultato ottenuto per l'entropia statistica (vedi il post "La Legge statistica di Distribuzione"):
S=kBlnP=kBNlnN-kBiniln(ni/gi)
rimarcando che tale relazione è sempre valida, anche fuori dall'equilibrio; mentre P è la probabilità di una data distribuzione delle particelle nei vari livelli di energia.

Nello stesso post abbiamo anche derivato la legge di distribuzione delle particelle del sistema sui vari livelli di energia in condizioni di massima probabilità, cioè per ipotesi nello stato di equilibrio termodinamico:
ni=(N/Z)gie-Ei/kBT
oppure utilizzando le proprietà dei logaritmi:
ln(ni/gi)=-ln(Z/N)-Ei/kBT.
Nota: ricordiamo che per ipotesi il sistema passa la maggior parte del tempo nello stato che può realizzarsi nel maggior numero di modi, cioè quello di massima probabilità o di massima entropia.

Considereremo perciò una trasformazione reversibile, dove possiamo supporre che il sistema passi da una distribuzione all'altra in modo che si realizzi sempre lo stato di massima probabilità e valga quindi la legge di distribuzione ni sopra riportata.
Nota: ricordiamo che quando una trasformazione è reversibile il sistema passa per definizione solo attraverso stati di equilibrio termodinamico.


Sostituiamo quindi il valore di ln(ni/gi) nell'equazione di S ottenendo (in condizioni di equilibrio o di massima entropia): 
S=kBNlnN+kBln(Z/N)∑ini+(1/T)∑iniEi
da cui, ricordando le due condizioni N=∑ini e E=∑iniEi (dove N sono le particelle mentre E è l'energia totale del sistema) segue infine:
S=kBN(lnN+ln(Z/N))+E/T=kBNlnZ+E/T.
Tale relazione esprime l'entropia S(N,Z,E,T) in funzione dei parametri caratteristici del sistema (cioè il numero di particelle N, la funzione di partizione Z, l'energia totale E e la temperatura assoluta T).
Nota: ricordiamo che Z dipende dalla struttura microscopica del sistema e vale Z=∑igie-Ei/kBT (vedi il post "La Legge statistica di Distribuzione").

Poiché stiamo trattando una trasformazione reversibile possiamo supporre* che S sia una funzione differenziabile (dato l'elevato numero di particelle supponiamo che ni vari con continuità) così possiamo calcolare il dS=(∂S/∂Z)dZ+(∂S/∂E)dE+(∂S/∂T)dT (fissando il numero N di particelle e utilizzando le regole di derivazione):
dS=d(kBNlnZ+E/T)=kB(N/Z)dZ+(1/T)dE-(1/T2)EdT.
Nota: stiamo considerando un sistema chiuso che può scambiare solo energia con l'ambiente ma non massa, quindi N è costante.

A questo punto vogliamo derivare una relazione che leghi il primo termine del terzo membro dell'equazione precedente (cioè kB(N/Z)dZ) all'energia E e alla temperatura T (come risulta per gli altri due termini).

Poichè sappiamo che Z(Ei,T)=∑igie-Ei/kBT dove gi è costante per ogni dato livello Ei (vedi il post "La Legge statistica di Distribuzione"), calcoliamo il differenziale dZ=i(∂Z/∂Ei)dEi+(∂Z/∂T)dT:
dZ=-(1/kBT)∑igie-Ei/kBTdEi+(1/kBT2)∑igiEie-Ei/kBTdT.
Perciò il termine kB(N/Z)dZ contenuto nel dS prima ricavato diventa:
kB(N/Z)dZ=-(1/T)∑i(N/Z)gie-Ei/kBTdEi+(1/T2)∑i(N/Z)giEie-Ei/kBTdT
ed infine ricordando che ni=(N/Z)gie-Ei/kBT si ha:
 kB(N/Z)dZ=-(1/T)∑inidEi+(1/T2)∑iniEidT.

Facciamo ora qualche considerazione per attribuire un significato fisico al primo termine inidEi che compare al secondo membro della precedente equazione; mentre per il secondo termine sappiamo che E=∑iniEi è l'energia del sistema.

Come abbiamo mostrato nel post "Il Principo di Conservazione... termodinamico!", per il primo principio della termodinamica possiamo scrivere, per una trasformazione reversibile (e quindi differenziabile):
dE=δL+δQ
dove dE indica una variazione infinitesimale dell'energia interna dovuta al lavoro elementare δL (fatto sul sistema) e al calore δQ (fornito al sistema).
Nota: ricordiamo che l'energia interna E è una funzione di stato quindi dE è un differenziale esatto.

Inoltre, poiché nel nostro modello statistico vale la relazione E=∑iniEi, possiamo calcolare il differenziale dE=i(∂E/∂Ei)dEi+i(∂E/∂ni)dni (supponiamo che E(ni,Ei) sia una funzione differenziabile, essendo le particelle dell'ordine del Numero di Avogadro e i livelli di energia praticamente continui):
dE=∑inidEi+∑iEidni.
Nota: questa relazione statistica vale anche in condizioni di non equilibrio, come la definizione di entropia statistica (vedi il post "L'Entropia secondo Boltzmann").

Essendo evidente l'analogia tra le due precedenti relazioni (quella termodinamica e quella statistica rispettivamente), supporremo che valga l'equivalenza tra i singoli termini al secondo membro delle due equazioni**; poniamo quindi:
δL=∑inidEi   e   δQ=∑iEidni.
Ciò significa che per ipotesi il termine inidEi indica la variazione di energia dei livelli, dovuta al lavoro elementare δL fatto sul sistema durante una trasformazione; mentre iEidni indica la variazione dni delle particelle sui livelli dovuta al calore elementare δQ fornito al sistema.

Possiamo perciò riprendere l'equazione precedente che definisce il termine kB(N/Z)dZ (vedi sopra); quindi sostituendo i valori rispettivamente di δL=∑inidEi e di E=∑iniEi otteniamo:
kB(N/Z)dZ=-(1/T)δL+(1/T2)EdT. 

Questo risultato ci permette di ottenere il valore del dS che avevamo lasciato in sospeso (nel quale è presente il termine kB(N/Z)dZ appena ricavato) e quindi si ha (essendo dE=δL+δQ):
dS=-(1/T)δL+(1/T)dE=(1/T)δQ 
ricordando che tale relazione è valida, per come è stata ricavata, solo per una trasformazione reversibile. 
Nota: per quanto detto sopra il calore δQ deve essere scambiato in maniera reversibile (vedi anche il post "Entropia: una grandezza anomala!").

Abbiamo perciò ottenuto, a partire dalla definizione di entropia statistica S=kBlnP, la relativa relazione termodinamica dS=δQ/T; le due definizioni sono quindi da considerarsi dal punto di vista fisico del tutto equivalenti (ovviamente nei limiti dei due modelli e delle ipotesi avanzate)***.

(*) Una trasformazione reversibile e quindi quasi-statica "considera variazioni di tempo infinitesime, istantanee, e consente di applicare il calcolo infinitesimale e i differenziali alle equazioni termodinamiche, senza variarne il significato fisico" (vedi Wikipedia); estendiamo questa considerazione al modello statistico.
(**) Possiamo però dare qualche motivazione: se ad esempio δL è dovuto ad una variazione di volume del sistema, è corretto aspettarsi una corrispondente variazione dEi di energia dei livelli (perché cambia la struttura del sistema); mentre una variazione di calore δQ può certamente provocare una corrispondente variazione dni delle particelle sui livelli, cioè un salto delle particelle da un livello all'altro.
(Il caso quantistico di una buca di potenziale è esplicativo poiché i livelli di energia dipendono dalle dimensioni fisiche della buca, vedi Wikipedia).
(***) Si ricordi infatti che l'entropia statistica vale solo quando sono soddisfatte le ipotesi statistiche, come descritto nel post "L'Entropia secondo Boltzmann"; ciò è sicuramente vero nel caso di un gas ideale.

mercoledì 4 giugno 2014

La Legge statistica di Distribuzione

Nel post "L'Entropia secondo Boltzman" abbiamo fatto l'ipotesi che un sistema termodinamico possa essere descritto statisticamente attraverso la distribuzione delle particelle ni poste nei rispettivi livelli di energia Ei.
Abbiamo quindi ottenuto che la probabilità P di una data distribuzione n1, n2, n3, ... è pari a
P=N!(g1n1g2n2g3n3...)/(n1!n2!n3!...)
dove i valori di gi definiscono le probabilità intrinseche di riempimento dei vari livelli di energia.

Ricordiamo che il sistema è per ipotesi isolato (cioè non scambia né energia né massa con l'ambiente) e che sono date le due seguenti condizioni o vincoli fisici:
N=n1+n2+n3+...
E=n1E1+n2E2+n3E3+...
dove N è il numero totale di particelle, E l'energia del sistema e n1, n2, n3, ... sono rispettivamente il numero di particelle di energia E1, E2, E3, ....

Dato che, per ipotesi, la probabilità di una distribuzione è massima quando il sistema si trova in uno stato di equilibrio, vogliamo calcolare per quale distribuzione delle particelle la probabilità P è massima.

Poiché il massimo di P corrisponde con quello di lnP (e poiché è più facile valutare lnP) diamo la sua espressione esplicita (secondo le proprietà dei logaritmi):
lnP=lnN!+n1lng1+n2lng2+n3lng3+...-lnn1!-lnn2!-lnn3!-...
o in modo più conciso:
lnP=lnN!+∑inilngi-ilnni!

A questo punto è utile introdurre la nota formula di Stirling valida per grandi numeri (poiché il numero di particelle di un sistema è solitamente molto grande, dell'ordine del Numero di Avogadro): lnN!≈NlnN-N.
Possiamo perciò scrivere con buona approssimazione:
lnP=NlnN-N+∑inilngi-∑inilnni+∑ini
da cui segue secondo le proprietà dei logaritmi (ed essendo N=∑ini):
lnP=NlnN-iniln(ni/gi).

Ora poiché vogliamo trovare per quali valori di n1, n2, n3, ..., si ottiene il massimo di lnP, supponiamo di poter trattare la probabilità P(n1,n2,n3,...come una funzione differenziabile (dato l'elevato numero di particelle in pratica ni vari con continuità); basterà quindi porre dlnP(ni)=0 per trovare il punto di massimo.

Possiamo perciò scrivere, rammentando le regole di derivazione (ed essendo NlnN costante):
dlnP(ni)=-diniln(ni/gi)=-∑idniln(ni/gi)-inidln(ni/gi)=-∑idniln(ni/gi)
poiché risulta:
inidln(ni/gi)=inidlnni-∑inidlngi=∑idni=0 
essendo dlnni=(1/ni)dni, dlngi=0 e dN=∑idni=0 con gi ed N costanti.
Nota: ricordiamo che in generale il differenziale di una funzione F(ni) a più variabili è: dF(ni)=(∂F/∂n1)dn1+(∂F/∂n2)dn2+(∂F/∂n3)dn3+... .

Ora al fine di soddisfare i vincoli delle condizioni fisiche del sistema (cioè N=ini e E=iniEi) dobbiamo porre oltre alla condizione dlnP(ni)=-∑iln(ni/gi)dni=0 anche dN=∑idni=0 e dE=∑iEidni=0 e perciò seguendo il metodo dei moltiplicatori di Lagrange*:
i(ln(ni/gi)+A+BEi)dni=0
dove le costanti A e B sono da determinare in base alle due condizioni di conservazione di N ed E.

Si ottiene perciò la distribuzione di probabilià massima (o di equilibrio termodinamico) quando ln(ni/gi)+A+BEi=0 da cui segue subito (risultando ln(ni/gi)=-(A+BEi)):
ni=gie-(A+BEi)
dove il fattore di probabilità gi pesa sul riempimento dei singoli livelli di energia.
Nota: per la definizione della funzione continua di probabilità g(E) vedi il post "Il calcolo degli stati di energia: dN=g(E)dE".

A questo punto dalla condizione N=ini si può ricavare il valore della costante A; infatti possiamo scrivere (utilizzando l'equazione appena ricavata per ni):
N=∑ini=∑igie-(A+BEi)=e-Aigie-BEi
da cui si ottiene, posto Z=∑igie-BEi:
e-A=N/Z 
perciò A si riconduce al calcolo della cosiddetta funzione di partizione Z.
Nota: Z dipende dalla struttura microscopica del sistema** ed è quindi diversa per un gas ideale, un gas reale, un liquido oppure un solido.

Mentre dalla seconda condizione E=iniEi si ha (essendo ni=(N/Z)gie-BEi):
E=iniEi=(N/Z)igiEie-BEi.
Si osservi ora che, introducendo qualche derivata, possiamo riscrivere il valore di E nel modo seguente:
E=-(N/Z)d(∑igie-BEi)/dB=-(N/Z)dZ/dB=-NdlnZ/dB
da cui, ricordando che il valore medio di energia <E> di ogni singola molecola è definito come E/N, avremo:
<E>=E/N=-dlnZ/dB
perciò l'energia media delle particelle dipende in qualche modo dal parametro incognito B.

Poiché sappiamo (vedi il post "L'Equipartizione dell'Energia") che l'energia media è proporzionale alla temperatura assoluta (cioè <E>~kBT) e che B deve avere come unità di misura il reciproco di una energia (affinché l'equazione adimensionale di ni sia consistente), allora fissiamo in modo non del tutto arbitrario (ma da verificare sperimentalmente): B=1/kBT.
Nota: per una deduzione formale del valore di B vedi, ad esempio, il confronto tra un particolare modello fisico, cioè una colonna piena di gas, e quello statistico relativo (vedi Wikipedia).

In definitiva, sostituendo i valori di A e B appena ricavati, si ottiene la seguente relazione per ni:
ni=(N/Z)gie-Ei/kBT
che è quindi funzione dei parametri caratteristici del sistema (cioè il numero di particelle N, la funzione di partizione Z, la probabilità intrinseca gi, l'energia dei rispettivi livelli Ei e la temperatura assoluta T).
Nota: si ricordi che questa relazione è vera, per come è stata derivata, per una distribuzione di massima probabilità e quindi, per ipotesi, in condizioni di equilibrio termodinamico.

Nel post "Entropia statistica e termodinamica" vedremo come sia possibile, grazie ai calcoli fin qui svolti, collegare la definizione statistica di entropia S=kBlnP (vedi il post "L'Entropia secondo Boltzmann") direttamente a quella termodinamica dS=δQ/T (vedi il post "Entropia: una grandezza anomala!") in modo da attribuirgli un preciso significato fisico.

(*) Tenendo conto dei vincoli fisici (N=ini e E=iniEi) possiamo scrivere l'ovvia equivalenza:
lnP(ni)=lnP(ni)+A(N-∑ini)+B(E-∑iEini)
dove A e B sono due costanti generiche; se ora calcoliamo il differenziale:
dlnP(ni)=-∑iln(ni/gi)dni-A∑idni-B∑iEidni
si ha dlnP(ni)=0 (punto di massimo) se poniamo i(ln(ni/gi)+A+BEi)dni=0.
(**) Ad esempio nel caso di un gas ideale risulta Z=V(2πmkBT)3/2/h3 dove V è il volume che contiene il gas, m la massa delle singole particelle, kB la costante di Boltzmann, T la temperatura assoluta e h la costante di Planck (vedi il post "Il calcolo degli stati di energia: dN=g(E)dE").

mercoledì 28 maggio 2014

L'Entropia secondo Boltzmann

Riprendiamo da Wikipedia alcuni concetti fondamentali che ci permetteranno di definire statisticamente il concetto termodinamico di entropia (già introdotto nel post "Entropia: una grandezza anomala!"):

- Sistema termodinamico
"Un sistema termodinamico è una porzione di spazio materiale, separata dal resto dell'universo termodinamico (ovvero dall'ambiente esterno) mediante una superficie di controllo (o confine) reale o immaginaria, rigida o deformabile".

- Stato termodinamico
"Uno stato termodinamico di un sistema termodinamico è l'insieme dei valori assunti dai parametri macroscopici che lo caratterizzano, come la pressione, il volume, l'entropia, la temperatura e così via".

- Equilibrio termodinamico
"Si dice che un sistema è in equilibrio termodinamico se le sue variabili (o parametri o coordinate) termodinamiche, (ad esempio pressione, volume e temperatura nel caso di un fluido omogeneo), sono ben definite e non variano nel tempo".
Nota: per poter definire lo stato di un sistema termodinamico è quindi necessario che sia in condizioni di equilibrio.

Deve essere inoltre chiaro che per trasformazione termodinamica "si intende un processo tramite il quale un sistema termodinamico passa da uno stato di equilibrio termodinamico ad un altro" (vedi Wikipedia).
Nota: la termodinamica studia le trasformazioni quasi-statiche che passano attraverso infiniti stati di equilibrio (come quelle reversibili).

L'osservazione fondamentale per trattare statisticamente un sistema termodinamico, "uno dei cardini del pensiero di Boltzmann, è che le quantità misurabili nel mondo macroscopico (cioè, le quantità termodinamiche come temperatura e pressione) si possano ottenere con operazioni di media su quantità microscopiche" (vedi Wikipedia).

È proprio grazie a questa ultima ipotesi, come vedremo, che possiamo collegare le grandezze termodinamiche di un sitema classico alla dinamica microscopica delle particelle che lo compongono; tuttavia solo se il numero N di particelle del sistema è abbastanza grande si possono applicare considerazioni statistiche*.
Nota: per N che tende ad infinito avremo (per mantenere la densità costante) che anche il volume V tende a infinito (limite termodinamico).

Questo assunto si basa su alcune ipotesi fondamentali (vedi Wikipedia):

- Ipotesi stocastica
"Il sistema obbedisce all'ipotesi del caos molecolare. Questo implica che la distribuzione di velocità in una qualsiasi direzione sia gaussiana: cioè, le particelle non hanno una direzione preferenziale di moto. Se questo è vero nel caso di un gas perfetto, non è sempre vero per tutti i sistemi".

- Ipotesi di sitema infinito
"Nella realtà, nessun sistema è infinito, ma ha una dimensione finita: tuttavia, perché la deduzione abbia senso, occorre che lo spazio ∆x che una particella può percorrere in un tempo ∆t sia sufficientemente piccolo rispetto alla dimensione globale del sistema L" (ciò è vero per temperature non troppo elevate).

- Ipotesi di sistema markoviano
"Un'ipotesi sottintesa nella trattazione termodinamica è che le proprietà degli urti fra le particelle non dipendano dalla storia pregressa delle particelle (cioè da come si è arrivati all'urto) ma solo dalle condizioni istantanee al momento dell'urto".

Consideriamo quindi per semplicità un gas ideale (composto da particelle identiche ma distinguibili), per il quale valgono le ipotesi enunciate sopra oltre a quelle specifiche della Teoria cinetica dei gas che abbiamo già trattato nel post "L'Equipartizione dell'Energia" (a cui rimandiamo).

Se il sistema è isolato (cioè non scambia né energia né massa con l'ambiente) saranno vere le due seguenti condizioni:
N=n1+n2+n3+...
E=n1E1+n2E2+n3E3+...
dove N è il numero totale di particelle, E l'energia del sistema e n1, n2, n3, ... sono rispettivamente il numero di particelle di energia E1, E2, E3, ....

Possiamo ragionevolmente assumere che ad una data energia E del sistema (macrostato) possano corrispondere diverse configurazioni (microstati) di particelle n1, n2, n3, ... poste nei rispettivi livelli di energia; si possono perciò avere, per uno dato stato termodinamico, diverse distribuzioni delle particelle del sistema, una delle quali sarà la più favorita statisticamente (cioè la più probabile).
Nota: supponiamo che all'equilibrio e in assenza di perturbazioni il sistema mantenga la sua configurazione statistica (a meno di piccole fluttuazioni).

Si pone quindi il problema di come contare tutte le possibili configurazioni e stabilire quale sia la più probabile (cioè quale dei microstati possibili del sistema si possa realizzare nel maggior numero di modi).
Nota: le seguenti assunzioni fanno riferimento alla fisica classica e non a quella quantistica delle particelle (che sono indistinguibili) e dei loro stati.

Assumiamo quindi che tutti gli stati di energia E1, E2, E3, ... abbiano la stessa probabilità di essere occupati (cioè senza nessuna preferenza tra i livelli) e consideriamo una ben definita distribuzione descritta, come abbiamo detto, dal numero di particelle n1, n2, n3, ... poste nei rispettivi livelli di energia.

Possiamo presumere che se permutiamo tra loro le N particelle, lo stato del sistema complessivo non cambi: il numero di modi possibili per ottenere la stessa identica distribuzione è perciò pari a N! essendo N!=1x2x3x...xN il numero di tutte le permutazioni possibili (vedi Wikipedia).
Nota: abbiamo implicitamente assunto che le particelle, sebbene identiche, siano tra loro distinguibili e quindi permutabili (l'indistinguibilità porta invece alle statistiche quantistiche).

Ma dobbiamo anche considerare che se permutiamo tra loro le n1 particelle del livello E1 non otteniamo una nuova configurazione (supponiamo cioè che lo stato di E1 sia indipendente da come le particelle vengono ordinate); ciò significa che dovremo dividere per n1! il risultato prima ottenuto:
N!/n1!
dove n1!=1x2x3x...xn1 è il numero delle permutazioni possibili su E1.

Poiché ciò vale coerentemente per tutti i livelli di energia E1, E2, E3, ... si ottiene infine il numero complessivo W di tutti i modi possibili di riempimento dei livelli con le rispettive particelle:
W=N!/(n1!n2!n3!...).

Tuttavia la situazione che abbiamo rappresentato non è completa poiché dobbiamo considerare che i livelli di energia hanno una diversa probabilità di essere occupati (ad esempio per la loro compatibilità o meno con i momenti delle particelle, vedi la nota seguente) e quindi dobbiamo assegnare un valore di probabilità gi ad ogni livello di energia Ei (dove i=1, 2, 3, ...) con la condizione che g1+g2+g3+...=1.
Nota: è noto che la relazione tra energia e momento di una particella è E=p2/2m=(px2+py2+pz2)/2m quindi ad un dato livello di energia E possono corrispondere diverse orientazioni di p.

Ciò significa che la probabilità di trovare 2 particelle nel livello E1 sarà pari a g12 (poiché le probabilità vanno moltiplicate tra loro) e quindi per tutte le n1 particelle avremo la probabilità g1n1 che occupino quello stato; in generale dovremo perciò tener conto del fattore gini nel calcolo delle probabilità.
Nota: per la definizione della funzione continua di probabilità g(E) vedi il post "Il calcolo degli stati di energia: dN=g(E)dE".

Se quindi consideriamo tutti i livelli di energia del sistema otterremo infine che la probabilità della particolare distribuzione n1, n2, n3, ... è pari a
P=N!(g1n1g2n2g3n3...)/(n1!n2!n3!...).
Nota: la somma delle probabilità Pi di tutte le possibili configurazioni è correttamente pari a 1 risultando: ∑Pi=(g1+g2+g3+...)N=1 (vedi Wikipedia).

È a questo punto che Boltzmann (nel 1877) fa la seguente fondamentale ipotesi che lega l'entropia S (già definita termodinamicamente nel post "Entropia: una grandezza anomala!") alla probabilità P di una data distribuzione di particelle**:
S=kBlnP
dove kB è la costante di Boltzmann (ln indica il logaritmo naturale); il termine kBlnP rappresenta quindi l'entropia statistica del sistema. 

Questa definizione di entropia è generale e vale per qualsiasi distribuzione del sistema, anche quando ci troviamo fuori dall'equilibrio*** ed è evidente che il termine kBlnP è indipendente dal percorso seguito dal sistema ma solo dallo stato in cui esso si trova (cioè dalla sua particolare configurazione): l'entropia S è, come nel caso termodinamico, una funzione di stato. 
Nota: se P=1 (cioè se si ha una sola possibile distribuzione delle particelle) risulta S=0 e l'entropia è nulla (vedi il Terzo principio della termodinamica).

Se ora supponiamo che il sistema isolato passi, in modo regolare nel tempo, da tutte le configurazione previste per quel sistema a parità di energia (ipotesi ergodica), allora la distribuzione che si realizza nel maggior numero di modi (cioè quella più probabile) è quella in cui il sistema passa in media la maggior parte del tempo (a parte cioè piccole fluttuazioni).

Proseguendo con questa ipotesi di evoluzione dinamica del sistema, diventa lecito supporre che se ci troviamo lontano dall'equilibrio (bassa entropia) il sistema evolverà verso l'equilibrio (massima entropia) poiché tenderà naturalmente (in senso statistico) a quello stato di massima probabilità compatibile con le sue caratteristiche fisiche.

Rimandiamo infine al post "La Legge statistica di Distribuzione" per il calcolo della distribuzione delle particelle ni nei vari livelli di energia Ei quando il sistema si trova all'equilibrio, cioè quando per ipotesi la probabilità dello stato è massima.

(*) Solitamente abbiamo a che fare con sistemi fisici composti da un grande numero di particelle, dell'ordine del Numero di Avogadro.
(**) Supponiamo che esista una relazione tra S e P cioè S=f(P) allora se consideriamo un sistema composto da due parti (dove S1 e S2 sono le rispettive entropie mentre P1 e P2 le probabilità dei due stati) ed essendo S=S1+S2 (le entropie si sommano) e P=P1P2 (le probabilità si moltiplicano) avremo S(P1P2)=S(P1)+S(P2); ora come è noto l'unica funzione che soddisfa questa relazione è proprio quella logaritmica.
(***) Al contrario le variabili termodinamiche come temperatura, pressione o volume sono ben definite solo all'equilibrio dove non variano nel tempo.

sabato 29 marzo 2014

Le 2 leggi di Kirchhoff

Prima di enunciarle è importante osservare che le Leggi di Kirchhoff sono di tipo empirico e "furono formulate da Gustav Robert Kirchhoff nel 1845 a seguito di esperimenti empirici e precedono storicamente le ben più complesse e generali equazioni di Maxwell" (vedi Wikipedia).

Come abbiamo già anticipato nel post "Condensatore e Induttore: concentratori di energia!", le leggi di Kirchoff "si applicano ai circuiti elettronici a parametri concentrati, cioè circuiti che non irradiano, dove l'energia si può considerare concentrata nei componenti del circuito".
Nota: per trascurare eventuali perdite di energia dovute ad irradiazione si devono considerare sistemi lentamente variabili nel tempo*.

Ricordiamo anche che "un circuito elettrico è detto a parametri concentrati (o a costanti concentrate) se è costituito da dispositivi abbastanza piccoli rispetto alla minima lunghezza d'onda di una qualsiasi grandezza elettrica misurata su di essi" (vedi Wikipedia).
Nota: sono cioè trascurabili eventuali interferenze di campi elettromagnetici con i dispositivi che vengano generati dal circuito stesso.

Ciò che risulta notevole è che "sotto queste ipotesi le leggi di Kirchhoff sono un'approssimazione delle leggi dell'elettromagnetismo di Maxwell, che non implicano nessuna ipotesi sulla natura dei componenti del circuito".
Nota: i componenti di un circuito vengono rappresentati da elementi ideali di tipo attivo (come i generatori di forze elettromotrici) o passivo (come resistori, condensatori o induttori).

Da quanto abbiamo anticipato risulta evidente che tali leggi, che ora enunceremo, si applicano a qualsiasi circuito elettrico e cioè "all'interconnessione di elementi elettrici in un percorso chiuso in modo che la corrente possa fluire con continuità" (vedi Wikipedia).

In questo contesto generale di connessioni elettriche tra piccoli dispositivi, diamo due definizioni:
-> col termine nodo si definisce un punto di connessione tra gli elementi che costituiscono un circuito elettrico;
-> mentre una maglia è un percorso chiuso formato dagli elementi elettromagnetici di un circuito (che possono essere attivi o passivi).

Enunciamo quindi le due leggi di Kirchhoff:
I) La somma delle correnti entranti in un nodo è uguale alla somma delle correnti uscenti dallo stesso nodo;
II) La somma delle forze elettromotrici (generatori di tensione) contenute in una maglia è uguale alla somma delle forze contro-elettromotrici (cioè le cadute di tensione ai capi dei componenti) contenute nella stessa maglia.
Nota: parliamo di somme algebriche, quindi le forze contro-elettromotrici avranno segno opposto a quelle elettromotrici (per le correnti alternate si sommeranno invece i fasori).

Facciamo alcune osservazioni:
->  la prima legge esprime il principio di continuità della corrente e quindi della conservazione della carica: le cariche elettriche non possono crearsi o distruggersi lungo il circuito (in assenza di dispersioni);
Nota: se iIi rappresenta la somma algebrica delle correnti entranti e uscenti in un nodo deve risultare iIi=0 affinché la carica elettrica si conservi (vedi il post "L'equazione di... continuità!").
-> la seconda legge afferma che le cadute di tensione ai capi degli elementi** devono controbilanciare quelle dei generatori: il lavoro per far compiere ad una carica un percorso chiuso deve essere uguale a zero (data la conservazione dell'energia).
Nota: il lavoro compiuto su una carica è L=qV quindi se iVi (somma algebrica delle tensioni) viene calcolata lungo una maglia chiusa deve risultare iVi=0 in modo che L=∑iLi=q∑iVi=0 (se il campo è conservativo).

Inoltre si è implicitamente assunto che l'energia erogata dai generatori venga dissipata dai componenti (come i resistori) per effetto Joule oppure venga immagazzinata dagli stessi (come condensatori e induttori) sotto forma di energia elettrica o magnetica; trascuriamo perciò come già anticipato l'irraggiamento dei campi e.m. variabili.
Nota: per il funzionamento elettrico e magnetico di condensatori e induttori vedi il post "Condensatore e Induttore: concentratori di energia!".

Ma qual è l'utilità delle due leggi di Kirchhoff?
Ebbene tali leggi ci permettono, dato un qualsiasi circuito elettrico, di derivare un sistema di equazioni relative alle correnti e alle tensioni incognite in modo da poter determinare i loro valori: l'analisi di un circuito elettrico consiste proprio nel calcolo delle correnti che attraversano ogni singolo componente e delle relative tensioni misurate ai loro capi.

(*) Come descritto nel post "Un effetto Foto-elettrico!" l'energia dei fotoni che compongono una radiazione e.m. è inversamente proporzionale al periodo T dell'onda (essendo E=h/T); perciò sistemi elettromagnetici lentamente variabili nel tempo sono a bassa emissione di energia.
(**) Secondo la Legge di Ohm la tensione V(t) ai capi di un resistore R è V(t)=RI(t) mentre le relazioni tra corrente I(t) e tensione V(t) ai capi di un condensatore C e un induttore L sono rispettivamente: I(t)=CdV(t)/dt e V(t)=LdI(t)/dt (vedi "Condensatore e Induttore: concentratori di energia!").

venerdì 28 febbraio 2014

Un problema di massa variabile

Nel post "L'equazione del Razzo!" (a cui rimandiamo) abbiamo derivato l'equazione dinamica che lega la variazione della quantità di moto totale dP/dt del centro di massa del sistema (razzo+combustibile), alla variazione della velocità del razzo dv/dt e a quella della sua massa dm/dt (dovuta all'espulsione del carburante):
dP/dt=mdv/dt-vedm/dt
dove ve è la velocità (supposta costante) di espulsione del carburante rispetto al razzo che a sua volta si muove di velocità v rispetto a un riferimento inerziale*.
Nota: si ricordi che la massa m del razzo comprende anche quella del suo combustibile interno (che poi viene espulso sotto forma di gas).

In questa rappresentazione la parte del sistema di cui studiamo il moto, è proprio quello a massa variabile del razzo, che perde massa espellendo il carburante; in particolare nel caso non agiscano forze esterne sul sistema (come ad esempio la forza di gravità) si ottiene Fext=dP/dt=0 (cioè la quantità di moto totale si conserva) e l'equazione precedente diventa:
mdv/dt=vedm/dt
da cui risulta evidente che l'accelerazione del razzo è dovuta alla variazione di massa dello stesso e alla velocità di espulsione costante del carburante.
Nota: nella trattazione classica (non relativistica) la massa totale del sistema massa+carburante si conserva.

Proseguendo con le nostre ipotesi, consideriamo ora un semplice sistema che varia la sua massa interna: ad esempio della sabbia che si accumula, attraverso un imbuto, su un nastro trasportatore (infinito) che si muove a velocità costante.
Nota: supponiamo che il motore del nastro mantenga costante il moto della sabbia, vincendo la sua inerzia, man mano che questa viene depositata.

Consideriamo quindi la quantità di moto di tutti i granelli di sabbia di massa m1, m2 ... mN quando vengono depositati sul nastro; valutiamo per esempio la situazione ad un determinato istante di tempo, quando sul nastro si trovano N particelle di sabbia che si muovono tutte alla velocità v=costante del nastro (posto m=m1+m2+...+mN):
P=m1v+m2v+...+mNv=mv.
È chiaro che la quantità di moto varia nel tempo (poiché mentre si accumulano i granelli varia m) perciò passando con buona approssimazione al continuo possiamo scrivere (derivando P rispetto al tempo e ricordando che v=costante):
dP/dt=mdv/dt+vdm/dt=vdm/dt.
Nota: si suppone che la funzione m(t) che rappresenta l'accumulo della massa sul nastro sia una funzione continua rispetto al tempo e derivabile.

La variazione della quantità di moto dP/dt, dovuta all'accumulo della sabbia, implica che sul nastro trasportatore agisca una forza motrice esterna Fext=vdm/dt che mantiene costante la sua velocità (altrimenti con l'inerzia della sabbia il nastro tenderebbe a fermarsi).
Nota: nella trattazione non abbiamo incluso la massa costante M del nastro dato che, risultando (m+M)dv/dt=0 e vd(m+M)/dt=vdm/dt, sarebbe ininfluente.

Ora si ricordi che in generale (vedi il post "L'equazione del Razzo!") per un sistema di N particelle possiamo definire la quantità di moto totale:
P=m1v1+m2v2+...+mNvN=mvcm
dove m=m1+m2+...+mN è la massa totale mentre
vcm=drcm/dt
è la velocità del centro di massa del sistema definito come
rcm=(m1r1+m2r2+...+mNrN)/m.
Quindi per un sistema a massa variabile m(t) avremo in definitiva:
dP/dt=mdvcm/dt+vcmdm/dt
che rappresenta la seconda legge di Newton per un corpo (o un sistema di particelle) a massa variabile (detta anche prima equazione cardinale).

Perciò nel caso in cui risulti vcm=v=costante si ottiene di nuovo l'equazione prima ottenuta per la sabbia che si accumula sul nastro trasportatore (che è appunto un sistema a massa variabile):
dP/dt=vdm/dt.
Nota: poiché tutti i granelli si muovono a velocità v è ovvio che risulti vcm=v (infatti essendo P=m1v+m2v+...+mNv=mvcm segue v=vcm).

Ma torniamo al nostro nastro trasportatore: la forza esterna del motore, applicata al nastro per trasportare la sabbia a velocità costante, sarà data come abbiamo visto dalla variazione della sua quantità di moto:
Fext=dP/dt=vdm/dt.
Da questa relazione possiamo ottenere la potenza fornita dalla forza esterna al nastro, che è così definita:
Pext=dL/dt=Fextds/dt=Fextv
essendo dL=Fextds il lavoro infinitesimo fatto dalla forza per un tratto ds (con v=ds/dt). Quindi poichè Fext e v hanno stessa direzione e verso risulta per sostituzione (essendo Fext=vdm/dt):
Pext=dL/dt=v2dm/dt.

Si osservi però che il lavoro infinitesimo dL=v2dm fatto dalla forza esterna nel far girare il nastro, non si trasforma completamente nell'energia cinetica di un elemento di massa dm pari a dEc=(1/2)dmv2 ma esattamente la metà finisce in energia interna ∆Eint del sistema; infatti per la conservazione dell'energia deve risultare:
∆Eint=dL-dEc=(1/2)dL
che viene presumibilmente spesa dalle forze di attrito del nastro per mettere in moto i granelli di sabbia.**
Nota: solo quando m=costante tutto il lavoro L compiuto su un sistema meccanico si traduce in una variazione della sua energia cinetica risultando L=∆Ec (vedi il post "Il Teorema della 'Vis Viva'").

(*) Ricordiamo che vale la seguente relazione: ve=vc-v dove vc è la velocità del combustibile espulso dal razzo rispetto al sistema inerziale prescelto.
(**) Si osservi che "la spiegazione quantistica dell'attrito ne lega le cause all'interazione elettrostatica attrattiva tra le molecole delle superfici di contatto" (vedi Wikipedia); perciò il sistema considerato (sabbia+nastro) non è esclusivamente di tipo meccanico.

venerdì 10 gennaio 2014

Condensatore e Induttore: concentratori di energia!

Come è noto un circuito elettrico è il luogo fisico dove si manifestano fenomeni di natura elettromagnetica; in particolare "un circuito elettrico è l'interconnessione di elementi elettrici in un percorso chiuso in modo che la corrente possa fluire con continuità" (vedi Wikipedia).
Nota: ricordiamo che la corrente I(t) è definita come la quantità di carica dQ che attraversa la sezione di un conduttore nel tempo dt: I(t)=dQ(t)/dt.

Si osservi inoltre che un circuito elettrico "soddisfa con buona approssimazione il modello a parametri concentrati, secondo il quale è possibile assumere che tutti i fenomeni avvengono esclusivamente all'interno dei componenti elettronici e delle interconnessioni tra questi"*.

Vogliamo ora introdurre due noti componenti elettronici che, dal punto di vista matematico, possono essere definiti attraverso le relazioni che legano la tensione elettrica V(t) (misurata ai capi dei dispositivi) alla corrente I(t) (che circola in essi) e che, come vedremo di seguito, evidenziano una certa simmetria.

Si ha infatti per il dispositivo elettronico denominato condensatore:
I(t)=CdV(t)/dt
mentre per il dispositivo detto induttore risulta:
V(t)=LdI(t)/dt
dove C rappresenta la capacità mentre L definisce l'induttanza del componente (come descriveremo di seguito).

Analizziamo quindi queste due relazioni dal punto di vista del significato fisico descrivendo in che modo sono state ricavate; per semplicità supponiamo che i valori di I(t) e V(t) siano due funzioni derivabili del tempo e trascuriamo andamenti transitori ponendoci in condizione di regime.

Partiamo dalla prima relazione dove V(t) indica la tensione elettrica** (variabile) applicata alle due piastre del condensatore, che sono separate da un isolante, e su cui si accumula la carica elettrica (per i dettagli vedi Wikipedia); il campo elettrico all'interno del condensatore si forma proprio quando viene applicata una tensione V(t) in modo da separare le cariche elettriche presenti sulle piastre conduttrici (e che si mantiene costante grazie all'isolante posto tra esse fino alla scarica del condensatore).
Nota: all'esterno del condensatore il campo elettrico è praticamente nullo dato che le cariche presenti sulle due piastre ravvicinate sono uguali ed opposte.

Possiamo definire la capacità C del condensatore come il rapporto tra la carica Q(t) accumulata sulle piastre e la tensione elettrica V(t) applicata:
C=Q(t)/V(t).
Nota: in pratica C misura la predisposizione all'accumulo di carica del condensatore e dipende dalle sue caratteristiche fisiche e geometriche (vedi Wikipedia).

Perciò se riscriviamo Q(t)=CV(t) e calcoliamo la variazione della carica Q(t) rispetto al tempo otteniamo (secondo le regole di derivazione):
dQ(t)/dt=CdV(t)/dt+V(t)dC/dt
da cui, supponendo che la capacità C resti invariata (dC/dt=0) e ricordando che per definizione I(t)=dQ(t)/dt, si ottiene la relazione prima introdotta:
I(t)=CdV(t)/dt.
Nota: in realtà qui la corrente I(t) (detta di spostamento) non è dovuta ad un moto fisico di cariche tra le due piastre (che sono separate da un isolante) ma alla variazione del campo elettrico interno*** (vedi Wikipedia).

Passiamo ora alla seconda relazione relativa all'induttore, dove I(t) rappresenta la corrente elettrica (variabile) che scorre lungo un avvolgimento di materiale conduttivo (tipicamente rame), realizzato come un solenoide (vedi Wikipedia); poiché un conduttore percorso da corrente I(t) genera un campo magnetico B(t), all'interno del solenoide di sezione S avremo un flusso magnetico ΦB(t)=B(t)/S (poiché B(t) è supposto uniforme).
Nota: se il solenoide è molto lungo rispetto al diametro delle spire, il campo magnetico è uniforme e paralleo all'asse delle spire ed è in pratica nullo all'esterno.

Ora, come abbiamo visto nel post "Una Legge 'indotta': Farday&Lenz", la variazione del flusso magnetico ΦB(t) generato in un circuito chiuso come quello del solenoide, induce una forza elettromotrice V(t) nel circuito stesso:
V(t)=dΦB(t)/dt
che ricordiamo si oppone alla variazione del flusso.
Nota: consideriamo il valore positivo di V(t) poiché nel circuito essa rappresenta una forza contro-elettromotrice (perché si oppone alla variazione del flusso).

Definiamo quindi, in modo analogo al condensatore, l'induttanza L dell'induttore come il rapporto tra il flusso magnetico ΦB(t) accumulato nell'induttore e la corrente I(t) che circola in esso:
L=ΦB(t)/I(t).
Nota: L misura la predisposizione all'accumulo di flusso ΦB(t) nell'induttore e dipende dalle sue caratteristiche fisiche e geometriche (vedi Wikipedia).

Quindi se riscriviamo ΦB(t)=LI(t) e calcoliamo la variazione del flusso ΦB(t) rispetto al tempo ricaviamo:
dΦB(t)/dt=LdI(t)/dt+I(t)dL/dt
da cui, supponendo che l'induttanza L resti invariata (dL/dt=0) e ricordando che V(t)=dΦB(t)/dt, si ottiene la relazione prima introdotta:
V(t)=LdI(t)/dt.
Nota: si ricordi che V(t) non rappresenta una differenza di potenziale ma una forza elettromotrice (detta anche tensione elettrica) indotta dalla variazione di corrente.

Possiamo infine calcolare l'energia immagazzinata dai due dispositivi.
Iniziamo col definire la potenza elettrica dei due componenti (vedi Wikipedia):
"In elettrotecnica la Potenza P(t) è il lavoro elettrico W(t) svolto su una carica elettrica da un campo elettrico nell'unità di tempo" cioè:
P(t)=dW(t)/dt=V(t)dQ(t)/dt=V(t)I(t).
Nota: per definizione di f.e.m. il lavoro elettrico elementare fatto su una carica infinitesima dQ è pari a dW(t)=V(t)dQ(t) (vedi il post "La Forza-elettro-motrice").

Perciò utilizzando le relazioni prima ricavate, nel caso del condensatore otteniamo il lavoro elementare nell'unità di tempo (essendo I(t)=dQ(t)/dt):
dWC(t)/dt=V(t)I(t)=V(t)dQ(t)/dt
da cui segue (essendo C=Q(t)/V(t)):
dWC(t)=(Q(t)/C)dQ(t)
ed integrando rispetto alla carica Q(t) che si accumula sulle piastre si ricava:
WC(t)=(1/2)Q(t)2/C=(1/2)CV(t)2
che quindi dipende da C e dalla tensione elettrica al quadrato V(t)2 applicata alle piastre del condensatore.

Mentre per quanto riguarda l'induttore avremo per il lavoro infinitesimo nell'unità di tempo (essendo V(t)=dΦB(t)/dt):
dWL(t)/dt=V(t)I(t)=I(t)dΦB(t)/dt
da cui si ricava (essendo L=ΦB(t)/I(t)):
dWL(t)=(ΦB(t)/L)dΦB(t)
ed integrando rispetto al flusso ΦB(t) che si accumula nell'induttore segue:
WL(t)=(1/2)ΦB(t)2/L=(1/2)LI(t)2
che perciò dipende da L e dalla corrente al quadrato I(t)2 che circola nell'induttore.

In definitiva possiamo affermare che i due dispositivi esaminati, quando vengono posti all'interno di un circuito elettrico ideale (che è appunto un modello a parametri concentrati), si comportano come due veri e propri concentratori di energia (elettrica e magnetica rispettivamente).
Nota: abbiamo considerato due dispositivi puri (capacitivi induttivi ma non ibridi) e che non presentano dispersioni o inerzia al caricamento (cioè ideali e con resistenza nulla).

(*) In particolare risulta che "un sistema elettromagnetico costituito da dispositivi che soddisfino ragionevolmente l'ipotesi dei parametri concentrati può essere studiato trascurando la geometria del circuito [...] sostituendo le equazioni di Maxwell con le più semplici leggi di Kirchhoff" (vedi Wikipedia).
(Per approfondire vedi anche il post "Le 2 leggi di Kirchhoff")
(**) Per chiarire i concetti di forza elettromotrice (detta anche tensione elettrica) e potenziale elettrico (o differenza di potenziale poiché dipende solo dai punti del campo considerato) vedi il post "La Carica di prova e il Potenziale elettrico".
(***) In particolare la corrente di spostamento è data dall'integrale della variazione del campo elettrico E(t) che attraversa la superficie S tra le due piastre: i_{s}=\varepsilon_o \int_S \frac {\partial \mathbf E(t)}{\partial t} \cdot d \mathbf S.