L'evoluzione della termodinamica. Il concetto di entropia
Conosciamo oggi molti sistemi e processi per ottenere lavoro sfruttando un salto di temperatura, o più precisamente un “gradiente di energia termica”.
Le prime macchine a vapore, inventate in Inghilterra nel XIX secolo innescarono, com’è noto, una vera rivoluzione industriale. Queste macchine sfruttavano il più diffuso combustibile fossile del tempo: il carbone, così come oggi sfruttano combustibili liquidi, gassosi o elementi fossili.
Ho sempre sostenuto che la conoscenza scientifica è alla base degli sviluppi tecnologici. Le scoperte scientifiche che precedono le invenzioni: prima la scoperta dell’elettricità e poi l’ invenzione del motore elettrico o della lampadina elettrica. Prima la scoperta della radioattività e poi l’ invenzione della pila atomica. Prima la scoperta delle onde elettromagnetiche e poi l’ invenzione della radio e della televisione, e così via.
Devo però riconoscere che la termodinamica rappresenta una notevole eccezione. Questa scienza nacque sostanzialmente per affrontare un progetto di notevole interesse economico-tecnologico: calcolare il rendimento di una macchina termica.
I primi concetti elaborati dal francese Carnot dettero lo spunto alla fondazione di una scienza che come la meccanica di Neawton, la meccanica dei quanti o la relatività ha raggiunto livelli altissimi e si sta dimostrando applicabile a sistemi chimici, fisici, biologici o anche economici come sto cercando di dimostrare da qualche tempo. La termodinamica non è più la scienza del calore, si interessa non più solo di macchine termiche ma anche di macchine filosofiche che possono spiegare la creazione di ordine dal disordine come si è verificato nella auto-organizzazione del nostro pianeta a partire dalla sua formazione e nella emergenza della vita.
L’ evoluzione concettuale della termodinamica, dopo i primi passi di Carnot presenta aspetti talvolta drammatici. Viene formulato il II principio della termodinamica in anticipo sul I principio, cioè il principio della conservazione dell’energia. Il III principio verrà formulato, come vedremo molto tempo dopo in una forma molto rigorosa da Max Plank, che affermava che l’ entropia tende a zero con il tendere della temperatura assoluta T a zero.
A differenza del I e del II principio sappiamo oggi però che esso è violabile ad esempio da un cristallo di ghiaccio alla temperatura assoluta di 0 K.
Anche Albert Einstein come Max Plank,che cercò di coniugare la meccanica quantistica con la termodinamica, fu affascinato da questa disciplina.
Due grandi fisici, l’ inglese Lord Kelvin ed il tedesco Clausius formularono il II principio in modo diverso, che però si sono prestati a gravi malintesi che solo ai nostri giorni stanno cadendo di fronte ad una schiacciante evidenza sia teorica che sperimentale. Malintesi duri a morire non solo fra teologi o vitalisti ma anche purtroppo fra alcuni fisici. Citerò brevemente i due enunciati evocandoli a memoria dalle “dispense di fisica” di Gilberto Bernardini, uno dei più brillanti fisici italiani, che fu mio professore all’Università di Roma (e poi rettore della prestigiosa Scuola Normale di Pisa).
Affermava Lord Kelvin:
“Non è possibile trasferire calore (cioè energia termica) da un corpo più freddo ad uno più caldo se questo è l’ unico processo”.
A parte i frigoriferi convenzionali, le “pompe di calore” e vari effetti come l ‘ effetto Peltier sappiamo oggi che fenomeni come un flusso di energia termica contro un gradiente di temperatura, un flusso di corrente elettrica contro un gradiente di potenziale elettrico o un flusso di un componente chimico contro il suo gradiente di concentrazione sono resi possibili da meccanismi di accoppiamento con altri “processi passivi” promossi, cioè, da gradienti favorevoli rispetto ai corrispondenti flussi che agiscono da “forze motrici”.
Il chimico fisico Onsager, premio Nobel per la Chimica, uno dei fondatori della nuova branca della termodinamica, “la Termodinamica dei processi irreversibili” o dei “sistemi in non equilibrio” ha elaborato una fondamentale teoria su questi “accoppiamenti”; valida per processi lineari caratterizzati da relazioni lineari fra flussi e forze motrici.
La teoria di Onsager, nonostante queste limitazioni, rimane tuttavia notevole soprattutto per le basi teoriche su cui poggia.
Come ho sostenuto da tempo,i principali fenomeni di accoppiamento fra flussi, fra flussi e reazioni biochimiche o fra reazioni biochimiche, sono al di fuori dell’ intervallo di validità di relazioni lineari che, come ormai abbiamo ben compreso per un gran numero di leggi fisiche, rappresentano solo una prima a approssimazione alla descrizione del fenomeno (come ad esempio la Legge di Ohm che correla il flusso di corrente elettrica in un conduttore alla forza motrice che lo promuove per valori non troppo elevati del gradiente di potenziale elettrico).
Ho inoltre mostrato che sono possibili fenomeni di accoppiamento in membrane biologiche o in modelli sintetici che ho definito “accoppiamenti non Osanger” fra due processi di trasporto, e cioè uno “passivo” favorito dalla sua “forza motrice coniugata” e un altro “attivo” cioè contro il suo gradiente che non obbediscono necessariamente a relazioni lineari tra flussi e forze motrici.
Si potrebbe perciò generalizzare l’ enunciato del II principio della termodinamica di Lord Kelvin affermando che: nessun processo può verificarsi in un sistema termodinamico contro la sua forza motrice “coniugata” senza accoppiamenti (lineari o non lineari) con altri processi irreversibili che garantiscano una produzione globale positiva di entropia nel tempo, cioè una dissipazione di energia all’ interno del sistema. Chiarirò più avanti, il concetto di “produzione di entropia” all’interno di un sistema termodinamico.
Veniamo ora all’ enunciato di Clausius del II principio della Termodinamica. Questo sostanzialmente stabilisce che:
“In un sistema termodinamico isolato l’ entropia può solo aumentare”. Il suo corollario è che poiché l’ Universo è un sistema termodinamico “ isolato”, la sua entropia tenderà sempre ad aumentare nel tempo. Clausius aveva intuito che “entropia” significa dissipazione.
I miei commenti all’ enunciato di Clausius sono : 1) Quanti fisici, biologi, filosofi hanno trascurato la limitazione “sistema isolato” che è molto raro in natura come mostrerò più tardi. Un organismo biologico non è un sistema isolato in quanto scambia energia e materia con l’ ambiente esterno e non è neanche una “macchina termica”. La sua entropia può perciò diminuire come dimostra l’ evidente aumento di organizzazione nel corso del suo sviluppo a partire ad esempio da un uovo fecondato.
Analoghe considerazioni valgono per il nostro pianeta, il cui raffreddamento, dopo la sua formazione, ha prodotto un evidente e straordinario aumento di organizzazione fisica e geologica sicuramente accompagnata da una drastica diminuzione di entropia.
Ancora più significativa è stata l’ emergenza della vita, cioè di una organizzazione biologica, forse unica almeno nel sistema solare. Non si tratta anche in questo caso di una diminuzione di entropia?
Per quanto riguarda l’ aumento inevitabile dell’ entropia dell’ Universo in quanto “sistema termodinamico isolato” e la sua “morte termica”, come destino, si tratta, a mio parere, di una estrapolazione metafisica. Come vedremo, la distinzione tra sistemi termodinamici £aperti”, “chiusi”, o “isolati” è fondamentale, ai fini dell’ applicazione dei principi della Termodinamica.
Personalmente non sono affatto sicuro che l’ Universo, così come lo conosciamo oggi, sia un “sistema isolato”. Isolato rispetto a quale “sistema esterno”?ci si può legittimamente domandare, senza,per ora, poter ricevere una plausibile risposta.
A questo punto occorre presentare la straordinaria figura del fisico teorico austriaco, Ludwig Boltzmann.
Fu il geniale Boltzmann a dimostrare che:
a) l’ entropia è quantitativamente legata al disordine microscopico di un sistema termodinamico
b) che il disordine microscopico del sistema è a sua volta legato al concetto di “probabilità”. Quanto più è disordinato il sistema, tanto maggiore è la sua probabilità e quindi la sua entropia
c) lo stato ordinato di un sistema è improbabile ed è quindi caratterizzato da una bassa entropia
Si può oggi associare al concetto di una bassa probabilità il concetto di “unicità”.
La celebre relazione di Boltzmann fra l’ entropia S e la probabilità P di uno stato termodinamico che figura sulla sua tomba
In P è il logaritmo naturale della probabilità P dello stato termodinamico.
K è una costante universale data dal rapporto fra le due costanti universali. Infatti, K=R/N è la costante che compare nella celebre equazione di stato dei “gas perfetti” PV = RT (P e V sono la pressione e il volume di una “ mole” del gas, T =273 °C + t è la temperatura assoluta, N è il numero di Avogadro corrispondente al numero astronomico di molecole
( N = 6.06∙10 elevato alla 23 ) contenute in una grammomolecola che nel caso dell’ ossigeno pesa 32 grammi.
L’ idea centrale di Boltzmann era che un gas composto da una miriade di molecole obbedisce alle leggi dei grandi numeri e quindi alla statistica. Fù perciò il fondatore della “Termodinamica Statica” che rappresenta uno dei fondamenti della Termodinamica moderna. Boltzmann fu avversato dai più autorevoli fisici e chimico-fisici del suo tempo. Fra questi Lord Kelvin, Ostwald e Mach ( che affermava: “le molecole non le vedo e quindi non esistono”).
Boltzmann morì suicida forse schiacciato dalla sua grande fatica intellettuale e dalla incomprensione da parte di scienziati del suo tempo che egli stimava.
Fu Einstein a dare una prima indiretta dimostrazione della validità delle teorie di Boltzmann dopo la sua morte e quindi dell’ esistenza delle molecole con il suo lavoro teorico, fantasioso e rigoroso allo stesso tempo sui moti Browniani.
L’ evidenza accumulata da allora ai nostri giorni sull’esistenza e la struttura delle molecole mediante vari metodi sperimentali fra cui la diffrazione dei raggi X e degli elettroni da parte di solidi, liquidi e gas è schiacciante e in questo contesto non vale neanche la pena di illustrarla.
Come sappiamo, qualunque disciplina scientifica si basa su definizioni rigorose, assiomi e postulati ed in questo senso la Termodinamica moderna è esemplare.
Ne richiamerò alcuni.
Sistema termodinamico Qualunque regione dello spazio contenente materia e/o energia definita da una superficie fisica o puramente matematica può considerarsi un sistema termodinamico. Un requisito essenziale è che il sistema contenga un numero sufficientemente elevato di sub-unità (molecole, atomi; particelle elementari, quanti di energia etc. ), cioè che le configurazioni microscopiche obbediscano alle leggi dei grandi numeri.
Sistemi termodinamici aperti, chiusi o isolati Un sistema termodinamico si definisce aperto se scambia materia ed energia con l’ ambiente esterno, chiuso se scambia solo energia ed isolato se non scambia né materia né energia.
Un sistema biologico vivente è il più tipico esempio di sistema aperto. Un termostato contenente un composto chimico mantenuto a temperatura costante è un tipico esempio di sistema chiuso che scambia energia termica con il termostato.
Infine possiamo considerare un thermos contenente ad esempio ghiaccio come un sistema isolato. Ciò a prescindere dai processi fisici o chimici che si verificano all’ interno del sistema.
Stati di un sistema termodinamico Lo stato di un sistema termodinamico è definito dalle “variabili di stato” dalle quali dipendono le “funzioni di stato”. Possono essere ad esempio variabili di stato di un sistema termodinamico la pressione, il volume, la temperatura, l’ altezza nel campo gravitazionale terrestre, la composizione, il grado di avanzamento di una reazione chimica, etc.
Funzioni di stato di un sistema termodinamico Diverse funzioni caratterizzano lo stato di un sistema termodinamico a seconda delle variabili di stato che lo definiscono.
La più comune funzione di stato è l’ energia U. E’ inoltre molto impiegata l’ “entalpia” H =U+pv (p e v sono rispettivamente la pressione ed il volume).
A differenza di un sistema meccanico, l’ energia U non è un potenziale che possa misurare la stabilità di un sistema termodinamico.
Le funzioni di stato da cui dipende la stabilità di un sistema termodinamico sono:
a) l’energia libera di Helmotz: F = U - TS
b) l’ energia libera di Gibbs: G = H – TS
H = U + PV è l’ entalpia
Sia F che G sono potenziali termodinamici appropriati per un sistema termodinamico.
T e S sono rispettivamente la temperatura assoluta e l’ entropia del sistema termodinamico.
Si può prendere l’ energia libera F per illustrare la differenza fondamentale fra il potenziale U di un sistema meccanico e il potenziale F di un sistema termodinamico.
Per ambedue i sistemi quanto minore è il valore del potenziale ( U nel caso del sistema meccanico e F nel caso del sistema termodinamico) tanto maggiore sarà la sua stabilità.
Ciò significa che la stabilità di un sistema a temperatura costante (T = cost.) aumenterà con il diminuire della sua energia U e con l’ aumentare della sua entropia S, cioè secondo la relazione di Bolzmann, con l’ aumentare del suo sisordinr.
E’ un concetto poco intuitivo ma rigoroso, come spesso siverifica nella scienza, dopo il crollo della “filosofia scolastica” ad opera di Galileo Galilei.
Sistemi termodinamici all’equilibrio Un sistema termodinamico “lasciato a se” raggiunge spontaneamente uno stato di equilibrio quando la sua energia libera raggiunge un valore minimo. Il processo si definisce un “processo irreversibile” perché il sistema non potrà mai ritornare spontaneamente al suo stato iniziale. Il minimo dell’energia libera corrisponde perciò al minimo di energia nel caso di una pallina nel fondo di una buca. Mentre però sono possibili oscillazioni di un sistema meccanico intorno allo stato di equilibrio, ad esempio oscillazioni della pallina nella buca, sono possibili solo fluttuazioni erratiche ma non oscillazioni di sistemi termodinamici intorno ad uno stato di equilibrio. Si possono verificare invece oscillazioni anche smorzate di un sistema termodinamico in un sistema termodinamico lontano dallo stato di equilibrio intorno ad uno stato stazionario di “non equilibrio” come reazioni chimiche oscillanti e processi ritmici tipici dei sistemi biologici viventi che si mantengono lontani da uno stato di equilibrio termodinamico.
La stabilità di uno “stato stazionario di non equilibrio” non è regolata, come vedremo, dalla condizione di minima energia libera.
Una formulazione più generale del II principio valida per sistemi aperti, chiusi e isolati, può venir espressa dall’ equazione:
dS = dSi + dSe
dove dSi è la variazione infinitesima associata ad un processo irreversibile che si verifica all’ interno del sistema, dSe è la variazione infinitesima di entropia associata allo scambio di materia e/o di energia che si verifica fra il sistema e l’ ambiente esterno (ad esempio un termostato nel caso di un sistema chiuso).
Il postulato è che dSi è sempre positivo prima che si raggiunga uno stato di equilibrio, dove si annulla.
Cioè:
dSi > 0 prima dell’equilibrio
dSi = 0 all’equilibrio
dSe può essere invece positivo o negativo.
Cioè:
dSe < > 0
dSe = 0 in un sistema isolato
dove non si verificano scambi di materia o energia con l’ esterno.
Per un sistema isolato, poiché dSi > 0 prima dell’equilibrio, dSe = 0.
Si deve avere:
dS = dSi > 0
La variazione di entropia deve essere perciò positiva in accordo con l’ enunciato di Clausius la cui validità, come abbiamo visto, è limitata ai sistemi termodinamici isolati.
Per un sistema non isolato (aperto o chiuso) è invece possibile che
dS = dSi + dSe < 0
E’ necessario e sufficiente che
dSe < 0
e
| dSe|>|dSi |
Cioè che la variazione dell’entropia di scambio dSe sia negativa ma maggiore in valore assoluto dell’aumento di entropia all’interno del sistema.
La Termodinamica dei processi irreversibili rappresenta un notevole progresso rispetto alla termodinamica dei sistemi in equilibrio per l’ introduzione del tempo che era stao escluso nella costruzione dello splendido edificio concettuale della Termodinamica.
L’ evoluzione della Termodinamica in questa nuova direzione non demolisce le basi solide di questa disciplina così come la teoria della relatività non nega la validità della meccanica di Newton come Einstein si sforzò di dimostrare.
Pionieri della Termodinamica dei processi irreversibili sono stati fisici teorici e chimico-fisici come De Donder, Onsager, Prigogine, Mazur, per citarne solo alcuni. Per introdurre i fondamenti di questa nuova branca, sarà sufficiente trasformare la equazione
dS = dSi + dSe
nell’equazione dipendente dal tempo:
è la velocità (cioè il “tasso”) con cui aumenta l’ entropia in funzione del tempo.
è la velocità con cui aumenta l’ entropia all’interno di un sistema termodinamico aperto, chiuso o isolato. ∂ viene definito “produzione di entropia”.
(omega) è la velocità con cui il sistema scambia entropia con l’ esterno. ρ (omega) può venir definito “flusso di entropia” associato a scambi positivi o negativi di materia e/o di energia.
Si può perciò scrivere;
= ∂ + ρ
In uno stato stazionario = 0.
Perciò : ∂ = - omega
Nello “stato stazionario” di non equilibrio la produzione positiva di entropia ∂ associata ai processi irreversibili che si verificano all’ interno di un sistema aperto o chiuso ( j ≠ 0) deve eguagliare in valore assoluto il flusso di entropia. Ovvero in condizioni di non equilibrio la produzione positiva di entropia è esattamente bilanciata da un flusso negativo di entropia. Sono inoltre possibili oscillazioni.
In conclusione, l’ evoluzione concettuale della Termodinamica sta assumendo aspetti di straordinario interesse destinati ad esercitare enormi influenze su discipline scientifiche che vanno dalla Fisica, alla Chimica, alla Biologia, e forse all’Economia con tutte le necessarie limitazioni.
Albert B., Bray D.,Lewis J., Raff M.,Roberts K.,Watson J.D., "Molecular Biology of the Cell", Garland Publishing Inc., New York and London (1983).
Bar Hilley Y., "Language and Information", Addison Wesley, Reading, Mass. and Jerusalem Acad. Press (1964).
Brillouin L., "La science et la théorie de l' information", Masson, Paris (1959).
Guggenheim E.A., "Thermodynamics", Amsterdam North Holland (1949).
Hill T.L., "Statistical Thermodynamics", Reading, Massachussetts: Addison-welsley (1960).
Jacob F., "La logique du vivant", Gallimard, Paris (1970).
Kinchin A.L., "Mathematical Foundation of Information Theory", Dover, New York (1957).
Lewis G.N., Randall M., "Termodinamica", ed.it. a cura e con prefazione di A.M. Liquori, ed. Leonardo (1970).
Liquori A.M., "La simmetria delle Strutture Biologiche", Acc. Naz. dei Lincei, Atti del Simposio su "La Simmetria", Quad. n.136, pag.177 (1969).
Liquori A.M., "Orden Versus Regularity in Globular Proteins", in "Structural Orders in Polymers", IUPAC International Symposium, Florence,1980, Pergamon Press, Oxford, pp.181-187 (1981).
Liquori A.M., "Order,Symmetry,Temporal organization of Biological Structures as Distinct Categories", Proc. of the First International Symposium on "Conceptual Tools for Understanding Nature", Trieste 26-28 settembre 1990.
Liquori A.M., "Termodinamica e Sistemi Complessi",Istituto Italiano per gli Studi Filosofici, La Città del Sole, Napoli (1994).
Mac Kay D.M., "Information,Mechanism and Meaning", The M.I.T. Press, Cambridge Mass. and London (1969).
Monod J.,"Le hasard et la necessitè", Editions du Seul,Paris,1970
Prigogine I., "Termodinamica dei Processi Irreversibili", ed.it. a cura e con prefazione di A.M. Liquori, ed. Leonardo(1971).
Prigogine I., Nicolis G., "Le strutture Dissipative", ed. it. a cura e con prefazione di A.M. Liquori, ed. Sansoni, Firenze (1982).
Shannon C.E., "A Mathematical theory of communication", Bell Syst. Tech. J. 30,pp.379-423; pp.623-656 (1948).
Shannon C.E.,"Predication and Entropy of Printed English", Bell Syst. Tech.J. 30,pp.50-64 (1951).
Shroedinger E.,"LStatistical Thermodynamics",Cambridge University Press (1952).
Szilard L., "Uber die Entropieverminderung einem thermodynamischen System bei Eingriffen intelligenter Wesen", Z.Phys. 53,pp.840-856 (1929).
Waldram J.R., "The Theory of Thermodynamics", Cambridge University Press (1985).