Sabato, 29 Agosto 2020 16:26

Entropia

Written by
Rate this item
(0 votes)

Entropia. Struttura. Informazione

 

 

E’ possibile correlare tra loro tre concetti apparentemente così diversi come entropia (disordine), struttura (configurazione spaziale e informazione (prevedibilità)?Il tentativo di questa monografia si propone non sulla base di virtuosismi algoritmici ma del buon senso scientifico ed anche filosofico tenendo presente, anche senza adottarli acriticamente, per quanto riguarda entropia e informazione i primi tentativi pioneristici di fisici geniali come Leo Slizard e Leon Brillouin o di matematici come C. Shannon. Mi riferirò anche alle ricerche fondamentali di Lewis sulla entropia delle soluzioni,uno dei fondamenti della termodinamica chimica. I sistemi che verranno esaminati da un punto di vista unitario vanno dalle miscele chimiche, ai solidi cristallini, alle macromolecole lineari,ai geni dell’ereditarietà. Cercherò qui di introdurre questi concetti con pochi semplici esempi.

Immaginiamo di mescolare in una serie di esperimenti successivi in diverse proporzioni delle palline nere (che distingueremo con il simbolo (1), contenute in un’urna A e delle palline bianche (che distingueremo con il simbolo (0) contenute in un’urna B. Il mescolamento avverrà in ub’urna C.

Le proporzioni di palline bianche e nere saranno ad esempio rispettivamente 1 e 0, 1/3 e 2/3, 1/2 e 1/2, 2/3 e 1/3, o e 1.

 

 

Immaginiamo ora dopo ogni mescolamento di effettuare delle astrazioni e di registrare i risultati. Avremo ad esempio sequenze del tipo:

 

1001101001100…………………..

 

Le proporzioni di palline nere (1) e palline bianche (o) rappresentano matematicamente “probabilità a priori” di un risultato 1 o 0 nell’estrazione.

L’inverso di tali proporzioni corrisponde al premio che uno scommettitore dovrà ricevere in un “gioco non truccato e non tassato” ad ogni estrazione.

3 volte la posta nel caso dell’estrazione di palline nere (1) se la proporzione di palline nere è 1/3, 2 volte la posta se la proporzione di palline nere (1) è ½ e così via.

L’incertezza nella previsione è dovuta all’effetto del mescolamento delle palline nere e bianche nell’urna C.

Tale incertezza è equivalente all’informazione che lo scommettitore dovrebbe possedere per ottenere un risultato sicuro. Questa quantità è secondo il matematico Shannon l’entropia di informazione. H che assume il valore nullo quando l’urna contiene solo palline bianche o solo palline nere ed è massima quando contiene palline bianche e palline nere nelle stesse proporzioni (1/2).

Il processo si verifica in questo caso per effetto dell’energia cinetica delle molecole dei due componenti chimici.

L’entropia di mescolamento, inizialmente nulla, assumerà il suo valore massimo

 

 

Nello stato di equilibrio corrispondente allo stato finale.

Questo corrisponde ad uno stato di massima stabilita termodinamica del nostro sistema. R è la “costante dei gas” e 1n2 è il logaritmo naturale di 2.

Per analogia possiamo considerare l’entropia termodinamica di mescolamento come l’informazione necessaria per predire se in media nel tempo troviamo nello spazio occupato dalla miscela dei due componenti una molecolari uno dei due componenti. Possiamo suddividere lo spazio in un numero di celle corrispondenti al numero totale N di molecole e applicare la celebre equazione di Boltzmann

 

 

Dove P è la probabilità che assume il suo valore massimo per P=2 all’ennesima potenza.

Poiché NK=R si ottiene l’espressione dell’entropia di mescolamento.

Il concetto di ordine e disordine legati al concetto di entropia non hanno nulla a che fare con il “concetto di simmetria” ma sono basati sul concetto di probabilità.

In effetti anche l’entropia termica può venir considerata come una “entropia di mescolamento” fra stati quantici ad esempio di un oscillatore o di oscillatori accoppiati.

E’ quindi possibile calcolare in casi semplici l’ entropia di informazione, cioè l’ incertezza con la quale è possibile prevedere la popolazione degli stati quantici.

L’ entropia di mescolamento può anche diminuire in un sistema non isolato (cioè non è possibile nel’ esempio dell’urna contenente palline nere e palline bianche).

Non è necessario il celebre diavoletto di Marxwell. Si può ottenere un “de mescolamento” anche parziale di componenti chimici in condizioni di equilibrio per effetto di una forza esterna come la forza di gravità o di una forza centrifuga se le molecole dei due componenti hanno una massa diversa.

E’ ben noto ad esempio che la proporzione nella quale diversi gas sono presenti nell’ atmosfera varia al variare dall’ altezza. E’ possibile anche realizzare per elettroforesi il de mescolamento di due macromolecole aventi carica elettrica diversa.

E’ infine possibile ottenere in totale de mescolamento all’ equilibrio termodinamico abbassando a pressione costante la temperatura di un liquido al di sotto di una soglia critica della temperatura assoluta (T = 273 gradi + t ) corrispondente alla temperatura di fusione T = Tm.

In questo caso si verifica una drastica diminuzione della “entropia configurazionale”. Nel liquido è presente infatti una miscela in equilibrio microscopico di un numero molto elevato di configurazione. Nel cristallo, se si prescinde da inevitabili difetti, è presente un’ “unica” configurazione e quindi l’ entropia configurazionale è molto vicina a zero, come l’ entropia di mescolamento di una soluzione contenente un unico componente, o come l’ entropia di informazione nel caso di un’ urna contenente solo palline nere. Il processo di cristallizzazione seleziona quindi un’ unica configurazione. Ciò a prescindere dall’ entropia termica associata ad oscillazioni di varia natura.

E’ infatti utile separare in questi casi l’ entropia configurazionale S(conf) e l'entropia termica S (term)

Per cui l entropia totale e’ S = S(conf) + S (term)

Un concetto fondamentale mi sembra il concetto di “correlazione” basato sulla definizione di “probabilità a priori”.

Questi effetti di correlazione non si possono osservare nel caso che abbiamo considerato dell’estrazione di palline nere ( 1 ) e palline bianche ( 0 ) mescolate a caso in un urna.

Se invece dell’urna consideriamo un grande cinema contenente persone di sesso maschile ( 1 ) e di sesso femminile ( 0 )alla cui uscita (attraversabile da una persona alla volta) registriamo sequenze del tipo:

11001100101………

Riveleremo che la comparsa di una persona di sesso maschili ( 1 ) è più probabile se preceduta dalla comparsa di una persona di sesso femminile ( 0 ). Cioè la probabilità condizionale di una coppia 01 è più elevata delle probabilità condizionali di coppie 00 e 11 anche se queste non sono nulle. Ciò crea un vantaggio per chi scommette all’ esterno del cinema sull’ uscita di una persona di sesso maschile ( 1 ) o di una persona di sesso femminile ( 0 ).

Per fare un altro esempio immaginiamo di scorrere un testo scritto nell’ alfabeto italiano di 21 lettere (trascurando la punteggiatura) e di cercare di prevedere ad esempio la comparsa della lettera S; (La “probabilità a priori” di questa lettera è caratteristica della lingua italiana facilmente calcolabile mediante l’ analisi statistica di un dizionario).

Mi sembra del tutto logico affermare che la probabilità di comparsa della lettera S nel testo diventa però nulla se la lettera precedente è T. Ciò perché la “probabilità condizionale” di una coppia TS è nulla nella lingua italiana. Un’ estensione a lettere più lontane fra loro nel testo può consentire la produzione “stocastica” di “testi probabili”, indipendentemente, s’ intende, dal loro valore semantico. Analoghe considerazioni valgono per una melodia musicale. Tali correlazioni diminuiscono il valore dell’entropia di informazione H, in quanto aumentano la prevedibilità.

Il concetto di correlazione può essere molto efficace nel caso di macromolecole lineari costituite dalla concatenazione lineare di “unità monometriche”.Queste possono contenere informazione stereochimica, informazione chimica ed informazione conformazionale. Rappresentano perciò un esempio di legame fra il concetto di struttura ed il concetto di informazione.

Polimeri vinilici (aventi la formula chimica

R

¦

[ - CH2 – CH- ]

Dove R è un radicale chimico come -OH, -CH3, -CI, etc. sono caratterizzati da due possibili configurazioni opposte delle unità monometriche che si possono simbolizzare con 1 e 0. (Le configurazioni sono opposte in senso relativo e non in senso assoluto in quanto non sono “chirali” come una spirale sinistra ed una spirale destra, per intenderci).

Come dimostrò Giulio Natta, un polimero vinilico ottenuto con metodi convenzionali, ha una struttura amorfa perciò è “atattico”. Potremmo infatti rappresentarlo come una sequenza statica di 1 o di 0, ad es.:

1001100110101……..

Impiegando catalizzatori stereospecifici si ottengono invece polimeri “isotattici” caratterizzati da sequenza del tipo:

1111111111111………

oppure

0000000000000………

o anche polimeri “sindiotattici” caratterizzati da sequenze alternanti del tipo:

101010101010………..

E’ evidente che la polimerizzazione stereospecifica produce polimeri stereordinati per effetto di “correlazioni” fra configurazioni di unità monometriche adiacenti nel corso della crescita della catena.

Un problema più fondamentale, ancora irrisolto, è quello dell’origine dell’ ordine stereochimico delle proteine che contengono solo amminoacidi L e non amminoacidi D aventi una configurazioni solo “chirali” e quindi il loro enantiomorfismo non è relativo ma “assoluto”. E’ questo uno dei tanti quesiti sulle origini delle macromolecole biologiche primordiali che hanno poi dato luogo con la evoluzione prebiotica e più tardi con l’ evoluzione biologica alla emergenza degli attuali sistemi viventi.

L’esistenza di correlazioni emerge anche da un esame approfondito dell’ “informazione chimica” contenuta in un gene.

Un gene è, come noto, una sequenza lineare di unità monometriche contenute in una catena polinucleotidica (DNA) o poliribonucleotidica (RNA). Le unità monometriche sono di quattro tipi chimicamente diversi rappresentabili con i simbolo A, T, G, C (le basi) nel caso del DNA e A, U, G, C nel caso del RNA. Un gene è quindi concepibile come una frase scritta in un’ alfabeto di quattro lettere. Ad esempio:

ATTGATGATGA………

L’ informazione ereditaria di un gene è contenuta in “parole” di tre lettere, ad esempio: ATG, ATT, TTA….

Queste sono in totale 4x4x4x =64. Alcune di queste parole rappresentano segnali di interruzione nella “traduzione chimica” del gene nella corrispondente proteina. Le rimanenti parole o “codoni” codificano, in modo non univoco, i 20 L amminoacidi chimicamente diversi contenuti nella proteina in una sequenza che è univocamente definita dalla sequenza dei codoni del gene.

Un dizionario quasi universale, il celebre “codice genetico”, stabilisce le corrispondenze fra codoni e amminoacidi. L’ entropia di informazione Hdi un gene è facilmente calcolabile dalla sua composizione, cioè dalle frequenze o “probabilità a priori” dei quattro nucleotidi, cioè delle quattro lettere dell’ alfabeto del gene. Il suo valore massimo per un gene caratterizzato da una frequenza ¼, ¼, ¼, ¼ delle quattro lettere ed uguale a

Questa non ha molto interesse considerando che l’ informazione è contenuta in codoni, cioè in triplette.

E’ emerso infatti da un’ analisi mia e dei miei collaboratori che, a prescindere dalla composizione chimica e quindi dalla frequenza delle quattro basi contenute in un gene è fondamentale considerare la probabilità di occupazione delle tre posizioni (I, II, III) in un dato codone da parte delle quattro basi.

Consideriamo ad esempio una generica tripletta:

X X X

dove X = A, T, G, C

le triplette

A X X

X A X

X X A

Nelle quali A occupa rispettivamente la prima, la seconda e la terza posizione non hanno la stessa frequenza in un dato gene. Lo stesso vale se consideriamo le basi T, G, e C.

L’ entropia di informazione diventa perciò una quantità più complicata ma facilmente calcolabile che consente una valutazione quantitativa della distribuzione non uniforme delle quattro basi nelle tre posizioni di un codone.

Ciò spega allo stesso tempo l’ uso privilegiato, o meglio limitato del codice genetico (preferential codon usage) e di una quasi-periodicità ogni tre basi e quindi di ordine nei geni che per primi abbiamo messo in evidenza mediante analisi Fourier di sequenze nucleotidiche, cioè della struttura primaria dei geni analizzati.

Per spigare la quasi-periodicità supponiamo che come caso limite A occupi sistematicamente la I posizione in tutti i codoni del gene. La sua struttura, in questo caso limite potrà venir schematizzata:

Si avrà cioè una periodicità di A ogni tre basi. Questo è un caso limite, ma è sorprendente la quasi-periodicità che effettivamente si osserva per tutte le quattro basi.

E’ però probabile che questa influenzerà diverse funzioni. Le ipotesi finalistiche tendenti a correlare una proprietà informazionale o strutturale ad una singola funzione sono quasi sempre destinate a fallire!

Illustrerò più avanti le proprietà di simmetria del codice genetico che ho recentemente messe in evidenza.

Per ritornare ai polimeri lineari, l’ entropia di mescolamento e la corrispondente entropia di informazione e degli effetti di correlazione assumono un significato molto suggestivo nel modello ormai classico del più semplice esempio di polimero lineare: una catena di polietilene la cui formula chimica è

Lo scheletro della catena è formato da una successione di legami C-C che formano tra loro angoli tetraedi di circa 110 gradi e angoli diedri ? energicamente permessi secondo la analisi conformazionale da noi a suo tempo introdotta di ?= 60 gradi, ?= 180 gradi, ?= 300 gradi oppure, secondo un’ altra convenzione, ? = -120 gradi, ? = 0 gradi, ? = 120 gradi.

Sono perciò energicamente stabili 3 corrispondenti conformazioni locali : Gx, T, G. corrispondenti ai tre valori energeticamente permessi dello angolo dietro ?.

Una generica conformazione locale può quindi venir descritta da una sequenza di simbolo di un “codice conformazionale” di tre elementi.

Ad esempio:

TGTGxTTGG…….

Se T, G e Gx avessero la stessa “probabilità a priori” in tutte le conformazioni globali della catena, il valore massimo dell’ entropia conformazionale, sarebbe dato in prima approssimazione da:

S/R = ln 3

Che caratterizza l’ entropia conformazionale di un gomitolo statistico (statistica coli) “ideale”.

Questo valore dell’entropia conformazionale si riduce per effetto di due approssimazioni successive e cioè a) le differenze di energia fra la conformazione locale T e le conformazioni locali G e Gx che sono identiche fra loro anche se le conformazioni sono enantimorfe (non in senso assoluto).

Vi è una forte correlazione fra le conformazioni locali di unità monometriche adiacenti. Ad esempio la coppia GGx è praticamente proibita come la coppia TS nella lingua italiana. L’ entropia conformazionale si riduce a zero quando il polimero cristallizza, o per effetto di una tensione applicata al materiale reso elastico da difetti chimici o reticolazioni (vulcanizzazione).

Per un “polimero elastico ideale” la “forza entropica” di retrazione, ad allungamento costante ?l è proporzionale alla temperatura assoluta. E’ cioè possibile derivare un equazione di stato per una “gomma ideale” analoga all’ equazione di stato di un “gas ideale”.

Molto interessante mi sembra la possibilità di codificare la conformazione spaziale di una macromolecola come percorsi geometrici in tre dimensioni nel reticolo del diamante. Mi sembra questo un esempio suggestivo di codificazione della forma senza necessariamente adottare la nozione di “simmetria”.

E inoltre suggestiva l’ idea di una codificazione della forma nell’ arte, anche se si tratta di un problema molto più complesso.

Desidero ringraziare la Dr. Carla Ortolani per la sua preziosa collaborazione nello “editing” del manoscritto e il prof. Bernard Lavenda per un’attenta lettura.

 

Read 7996 times

Leave a comment

Make sure you enter all the required information, indicated by an asterisk (*). HTML code is not allowed.