Vai al contenuto

Entropia

Da Wikipedia, l'enciclopedia libera.
Disambiguazione – Se stai cercando altri significati, vedi Entropia (disambigua).

In meccanica statistica e in termodinamica, l'entropia (dal greco antico ἐν?, en, "dentro" e τροπή, tropè, "trasformazione") è una grandezza che viene interpretata come una misura del disordine presente in un sistema fisico. Viene generalmente rappresentata dalla lettera e nel Sistema Internazionale si misura in joule fratto kelvin (J/K).

La termodinamica è il primo campo in cui l'entropia fu introdotta nel XIX secolo, a partire dagli studi della relazione fra calore e lavoro di William Rankine e Rudolf Clausius.[1] L'entropia è una funzione di stato di un sistema in equilibrio termodinamico, che, quantificando l'indisponibilità di un sistema a produrre lavoro, si introduce insieme con il secondo principio della termodinamica[2]. In base a questa definizione si può sostenere, in forma non rigorosa ma esplicativa, che quando un sistema passa da uno stato di equilibrio ordinato a uno disordinato la sua entropia aumenta; questo fatto fornisce l'indicazione sulla direzione in cui evolve spontaneamente un sistema, quindi anche la freccia del tempo (come già affermato da Arthur Eddington[3]).

È tuttavia bene notare che esiste una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere profondamente riviste e non hanno più validità generale.[senza fonte]

L'approccio molecolare della meccanica statistica generalizza l'entropia agli stati di non-equilibrio correlandola più strettamente al concetto di ordine, precisamente alle possibili diverse disposizioni dei livelli molecolari e quindi differenti probabilità degli stati in cui può trovarsi macroscopicamente un sistema[4].

Il concetto di entropia è stato esteso ad ambiti non strettamente fisici, come le scienze sociali, la teoria dei segnali, la teoria dell'informazione, acquisendo una vasta popolarità.

Il concetto di entropia fu introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per descrivere una caratteristica (la cui generalità fu osservata per la prima volta da Sadi Carnot nel 1824) di tutti i sistemi allora conosciuti, nei quali si osservava che le trasformazioni avvenivano spontaneamente in una sola direzione, quella verso il maggior disordine.

In particolare, il termine "entropia" fu introdotto da Rudolf Clausius nel suo Abhandlungen über die mechanische Wärmetheorie (Trattato sulla teoria meccanica del calore), pubblicato nel 1864. In tedesco Entropie deriva dal greco ἐν en, "dentro", e da τροπή tropé, "cambiamento", "punto di svolta", "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava dove va a finire l'energia fornita a un sistema. Propriamente Clausius intendeva riferirsi al legame tra movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento meccanico di particelle interne al corpo. Egli infatti la definì come il rapporto tra la somma dei piccoli incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante il cambiamento di stato.

Il concetto di entropia ha conosciuto grandissima popolarità nell'Ottocento e nel Novecento, grazie alla grande quantità di fenomeni che aiuta a descrivere, fino a uscire dall'ambito prettamente fisico ed essere adottato dalle scienze sociali, nella teoria dei segnali, nell'informatica teorica e nell'economia.

Descrizione intuitiva

[modifica | modifica wikitesto]
La fusione del ghiaccio avviene con aumento dell'entropia.

Il concetto di entropia è piuttosto complesso e, per comprendere appieno il suo significato, è necessaria almeno una conoscenza di base della termodinamica e della meccanica statistica; esistono infatti almeno due definizioni dell'entropia: una definizione macroscopica, fornita dalla termodinamica, e una definizione microscopica, fornita dalla meccanica quantistica.

È possibile comunque introdurre il concetto, seppur in maniera estremamente semplificata, attraverso alcuni esempi tratti dall'esperienza comune:

  • Se facciamo cadere una goccia d'inchiostro in un bicchiere d'acqua, possiamo osservare che, invece di restare una goccia più o meno separata dal resto dell'ambiente (che era quindi uno stato completamente ordinato), l'inchiostro comincia a diffondere e, in un certo tempo, determina una miscela uniforme (stato completamente disordinato). È esperienza comune che, mentre questo processo avviene spontaneamente, il processo inverso, ovvero separare l'acqua e l'inchiostro, richiede energia esterna.
  • Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi dotate di una certa velocità derivante dalla temperatura del profumo. Fino a quando la boccetta è tappata, ossia chiusa (non vi è scambio di materia) con il resto dell'universo, le molecole sono recluse all'interno e, non avendo spazio perché la boccetta è colma, esse rimangono abbastanza ordinate (stato liquido); ma nel momento in cui si stappa la boccetta, le molecole della superficie del liquido cominciano a staccarsi dalle altre e, urtando casualmente tra di loro e contro le pareti della boccetta, escono da questa disperdendosi all'esterno (evaporazione). Dopo un certo tempo, tutte le molecole saranno uscite e si saranno disperse. A quel punto, anche se casualmente qualche molecola fosse rientrata nella boccetta, il sistema complessivo è ormai disordinato e l'energia termica che ha messo in moto il fenomeno è dispersa e quindi non più recuperabile (si ha un equilibrio dinamico).

Analogia al disordine

[modifica | modifica wikitesto]

Un'altra interpretazione semplificata, ma molto popolare, dell'entropia è quella del "grado di disordine" di un sistema: un aumento del "disordine" di un sistema è associato a un aumento di entropia, mentre una diminuzione del "disordine" di un sistema è associata a una diminuzione di entropia. È necessario però chiarire che il disordine è relativo e, per questo, la spiegazione semplificata non è equivalente a quella esatta; ciò però serve a rappresentare il concetto.

Per maggiore chiarezza, nella figura seguente sono mostrate tre configurazioni dello stesso sistema, costituito da 24 oggetti, in cui si ha un aumento di disordine (cioè un aumento di entropia) andando da sinistra a destra e una diminuzione di disordine (cioè una diminuzione di entropia) andando da destra a sinistra.

Rappresentazione del grado di disordine di un sistema: sistema ordinato (a), con basso grado di disordine (b) e disordinato (c).

Nella figura seguente è rappresentato un esempio pratico in termodinamica, in cui si assiste a un aumento di disordine (cioè un aumento di entropia). In questo caso gli "oggetti" sono delle molecole di due gas (ogni gas è contraddistinto da un colore diverso); ad esempio, si supponga che le sferette blu siano molecole di ossigeno e le sferette rosse siano molecole di azoto.

Rappresentazione di un sistema (costituito da due gas differenti) in cui si ha aumento di entropia.

Inizialmente i gas sono situati in due compartimenti stagni; per cui in ciascun compartimento sono presenti solo molecole dello stesso tipo di gas. Se i due compartimenti sono messi in comunicazione (ad esempio aprendo una valvola), i due gas si mescolano tra di loro e si ha un aumento di disordine, ovvero un aumento di entropia (che in tal caso viene detta "variazione di entropia di miscelamento").

Nell'esempio precedente si è assistito ad un aumento di entropia "spontaneo" (è bastato infatti mettere in comunicazione i due compartimenti). Tale aumento di entropia spontaneo avviene sempre in natura, mentre non avviene una diminuzione di entropia spontanea. Tale constatazione empirica si traduce nel fatto che le configurazioni "disordinate" sono le più probabili e corrisponde al cosiddetto "Secondo principio della termodinamica".

Altri sistemi che possono assumere diversi gradi di disordine sono i materiali metallici. Essi infatti possono assumere le seguenti strutture:

  • struttura cristallina (ordinata): gli atomi sono disposti in maniera ordinata; una struttura cristallina è formata da diverse "celle" tutte uguali tra loro, che si ripetono nello spazio; si parla in questo caso di "ordine a lungo raggio";
  • struttura policristallina (parzialmente ordinata): si riscontrano più "cristalli" (strutture ordinate) all'interno del materiale; si parla in questo caso di "ordine a corto raggio";
  • struttura amorfa (disordinata): gli atomi sono disposti in maniera completamente disordinata; non si ha né ordine a corto raggio né ordine a lungo raggio.
Possibili strutture di un materiale metallico: struttura cristallina (a sinistra), struttura policristallina (al centro) e struttura amorfa (a destra).

Il disordine delle strutture dei materiali metallici aumenta anche in presenza dei cosiddetti "difetti cristallini" (tra cui l'inclusione di atomi di altro tipo o la mancanza di un atomo in una posizione del reticolo), la cui presenza determina un aumento del contenuto entropico del materiale.

Descrizione rigorosa

[modifica | modifica wikitesto]

Energia ed entropia

[modifica | modifica wikitesto]

Assumendo che l'intero universo sia un sistema isolato - ovvero un sistema per il quale è impossibile scambiare materia ed energia con l'esterno - il primo e il secondo principio della termodinamica possono essere riassunti come segue:

l'energia totale dell'universo è costante e l'entropia totale è in continuo aumento, fino a raggiungere un equilibrio

affermazione valida per qualsiasi sistema isolato.

Ciò significa che non solo non si può né creare né distruggere l'energia, ma nemmeno la si può completamente trasformare da una forma in un'altra senza che una parte venga dissipata sotto forma di calore. Ovvero l'energia utilizzata si trasforma in energia sempre meno utilizzabile.

Se per esempio si brucia un pezzo di carbone, la sua energia si conserva e si converte in energia contenuta nell'anidride carbonica, nell'anidride solforosa e negli altri residui di combustione, oltre che in forma di calore. Sebbene nel processo non si sia perduta energia, non possiamo invertire il processo di combustione e ricreare dai suoi scarti il pezzo di carbone originale.

Il secondo principio della termodinamica può quindi essere così ridefinito: «È impossibile realizzare una trasformazione il cui unico risultato sia la conversione in lavoro di tutto il calore assorbito da una sorgente omogenea» (formulazione di Kelvin-Planck).

Lo stato in cui l'entropia raggiunge il massimo valore e non c'è più energia libera disponibile per compiere lavoro è detto stato di equilibrio. Per l'intero universo, concepito come sistema isolato, ciò significa che la progressiva conversione di lavoro in calore (per il principio di aumento dell'entropia totale), a fronte di una massa dell'universo finita, porterà infine a uno stato in cui l'intero universo si troverà in condizioni di temperatura uniforme; la cosiddetta morte termica dell'Universo.

L'entropia caratterizza il verso ( da bassa entropia ad alta entropia) di qualunque trasformazione reale come trasformazione irreversibile: infatti anche tornando da uno stato finale a uno identico allo stato iniziale per temperatura, volume, pressione o altri parametri, come continuamente avviene nei cicli di una macchina termica, almeno una variabile fisica differirebbe dal punto da cui si è partiti: l'entropia (che inevitabilmente è aumentata).

Ogni trasformazione reale è una trasformazione irreversibile perché l'entropia aumenta; viceversa l'ipotesi di idealità equivale all'ipotesi di una variazione d'entropia nulla.

Postulato dell'entropia

[modifica | modifica wikitesto]

Una proprietà fondamentale afferma che in un sistema isolato l'entropia di sistema non diminuisce mai e, durante un ordinario processo irreversibile, aumenta. La dimostrazione si basa sul secondo principio della termodinamica. Si consideri un sistema isolato sia meccanicamente sia termicamente che, a causa di una perturbazione interna, si porta da uno stato a uno stato . Essendo l'entropia una funzione di stato (per definizione la variazione della stessa non dipende dal percorso seguito, ma solo dallo stato iniziale e finale) è possibile concepire un processo reversibile che ci riporti da a . Per la disuguaglianza di Clausius si ha:

Ma questa circuitazione può essere spezzata nella somma dei due integrali, dallo stato al e viceversa:

Il primo integrale è nullo poiché il processo è adiabatico, ovvero essendo il sistema isolato durante la perturbazione interna che lo porta dallo stato 1 a quello 2, allora non subisce trasferimenti di calore con l'esterno. Il secondo integrale si può scrivere nella forma:

Allora:

Ovvero:

Definizione termodinamica

[modifica | modifica wikitesto]

La variazione della funzione di stato entropia venne introdotta nel 1864 da Rudolf Clausius nell'ambito della termodinamica come:[5]

dove è la quantità di calore assorbita o ceduta in maniera reversibile e isoterma dal sistema a temperatura .

In forma differenziale, la legge si presenta così:[6]

Anche se non è un differenziale esatto, dividerlo per la temperatura lo rende tale: è dunque il fattore d'integrazione. Inoltre, è un differenziale esatto se e solo se è valido il secondo principio della termodinamica.

In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un sistema isolato l'entropia può solo aumentare, o al limite rimanere costante per cicli termodinamici reversibili.

Trasformazione reversibile isoterma

[modifica | modifica wikitesto]

Essendo per un gas ideale l'energia interna funzione della sola temperatura, in condizioni isoterme , quindi applicando il primo principio della termodinamica abbiamo l'eguaglianza del calore e del lavoro scambiati, ovvero:

ne segue che per una trasformazione tra gli stati e in assenza di lavoro isocoro, abbiamo:

[7]

per una mole di gas ideale, dalla equazione di stato dei gas perfetti:

ovvero:

quindi:

Possiamo riscrivere l'equazione sopra in funzione della pressione, se consideriamo che in questo particolare caso (trasformazione isoterma reversibile di un gas ideale) [8].

ovvero:

quindi:

Trasformazione reversibile isocora

[modifica | modifica wikitesto]

Dalla definizione di entropia:

in cui è il calore specifico molare a volume costante (funzione della temperatura) e è la sua media tra le temperature e .

Per cui, per una mole di gas perfetto:

Trasformazione reversibile isobara

[modifica | modifica wikitesto]

Seguendo la stessa procedura, possiamo scrivere:

in cui è il calore specifico molare a pressione costante (funzione della temperatura) e è la sua media tra le temperature e .

Per cui, per una mole di gas perfetto:

Trasformazione reversibile

[modifica | modifica wikitesto]

Essendo l'entropia una funzione di stato, considerando una qualsiasi trasformazione reversibile da uno stato a uno , con definite pressione, temperatura e volume occupato, è possibile calcolare la variazione di entropia eseguendo l'integrale di Clausius

su un qualsiasi cammino reversibile, ad esempio sulla composizione di una isocora reversibile con una isoterma reversibile. Si ottiene per n moli (dipendentemente solo dagli stati e ):

da cui, applicando la nozione di funzione di stato si ottiene una formulazione analitica per l'entropia in funzione delle variabili di stato, a meno di una costante additiva:

Essa è equivalente, tramite l'equazione di stato dei gas perfetti, alle altre due forme, talvolta utili, definite sempre a meno di una costante additiva:

In cui è il coefficiente della politropica. Si nota così che nelle trasformazioni adiabatiche reversibili l'entropia rimane costante (sono per questo anche dette isoentropiche).

Sistemi materiali

[modifica | modifica wikitesto]

Per calcolare l'entropia associata a sistemi materiali è possibile effettuare una integrazione che tenga conto anche dei contributi dovuti ai passaggi di stato. Per una sostanza gassosa ad una temperatura , l'entropia molare si può ricavare da

dove , , sono rispettivamente i calori specifici della sostanza allo stato solido, liquido e gassoso mentre , sono rispettivamente il calore latente di fusione e il calore latente di ebollizione.

Definizione quantistica

[modifica | modifica wikitesto]

Mentre nella visione termodinamica l'entropia è sempre espressa in termini di variazione, e mai in termini assoluti, in meccanica quantistica è possibile definire l'entropia in termini assoluti, ad esempio attraverso l'entanglement.

Si considerino due sistemi e , ognuno con associato uno spazio di Hilbert , . Lo stato del sistema composito è allora:

In generale, non è possibile associare uno stato puro al componente . Tuttavia è comunque possibile associarvi una matrice di densità. Sia definito l'operatore proiezione

.

Lo stato di è la traccia parziale di sulle basi del sistema :

.

Ad esempio, per lo stato entangled "classico" di e , ognuno composto da due stati puri "0" e "1"

la matrice densità è

e la matrice densità dello stato puro di è

ossia semplicemente l'operatore proiezione di . Da notare che la matrice densità del sistema composto, , ha la stessa forma. Ciò non sorprende, in quanto lo stato entangled classico è uno stato puro.

Data una matrice di densità qualsiasi, , possiamo calcolare la quantità

dove è la costante di Boltzmann, e la traccia è presa sullo spazio in cui è definita . Risulta che è esattamente l'entropia del sistema corrispondente a .

L'entropia di ogni stato puro è zero, in quanto non vi è indeterminazione sullo stato del sistema. L'entropia di ciascuno dei due sottosistemi e entangled è semplicemente , il massimo ammissibile per un sistema a due stati.

Se il sistema nel suo complesso è puro, l'entropia di ogni sottosistema può essere usata per misurarne il grado di "entanglement" con gli altri sottosistemi.

Si può anche mostrare come gli operatori unitari che agiscono su uno stato, come ad esempio l'operatore di evoluzione temporale ottenuto dall'equazione di Schrödinger, lasciano invariata l'entropia. Si associa dunque la reversibilità di un processo alla sua variazione di entropia, confermando dunque la teoria termodinamica e, contemporaneamente, l'entropia di un segnale secondo la teoria dell'informazione.

Definizione statistica

[modifica | modifica wikitesto]

In meccanica statistica lo studio sull'entropia è un tramite per ottenere informazioni macroscopiche a partire dalle configurazioni microscopiche. Intuitivamente si immagina che a una certa condizione macroscopica di equilibrio del sistema (macrostato o stato termodinamico del sistema, definito da precisi valori di grandezze come pressione e temperatura) corrispondano diverse configurazioni microscopiche (stati dinamici o microstati, definiti solo se si conoscono posizione e velocità di tutte le molecole del sistema).

Tali configurazioni microscopiche occupano un volume nello spazio delle fasi il quale viene indicato con . Allora possiamo definire l'entropia secondo il principio di Boltzmann come:[5][9]

dove è la costante di Boltzmann.

Possiamo definire come la misura dell'insieme di tutte le possibili disposizioni (o probabilità a livello macroscopico) dei livelli molecolari: rappresenta quindi il numero di stati totali accessibili al sistema alla temperatura . Questa misura tiene conto dell'indistinguibilità tra le particelle introducendo il fattore correttivo di Gibbs.

Per capire il significato fisico di prendiamo in esempio un caso di entropia per miscelamento riferendoci a un cristallo di atomi . Supponiamo di inserire atomi (simili in dimensione e dal punto di vista elettronico) nei siti di per semplice sostituzione: in questo modo abbiamo un numero di atomi e un numero di atomi che si distribuiscono nei siti del cristallo. Man mano che introduciamo gli atomi nei siti di aumenta il numero delle configurazioni possibili tra gli atomi e , cioè aumenta la possibilità di ottenere distribuzioni diverse: questo fatto coincide con un aumento del grado di disordine del sistema, e quindi con un aumento di entropia. Il numero massimo di configurazioni corrisponde al numero di modi possibili di distribuire a caso e oggetti su siti e vale:

In generale, se nel cristallo di A vengono introdotti diversi tipi di atomi simili (, , ecc.), il numero massimo di configurazioni possibili vale:

A temperature ordinarie, nei gas, queste disposizioni seguono la distribuzione di Maxwell-Boltzmann, ma l'approccio può opportunamente estendersi, in maniera più complessa, a liquidi e solidi dove ad esempio non vige l'indistinguibilità delle singole particelle (poiché spazialmente vincolate ad esempio al reticolo cristallino). A basse temperature, prossime allo zero assoluto, le distribuzioni, in virtù del fatto che le particelle si concentrano nei livelli di energia più bassi, seguiranno differenti distribuzioni, come quella di Fermi-Dirac o di Bose-Einstein (a seconda del fatto che ricadano o meno sotto il principio di esclusione di Pauli).

La definizione statistico-molecolare è considerata la fondamentale definizione di entropia, dato che tutte le altre possono esserne matematicamente derivate, ma non viceversa. Nelle lezioni di teoria del gas di Boltzmann, del 1896, si è dimostrata l'espressione della misura entropica per i sistemi di atomi e molecole in fase gassosa, fornendo quindi una misura per l'entropia in termodinamica classica.

Si può dimostrare che l'entropia così definita possiede tutte le caratteristiche dell'entropia termodinamica e in modo particolare si dimostra che è estensiva, ovvero gode della proprietà di additività (e differenza: per cui è calcolabile la variazione d'entropia e la funzione entropia è differenziabile, ovvero ha senso parlare di entropia in termini microscopici). La formula mostra che è estremamente improbabile, anche se non impossibile, che un sistema ritorni da una configurazione finale a una identica allo stato iniziale. La differenza fisica di significato tra entropia e temperatura è che la prima misura lo stato di disordine (fisico) del sistema, la seconda lo stato (energetico) di agitazione molecolare.

Dall'equazione , con alcune considerazioni combinatorie su e dalla distribuzione di Boltzmann degli stati possibili, si giunge alla:

dove è la temperatura, energia termica, costante dei gas, la funzione di partizione, e la costante di Avogadro.
La formula torna utile per il calcolo di nei gas.

Volendo informazioni macroscopiche del sistema basta derivare l'entropia rispetto a una delle sue variabili naturali , e (energia, numero di particelle e volume) tenendo costanti le altre. È necessario tenere conto che questa trattazione riposa sull'ipotesi ergodica che postula di poter sostituire la media temporale sulle configurazioni microscopiche con la media sulle configurazioni stesse (propriamente sostituire le medie temporali con quelle sull'ensemble -Gibbs- ).

Entropia di Gibbs

[modifica | modifica wikitesto]

Lo stato macroscopico di un sistema è descrivibile dalla distribuzione di una serie di microstati. L'entropia di questo sistema è calcolata con la formula di Willard Gibbs.
Per un sistema della fisica classica (es. una collezione di particelle) avente un numero discreto di microstati, se indichiamo con l'energia dell'i-esimo microstato, e con la relativa probabilità che si verifichi durante le fluttuazioni del sistema, allora l'entropia di tale sistema è data da:

,

dove:
la quantità è la costante di Boltzmann, che, come l'entropia, è misurata in unità di capacità termica, mentre il logaritmo è un numero adimensionale.
Questa entropia è chiamata indifferentemente anche entropia statistica, oppure entropia termodinamica. Tale formula è la versione discreta dell'Entropia di Shannon. L'entropia di von Neumann è a sua volta una estensione dell'Entropia di Gibbs al fenomeno quanto-meccanico.
È stato dimostrato[10] che l'Entropia di Gibbs è del tutto equivalente alla definizione classica di entropia:

Equazione di bilancio

[modifica | modifica wikitesto]

In un sistema isolato, il secondo principio della termodinamica asserisce che l'entropia può solo aumentare. In un sistema aperto, in cui quantità come calore, energia e massa possono fluire verso e dall'esterno, l'entropia del sistema può anche scendere. In un sistema aperto è spesso utile scrivere una equazione di bilancio.

Un sistema aperto è generalmente definito da un volume di controllo, ovvero una porzione dello spazio che determina il sistema in esame. Tutto ciò che non è contenuto in questo volume è esterno al sistema. L'entropia del sistema varia nel tempo, e la sua derivata è determinata da un'equazione di bilancio del tipo

dove , denotano rispettivamente la corrente di entropia netta e quella generata all'interno del sistema. Tutte queste quantità sono derivate temporali. In una equazione di bilancio normalmente il secondo termine può essere negativo, qui invece no conformemente al secondo principio della termodinamica.

I termini di bilancio possono essere esplicitati nel modo seguente:

In questa espressione ciascuna delle correnti di entropia è spezzata in due addendi:

  • il termine conduttivo tiene conto dello scambio di calore con una sorgente termica esterna a temperatura .
  • il termine convettivo tiene conto della variazione di entropia dovuta a masse entranti o uscenti dal sistema; il termine indica la variazione di massa e l'entropia per unità di massa;

In un sistema chiuso il termine convettivo è nullo, per cui la relazione diventa:

In un sistema isolato si annullano anche i termini entropici legati al flusso termico, per cui:

Il concetto di entropia in altri campi

[modifica | modifica wikitesto]

Teoria dell'informazione

[modifica | modifica wikitesto]
Lo stesso argomento in dettaglio: Entropia (teoria dell'informazione).

Si deve a Claude Shannon lo studio dell'entropia nella teoria dell'informazione, il suo primo lavoro sull'argomento si trova nell'articolo Una teoria matematica della comunicazione del 1948. Nel primo teorema di Shannon, o teorema di Shannon sulla codifica di sorgente, egli dimostrò che una sorgente casuale d'informazione non può essere rappresentata con un numero di bit inferiore alla sua entropia, cioè alla sua autoinformazione media.

Nella teoria dell'informazione - e in rapporto alla teoria dei segnali - l'entropia misura dunque la quantità di incertezza o informazione presente in un segnale aleatorio, che può essere interpretata anche come la minima complessità descrittiva di una variabile aleatoria, ovvero il limite inferiore della compressione dei dati. La connessione con l'entropia termodinamica sta allora nel rapporto di compressione: al diminuire della temperatura corrisponde la riduzione della ridondanza del segnale, e quindi l'aumento della compressione. L'entropia dell'informazione raggiunge un minimo, che in generale è diverso da zero, al contrario dell'entropia termodinamica (vedi terzo principio della termodinamica).

Tale risultato era implicito nella definizione statistica dell'entropia di John von Neumann, anche se lo stesso Von Neumann, interrogato al riguardo da Shannon nel forse unico scambio di opinioni tra loro, non ritenne la cosa degna di attenzione. Come ricordò Shannon più tardi a proposito del risultato da lui trovato:

«La mia più grande preoccupazione era come chiamarla. Pensavo di chiamarla informazione, ma la parola era fin troppo usata, così decisi di chiamarla incertezza. Quando discussi della cosa con John Von Neumann, lui ebbe un'idea migliore. Mi disse che avrei dovuto chiamarla entropia, per due motivi: "Innanzitutto, la tua funzione d'incertezza è già nota nella meccanica statistica con quel nome. In secondo luogo, e più significativamente, nessuno sa cosa sia con certezza l'entropia, così in una discussione sarai sempre in vantaggio"»

Lo stesso argomento in dettaglio: Entropia (economia).

Georgescu-Roegen applicando il secondo principio della termodinamica all'economia, e in particolare all'economia della produzione, ha introdotto una teoria economica che discute i fondamentali della decrescita: ogni processo produttivo non diminuisce (e quindi incrementa irreversibilmente o lascia uguale) l'entropia del sistema-Terra: tanta più energia si trasforma in uno stato indisponibile, tanta più sarà sottratta alle generazioni future e tanto più disordine proporzionale sarà riversato sull'ambiente[11].

Un'altra formulazione dell'entropia nei sistemi economici si ritrova nel moto di propagazione e diffusione dell'informazione nel mercato finanziario. Quest'ultimo, grazie alla sua funzione di formazione dei prezzi, facilita la quantificazione del processo di scambio, il quale è inestricabilmente legato all'informazione disponibile. L'informazione nel mercato si diffonde su base probabilistica, esattamente come in termodinamica, ovvero è infinitamente più probabile che la particella di informazione venga "sfruttata" per lo scambio, e dunque trasmessa al mercato e agli altri agenti, piuttosto che essa rimanga concentrata o in forma statica[12], e il motivo risiede nella natura dell'informazione. Per informazione si intende in sostanza ogni evento del mondo capace di persuadere un movimento nel prezzo di un indice azionario, evento che è portato ad esprimersi in termini di prezzo grazie alla mediazione interpretativa degli investitori. Vista la natura del sistema, in cui l'interesse economico vige, e l'informazione è ciò che permette agli agenti di prendere decisioni, allora chiunque riceverà nuova informazione sarà motivato ad iniettarla nel mercato offrendo un prezzo, affinché il suo vantaggio informativo si converta in rendimento. Questo si traduce in una maggiore probabilità che l'informazione nuova venga sfruttata dagli investitori, e dunque incorporata nei prezzi correnti dei titoli. L'entropia è dunque utilizzata come descrizione del meccanismo per cui l'informazione tende sempre alla diffusione e poi ad omogeneizzarsi, esattamente come una goccia d'inchiostro in un bicchiere d'acqua. L'equilibrio terminale di un tale processo risiede nell'efficienza informativa, cioè quando tale informazione non potrà più essere sfruttata per ottenere extra-rendimenti. L'entropia nel mercato è un fenomeno emergente che aumenta di precisione e velocità in funzione del numero di agenti.

Ad elevata entropia è associato un maggior grado di efficienza del mercato, sia in termini di rapidità con cui lo stesso integra l'informazione, sia in termini di imprevedibilità. Questo perché se il numero di agenti "interpretativi" è maggiore, presupposto necessario per l'entropia, allora aumenterà la variabile "rumore" data dalla differenza netta di interpretazione di tale informazione. Se ogni agente possiede diverse caratteristiche in termini di avversione al rischio, dotazione di capitali, conoscenze pregresse, orizzonte temporale, ecc., allora anche il suo modo di interpretare l'informazione sarà diverso. Questa diversità si trasmette al mercato offrendo prezzi diversi anche in virtù di una stessa informazione, generando rumore, casualità nei movimenti azionari e dunque imprevedibilità. Per questo motivo l'entropia è essenziale per un mercato efficiente che sia perciò imprevedibile e informato[12].

Le particolari implicazioni dell'entropia che pare rallentare sugli organismi viventi sono discusse da molti autori come dal celebre saggio Cos'è la vita di Erwin Schrodinger, da Ilya Prigogine nei sistemi non lineari, da Ludwig Boltzmann, da Léon Brillouin col concetto di neghentropia, da Mael Montevil[13], da Francis Bailly[14], da Giuseppe Longo[15], da Luigi Fantappié con la Teoria unitaria del mondo fisico e biologico.

  1. ^ (DE) Rudolf Clausius, Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen, in Annalen der Physik, vol. 155, n. 3, 1850, pp. 368–397, Bibcode:1850AnP...155..368C, DOI:10.1002/andp.18501550306.
  2. ^ https://www.garzantilinguistica.it/ricerca/?q=entropia
  3. ^ Arthur Eddington, The Nature of the Physical World, Cambridge University Press, 1927
  4. ^ Gordon M. Barrow, Physical Chemistry, WCB, McGraw-Hill, 1979
  5. ^ a b (EN) IUPAC Gold Book, "entropy"
  6. ^ (EN) J. M. Smith, H.C.Van Ness; M. M. Abbot, Introduction to Chemical Engineering Thermodynamics, 4ª ed., McGraw-Hill, 1987, p. 150. ISBN 0-07-100303-7
  7. ^ indica il volume molare, pari al volume rapportato al numero di moli, ovvero:
  8. ^ Infatti, dalla definizione dell'entalpia: ; e in termini differenziali: . Ma dU e dH sono nulli essendo la trasformazione a temperatura costante, quindi , ovvero
  9. ^ (EN) J. M. Smith, H.C.Van Ness; M. M. Abbot, Introduction to Chemical Engineering Thermodynamics, 4ª ed., McGraw-Hill, 1987, pp. 159-163. ISBN 0-07-100303-7
  10. ^ E.T. Jaynes; Gibbs vs Boltzmann Entropies; American Journal of Physics, 391, 1965
  11. ^ Nicholas Georgescu-Roegen, Bioeconomia. Verso un'altra economia ecologicamente e socialmente sostenibile, cap.II La legge di entropia e il problema economico, Torino, Bollati Boringhieri, 2003, ISBN 978 88 339 1467 1
  12. ^ a b Valerio Ferraro, Efficienza dei mercati e analisi dell’informazione: il ruolo di entropia, irrazionalità e caso, su tesi.luiss.it, 20 luglio 2023. URL consultato il 12 settembre 2024.
  13. ^ https://scholar.google.com/citations?view_op=view_citation&hl=en&user=5eOo9hQAAAAJ&cstart=20&pagesize=80&citation_for_view=5eOo9hQAAAAJ:dshw04ExmUIC
  14. ^ https://www.worldscientific.com/doi/abs/10.1142/S0218339009002715
  15. ^ https://scholar.google.it/scholar?q=Longo,+Perspectives+on+organisms+biological+time&hl=it&as_sdt=0&as_vis=1&oi=scholart

Voci correlate

[modifica | modifica wikitesto]

Altri progetti

[modifica | modifica wikitesto]

Collegamenti esterni

[modifica | modifica wikitesto]
Controllo di autoritàThesaurus BNCF 19353 · LCCN (ENsh85044150 · GND (DE4014894-4 · BNE (ESXX528989 (data) · BNF (FRcb12099111d (data) · J9U (ENHE987007550784605171 · NDL (ENJA00562019