Vai al contenuto

Entropia di Tsallis

Da Wikipedia, l'enciclopedia libera.

In fisica, l’entropia di Tsallis è una generalizzazione della formula di Boltzmann-Gibbs per il calcolo dell'entropia.

Il fisico teorico Costantino Tsallis elaborò nel 1988[1] questo concetto come base per generalizzare la meccanica statistica standard, ed è identica dal punto di vista formale alla α-entropia strutturale di Havrda–Charvát[2][3], introdotta nel 1967 nell'ambito della Teoria dell'Informazione. L'importanza dell'entropia di Tsallis in fisica è stata largamente dibattuta dalla letteratura scientifica.[4][5][6].

Tuttavia, a partire dal 2000, è stato identificato un sempre più ampio spettro di sistemi complessi naturali, artificiali e sociali che confermano i fatti sperimentali previsti e le conseguenze teoriche dedotte da questo tipo di entropia non-additiva, come la meccanica statistica non-estensiva, che riesce a generalizzare la teoria di Boltzmann-Gibbs.

Dato un insieme discreto di probabilità dove vale che , e dato un numero reale qualsiasi , si definisce entropia di Tsallis:

dove è un numero reale chiamato indice entropico.

Con il limite per , ritroviamo la più nota entropia di Boltzmann–Gibbs, vale a dire:

Invece, per le distribuzioni di probabilità continue, l'entropia di Tsallis è definita come:

dover è la Funzione di densità di probabilità.
L'entropia di Tsallis è stata usata per derivare le proprietà della distribuzione di probabilità di Tsallis, attraverso il Principio della Massima Entropia.

L'entropia discreta di Tsallis soddisfa

dove Dq è la q-derivata rispetto a x. Può essere confronata con la formula dell'entropia standard:

Non-additività

[modifica | modifica wikitesto]

Dati due sistemi A and B, per i quali la funzione di densità di probabilità congiunta soddisfa

,

allora, l'entropia di Tsallis per questo sistema soddisfa

dove è evidente che il parametro è una misura di quanto non è additiva.
Nel caso limite di q = 1, diventa

che è quanto ci si attende per un sistema additivo.
Per questo motivo, tale proprietà è a volte chiamata pseudo-additività.

Famiglie di esponenziali

[modifica | modifica wikitesto]

Molte comuni distribuzioni di probabilità, ad esempio la distribuzione normale, conducono alle famiglie di esponenziali. L'entropia di Tsallis per una famiglia esponenziale può essere scritta [7] come:

dove F è un log-normalizzatore e k il termine che indica la misura del carrier.

Per la Distribuzione normale multivariata, k è uguale zero, e perciò l'entropia di Tsallis diventa una espressione matematica in forma chiusa (valutabile in un numero finito di operazioni).

Ulteriori generalizzazioni

[modifica | modifica wikitesto]

Esiste un certo numero di sistemi fisici di rilievo[8] che afferiscono ai funzionali, che riescono a generalizzare ulteriormente l'entropia di Tsallis. I due più importanti sono: la Superstatistica introdotta da C. Beck ed E. G. D. Cohen nel 2003[9] e la Statistica Spettrale, introdotta da G. A. Tsekouras e Constantino Tsallis nel 2005.[10]
L'entropia di Tsallis e l'entropia di Boltzmann-Gibbs possono essere ottenute come casi particolari, da entrambe queste due entropie. È stato dimostrato, inoltre, che dalla Statistica Spettrale si può ricavare la formula della Superstatica, cosa che lascia ipotizzare che la prima possa contenere e spiegare ulteriori casi e fenomeni.

  1. ^ C. Tsallis, Possible generalization of Boltzmann-Gibbs statistics , in Journal of Statistical Physics, volume 52, pagg. 479–487, 1988, doi = 10.1007/BF01016429
  2. ^ J. Havrda, F. Charvát, Quantification method of classification processes. Concept of structural α-entropy, in Kybernetika, volume 3 issue = 1 pagg. 30–35, 1967
  3. ^ S. Da Silva, P. Rathie, Shannon, Lévy, and Tsallis: A Note, in Applied Mathematical Sciences, volume 2 issue 8 pagg. 1359–1363, anno 2008
  4. ^ A. Cho, A Fresh Take on Disorder, Or Disorderly Science?, in Science, volume = 297 issue = 5585 pagg. 1268–1269, anno 2002, doi = 10.1126/science.297.5585.1268
  5. ^ S. Abe, A.K. Rajagopal, Revisiting Disorder and Tsallis Statistics, in Science, volume = 300 issue = 5617 pagg. 249–251, anno 2003, doi = 10.1126/science.300.5617.249d
  6. ^ S. Pressé, K. Ghosh, J. Lee, K. Dill, Nonadditive Entropies Yield Probability Distributions with Biases not Warranted by the Data, in Phys. Rev. Lett., volume = 111 issue = 18 pagg. 180604, anno 2013, doi = 10.1103/PhysRevLett.111.180604, bibcode=2013PhRvL.111r0604P, pmid=24237501, arxiv = 1312.1186
  7. ^ F. Nielsen, R. Nock, A closed-form expression for the Sharma–Mittal entropy of exponential families, in Journal of Physics A: Mathematical and Theoretical, volume 45 issue 3 pagg. 032003, anno 2012, arxiv = 1112.4221, bibcode = 2012JPhA...45c2003N
  8. ^ V. García-Morales , K. Krischer, Superstatistics in nanoscale electrochemical systems, in PNAS, volume=108 issue=49 pagg. 19535–19539, anno 2011, doi=10.1073/pnas.1109844108 |bibcode=2011PNAS..10819535G, pmid=22106266, pmc=3241754
  9. ^ Cohen , Beck, Superstatistics, in Physica A: Statistical Mechanics and its Applications, volume=322 pagg.267, anno 2003,doi=10.1016/S0378-4371(03)00019-0, arxiv=cond-mat/0205097, bibcode=2003PhyA..322..267B
  10. ^ Tsekouras, Tsallis, Generalized entropy arising from a distribution of q indices, in Physical Review E, volume=71 issue=4, anno 2005, doi=10.1103/PhysRevE.71.046144 |arxiv=cond-mat/0412329, bibcode=2005PhRvE..71d6144T
  • Shigeru Furuichi, Flavia-Corina Mitroi-Symeonidis, Eleutherius Symeonidis, On some properties of Tsallis hypoentropies and hypodivergences, in Entropy, 16(10) (2014), 5377-5399; DOI10.3390/e16105377
  • Shigeru Furuichi, Flavia-Corina Mitroi, Mathematical inequalities for some divergences, in Physica A 391 (2012), pp. 388–400, DOI10.1016/j.physa.2011.07.052; ISSN 0378-4371 (WC · ACNP)
  • Shigeru Furuichi, Nicușor Minculete, Flavia-Corina Mitroi, Some inequalities on generalized entropies, J. Inequal. Appl., 2012, 2012:226. DOI10.1186/1029-242X-2012-226

Collegamenti esterni

[modifica | modifica wikitesto]
  Portale Fisica: accedi alle voci di Wikipedia che trattano di fisica