Entropia di Tsallis
In fisica, l’entropia di Tsallis è una generalizzazione della formula di Boltzmann-Gibbs per il calcolo dell'entropia.
Panoramica
[modifica | modifica wikitesto]Il fisico teorico Costantino Tsallis elaborò nel 1988[1] questo concetto come base per generalizzare la meccanica statistica standard, ed è identica dal punto di vista formale alla α-entropia strutturale di Havrda–Charvát[2][3], introdotta nel 1967 nell'ambito della Teoria dell'Informazione. L'importanza dell'entropia di Tsallis in fisica è stata largamente dibattuta dalla letteratura scientifica.[4][5][6].
Tuttavia, a partire dal 2000, è stato identificato un sempre più ampio spettro di sistemi complessi naturali, artificiali e sociali che confermano i fatti sperimentali previsti e le conseguenze teoriche dedotte da questo tipo di entropia non-additiva, come la meccanica statistica non-estensiva, che riesce a generalizzare la teoria di Boltzmann-Gibbs.
Definizione
[modifica | modifica wikitesto]Dato un insieme discreto di probabilità dove vale che , e dato un numero reale qualsiasi , si definisce entropia di Tsallis:
dove è un numero reale chiamato indice entropico.
Con il limite per , ritroviamo la più nota entropia di Boltzmann–Gibbs, vale a dire:
Invece, per le distribuzioni di probabilità continue, l'entropia di Tsallis è definita come:
dover è la Funzione di densità di probabilità.
L'entropia di Tsallis è stata usata per derivare le proprietà della distribuzione di probabilità di Tsallis, attraverso il Principio della Massima Entropia.
Relazioni
[modifica | modifica wikitesto]L'entropia discreta di Tsallis soddisfa
dove Dq è la q-derivata rispetto a x. Può essere confronata con la formula dell'entropia standard:
Non-additività
[modifica | modifica wikitesto]Dati due sistemi A and B, per i quali la funzione di densità di probabilità congiunta soddisfa
- ,
allora, l'entropia di Tsallis per questo sistema soddisfa
dove è evidente che il parametro è una misura di quanto non è additiva.
Nel caso limite di q = 1, diventa
che è quanto ci si attende per un sistema additivo.
Per questo motivo, tale proprietà è a volte chiamata pseudo-additività.
Famiglie di esponenziali
[modifica | modifica wikitesto]Molte comuni distribuzioni di probabilità, ad esempio la distribuzione normale, conducono alle famiglie di esponenziali. L'entropia di Tsallis per una famiglia esponenziale può essere scritta [7] come:
dove F è un log-normalizzatore e k il termine che indica la misura del carrier.
Per la Distribuzione normale multivariata, k è uguale zero, e perciò l'entropia di Tsallis diventa una espressione matematica in forma chiusa (valutabile in un numero finito di operazioni).
Ulteriori generalizzazioni
[modifica | modifica wikitesto]Esiste un certo numero di sistemi fisici di rilievo[8] che afferiscono ai funzionali, che riescono a generalizzare ulteriormente l'entropia di Tsallis. I due più importanti sono: la Superstatistica introdotta da C. Beck ed E. G. D. Cohen nel 2003[9] e la Statistica Spettrale, introdotta da G. A. Tsekouras e Constantino Tsallis nel 2005.[10]
L'entropia di Tsallis e l'entropia di Boltzmann-Gibbs possono essere ottenute come casi particolari, da entrambe queste due entropie. È stato dimostrato, inoltre, che dalla Statistica Spettrale si può ricavare la formula della Superstatica, cosa che lascia ipotizzare che la prima possa contenere e spiegare ulteriori casi e fenomeni.
Note
[modifica | modifica wikitesto]- ^ C. Tsallis, Possible generalization of Boltzmann-Gibbs statistics , in Journal of Statistical Physics, volume 52, pagg. 479–487, 1988, doi = 10.1007/BF01016429
- ^ J. Havrda, F. Charvát, Quantification method of classification processes. Concept of structural α-entropy, in Kybernetika, volume 3 issue = 1 pagg. 30–35, 1967
- ^ S. Da Silva, P. Rathie, Shannon, Lévy, and Tsallis: A Note, in Applied Mathematical Sciences, volume 2 issue 8 pagg. 1359–1363, anno 2008
- ^ A. Cho, A Fresh Take on Disorder, Or Disorderly Science?, in Science, volume = 297 issue = 5585 pagg. 1268–1269, anno 2002, doi = 10.1126/science.297.5585.1268
- ^ S. Abe, A.K. Rajagopal, Revisiting Disorder and Tsallis Statistics, in Science, volume = 300 issue = 5617 pagg. 249–251, anno 2003, doi = 10.1126/science.300.5617.249d
- ^ S. Pressé, K. Ghosh, J. Lee, K. Dill, Nonadditive Entropies Yield Probability Distributions with Biases not Warranted by the Data, in Phys. Rev. Lett., volume = 111 issue = 18 pagg. 180604, anno 2013, doi = 10.1103/PhysRevLett.111.180604, bibcode=2013PhRvL.111r0604P, pmid=24237501, arxiv = 1312.1186
- ^ F. Nielsen, R. Nock, A closed-form expression for the Sharma–Mittal entropy of exponential families, in Journal of Physics A: Mathematical and Theoretical, volume 45 issue 3 pagg. 032003, anno 2012, arxiv = 1112.4221, bibcode = 2012JPhA...45c2003N
- ^ V. García-Morales , K. Krischer, Superstatistics in nanoscale electrochemical systems, in PNAS, volume=108 issue=49 pagg. 19535–19539, anno 2011, doi=10.1073/pnas.1109844108 |bibcode=2011PNAS..10819535G, pmid=22106266, pmc=3241754
- ^ Cohen , Beck, Superstatistics, in Physica A: Statistical Mechanics and its Applications, volume=322 pagg.267, anno 2003,doi=10.1016/S0378-4371(03)00019-0, arxiv=cond-mat/0205097, bibcode=2003PhyA..322..267B
- ^ Tsekouras, Tsallis, Generalized entropy arising from a distribution of q indices, in Physical Review E, volume=71 issue=4, anno 2005, doi=10.1103/PhysRevE.71.046144 |arxiv=cond-mat/0412329, bibcode=2005PhRvE..71d6144T
Bibliografia
[modifica | modifica wikitesto]- Shigeru Furuichi, Flavia-Corina Mitroi-Symeonidis, Eleutherius Symeonidis, On some properties of Tsallis hypoentropies and hypodivergences, in Entropy, 16(10) (2014), 5377-5399; DOI: 10.3390/e16105377
- Shigeru Furuichi, Flavia-Corina Mitroi, Mathematical inequalities for some divergences, in Physica A 391 (2012), pp. 388–400, DOI: 10.1016/j.physa.2011.07.052; ISSN 0378-4371
- Shigeru Furuichi, Nicușor Minculete, Flavia-Corina Mitroi, Some inequalities on generalized entropies, J. Inequal. Appl., 2012, 2012:226. DOI: 10.1186/1029-242X-2012-226
Collegamenti esterni
[modifica | modifica wikitesto]- Dettagli sui risultati teorici e sperimentali
- Tsallis Statistics, Statistical Mechanics for Non-extensive Systems and Long-Range Interactions
- Tomasz Maszczyk, Wlodzislaw Duch, Comparison of Shannon, Renyi and Tsallis Entropy used in Decision Trees, in Lecture Note in Computer Science, Vol. 5097 pagg. 643-651, anno 2008, Department of Informatics, Nicolaus Copernicus University, University Grudzi¸adzka 5, 87-100 Toru´n, Poland [1].