Archivo de la etiqueta: Tsallis

Advantages and disadvantages of Tsallis statistics

Como dijese Hypatia de Alejandría: La pereza del círculo nos ha impedido ver más allá. El círculo es una elipse muy especial, cuyos focos se han confundido en uno solo. En este caso tal vez la pereza de la mecánica estadística de Boltzmann no deja ver más allá. Pero en este caso me temo que la estadística de Tsallis es la visión de Aristarco de Samos y no de Hypatia o Keppler. Pues al igual que Aristarco no quiere renunciar a la pereza del círculo. 
En este caso comparo las estadísticas de Boltzman y la de Tsallis desde un punto de vista más completo, pues la definición de entropía requiere la existencia de un sigma álgebra de conjuntos, donde la entropía es una medida sobre estos. 
en el primer caso analizo la entropía de Boltzmann bajo el sigma álgebra de Borel, para el caso de un ensamble micro-canónico de sistemas idénticos. Esta tiene la propiedad de ser extensiva (3) y recurrente (4), en cambio la entropía de Tsallis falla en este tipo de contexto (5). En cambio si se usa una sigma-q álgebra, bajo el producto-q (6) se obtiene los mismos resultados que antes (7), (8), (9). Pero si se mezcla contextos en una aproximación asintótica (9′) luego de (10) se encuentra que dicha aproximación es consistente con la teoría solamente en el caso de un q-con-sentido, que no se conoce a priori y que da una carga adicional de incertidumbre en la teoría (11). Esto no ocurre con la teoría de Boltzmann. Pues la mezcla de contexto que genera la aproximaciones asintóticas no incrementan la incertidumbre de la teoría.

Tallis’ statistical mechanics and thermodynamics

De blog2
En esta entrega coloco una de las termodinámicas más exitosas como reemplazo de la formulada por Boltzmann y corresponde a la termodinámica de Tsallis. Ambas parten de una definición microscópica de entropía, la cual se extrema sujeta a condiciones o vínculos por medio de la técnica de los multiplicadores de Langrange. En 1,2,3 se puede ver un ejemplo de parámetros macroscópicos obtenidos al usar la función de partición Z_q. Tsallis elaboró una simplificación de notación al inventar el ln_q(), esto permite una forma más práctica de generar extensiones formales a su formulación a partir de la termodinámica de Boltzmann.

Tsallis and Shannon entropy

De blog2
En este post hablo sobre el concepto de entropía. Desde un punto de vista formal que cosa podemos llamar entropía? Que debe cumplir? Bueno las condiciones mínimas de suficiencia formuladas por varios autores en el tema viene dada por los ítem 1 a 3. Esto permitió descartar varios intentos de extender la formulación de entropía hecha por Boltzman, entre la cual aparece una definición muy conocidos en teoría de fractales como lo es la entropía de Renyi. En cambio las definiciones de Shannon, Tsallis y Kolmogorov pueden llamarse entropías. Este no es un resultado menor ya que las teorías termodinámicas asociadas son diferentes aunque convergentes todas a los mismos casos extremos.
Nota: {p_i} representa a distribución de probabilidades asociada a un sigma álgebra {A_i}.

Jackson’s q-derivative and quantum derivative

De blog2
La derivada de Jackson (1) fue formulada en 1909 para ser aplicada en matemática finita. Luego se pudo hacer una extensión formal para ser usada en cuántica especialmente en situaciones donde el continuo es de dudosa validez y se toma como unidades básicas la distancia de Plank, el tiempo de Plank, etc. Este converge a la derivada clásica cuando h tiende a cero (aproximación clásica). Otro uso es en la entropía de Tsallis (3), una extensión formal de la entropía de Shannon para termodinámicas no extensivas.

Pingueo a Francia. Un contra ejemplo a la q-exponencial?

Motivado por el trabajo publicado por Sumiyoshi Abe et al. titulado Interaction of the internet over nonequilibrium stationary stat in Tsallis statitics, aparecido en Phy. Rev. E, 67 016106 (2003). Me dediqué a repetir los experimentos para ver si obtenía una q-exponencial en la distribución cumulativa (cdf en inglés). Para ello construí el siguiente script bash para tomar a cada intervalo de un minuto una prueba ping sobre yahoo-francia (aunque lo verifiqué con muchos otros sitios).

——————————————————————-
#!/bin/sh
A=ping4br.dat
B=ping4jp.dat
C=ping4fr.dat
cat /dev/null >$A
cat /dev/null >$B
cat /dev/null >$C
for i in `seq 4096`
do
#date >> $A
ping -c2 www.yahoo.com.br >>$A
ping -c2 www.yahoo.co.jp >>$B
ping -c2 www.yahoo.fr >> $C
sleep 1m
done
——————————————————————————-

Luego por medio del siguiente comando hayaba la información útil:

cat ping4fr.dat |grep «^rtt»|awk ‘BEGIN{FS=»/»}{print $5}’ >q4fr

La cual era una serie temporal donde la variable aleatoria era el intervalo de respuesta o sparseness time interval en inglés. Por supuesto tuve que verificar que dicha serie de tiempos fuese estacionaria, es decir que existía una única medida invariante de la probabilidad. Lo mas curioso es que no reproduje en ninguno de mis ensayos los resultados de Abe, sino que por el contrario me dio otro tipo de función.