The Gromov-Hasudorff distance and shape analysis

De blog2
Uno de los desafíos de la computación visual y análisis de formas es el reconocimiento de objetos. Esto es muy difícil distinguir cuando miles de imágenes pertenecen a un mismo objeto, como se aprecia en la figura-1, un mismo objeto (la mujer) puede tener un sin número de variantes (posiciones yogas) y siempre se refieren al mismo objeto. Uno de los intentos fue apelar a la topología y especialmente a la distancia de Hausdorff (3) entre conjuntos de abiertos pertenecientes a una topología inducida por la imagen. El principal problema de este intento es la complejidad computacional que representa armar un código de reconocimiento de imágenes usando esta distancia.
Una de las alternativas más exitosas fue la extensión formal hecha por Mikhail Gromov (4) o en su forma equivalente (4.1), pues él se dio cuenta que toda variante de un mismo objeto era una isometría de conjunto entre geodésicas.
Los resultados mejoran mucho si se usa la distancia difusa (5) entre variantes de un mismo objeto para usar como función distancia en (4.1) a la hora de definir la distancia de Gromov-Hausdorff. Con esta variante se si bien se elimina el determinismo en los análisis da algo más próximo a la visión humana, pues nuestro cerebro iluciona certezas de estimadores de imágenes.

Tallis’ statistical mechanics and thermodynamics

De blog2
En esta entrega coloco una de las termodinámicas más exitosas como reemplazo de la formulada por Boltzmann y corresponde a la termodinámica de Tsallis. Ambas parten de una definición microscópica de entropía, la cual se extrema sujeta a condiciones o vínculos por medio de la técnica de los multiplicadores de Langrange. En 1,2,3 se puede ver un ejemplo de parámetros macroscópicos obtenidos al usar la función de partición Z_q. Tsallis elaboró una simplificación de notación al inventar el ln_q(), esto permite una forma más práctica de generar extensiones formales a su formulación a partir de la termodinámica de Boltzmann.

Tsallis and Shannon entropy

De blog2
En este post hablo sobre el concepto de entropía. Desde un punto de vista formal que cosa podemos llamar entropía? Que debe cumplir? Bueno las condiciones mínimas de suficiencia formuladas por varios autores en el tema viene dada por los ítem 1 a 3. Esto permitió descartar varios intentos de extender la formulación de entropía hecha por Boltzman, entre la cual aparece una definición muy conocidos en teoría de fractales como lo es la entropía de Renyi. En cambio las definiciones de Shannon, Tsallis y Kolmogorov pueden llamarse entropías. Este no es un resultado menor ya que las teorías termodinámicas asociadas son diferentes aunque convergentes todas a los mismos casos extremos.
Nota: {p_i} representa a distribución de probabilidades asociada a un sigma álgebra {A_i}.

Jackson’s q-derivative and quantum derivative

De blog2
La derivada de Jackson (1) fue formulada en 1909 para ser aplicada en matemática finita. Luego se pudo hacer una extensión formal para ser usada en cuántica especialmente en situaciones donde el continuo es de dudosa validez y se toma como unidades básicas la distancia de Plank, el tiempo de Plank, etc. Este converge a la derivada clásica cuando h tiende a cero (aproximación clásica). Otro uso es en la entropía de Tsallis (3), una extensión formal de la entropía de Shannon para termodinámicas no extensivas.

Notes on Minkowski’s space

De blog2
Aquí comento sobre el espacio de Minkowski y su aplicación el física. Especialmente en mecánica relativista de partículas. Todo esto está en un espacio donde vale la geometría Euclídea. Cabe observar las dos propiedades (2.c) y (2.m) que indican el cararcter espcial que tiene la cuadrivelocidad y el cuadrimomento. Es decir en el espacio de Minkowski una partícula se mueve siempre en una esfera de 4 dimensiones (desde el punto de las velocidades), cuya proyección es la trayectoria que vemos en nuestra realidad. Este comportamiento causa la aparición de una ley de conservación intrínseca definida en (4).

Dynamical systems (VI) Lyapunov Function

De blog2
En esta entrega hablo sobre la función de Lyapunov usada tanto en los fenómenos expansivos o decidibles como en la estabilidad local de sistemas dinámicos continuos. Sobre estabilidad hay mucho escrito pero respecto del concepto de decibilidad de un sistema dinámico poco y nada. Esto puede dar una pauta de cuando un sistema deja de ser algorítmico para ser decidible por exclusión en este caso.

Dynamical systems (V) chaotic phenomena

De blog2
En esta dirijo la divulgación a lo que se entiende por caos desde un punto de vista cuantitativo mas que cualitativo. Este teorema define una condición de suficiencia pero no necesaria para la existencia de fenómenos caóticos. Un hecho importante es que estos fenómenos no pueden ser computables por ser mixing. Entonces el que decide en este caso es el hombre. Otro detalle que se desprende de (s.5) es que estos fenómenos son recurrentes según Poincaré.