Archivo de la etiqueta: Divulgación

Caley-Klein-Hilbert’s Metric

De blog2
Un tipo de geometría no euclidiana es conocida como Lobachevsky-Bolyai. Esta posee curvatura constante -1 y satisface 4 de los 5 postulados de Euclides. El quito postulado: Por un punto exterior (P) a una recta (r), se puede trazar una única paralela a la recta dada es falso pues siempre hay al menos dos rectas distintas que pasan por P y las cuales no intersectan a r. Esto tiene como consecuencia varias propiedades de la cuales las más destacables son:
  1. La suma de los ángulos interiores de un triángulo es siempre menor a Pi (1).
  2. Todos los triángulos que tienen los mismos ángulos tienen la misma área.
  3. No existen triángulos semejantes en geometría hiperbólica.
Un ejemplo de esta geometría son las esferas espacio temporales del espacio de Minkowsky de signatura (-1,1). La geometría hiperbólica está muy estudiada en 2D pero desconocida en sus propiedades para 3D y el O(1,3).
Para 2D sobre el disco de Poincarè se puede definir la función distancia a (2). En función de esto las componentes del tensor métrico (simétrico) son las dadas en (3). Al existir tensor métrico la derivada covariante debe ser simétrica.

Scattering Matrix or S-Matrix in quantum field theory

De blog2
En física de partículas la matriz de scatering o matriz-S relaciona los estados iniciales y finales cuando interviene la interacción entre partículas. Es usada en principalmente en mecánica cuántica y teoría de cuántica de campos. Más formalmente la matriz-S es definida como el operador que conecta el los estados asintóticos iniciales (los cuales se suponen partículas libres) con los estados asintóticos finales (también partículas libres) posteriores a una interacción cuya sección eficaz sea limitada. Acto contrario la matriz-S poseerá divergencias que deben eliminarse por varios métodos.

Acá daré una introducción muy básica sobre el tema. En la ecuación de Schrodinger (1) el operador Hamiltoniano del sistema está compuesto por dos términos; uno correspondiente a partícula libre H_0 y otro que corresponde a la interacciones H_1. Luego H=H_0+H_1, para resolver este tipo de problema es menester usar teoría de perturbaciones pues hallar la solución exacta de (1) no hay métodos que permitan hallarla. Amén de suponer que las interacciones son débiles, lo que garantiza la convergencia de método perturbativo. Se supone que (2) posee solución exacta. Esta la podemos escribir como (3), donde Phi(t) es el vector de estado obtenido por segunda cuantificación, luego la ecuación de Schrodinger escrita en representación interacción sera (4) donde aparece H_1(t) que corresponde al valor medio espacial del operador Hamiltoniano de interacción. Luego la conexión entre estados finales e iniciales es (5) donde S es la matriz-S solucionando (4) por métodos inductivos se halla una forma de la matriz-S (6) el cual es un operador unitario (7).

Sistemas Inmunes Artificiales

En ciencias de la computación, sistemas inmunes artificiales (AIS) ó Artificial Immune System en inglés, son sistemas de computación inspirados en los principios y procesos del sistema inmunológico en vertebrados. Los algoritmos se basan en las características de aprendizaje y la memoria para resolver un problema del sistema inmunológico. Cuando se enuncia un AIS se refiere a la abstracción en la estructura y función del sistema inmune aplicada a los sistemas computacionales, y la aplicación de estos sistemas hacia la solución de problemas computacionales de la matemática, la ingeniería y la tecnología de la información. AIS es un sub-campo de la inteligencia artificial, biológicamente inspirados en la informática y computación natural, con intereses en Machine Learning.

En si, los AIS son sistemas adaptativos, inspirados en inmunología teórica y funciones inmunológicas observadas basadas en principios y modelos que se aplican a la solución de problemas.

AIS es diferente de la inmunología computacional y la biología teórica que se ocupan de la inmunología utilizando la simulación por el uso de modelos matemáticos y computacionales para la mejor comprensión del sistema inmunitario, aunque estos modelos han iniciado el campo de la AIS y siguen siendo un terreno fértil para la inspiración. Además, en el ámbito de la AIS no se refiere a la investigación del sistema inmunológico como un sustrato de la computación, tales como la informática del ADN. El común de las técnicas se han inspirado en las teorías inmunológicas específicos que explican el funcionamiento y el comportamiento de la capacidad de adaptación del sistema inmune en mamíferos. Estos se basan en tres item fundamentales los cuales son:

  • Algoritmo de selección clonal: Una clase de algoritmos inspirados en la selección clonal basada en la teoría de la inmunidad adquirida que explica cómo linfocitos B y T mejoran su respuesta a los antígenos en el tiempo llamado afinidad maduración. Estos algoritmos se centran en atributos darwinianos de la teoría de selección que se basa en la afinidad de la interacción antígeno-anticuerpo, la reproducción se basa en la división celular, y la variación se basa en hypermutation somáticas. Los algoritmos de selección clonal son más comúnmente usados en la optimización y el reconocimiento de los dominios, algunos de los cuales se asemejan a algoritmos genéticos sin el operador de recombinación.
  • Algoritmo de selección negativa: Fundamentados en los aspectos positivos y negativos de los procesos de selección que se producen durante la maduración de las células T en el timo. La selección negativa se refiere a la identificación y eliminación (apoptosis) de las células pueden causar efectos de sindromes auto-inmunes. Esta clase de algoritmos se utilizan normalmente para la clasificación y reconocimiento de patrones. Por ejemplo, en el caso de una anomalía de detección dominio el algoritmo prepara un conjunto de detectores entrenados en patrones normales (no anómalo) patrones de ese modelo y detectan anomalías o patrones invisibles.
  • Red inmune de algoritmos: Algoritmos basados en la red idiotypic teoría propuesta por Niels Kaj Jerne que describe la regulación del sistema inmune por anticuerpos anti-idiotypic (anticuerpos que se seleccionan para otros anticuerpos). Esta clase de algoritmos se centran en la red de estructuras que participan donde los anticuerpos (o células productoras de anticuerpos) representan los nodos y el algoritmo de adiestramiento consiste en efectuar la poda de los bordes entre los nodos basados en la afinidad. La red Inmune algoritmos se ha utilizado en la agrupación, la visualización de datos, control y optimización de los dominios y propiedades compartidas con redes neuronales artificiales.

Constant motion in a Manyfold

Sea la variedad M y una correspondencia F1 de una carta local de M al sistema euclideo S1 (real de 4 dimensiones). Entonces, uno puede representar el movimiento del móvil M1 en S1 y supongamos que es una recta. Lo mismo puedo hacer para M2 en S2. Entonces uno dice que el móvil M2 se mueve con movimiento uniforme respecto de M1 en la variedad M, si en sus representaciones euclideas existe una transformada de Galileo entre móviles. Es decir si F1(F2^(-1)):M es una transformada de Galileo.

Simpson’s paradox and the reason everyday

En la canasta roja superior de la figura hay 5 bolas celestes y 6 rojas. En la otra canasta blanca de la misma fila hay 3 bolas celestes y 4 rojas. Entonces la probabilidad de sacar una bola celeste de la canasta roja es P(c)=5/11=0,454; en cambio de sacarla de la canasta blanca es P(c)=3/7=0,428.
Entonces evidentemente elegiría la canasta roja para sacar al azar una bola celeste ya que la suerte está más de mi lado.
Ahora en la segunda fila la probabilidad de sacar una bola celeste de la canasta roja es P(c)=6/9=0,67; en cambio de sacarla de la canasta blanca es P(c)=9/14=0,64.
Y de vuelta uno escogería la canasta roja para que el azar nos sea favorable. Pero que pasaría si coloco en otra canasta roja todas las bolas de las canastas rojas y hago lo mismo con el contenido de las canastas blancas, tercera fila.
El ambiguo sentido común cotidiano nos sugeriría por inducción empírica sacar la bola de la canasta roja de nuevo. Pero es correcta nuestra decisión?
Veamos, la probabilidad de sacar una bola celeste será ahora P(c)=11/20=0,55 para la roja y P(c)=12/21=0,57 para la blanca… ups! nuestro sentido común nos ha traicionado? en realidad lo que a uno le traiciona es la inducción empírica de la vida cotidiana.

Matraca Browniana (Browian Ratchet)

La matraca browniana (MB) es un experimento ideal sobre un aparato que aparentemente viola la segunda ley de la termodinámica, la cual enuncia: Es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito) y la conversión de toda ésta energía en forma de calor en trabajo. Esta máquina fue ideada por Richar Feyman el 11 de Mayo de 1962 como se aprecia en la figura. Esta consiste de una paleta inmersa en un gas a temperatura T1 unida por un eje a una matraca, compuesta de un engranaje asimétrico y un gatillo, inmerso a temperatura T2; cuyo único fin es levantar una masa, m, en contra de la gravedad. Todo esto simula ser un ejemplo de una implementación práctica del demonio de Maxwell.
El dispositivo solo puede girar en un sentido gracias a la acción del gatillo y el engranaje asimétrico. Si se asume que no existe rozamientos, las moléculas del gas a temperatura T1 golpean en un choque plástico en el sentido del giro permitido, en cambio el choque es elástico en el sentido prohibido de giro. Por lo tanto la energía cinética media del gas disminuye bajando gradualmente su temperatura y elevando la masa m en contra de la gravedad.
Feyman mostró que si T1 es menor o igual a T2 esta máquina no puede funcionar cuando el número de moléculas es grande. En cambio si puede funcionar cuando T1 es mayor a T2. Pero en este caso no se violaría la segunda ley.
Estas ideas dieron impulso a los motores Brownianos y su aplicación en biología.

Finite Impulse Response and Infinte Impulse Response Filter.

La serie temporal adquirida desde un experimento es frecuentemente filtrada. En algunos casos, el filtrado los realiza el mismo adquisidor de datos, en otros el mismo experimentador realiza el filtrado por medio de programas dedicados. En cualquier caso se debe tener cuidado al filtrar la serie temporal, pues el filtrado puede modificar la dinámica que a uno le interesa hallar.
Sea la serie temporal de datos {x_i} con i=1 a N tan grande como se requiera, luego un filtro FIR «Finite Impulse Response», se lo puede modelar con la ecuación (1), donde el coeficiente es menor que la unidad. La razón de este nombre se debe a la respuesta del filtro a la señal impulsiva x_i={1, 0, 0, …} que estará compuesta por una secuencia finita de términos z_i no nulos. En el caso de tender L a infinito se obtiene un IIR «Infinte Impulse Response», se lo puede modelar con la ecuación (2), donde el coeficiente es menor que la unidad. Esta es una versión discreta de un filtro RC pasa bajos. Badii y Politi en 1986 mostraron que el filtrado IIR cambia la dimensión de correlación observada de un atractor, cosa no deseable, en cambio para el filtro FIR existe un teorema matemático que muestra que este filtrado no modifica la dimensión de correlación del atractor observado, siempre y cuando el espacio de reconstrucción o de «embeding» tenga dimensión mayor a la dimensión de correlación del atractor.
El promedio acumulado (3) es un caso particular de una generalización de un filtro FIR lineal. Es de gran utilidad en series temporales para eliminar ruidos numéricos o de rendondeo, pero no es efectivo cunado se quiere eliminar ruido de datos.
Por otro lado los filtros IIR son de utilidad para crear filtros paso de banda numéricos en series temporales donde no interesa el comportamiento caótico del sistema.
La mayor generalización de un filtro FIR es la SVD «Singular Value Decomposition» donde el valor de los coeficientes del polinómio de filtrado se los escoge de forma tal de minimizar la varianza de datos.

Sinergia y Conglomerados.

H.J. Ansoff, en su libro Corporate Strategy (1965), dedica todo un capítulo al problema de la sinergia, tratándola como uno de los factores que deben ser tomados en cuanta para un método de decisión estratégica y la describe como una medida de los efectos unidos, identificándola con el efecto:2 + 2 = 5. Con la ayuda de símbolos matemáticos simples, Ansoff busca el significado, desde el punto de vista de administración, del concepto de sinergia.
Algunas acertividades básicas son:
  • Se dice que existe sinergia cuando la suma de las partes es diferente del todo.
  • Un objeto posee sinergia cuando el examen de una o alguna de sus partes (incluso a cada una de sus partes) en forma aislada, no puede explicar o predecir la conducta del todo.
En general, a la totalidades desprovistas de sinergia se conoce como conglomerados. Los conglomerados es un conjunto de objetos de los cuales abstraemos ciertas características, eliminamos aquellos factores ajenos al estudio y luego observamos el comportamineto de las variables que nos interesan, en donde las posibles relaciones que entre ellos se desarrollan no afectan la conducta de cada una de las partes y es la base del reducionismo. Al conocer que existen objetos que tienen sinergia, es factible eliminar como herremienta de análisis el sistema reduccionista como método de estudio y usar la Teoría General de Sistemas. Terminología atribuída al biólogo austriaco Ludwig von Bertalanffy, quien acuñó la denominación a mediados del siglo XX.

Se puede decir que la palabra sinergia proviene del griego y su traducción literal sería cooperación; no obstante (según la Real Academia Española) se refiere a la acción de dos (o más) causas cuyo efecto es superior a la suma de los efectos individuales.

Levenshtein distance

La distancia de Levenshtein es un algoritmo tal que dadas dos cadenas, devuelve un entero que da una idea de la distancia (o parecido) entre ellas. Este entero se calcula contando las transformaciones que es necesario hacer sobre una de estas cadenas para obtener la otra. Estas posibles tranformaciones son:
  1. Borrado de un carácter.
  2. Inserción de un carácter.
  3. Substitución de un carácter por otro.
Por ejemplo, la distancia entre «HOLA» y «TROLA» es 2, ya que hay que hacer 2 operaciones sobre la palabra «HOLA» para obtener «TROLA»: substituir la H por una R e insertar una T. Cuanto más corta es la distancia entre las dos cadenas, más parecidas son. Si la distancia es 0, las dos palabras son iguales.
Es útil en programas que determinan cuán similares son dos cadenas de caracteres, como es el caso de los correctores de ortografía. Se le considera una generalización de la distancia de Hamming, que se usa para cadenas de la misma longitud y que solo considera como operación la substitución.

GraVaStar, una idea coherente pero poco «peiperista».

En astrofísica, la teoría de los Gravastar es una propuesta de Pawel Mazur y Emil Mottola para reemplazar a la de los agujeros negros. En vez de una estrella colapsándose en un punto del espacio con una gravedad virtualmente infinita, la teoría de los gravastar propone que, cuando un objeto colapsa gravitacionalmente, el propio espacio llega a una transición de fase que evita más colapsamiento. La teoría ha generado poco interés entre los astrofísicos. Fue el título de una conferencia, pero no de un artículo científico. La falta de interés viene del hecho de que el concepto requiere que uno acepte una teoría muy especulativa acerca de la cuantización de la gravedad. El origen del nombre gravastar son las palabras inglesas GRAvitational VAcuum STAR (estrella gravitacional de vacío).
Mazur y Mottola han sugerido que los gravastares podrían ser la solución a la paradoja de la información en los agujeros negros y que el gravastar podría ser una fuente de estallidos gamma (BRG), añadiendo una más a las docenas, si no cientos de ideas que han sido propuesta como causa de los BRG.
Externamente, un gravastar parece similar a un agujero negro: es visible sólo por las emisiones de alta energía que crea al consumir materia. Los astrónomos observan el cielo buscando rayos X emitidos por la materia que absorben para detectar los agujeros negros, y un gravastar produciría una señal idéntica. Dentro de un gravastar, el espacio-tiempo estaría totalmente detenido por las condiciones extremas existentes allí, produciendo una fuerza hacia el exterior. Alrededor de este vacío habría una «burbuja» en la cual el espacio en sí se comportaría como un bloque de materia. La idea de un comportamiento tal del espacio puede compararse con una forma extrema del condensado de Bose-Einstein de gravitones, en el cual toda la materia (protones, neutrones, electrones, etc.) se convierte en lo que se llama un estado cuántico creando un «súper-átomo».