Archivo de la etiqueta: Investigación

On the algorithm of evolution and natural selection cumulative

Un algoritmo muy usado desde el punto de vista pedagógico para justificar el hecho que la selección natural es un proceso acumulativo y no al azar es el conocido algoritmo acumulativo. El ejemplo parte de usar un mazo de cartas en las cuales se escoge ordenar de forma ascendente uno de los palos de la baraja. Esta ordenación conformaría la aparición de un nuevo organismo vivo, el cual se formaría de manera progresiva. El algoritmo es el siguiente:

1. Barajar las cartas.
2. si la primera carta es un as, entonces remover de la baraja
3. sino repetir 1 y 2
4. para i en 1, 2, 3, 4, … del palo dada
5. si la primera carta coincide con i, entonces remover de la baraja y adosar en forma ascendente al nuevo organismo
6. sino barajar las cartas y repetir 5

Al cabo de pocos minutos se obtiene un palo ordenado de cartas separado del mazo.
Esto se puede usar para poder justificar:
1. La selección no es un proceso que ocurra al azar
2. La evolución por selección natural es un proceso acumulativo
3. Solo las mutaciones son procesos al azar

Ahora bien, la vida como la conocemos se funda en un código genético basado en cuatro aminoácidos, donde cada terna (con sentido) de la línea de DNA está asociada a un aminoácido componente de una proteína, azúcar etc. Entonces según el punto de vista anterior la vida y la evolución no es más que un mero hecho mecánico totalmente computable. En esencia no sería muy diferente el mecanismo de producción de un organismo vivo a un control de temperatura de un horno, reduciendo todo a un proceso mecánico y recursivo.

Será así? o está faltando algo? como es posible que un proceso mecánico como lo es la generación de un ser vivo posibilite la aparición de la mente humana? El complejo comportamiento animal, es explicable por la herencia y la selección natural? Si bien el ojo es perfectamente explicable por el mecanismo de selección acumulativa, ya que es un sensor físico, pongo en duda lo referente a la mente tanto humana como animal. Creo que es un reduccionísmo excesivo por parte de los biólogos evolucionistas.

Experimenting with Brownian fractional noises

He ensayado generar una serie de muestras a tiempo constante de 4096 realizaciones de ruido, es decir una serie de x_i(t=cte) con i=1..4096, tanto para ruido marrón, cuadrado del ruido marrón y su integral temporal. En todos los casos las muertas indica que su coeficiente de Hurst, obtenido por deternded fluctuation analysis (DFA), es H=1/2 y corresponde a la pendiente de las rectas de regresión de las curvas de la figura. Esto indica que el muestreo a tiempo constante repitiendo las realizaciones no coincide, desde el punto de vista del DFA, con su par en una serie temporal de iguales características. Pues El coeficiente de Hurst para una serie temporal con ruido marrón me da H=1,43 con un error de 0,01 y no coincide con el que produce un ensamble de muestras a tiempo constante. Sin embargo dentro del error sus densidades de probabilidades asociadas coinciden con lo que puedo suponer que el proceso es ergódico, pero desde el punto de vista del DFA resulta que no ocurre así. En si no tengo una explicación de lo que ocurre.

The universe is doubling every 402,755 years

En estos días estuve reflexionando sobre la expansión del universo desde en punto de la dilatación del espacio. Es decir, actualmente no se considera al fenómeno del Big-Bang como una mera explosión, sino como un fenómeno propio de la dilatación de la métrica o la escla de la medida del propio universo. Por simplicidad llamo a dicha escala e(t). Entonces en un dado instante una longitud estará caracterizada simepre por L=x*e(t) donde x=cantidad de veces que e(t) «entra» en L, ya que en si no es un número entero sino real. (Figura 1 arriba). Una peculariedad es que x es invariante aunque L no lo sea, pues toda la dilatación del espacio está en la escala. Entonces si e(t) es monótona creciente L(t1) > L(t2) con t1>t1. Ahora bien como nosotros estamos inmersos en esa dilatación también nos dilatamos, pero la razón relativa de L no cambia y solo depende de la magnitud x (formula 2).
Pero cuanto se dilata esa escala en el tiempo, es decir, si parto de la base de que el tiempo debe ser el mismo para toda medición de distancia entre espacios galileanos, puedo suponer a priori que el tiempo propio es invariante ante todos los observadores. Entonces el tiempo que uso para caracterizar esta velocidad no se ve afectado por ningún factor de escala. Entonces lo que busco es la derivada de/dt; Por otro lado la constante de Huble H=77 Km/s por Mega parsec, en un mega parsec entran 9,78*10^14 e(t) donde tomo e(t) igual a la unida de medida metro en el tiempo en el cuál se lo definió. Por lo que de/dt=7,8773*10^(-11) m/s. Si bien esta magnitud es pequeña, uno se puede preguntar cuanto tardaría en duplicarse e(t0)=1m (donde t0=tiempo inicial de definición de la unidad). Esto da como resultado que dentro de 402755 años e(402755+t0)=2*e(t0) aunque L(402755+t0)/L(t0)=1. Increíble no!.
Ahora bien bajo este punto de vista podría pensar que la velocidad de la luz es la mitad que hacer 402755 años, pero no es así pues para medirla uno usa una escala donde lo que no cambia son las proporciones, por eso la velocidad de la luz medida no se verá alterada por el efecto de expansión por parte de los observadores inmersos en el universo.

Simpson’s paradox and the reason everyday

En la canasta roja superior de la figura hay 5 bolas celestes y 6 rojas. En la otra canasta blanca de la misma fila hay 3 bolas celestes y 4 rojas. Entonces la probabilidad de sacar una bola celeste de la canasta roja es P(c)=5/11=0,454; en cambio de sacarla de la canasta blanca es P(c)=3/7=0,428.
Entonces evidentemente elegiría la canasta roja para sacar al azar una bola celeste ya que la suerte está más de mi lado.
Ahora en la segunda fila la probabilidad de sacar una bola celeste de la canasta roja es P(c)=6/9=0,67; en cambio de sacarla de la canasta blanca es P(c)=9/14=0,64.
Y de vuelta uno escogería la canasta roja para que el azar nos sea favorable. Pero que pasaría si coloco en otra canasta roja todas las bolas de las canastas rojas y hago lo mismo con el contenido de las canastas blancas, tercera fila.
El ambiguo sentido común cotidiano nos sugeriría por inducción empírica sacar la bola de la canasta roja de nuevo. Pero es correcta nuestra decisión?
Veamos, la probabilidad de sacar una bola celeste será ahora P(c)=11/20=0,55 para la roja y P(c)=12/21=0,57 para la blanca… ups! nuestro sentido común nos ha traicionado? en realidad lo que a uno le traiciona es la inducción empírica de la vida cotidiana.

Integrate brown noise

Como se puede apreciar el espectro en color verde corresponde al ruido marrón, el cual tiene una pendiente en el gráfico log-log de 1/f^2 (recta púrpura), en cambio su integración hecha por un filtro IIR de primer orden da como resultado un ruido cuya pendiente es 1/f^4 (recta azul). Como se predijo en el resumen teórico anterior.

On Fluorescence Correlation Spectroscopy fitting using Genetic Algorithm

He experimentado un algoritmo alternativo al dado por el programa comercial llamado Vista, el cual usa algoritmos genéticos para ajustar la curva de autocorrelación (fórmula 1) en el supuesto de difusión libre. Los resultados hallados se encuentran en la Tabla 1. Como se puede apreciar en la figura el ajuste es más que satisfactorio, la curva en verde es el ajuste hecho con algoritmos genéticos y las «+» son los datos vertidos por el equipo.
Los alelos están constituidos por tres genes que corresponden a los parámetros a averiguar: G(0), tau_d y r_0/z_0.
El equipo usado para hacer las mediciones fue un microscopio confocal TCS SP2 AOBS Leica exitado con un láser al 51% de su capacidad en en rojo 543 nm. El objetivo fue de 60x/1,2 NA.

Fitting Curve using Genetic Algorithms

Aquí presento (figura superior medio borrosa) el uso de un algoritmo genético para el ajuste de curvas dadas en dos arreglos reales X[] y Y[]. La condición de selección viene dada por verificar la proposición de mínimo sobre la salud. En cada cruza se efectúa una operación de mutación probabilística. Aunque no figura en el código, está implícita en la operación de cruza «+» . A diferencia de los algoritmos clásicos acá se sustituye uno y no el par. Aún así la convergencia está garantizada.
La salud de un fenotipo de la población se la calcula por medio del desvio cuadrático de datos.

La Paradoja de Ross-Littlewood

El planteo del problema es el siguiente (ver figura) o ver post anterior. Tengo dos urnas que tienen capacidad ilimitada de almacenamiento de bolitas, en una hay un número infinito (alef cero) de bolitas numeradas en 1, 2, 3, 4, 5, …. en otra está vacía, y tengo un reloj que marca las 11hs. Tengo un lapso de tiempo de una hora para pasar las bolitas de una urna a la otra de la siguiente manera.

  1. A las 11hs saco la bolita enumerada con 1 a 10 y las coloco en la urna vacía, de estas saco la numero 1. Con lo cual habrá 9 bolitas.
  2. A las 11hs 30minutos saco otras 10 bolitas enumeradas de 11 a 20 y las coloco en la urna anterior y saco ahora la bolita 2; con lo cual en la urna están las bolitas enumeradas desde el 3 al 20
  3. A las 11:45 saco 10 enumeradas de 21 a 30 y saco la 3
  4. A las 11:52,5 saco 10 enumeradas de 31 a 40 y saco la 4
Es decir me aproximo a las 12 sacando en la mitad del tiempo restante 10 bolitas de la urna infinita, las coloco en la otra y saco de esa aquella numerada por el evento. Entonces se asegura que al llegar a las 12hs en número de bolitas que habrá en la urna que pretendo llenar (F(N))es cero al igual que en la otra urna estando todas (un alef cero) las bolitas afuera de ambas.
Ahora bien si uno pretende demostrarlo por la propiedad ordinal de los números naturales (formula-1 de la figura), llegaría a un dilema donde no podría decidir si la urna está vacía o llena, pues la cantidad de bolitas que tengo dentro de la urna es siempre 9*N en cambio las que tengo afuera es N. Y si uno lo gráfica dará rectas que nunca se tocan. Pero por otro lado siempre habrá un momento que saque todas las 9*N bolitas que puse.
La solución a las paradojas del infinito es usar la propiedad cardinal de los naturales. En lugar de preocuparme por cuantas bolitas van quedando, asumo que quiero demostrar que está vacía la urna, por lo tanto de la formula-2 uno suma ceros infinita veces. Por otro lado enumero las bolitas y defino dos operaciones:
  • sumar = agregar bolitas a la urna
  • restar = sacar bolitas de la urna
Entonces esos ceros los puedo pensar como operaciones consecutivas de poner y sacar bolitas, formula-3 , como dichas operaciones son asociativas (no puedo conmuta sacar con poner, pero si poner entre bolitas y lo mismo que sacar), lo asocio de manera tal de obtener otro mecanismo equivalente, el dado por la formal-4 que representa al caso que se estaba planteando. Lego es trivial darse cuenta que la urna estará vacía cuando saque el alef-cero de bolitas de la urna llena.
Nota: Acá se pierde la noción de límite al infinito, pues esta usa la propiedad ordinal y como vimos se llega a una paradoja.

Leslie Matrix and Polulation Growth.

La matriz de Leslie es un modelo discreto y edad-estructurado de crecimiento poblacional muy popular en la ecología. Fue inventada por P.H. Leslie. Las matrices de Leslie (también conocido como Modelo de Leslie) es una de las mejores conocidas maneras para describir el crecimiento poblacional y su distribución por edades proyectada, donde sólo es tenido en cuenta el sexo femenino.
La matriz de Leslie se utiliza para modelar los cambios en una población de organismos en un período de tiempo. En un modelo Leslie, la población se divide en grupos, ya sea basado en clases de edad o etapa de la vida. En cada paso del tiempo la población está representada por un vector con un elemento para cada clase de edades donde cada elemento indica el número de individuos presentes en dicha categoría.
La matriz de Leslie (L)es una matriz cuadrada en cambio la población tiene elementos vectoriales (N). El (i, j) ª elemento en la matriz indica el número de individuos estan en la clase de edad i en el próximo paso del tiempo para cada individuo en la etapa actual j. En cada paso del tiempo, la población de vectores se multiplica por la matriz de Leslie para generar la población de vectores para la siguiente generación temporal.
Esto puede ser escrito como; N(t+1)=L N(t); dónde N(t) es la población vectorial en el tiempo t y L es la matriz de Leslie. El modelo de Leslie es muy similar a un tiempo discreto la cadena de Markov. La principal diferencia es que en un modelo de Markov, uno tendría f_x + s_x = 1 para cada x, mientras que el modelo Leslie pueden ser estas sumas mayor o menor que uno.

Para construir una matriz de Leslie, alguna información debe ser conocida, esta es:

  • n_x, el número de individuos en cada clase de edad x.
  • s_x, la fracción de individuos que sobrevive dede la x a la edad x +1.
  • f _x, la fecundidad, el per cápita promedio de las hembras descendientes de n_1 nacidas de las madres de edad x.

The Lempel-Ziv Complexity Measure.

El análisis de la complejidad de Lempel-Ziv está basado en la transformación de la señal a analizar en una secuencia de símbolos. Esta secuencia S[i] se examina de izquierda a derecha. Un contador de complejidad c(n) se incrementa en una unidad cada vez que se encuentra una nueva subsecuencia de símbolos consecutivos. Dicha cuenta refleja la tasa de aparición de nuevos patrones a lo largo de la secuencia. c(n) es la medida de la complejidad de Lempel-Ziv de una señal. Tiene como cota superior a n/log_a(n) donde a es el numero de símbolos diferentes.

Dos son las formas usuales de codificación o de generación de secuencias.

  1. Conversión Binaria: en este caso se define como valor umbral a la mediana (no el promedio) M. Entonces si el valor de la señal es mayor o igual a M se le asigna 1 un sino se le asigna un 0. En este caso a=2.
  2. Conversión Ternaria: en este caso se usan tres valores, el máximo absoluto de la señal, Xmax; el mínimo absoluto Xmin; y la mediana M. Luego se definen dos umbrales, T1=M+abs(Xmax)/16 y T2=M-abs(Xmin)/16. Entonces si el valor de la señal es menor a T1 se le asina 0, si es mayor a T2 se le asigna 2, de otra forma se le asigna 1. En este caso a=3.
En la figura se puede apreciar el pseudo código del algoritmo de Lempel-Ziv modificado por Hongxuan et al.