Archivo de la etiqueta: información

Fitting Curve using Genetic Algorithms

Aquí presento (figura superior medio borrosa) el uso de un algoritmo genético para el ajuste de curvas dadas en dos arreglos reales X[] y Y[]. La condición de selección viene dada por verificar la proposición de mínimo sobre la salud. En cada cruza se efectúa una operación de mutación probabilística. Aunque no figura en el código, está implícita en la operación de cruza «+» . A diferencia de los algoritmos clásicos acá se sustituye uno y no el par. Aún así la convergencia está garantizada.
La salud de un fenotipo de la población se la calcula por medio del desvio cuadrático de datos.

Finite Impulse Response and Infinte Impulse Response Filter.

La serie temporal adquirida desde un experimento es frecuentemente filtrada. En algunos casos, el filtrado los realiza el mismo adquisidor de datos, en otros el mismo experimentador realiza el filtrado por medio de programas dedicados. En cualquier caso se debe tener cuidado al filtrar la serie temporal, pues el filtrado puede modificar la dinámica que a uno le interesa hallar.
Sea la serie temporal de datos {x_i} con i=1 a N tan grande como se requiera, luego un filtro FIR «Finite Impulse Response», se lo puede modelar con la ecuación (1), donde el coeficiente es menor que la unidad. La razón de este nombre se debe a la respuesta del filtro a la señal impulsiva x_i={1, 0, 0, …} que estará compuesta por una secuencia finita de términos z_i no nulos. En el caso de tender L a infinito se obtiene un IIR «Infinte Impulse Response», se lo puede modelar con la ecuación (2), donde el coeficiente es menor que la unidad. Esta es una versión discreta de un filtro RC pasa bajos. Badii y Politi en 1986 mostraron que el filtrado IIR cambia la dimensión de correlación observada de un atractor, cosa no deseable, en cambio para el filtro FIR existe un teorema matemático que muestra que este filtrado no modifica la dimensión de correlación del atractor observado, siempre y cuando el espacio de reconstrucción o de «embeding» tenga dimensión mayor a la dimensión de correlación del atractor.
El promedio acumulado (3) es un caso particular de una generalización de un filtro FIR lineal. Es de gran utilidad en series temporales para eliminar ruidos numéricos o de rendondeo, pero no es efectivo cunado se quiere eliminar ruido de datos.
Por otro lado los filtros IIR son de utilidad para crear filtros paso de banda numéricos en series temporales donde no interesa el comportamiento caótico del sistema.
La mayor generalización de un filtro FIR es la SVD «Singular Value Decomposition» donde el valor de los coeficientes del polinómio de filtrado se los escoge de forma tal de minimizar la varianza de datos.

Regresión Logistica

En estadísticas, regresión logística es un modelo utilizado para la predicción de probabilidad de ocurrencia de un evento con el uso de variables aleatorias divididas en categorías. Por ejemplo, la probabilidad de que una persona tenga un ataque al corazón en un determinado período de tiempo puede ser predicho a partir del conocimiento de la edad, del sexo y el índice de masa corporal. El análisis de regresión logística se utiliza ampliamente en medicina, las ciencias sociales, y en aplicaciones de marketing. La regresión logística es una clase de modelo conocido como modelo lineal generalizado.
La expresión matemática de la distribución de probabilidades logística (ddpl)es dada en (1) donde la «entrada» es x y la «salida» es p(z). La ddpl puede tomar como un aporte cualquier valor infinito negativo a positivo infinito como entrada, mientras que la salida se limita a valores entre 0 y 1. La función z(x) representa la exposición a algún conjunto de factores de riesgo, mientras que p(z) representa la probabilidad de que ocurra un resultado particular, habida cuenta de ese conjunto de factores de riesgo dados. La función z(x) es una medida de la contribución total de todos los factores de riesgo utilizados en el modelo y es conocida como el logit(x) ver (2) donde los coeficientes pueden ser estimados por regresión polinómica. También se conoce a logit(x) como odd(x) muy usado en meta-análisis.
La regresión logística analiza datos distribuidos binomialmente de la forma (3) donde los números de ensayos Bernoulli n_i son conocidos y las probabilidades de éxito p_i son desconocidas. Entonces obtenido en base a lo que cada ensayo (valor de i) y el conjunto de variables explicativas/independientes pueda informar acerca de la probabilidad final. Estas variables explicativas pueden pensarse como un vector X_i k-dimensional de manera que la probabilidad buscada es la expresión condicional indicada en (3).

Leslie Matrix and Polulation Growth.

La matriz de Leslie es un modelo discreto y edad-estructurado de crecimiento poblacional muy popular en la ecología. Fue inventada por P.H. Leslie. Las matrices de Leslie (también conocido como Modelo de Leslie) es una de las mejores conocidas maneras para describir el crecimiento poblacional y su distribución por edades proyectada, donde sólo es tenido en cuenta el sexo femenino.
La matriz de Leslie se utiliza para modelar los cambios en una población de organismos en un período de tiempo. En un modelo Leslie, la población se divide en grupos, ya sea basado en clases de edad o etapa de la vida. En cada paso del tiempo la población está representada por un vector con un elemento para cada clase de edades donde cada elemento indica el número de individuos presentes en dicha categoría.
La matriz de Leslie (L)es una matriz cuadrada en cambio la población tiene elementos vectoriales (N). El (i, j) ª elemento en la matriz indica el número de individuos estan en la clase de edad i en el próximo paso del tiempo para cada individuo en la etapa actual j. En cada paso del tiempo, la población de vectores se multiplica por la matriz de Leslie para generar la población de vectores para la siguiente generación temporal.
Esto puede ser escrito como; N(t+1)=L N(t); dónde N(t) es la población vectorial en el tiempo t y L es la matriz de Leslie. El modelo de Leslie es muy similar a un tiempo discreto la cadena de Markov. La principal diferencia es que en un modelo de Markov, uno tendría f_x + s_x = 1 para cada x, mientras que el modelo Leslie pueden ser estas sumas mayor o menor que uno.

Para construir una matriz de Leslie, alguna información debe ser conocida, esta es:

  • n_x, el número de individuos en cada clase de edad x.
  • s_x, la fracción de individuos que sobrevive dede la x a la edad x +1.
  • f _x, la fecundidad, el per cápita promedio de las hembras descendientes de n_1 nacidas de las madres de edad x.

The Lempel-Ziv Complexity Measure.

El análisis de la complejidad de Lempel-Ziv está basado en la transformación de la señal a analizar en una secuencia de símbolos. Esta secuencia S[i] se examina de izquierda a derecha. Un contador de complejidad c(n) se incrementa en una unidad cada vez que se encuentra una nueva subsecuencia de símbolos consecutivos. Dicha cuenta refleja la tasa de aparición de nuevos patrones a lo largo de la secuencia. c(n) es la medida de la complejidad de Lempel-Ziv de una señal. Tiene como cota superior a n/log_a(n) donde a es el numero de símbolos diferentes.

Dos son las formas usuales de codificación o de generación de secuencias.

  1. Conversión Binaria: en este caso se define como valor umbral a la mediana (no el promedio) M. Entonces si el valor de la señal es mayor o igual a M se le asigna 1 un sino se le asigna un 0. En este caso a=2.
  2. Conversión Ternaria: en este caso se usan tres valores, el máximo absoluto de la señal, Xmax; el mínimo absoluto Xmin; y la mediana M. Luego se definen dos umbrales, T1=M+abs(Xmax)/16 y T2=M-abs(Xmin)/16. Entonces si el valor de la señal es menor a T1 se le asina 0, si es mayor a T2 se le asigna 2, de otra forma se le asigna 1. En este caso a=3.
En la figura se puede apreciar el pseudo código del algoritmo de Lempel-Ziv modificado por Hongxuan et al.

Padre de la teoría del caos muere a los 90 años.

WASHINGTON (AP) – Edward Lorenz, el padre de la teoría del caos, murió en su casa de Cambridge, Massachusetts, el miércoles 17 del corriente a la edad de 90 años.

Lorentz fue profesor en el Instituto de Tecnología de Massachusetts, cuando introdujo el concepto científico que pequeños efectos llevar a grandes cambios, algo que se conoció como el «efecto mariposa». Explicó la forma en algo tan minúsculo como una mariposa batiendo sus alas en Brasil, cambia el ambiente en constante movimiento, de manera que más tarde podrían desencadenar tornados en Texas.

Su descubrimiento del «caos determinista» provocó «cambios en el punto de vista que tiene la humanidad sobre la naturaleza», dijo la comisión que adjudicó a Lorenz el Premio Kyoto 1991 para ciencias básicas.

Lorenz, estudiando meteorología de la atmósfera, introdujo la moderna teoría del caos en la década de 1960 a través de sus trabajos meticulosos, dijo Kevin Trenberth, un estudiante de Lorenz. Trenberth es ahora jefe de análisis del clima en el Centro Nacional de Investigaciones Atmosféricas.

Trust Metric (Métrica o medida de Confianza)

En la psicología y la sociología, una Trust Metric (Métrica de Confianza) es una medida sobre la confianza que se tiene de un miembro de un grupo por parte de otros que lo conocen. Las Trust Metric pueden ser abstraidas de manera tal que puedan ser implementadas en computadoras. Esto lo hace de interés para el estudio y ingeniería de comunidades virtuales, como Friendster y LiveJournal. El Ataque resistencia (Resistance Attack) es una propiedad importante de las métricas de confianza que reflejan su capacidad de no ser demasiado influenciadas por los agentes que tratan de manipular la confianza y participan de mala fe (es decir, que tienen como objetivo la presunción de abuso de confianza).
Las primeras formas de Trust Metric en fueron usadas en sistemas de comercio electrónico como eBay ‘s la cual es una puntuación por votos cliente-vendedor. Slashdot introdujo su concepto de karma, obtenidos de las actividades para promover la eficacia del grupo, este enfoque es muy influyente en comunidades virtuales para evaluar la confianza entre miembros.
El recurso de desarrollo para software libre Advogato se basa en un nuevo enfoque de los ataques resistentes utilizando la Trust Metric Raph Levien. Levien observó que el algoritmo PageRank (usado por Google) puede ser entendido como una Trust Metric con ataque resistente.
En la figura se muestra un algoritmo de Trust Metric y su aplicación práctica, supongamos que en mi red de infuencia están Alicia (métrica de confianza=0,85) y Beto (metrica de confianza = 0,7). Y desearía saber de antemano poder hacer un negocio con Cacho (que no lo conosco), ahora bien Cacho está en la red de confianza de Alicia (0,1) y Beto (0,95). Entonces una métrica de confianza sería

MC=max{0,85*0,1;0,7*0,95}=0,665

y una métrica de desconfianza sería

MD=1-min{0,85*0,1;0,7*0,95}=0, 915

Como MD > MC puedo tomar la decisión de no hacer negocios con él. Por supesto puedo extender la decisión al terreno de la lógica difusa compensatoria (ver post anteriores) pero ese no es el tema de este post.

El Conocimiento desde el punto de vista de la información.

El conocimiento es más que un conjunto de datos, verdades o de información almacenada a través de la experiencia o del aprendizaje (a posteriori), o a través de introspección (a priori). El conocimiento, en su sentido más amplio, es una apreciación de la posesión de múltiples datos interrelacionados que por sí solos poseen menor valor cualitativo. Significa, en definitiva, la posesión de un modelo de la realidad en la mente.
Según Platón, el conocimiento se caracteriza por ser necesariamente verosimil (episteme). De otro modo, la mera creencia y opinión (ignorante de la realidad de las cosas) quedan relegadas al ámbito de lo probable y lo aparente. Y en efecto, esta vinculación entre conocimiento, verdad y necesidad forma parte de toda pretensión de conocimiento filosófico en el pensamiento occidental. En las ciencias de la información, se acostumbra a definir a un conjunto progresivamente integrado por los datos, e información. Así, se define al conocimiento como el conjunto organizado de datos e información destinados a resolver un determinado problema. Es decir una visión algorítmica del conocimiento. Para alcanzarlo se aplica un método de múltiples vías para llegar obtener el conocimiento: método empírico, método histórico, método lógico, analogía, etc.
En general, para que una creencia constituya conocimiento científico no basta con que sea válida y consistente desde la lógica, pues ello no implica su verosimilitud. Así por ejemplo, téngase un sistema lógico deductivo consistente y válido. Niéguese la totalidad de las premisas del sistema, y se obtendrá un sistema igualmente consistente y válido, sólo que contradictorio al sistema previo. De tal manera, validez no garantiza verosimilitud. Para que una teoría deba ser considerada como verosimil, deben existir, desde el punto de vista de la ciencia, pruebas que la apoyen.
El conocimiento puede ser teórico o práctico. El conocimiento teórico puede ser científico (por causas. Así todas las «logías». Por ejemplo Geología) o vulgar (las «grafías» o meras descripciones. Por ejemplo: Geografía). El conocimiento científico a su vez se divide en científico en sentido estricto (por las causas inmediatas), filosófico (por las causas segundas). El conocimiento práctico se divide en arte y técnica, atendiendo a su belleza, sistemática etc. La técnica requiere tanto destrezas manuales como intelectuales, frecuentemente el uso de herramientas y siempre de conocimientos muy variados. La técnica no es privativa del hombre, pues también se manifiesta en la actividad de otros animales y responde a su necesidad de supervivencia. En los animales las técnicas son características de cada especie. En el ser humano, la técnica surge de su necesidad de modificar el medio y se caracteriza por ser transmisible.

Tipos de conocimiento:

  • El conocimiento a posteriori es derivado de los sentidos. La verdad o falsedad de este conocimiento puede verificarse mediante la experiencia de los sentidos.
  • El conocimiento a priori es aquel que es necesariamente verosimil y universal, incluso antes de ir al mundo de la experiencia, ya que no depende de la experiencia sino de construcciones mentales. Su fundamento son las condiciones trascendentales, puras, que no sólo no dependen y son anteriores a la experiencia sino que son las condiciones que hacen posible la objetividad de la experiencia.