Archivo de la etiqueta: Investigación

Que es un sistema complejo?


Un sistema complejo es un sistema compuesto por varias partes interconectadas o entrelazadas cuyos vínculos contienen información adicional y oculta al observador. Como resultado de las interacciones entre elementos, surgen propiedades nuevas que no pueden explicarse a partir de las propiedades de los elementos aislados. Dichas propiedades se denominan propiedades emergentes.

El sistema complicado, en contraposición, también está formado por varias partes pero los enlaces entre éstas no añaden información adicional. Nos basta con saber como funciona cada una de ellas para entender el sistema. En un sistema complejo, en cambio, existen variables ocultas cuyo desconocimiento nos impide analizar el sistema con precisión. Así pues, un sistema complejo, posee más información que la que da cada parte independientemente. Para describir un sistema complejo hace falta no solo conocer el funcionamiento de las partes sino conocer como se relacionan entre sí.Que características tiene un sistema complejo:

  • El todo es más que la suma de las partes: esta es la llamada concepción holística. Como ya se ha dicho, la información contenida en el sistema en conjunto es superior a la suma de la información de cada parte analizada individualmente.
  • Comportamiento difícilmente predecible: Debido a la enorme complejidad de estos sistemas la propiedad fundamental que los caracteriza es que poseen un comportamiento impredecible. Sólo somos capaces de prever su evolución futura hasta ciertos límites, siempre suponiendo un margen de error muy creciente con el tiempo. Para realizar predicciones más o menos precisas de un sistema complejo frecuentemente se han de usar métodos matemáticos como la estadística, la probabilidad o las aproximaciones numéricas como los números aleatorios.
  • Son sistemas fuera del equilibrio: ello implica que tal sistema no puede automantenerse si no recibe un aporte constante de energía.
  • Autoorganización: Todo sistema complejo emerge a partir de sus partes y fluctua hasta quedar fuertemente estabilizado en un atractor. Esto lo logra con la aparición de toda una serie de retroalimentaciones (o realimentaciones) positivas y negativas que atenúan cualquier modificación provocada por un accidente externo. Se puede afirmar que el sistema reacciona ante agresiones externas que pretendan modificar su estructura. Tal capacidad sólo es posible mantenerla sin ayuda externa mediante un aporte constante de energía.
  • Las interrelaciones están regidas por ecuaciones no-lineales: estas no dan como resultado vectores ni pueden superponerse unas con otras. Normalmente todas ellas pueden expresarse como una superposición de muchas ecuaciones lineales. Pero ahí reside justamente el problema. Solo se pueden tratar de forma aproximada cosa que lleva a la imposibilidad de predicción antes citada. Por otra parte tales ecuaciones suelen tener una fuerte dependencia con las condiciones iniciales del sistema lo que hace aún más difícil, si cabe, evaluar su comportamiento.
  • Es un sistema abierto y disipativo: energía y materia fluyen a través suyo. Pues justamente un sistema complejo, en gran medida se puede considerar como una máquina de generar orden para lo cual necesita del aporte energético constante que ya hemos comentado.
  • Es un sistema adaptativo: como ya se ha dicho antes el sistema autoorganizado es capaz de reaccionar a estímulos externos respondiendo así ante cualquier situación que amenace su estabilidad como sistema. Experimenta así, fluctuaciones. Esto tiene un límite, naturalmente. Se dice que el sistema se acomoda en un estado y que cuando es apartado de él tiende a hacer todos los esfuerzos posibles para regresar a la situación acomodada. Esto ocurre por ejemplo con el cuerpo humano que lucha constantemente para mantener una misma temperatura corporal, o las estrellas cuya estructura se acomoda para mantener siempre una luminosidad casi constante.

Medir la complejidad LMC en un proceso de Poisson.

Antes de comentar mis resultados, comento que es la complejidad. Desde el punto de vista de su medición, no lo que es un sistema complejo que lo haré en otro post.
La complejidad se define como la cantidad de información necesaria para describir un sistema. Así, cuanto más complejo es un sistema más información hay contenida en él. A su vez, un sistema complejo que contenga mucha información será altamente no-entrópico u ordenado. Cuanto más orden, más información para establecer dicho orden. El orden no son más que enlaces, interrelaciones entre las diferentes partes del sistema siguiendo algún tipo de jerarquía y estructura definidas. O, dicho de otra forma, información no es sólo cómo hacer las células de nuestro cuerpo, sino también las relaciones e interacciones que mantendrán entre ellas (o cualquier otra unidad que se considere, p.ej. proteínas o genes). Y eso es mucho más de lo que podemos ver a simple vista. Pero hace falta un buen criterio que se pueda usar para comparar y juzgar cuan complejo es un sistema respecto al otro. Para la complejidad de los sistemas no vivos, moléculas, macro moléculas y estructuras macro moleculares, basta con hacer uso de los criterios para medir la entropía en la química.
Pero para sistemas complejos no basta con esta definición y se debe apelar al uso de una extensión de la definición de la entropía conocida como entropía de Shannon o de entropía de la información. El concepto básico de entropía en Teoría de la Información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de «Ruido» o «desorden» que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.
Pero para medir la complejidad no basta con esta extensión. En 1995, Lopez-Ruiz, Mancini y Calbet, proponen una definición de la complejidad basada en la medida de la información pero introduciendo el concepto de desequilibrio. (ver: http://prola.aps.org/abstract/PRE/v63/i6/e066116 Tendency towards maximum complexity in a nonequilibrium isolated system) Ellos proponen que la complejidad de un sistema ordenado es la misma que la de un sistema desordenado, en cambio un sistema caótico con comportamiento emergente debe tener una complejidad mayor que los anteriores.
Para medir la complejidad de una variable aleatoria con distribución de Poisson, uso como medida de desequilibrio la distancia de Wootter (ver: http://prola.aps.org/abstract/PRD/v23/i2/p357_1 Statistical distance and Hilbert space). Como se puede apreciar la variable de control es el número medio de eventos positivos. Esta crece hasta una meseta, a partir de la cual se incrementa linealmente en el gráfico log-log. Este cambio de comportamiento es debido a que la distribución de Poisson se comporta como una Gausiana para valores medios de eventos positivos grandes. Teoría formal sobres este comportamiento no existe por ahora, pero muestra que la complejidad de los procesos de Poisson es menor a la de los procesos Gausianos.

Ruido blanco limitado en banda.

Si bien el ruido blanco limitado en banda, es decir que tiene un espectro de potencias casi plano en un ancho de frecuencias, no es un proceso de Wiener. Pues este debe tener un espectro plano para cualquier valor de la frecuencia, lo que garantiza que su función de correlación sea una delta de Dirac en cero. Es muy útil a veces contar con un algoritmo que genere un ruido casi blanco ó limitado en frecuencias. Con el siguiente algoritmo obtengo tal cosa para ensayos en representaciones recursivas.

algoritmo blanco
// Algunos valores iniciales
NDATO

Pingueo a Francia. Un contra ejemplo a la q-exponencial?

Motivado por el trabajo publicado por Sumiyoshi Abe et al. titulado Interaction of the internet over nonequilibrium stationary stat in Tsallis statitics, aparecido en Phy. Rev. E, 67 016106 (2003). Me dediqué a repetir los experimentos para ver si obtenía una q-exponencial en la distribución cumulativa (cdf en inglés). Para ello construí el siguiente script bash para tomar a cada intervalo de un minuto una prueba ping sobre yahoo-francia (aunque lo verifiqué con muchos otros sitios).

——————————————————————-
#!/bin/sh
A=ping4br.dat
B=ping4jp.dat
C=ping4fr.dat
cat /dev/null >$A
cat /dev/null >$B
cat /dev/null >$C
for i in `seq 4096`
do
#date >> $A
ping -c2 www.yahoo.com.br >>$A
ping -c2 www.yahoo.co.jp >>$B
ping -c2 www.yahoo.fr >> $C
sleep 1m
done
——————————————————————————-

Luego por medio del siguiente comando hayaba la información útil:

cat ping4fr.dat |grep «^rtt»|awk ‘BEGIN{FS=»/»}{print $5}’ >q4fr

La cual era una serie temporal donde la variable aleatoria era el intervalo de respuesta o sparseness time interval en inglés. Por supuesto tuve que verificar que dicha serie de tiempos fuese estacionaria, es decir que existía una única medida invariante de la probabilidad. Lo mas curioso es que no reproduje en ninguno de mis ensayos los resultados de Abe, sino que por el contrario me dio otro tipo de función.

Razonamiento Bayesiano vs Frecuentista.

La ciencia siendo una actividad humana, no es inmune a las modas y cambios de paradigmas. Las ideas bayesianas de inferencia con conocimiento de probabilidad a priori han vuelto a estar de moda en los investigadores tanto del mundo de la informática como en el mundo de la física. La clave del éxito del razonamiento bayesiano es no tener una muestra grande ni insesgada sino una apropiada asunción previa, como es formulada por los psicólogos cognitivos. La asunción previa es una hipótesis sobre como es la distribución de probabilidades (ddp) de un ensayo. Con la correcta ddp a priori, incluso con pocos datos, se puede hacer predicciones bayesianas con sentido. Por el contrario, una visión frecuentista hace menos asunciones a priori sobre la ddp. Lo que le da al método frecuentista una una robustez mayor respecto al bayesiano, pero es inpráctico a la hora de tomar decisiones en base a información limitada o incompleta, algo que los investigadores conviven todo el tiempo. Es decir una manera frecuentista de hacer las cosas reduciría el riesgo de prejuicio en la toma de decisiones, pero para el momento que se posea suficientes datos para sacar una conclusión el científico habrá muerto.

Inferencia Frecuentista:

En este caso se basa en la inferencia de hipótesis. Si se supone tener dos hipótesis H_0 y H_1. Donde H_0 se lo llama hipótesis nula, es decir que dentro de mi intervalo de confianza acepto que no hay diferencia entre el evento y el el de referencia. Y H_1 es la hipótesis alternativa, donde asumo que mi evento está fuera del intervalo de confianza. A esto se lo conoce como contraste de hipótesis. Donde puede ocurrir dos tipos de errores.
  1. Falso negativo: O error de tipo I, es cuando se rechaza una hipótesis nula cuando debería aceptarse.
  2. Falso positivo: O error de tipo II, es cuando se acepta una hipótesis alternativa cuando debería rechazarse.
Para el caso de muestras pequeñas se usa la t-students para estimar el intervalo de confianza. Es una forma de frecuencista de subsanar la falta de información en un muestreo aleatorio.

Inferencia Bayesiana:

El teorema de Bayes o de causa expresa que dado un suceso A de referencia y otro suceso B de estudio, entonces si es conocida las probabilidades P(B/A), P(A), P(B); entonces:

P(A/B)=(P(B/A)*P(A))/P(B)

Es decir habiendo ocurrido el suceso B cual es la probabilidad que sea causado por el suceso A. En general se llama a P(A) la ddp a priori, a P(B/A) la verosimilitud y a P(B) denominador de Bayes. En la practica P(B) no es fácil de hallar por eso se obtiene una probabilidad de causa aproximada.

Algoritmo Mundo Pequeño

Este es el pseudocódigo de un algoritmo para jugar con sociedades artificiales, por supuesto usando teorí­a de grafos y matriz de adyacencia no ponderada. Cuando dice generar matriz se refiere a generar una matriz regular con 2*k enlaces por vértice

Acá se puede experimentar con los famosos seis grados de separación.