Magnetares

Los objetos llamados «Soft gamma repeaters» («SGRs», en español «Repetidoras de Gamma Suaves») aportan evidencia de que esas estrellas tienen campos magnéticos extraordinariamente potentes. Una estimación especialmente simple y confiable del magnetismo de las SGR, hecho por primera vez en 1998 por C. Kouveliotou y sus colaboradores, aporta evidencias de un campo de 8 x 10^14 Gauss, donde «Gauss» es una unidad que indica la fuerza del campo magnético. (1 Tesla = 10^4 Gauss). Los físicos no ha podido crear campos estables más potentes que 4,5 x 10^5 Gauss en el laboratorio porque las tensiones magnéticas de campos más poderosos superan la resistencia a la tensión de los materiales terrestres. Si se intenta crear campos más potentes, las fuerzas magnéticas destrozan el electroimán. Los campos de más de 10^9 Gauss, sin embargo, son letales. Campos así distorsionan fuertemente a los átomos, comprimiendo a las nubes de electrones atómicos en formas de cigarro, con el eje más largo alineado con el campo, lo que vuelve imposible la química en la que se basa la vida. Dentro de los 1.000 kilómetros alrededor de un magnetar uno morirá a causa del magnetismo puro y estático. A 10^14 Gauss, los átomos tienen grosores de alrededor de el 1% de su longitud, centenares de veces más delgados que los átomos no magnetizados. Esos átomos pueden formar fibras o cadenas de moléculas parecidas a polímeros. Sobre la superficie de una magnetar probablemente existe una alfombra de estas fibras magnetizadas, por lo menos en los lugares en los que la superficie es lo suficientemente «fría» como para que se formen átomos.
Actualmente, se considera que de cada diez explosiones de supernovas, solamente una da origen al nacimiento de un magnetar. Si la supernova posee entre 6 y 12 masas solares, se convierte en una estrella de neutrones de no más de 10 a 20 km de diámetro. Según la hipótesis de los científicos mencionados anteriormente, los requisitos previos para convertirse en magnetar son una rotación rápida y un campo magnético intenso antes de la explosión. Este campo magnético sería creado por un generador eléctrico (efecto dinamo) que utiliza la convección de materia nuclear que dura los diez primeros segundos alrededor de la vida de una estrella de neutrones. Si esta última gira lo suficientemente rápido, las corrientes de convección se vuelven globales y transfieren su energía al campo magnético. Cuando la rotación es demasiado lenta, las corrientes de convección sólo se forman en regiones locales. Un púlsar sería, pues, una estrella de neutrones que, en su nacimiento, no habría girado lo suficientemente rápido durante un corto lapso de tiempo para generar este efecto dinamo. El magnetar posee un campo lo suficientemente poderoso como para aspirar la materia de los alrededores de la estrella hacia su interior y comprimirla; esto conlleva a que se disipe una cantidad significativa de energía magnética durante un periodo aproximado de unos 10.000 años.

GraVaStar, una idea coherente pero poco «peiperista».

En astrofísica, la teoría de los Gravastar es una propuesta de Pawel Mazur y Emil Mottola para reemplazar a la de los agujeros negros. En vez de una estrella colapsándose en un punto del espacio con una gravedad virtualmente infinita, la teoría de los gravastar propone que, cuando un objeto colapsa gravitacionalmente, el propio espacio llega a una transición de fase que evita más colapsamiento. La teoría ha generado poco interés entre los astrofísicos. Fue el título de una conferencia, pero no de un artículo científico. La falta de interés viene del hecho de que el concepto requiere que uno acepte una teoría muy especulativa acerca de la cuantización de la gravedad. El origen del nombre gravastar son las palabras inglesas GRAvitational VAcuum STAR (estrella gravitacional de vacío).
Mazur y Mottola han sugerido que los gravastares podrían ser la solución a la paradoja de la información en los agujeros negros y que el gravastar podría ser una fuente de estallidos gamma (BRG), añadiendo una más a las docenas, si no cientos de ideas que han sido propuesta como causa de los BRG.
Externamente, un gravastar parece similar a un agujero negro: es visible sólo por las emisiones de alta energía que crea al consumir materia. Los astrónomos observan el cielo buscando rayos X emitidos por la materia que absorben para detectar los agujeros negros, y un gravastar produciría una señal idéntica. Dentro de un gravastar, el espacio-tiempo estaría totalmente detenido por las condiciones extremas existentes allí, produciendo una fuerza hacia el exterior. Alrededor de este vacío habría una «burbuja» en la cual el espacio en sí se comportaría como un bloque de materia. La idea de un comportamiento tal del espacio puede compararse con una forma extrema del condensado de Bose-Einstein de gravitones, en el cual toda la materia (protones, neutrones, electrones, etc.) se convierte en lo que se llama un estado cuántico creando un «súper-átomo».

Estallidos Gamma.

Los estallidos de rayos gamma son breves pero brillantes llamaradas de rayos X y gamma que parecen surgir al azar en el cielo alrededor de una vez al día, eclipsando brevemente al Sol con energías del orden de un millón de billones de veces superiores. No fue hasta 1997 que se estableció que se originan fuera de nuestra galaxia, la Vía Láctea, y sólo en estos pocos años han obtenido los astrónomos indicaciones inquietantes de que estos estallidos se asocian con las supernovas. Debido a que son tan luminosos, los estallidos de rayos gamma tienen que ser haces colimados, similares pero más estrechos que el cono de luz emitido por un faro. De otra forma, la energía de la explosión sería equivalente a convertir instantáneamente la masa de varios soles en una bola de fuego de alta energía. El escenario más popular es que una estrella que colapsa genera dos haces o chorros muy colimados de partículas y energía que brotan al exterior por los polos. Las partículas y la energía generan una onda de choque cuando colisionan contra el gas y el polvo que rodea a la estrella, que a su vez acelera las partículas a niveles energéticos en los cuales emiten luz de alta energía: rayos X y gamma. El estallido inicial se desvanece en unos pocos segundos, pero las ondas de choque resultantes causan una emisión de luz remanente que puede ser visible para los telescopios ópticos, de radio y de rayos X, días después de la explosión. Los estallidos de rayos gamma son las explosiones más poderosas que se conocen. La mayoría se origina en galaxias distantes, y es muy probable que un gran porcentaje surja de las explosiones de estrellas que son al menos 15 veces más masivas que el Sol. Un estallido de este tipo genera dos haces opuestos de rayos gamma que se lanzan hacia el espacio.
Los investigadores calcularon que la radiación de rayos gamma proveniente de una explosión estelar relativamente cercana, que golpeara a la Tierra durante apenas diez segundos, eliminaría casi hasta la mitad de la capa protectora de ozono de la atmósfera. Su recuperación tardaría al menos cinco años. Con la capa de ozono dañada, la radiación ultravioleta del Sol podría destruir a buena parte de la vida sobre tierra firme y cercana a la superficie de los océanos y lagos, y distorsionaría la cadena alimenticia. “Un estallido de rayos gamma que se originara dentro de un radio de 6 000 años luz de la Tierra, tendría un efecto devastador sobre la vida”, dijo el Dr. Adrian Melott del Departamento de Física y Astronomía de la Universidad de Kansas. “No sabemos exactamente cuándo hubo uno, pero estamos bastante seguros de que sucedió… y de que dejó su marca. Lo que es más sorprendente es que un estallido de apenas 10 segundos causaría años de daño devastador al ozono”.

Bit Cumulant, what is this?

Los bit cumulats (BC) o cumulantes binarios, son usados para medir las fluctuaciones en los flujos de bits de distribuciones de probabilidad generadas por sistemas caóticos, informáticos, etc. El más importante de todos es el BC de orden dos, el cual mide la varianza de bits y es equivalente al calor específico de los sistemas termodinámicos. Cabe destacar que E(.) representa a la esperanza matemática. pi, es la distribución de probabilidades del flujo de bits. S es la entropía de Shannon del flujo.

La apatía en comunidades de correo técnicas.

En la figura de la izquierda se puede ver un seguimiento mes a mes, donde el mes 0 es enero y el 11 diciembre, de la participación de una lista de correos técnica de software libre en los años subsiguientes al 2003 (reactivación). Se puede apreciar el efecto supernova. En el cual la lista tuvo una máxima expansión a fines del 2003 en variedad de temas y cantidad de actores. Pero como se ve en la curva en amarillo en 2007 ha mostrado en efecto apatía, propio de la poca renovación de personas. Esto es similar al chiste de los contadores de historias alemanes. Y bueno ya pasó la ola de la novedad. Esta actitud es una transposición de conductas comunes. Por ejemplo esto pasa a los que siguen una dieta para bajar de peso. En el principio hay mucho entusiasmo, si alcanzan la meta, la motivación inicial va perdiendo brillo y de apoco la apatía lleva a la reincidencia. Por más esfuerzo que se haga para cambiar la motivación tarde o temprano el 60% de las personas reinciden. Visto desde el punto de vista de una sociedad, cuando se acaba la ilusión de la novedad en los promotores o hub sociales, si estos no se renuevan la listas va al letargo y la desaparición.

Point-Spread Function.

Cuando uno estudia un sistema de lentes como un filtro donde se procesa información de entrada (Ipf Imagen de Entrada en el plano fuente) para producir una salida filtrada (Ipf Imagen de Salida en el plano objeto) por el sistema de lentes, los libros de textos elementales sobre óptica solo encaran el problema desde el punto de vista de emisor puntual y coherente. Pero que pasaría si el emisor no fuese puntual, sino extendido y peor aún la fuente extendida está compuesta por un ensamble de fuentes incoherentes entre si? Acá es donde la Point Spread Function (PSF) ó función de punto extendida, en castellano. Donde interviene a travez de un producto de convolución para relacionar la entrada y la salida como se ve en la figura superior. La imagen de salida se forma en el plano focal del sistema de lentes. En si la PSF no solo caracteriza el sistema de lentes desde el punto de vista de la óptica geométrica, sino que además tiene en cuenta los efectos de difracción, tanto Franhofer para campo lejano, como Fresnel para campo cercano (Microscopios).

Lógica Difusa Compensatoria.

A diferencia de la lógica bimodal (que usa toda computadora digital), la vaguedad y la incertidumbre son las bases de la lógica difusa.
Esta idea nació en un artículo de Lofti A. Zadeh publicado en 1965 y titulado «Fuzzy Sets» (Conjuntos Difusos). La lógica difusa permite representar de forma matemática conceptos o conjuntos imprecisos, tales como días fríos, meses calurosos, personas altas, salarios bajos, guisos con mucho condimento, profesores poco valorados, etc. Pero hay que tener en cuenta que la idea en sí de que las cosas no son blancas o negras, sino que existen infinitos matices de grises viene ya desde la época de los primeros grandes filósofos como Platón. Posteriormente a ellos, otros grandes pensadores como David Hume o Kant apoyaban esta idea manteniendo que el razonamiento venía dado por las observaciones de las que somos testigos a lo largo de nuestra vida y la detección de algunos principios contradictorios en la lógica clásica. Tras la publicación de Lotfi A. Zadeh, se comenzó rápidamente a usar la lógica difusa en distintas aplicaciones prácticas, llegando a su máximo auge a principios de los años 90, y continuando éste hasta la época actual.
La lógica difusa compensatoria es un modelo lógico multivaluado alternativo al propuesto por Zadeh. En esta propuesta los operadores clásicos AND, OR y NOT (ver figura arriba) son funciones contínuas del [0,1] tales que verifican las reglas de Morgan (Espin, Logical management: Fuzzy logic integrated models for decision making in enterprise, Sevilla España 2004). A diferencia del uso de funciones de membresía (como se propone en control difuso) estos operadores son de simple implementación para el estudio masivo de datos y converge a los resultados clásicos si se reduce el dominio a {0,1}. El mayor inconveniente de este tipo de lógica es la decisión, ya que cuando algo es verdadero o es falso deja de ser absoluto.

Fiesta del 40 aniversario de la Licenciatura en Física de Rosario.

Con motivo de festejarse el 40 aniversario de la creación de la Licenciatura en Física y Matemática de la Universidad Nacional de Rosario, y un nuevo aniversario de la Licenciatura en Ciencias de Computación (LCC). Se realizó una jornada de dos días de duración, la cual fue culminada con una fiesta organizada por los alumnos de LCC. En dicha fiesta se sorprendió al honorable director de escuela de ciencias exactas, Dr. Raúl Kantor (foto derecha), bailando pasado de copas una cumbia villera junto a la Dra. Liliana Gomez. Y al flamante director de departamento, Dr. Omar Fojon (foto izquierda persona sentada), meditando sobre el principio de Arquímedes aplicado a las burbujas de anhídrido carbónico que se forman en un vaso de cerveza.
Se puede comentar que por el costo de la cena, 12$, similar a una cajita feliz de McDon***. Solo pude comer una hamburguesa sin tomate y sin juguete. La cual fue servida a las 22hs habiendo comenzando a las 20:30hs. Que puedo decir de esta camada de alumnos de LCC han mostrado una dedicación para transformar el algoritmo asado cuya complejidad temporal es O(n*log(n)) en un NP completo, por lo cual pasó de ser un algoritmo culinario eficiente a otro totalmente ineficiente. Pero valió la pena el espectáculo de los concurrentes.

El Mapa de la Internet.

El «mapa de Internet” se asemeja a hermosos fuegos artificiales o a un mapa del universo, con sus estrellas y constelaciones. Cada región del mundo está representada por su propio color, y está integrada por cada PC con conexión a Internet.
El mapa de Internet comenzó como un experimento personal, pero actualmente tiene una serie de aplicaciones, aparte de la hermosa realización visual. Por ejemplo, el mapa puede ser usado para ver la distribución de acceso a Internet en los distintos lugares del mundo y el acceso a direcciones IP disponibles. Asimismo, representa una oportunidad única de registrar el efecto de acontecimientos locales e internacionales. Hasta ahora se han destinado más de 300 horas para enviar 195 búsquedas de rutas aleatorias por segundo. El resultado de las búsquedas constituye el material básico con el que se va diseñando el mapa.
El mapa es generado en tiempo real con los resultados de las búsquedas. La razón de que haya densas constelaciones, con galaxias y «sistemas solares” se explica sencillamente con el hecho de que hay proveedores de conexión con muchos clientes. La lógica es que mientras mayor es el «hub”, mayor es la estrella.
Aunque los procedimientos que permiten la generación del mapa ya han concluido, la búsqueda de datos continuará incesantemente. Internet nunca está inactiva y su desarrollo continúa en todos los países.

El lugar oficial del sitio está en: http://www.opte.org/

La piedra en el zapato de la física Argentina. "Nullius addictus iurare in verba magistri"