Confianza en las branas: tunelado y física de cuerdas

“Como pasa a menudo en la ciencia, todo el mundo contribuye con un trozo, formando el cuadro completo sólo tras años de duro trabajo”, cuenta Amanda Weltman a PhysOrg.com. Weltman, científico de la Universidad de Cape Town y la Universidad de Cambridge, cree que ella y sus colaboradores han encontrado otra pieza del puzzle, especialmente con respecto a la Teoría de Cuerdas. “Usamos una herramienta desarrollada en la Teoría de Campo Cuántico y la adaptamos par el estudio de la física de cuerdas”.

Weltman y sus colegas, Adam Brown y Saswat Sarangi de la Universidad de Columbia, y Benjamin Shlaer de la Universidad de Colorado, explican su trabajo en un artículo titulado “Enhanced Brane Tunneling and Instanton Wrinkles (Tunelado de branas mejorado y arrugas de instantón” publicado en Physical Review Letters.

Weltman dice que está más interesada en comprender la dinámica de lo que se conoce en la Teoría de Cuerdas como paisaje. “En los primeros años de la Teoría de Cuerdas, la gente esperaba que habría un único estado base que describiría nuestro universo”. Lo describe como un valle entre dos colinas, y entonces señala que hay otros valles con puntos igualmente bajos, o vacua.

“Puede haber un paisajes de tales vacuas con muchos caminos distintos por los que se puede llegar a ellos”, continúa. “Esta realización de un paisaje completo de posibles valores ha abierto nuevas preguntas sobre el campo”.

Weltman dice que ella y sus colaboradores “se hicieron una pregunta muy básica: Si el universo es uno en una miríada de tales vacuas, ¿durante cuanto tiempo estaría allí?” Para responder a este pregunta “estudiamos el tunelado entre distintos vacuas, incluyendo los grados de libertad de las cuerdas”.

“El concepto de tunelado ha estado alrededor de la Teoría Cuántica durante tiempo”, apunta. “La idea es que si tienes una partícula cuántica golpeando un muro, la probabilidad de que aparezca al otro lado del muro no es cero, al contrario que en su homólogo clásico. Ahora estamos estudiando tal tunelado en el contexto de las cuerdas y branas en la Teoría de Cuerdas en lugar de sólo en partículas de la Teoría Cuántica”.

Siguiendo con la idea del valle, Weltman explica que el campo en un valle intentaría llegar al otro lado de la colina – y a otro valle. “Se pensaría que cuanto más alta es la barrera, más difícil sería, como si intentases subir una colina en bicicleta.” Tras una pausa dice: “No funciona de tal forma. Cuanto más alta es la barrera, más fácil es el tunelado”.

Weltman dice que usando las viejas técnicas cuánticas para estudiar el paisaje más complejo de la Teoría de Cuerdas nos ha ofrecido respuestas bastante distintas de lo que se esperaría. Ella habla de tunelado en términos de D-branas, las cuales están situadas en los extremos de las cuerdas. Estas branas representan los límites de las cuerdas en la Teoría de Cuerdas. Weltman lo visualiza como una brana en cada extremo de una tira de regaliz.

En un correo, Weltman expone cómo funciona el tunelado de branas: “Nuestra interpretación de estos resultados es que más que la brana sea atravesada por el campo a través de un túnel, se crea un nuevo par brana-antibrana en el otro lado, y la antibrana pasa por el túnel para aniquilar la brana original. Elevando la altura de la barrera, la creción de tales pares, y por tanto el tunelado, se aumenta. Tienes un tunelado más rápido de lo que ingenuamente esperarías”.

Bien es cierto, como gran parte de la Teoría de Cuerdas, que este concepto de tunelado de branas está en sus primeras etapas. “Lo siguiente es estudiar modelos concretos”. Dice Weltman que ya están trabajando en ello. “Queremos ser tan específicos como nos sea posible, y ver cómo cambia lo que se había observado anteriormente”.

Continúa: “En otras áreas de investigación, la gente estudia estas vacuas y busca clases de vacuas que nos pudiesen dar las características que esperamos del Modelo Estándar – la masa de las partículas, sus acoplamientos y el número correcto de generaciones. Para explicar por qué estamos en tan estado de vacío, debemos comprender la dinámica de la Teoría de Cuerdas.

La dificultad estriba en acertar. “No es fácil conseguirlo todo a la vez, especialmente cuando incluimos la constante cosmológica”, admite Weltman. “Cualquier mecanismo que nos dirija hacia valores pequeños de la constante cosmológica, pero que no sean cero, sería convincente”.


Autor: Miranda Marquit
Fecha Original: 30 de octubre de 2007
Enlace Original

Agujero negro masivo destroza el récord

Usando dos satélites de la NASA, los astrónomos han descubierto un agujero negro que destroza el récord anunciado hace apenas dos semanas. El nuevo agujero negro, con una masas de entre 24 y 33 veces la de nuestro Sol, es el agujero negro más pesado que orbita otra estrella.

El poseedor del nuevo récord pertenece a la categoría de agujeros negros de “masa estelar”. Formado en la agonía de las estrellas masivas, son de menos masa que los monstruosos agujeros negros hallados en los núcleos galácticos. El récord anterior para el mayor agujero negro de masa estelar es de 16 masas solares en la galaxia M33, anunciado el 17 de octubre.

“No esperábamos encontrar un agujero negro de masa estelar tan masivo”, dice Andrea Prestwich del Centro Harvard-Smithsoniano para Astrofísica en Cambridge, Massachussets, autora principal del artículo del descubrimiento que aparecerá en el ejemplar del 1 de noviembre de la revista Astrophysical Journal Letters. “Ahora sabemos que los agujeros negros que se forman a partir de estrellas moribundas pueden ser mucho más pesados de lo que habíamos pensado”.

El agujero negro está situado en la cercana galaxia enana de IC 10, a 1,8 millones de años luz de la Tierra en la constelación de Casiopea. El equipo de Prestwich pudo medir la masa del agujero negro gracias a que tenía una compañera en órbita: una estrella caliente altamente evolucionada. La estrella está expulsando gas en forma de viento. Parte de este material cae en espiral hacia el agujero negro, calentándose, y emitiendo potentes rayos-X antes de cruzar el punto de no retorno.

En noviembre de 2006, Prestwich y sus colegas observaron la galaxia enana con el Observatorio de Rayos-X Chandra de la NASA. El grupo descubrió que la fuente de rayos-X más brillante de la galaxia, IC 10 X-1, exhibía cambios radicales en el brillo de los rayos-X. Tal comportamiento sugería que una estrella pasaba periódicamente frente a un agujero negro compañero y bloqueaba los rayos-X creando un eclipse. A finales de noviembre, el satélite Swift de la NASA confirmó los eclipses y reveló detalles sobre la órbita de la estrella. La estrella de IC 10 X-1 parece orbitar en un plano que está casi de lado con respecto a la línea de visión de la Tierra, por lo que una simple aplicación de las Leyes de Kepler muestran que el agujero negro compañero tiene una masa de al menos 24 Soles.

Aún quedan algunas incertidumbres sobre la masa estimada del agujero negro, pero tal y como apunta Prestwich, ”Las futuras observaciones ópticas proporcionarán una comprobación final. Cualquier refinamiento en las medidas de IC 10 X-1 probablemente sería para aumentar la masa del agujero negro más que para disminuirla”.

La gran masa del agujero negro es sorprendente debido a que las estrellas masivas generan potentes vientos que lanzan el equivalente en gas a muchos soles antes de explotar. Los cálculos sugieren que las estrellas masivas de nuestra galaxia dejan tras de sí agujeros negros no más pesados de 15 Soles.

El agujero negro IC 10 X-1 ha ganado masa desde su nacimiento absorbiendo gas de su estrella compañera, pero la razón de crecimiento es tan lenta que no habría ganado más de 1 o 2 masas solares. “Este agujero negro ya nació pesado; no se hizo pesado”, dijo el astrofísico Richard Mushotzky del Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland, que no es miembro del equipo del descubrimiento.

La estrella madre probablemente comenzó su vida con 60 masas solares o más. Como la galaxia que lo alberga, probablemente era deficiente en elementos más pesados que el hidrógeno y el helio. En las estrellas luminosas masivas con una fracción elevada de elementos pesados, los electrones extra de elementos tales como el carbono y el oxígeno “sienten” la presión exterior de la luz y son más susceptibles a ser barridos por los vientos estelares. Pero con esta baja fracción de elementos pesados, el progenitor de IC 10 X-1 arrojó comparativamente poca masa antes de explotar, por lo que pudo dejar tras él un agujero negro más pesado.

“Las estrellas masivas de nuestra galaxia probablemente no están hoy produciendo agujeros negros estelares muy masivos como este”, dice el coautor Roy Kilgard de la Universidad Wesleyan en Middletown, Connecticut. “Pero podría haber millones de agujeros negros pesados de masa estelar merodeando por allí fuera que fueron producidos en los inicios de la historia de la Vía Láctea, antes de que tuvieran posibilidad de formar elementos pesados”.


Fecha Original: 30 de octubre de 2007
Enlace Original

Teoría sobre la extinción pierde partidarios

La Gran Mortandad de hace 250 millones de años sucedió lentamente, de acuerdo con geólogos de la Universidad de California del Sur (USC).

La estudiante de doctorado Catherine Powers viajó a yacimientos fósiles de todo el mundo, incluyendo este en Grecia, para estudiar antiguas comunidades marinas de briozoos. Imagen: Matthew Clapham

La mayor extinción en masa de la historia de la Tierra puede también haber sido una de las más lentas, de acuerdo con un estudio que arroja dudas sobre la teoría de extinción por un meteorito.

El incremento en la presión ambiental alimentado por las erupciones volcánicas y el calentamiento global fue la causa que probablemente provocó la Gran Mortandad hace 250 millones de años, dijo la estudiante de doctorado de la USC, Catherine Powers.

En un artículo del ejemplar de noviembre de la revista Geology, Powers y su supervisor David Bottjer, profesor de ciencias de la Tierra en la USC, describe un lento declive en la diversidad de algunos organismos marinos comunes.

El declive comenzó millones de años antes de la desaparición del 90 por ciento de las especies de la Tierra el final de la era Pérmica, demuestra Powers en su estudio.

Lo más dañino para la teoría del meteorito es que el estudio encontró que los organismos del océano profundo fueros los primeros en morir, seguidos por aquellos de barreras y arrecifes, y finalmente los cercanos a las costas.

“Algo vino desde el fondo de los océanos”, dijo Powers. “Algo subió por la columna de agua matando a todos esos organismos”.

Posiblemente lo que ascendió fue sulfuro de hidrógeno, de acuerdo con Powers, quien citó estudios de la Universidad de Washington, Universidad Estatal de Pennsylvania, la Universidad de Arizona y el laboratorio de Bottjer en la USC.

Esos estudios, combinados con los nuevos datos de Powers y Bottjer, apoyan un modelo que atribuye la extinción a enormes erupciones volcánicas que liberaron dióxido de carbono y metano, disparando un rápido calentamiento global.

El agua de los océanos más cálida habría perdido parte de su capacidad de retener oxígeno, permitiendo al agua rica en sulfuro de hidrógeno brotar desde las profundidades (el gas vino de bacterias anaerobias del fondo del océano).

Si escaparon grandes cantidades de sulfuro de hidrógeno a la atmósfera, el gas habría matado a la mayor parte de las formas de vida y también habría dañado la capa de ozono, incrementando el nivel de radiación ultravioleta que alcanzó la superficie del planeta.

Powers y otros creen que la misma secuencia letal se repitió en otra gran extinción hace 200 millones de años, al final de la era del Triásico.

“Hay muy pocas personas que se agarren a la idea de que fue un impacto de meteorito”, dijo. Incluso si tuvo lugar tal impacto, añade, podría no haber sido la causa principal de una extinción ya en progreso.

En su estudio, Powers analizó la distribución y diversidad de los briozoos, una familia de invertebrados marinos.

Basándose en los tipos de rocas en los que se hallaron los fósiles, Powers fue capaz de clasificar los organismos de cuerdo con la edad y profundidad aproximada de su hábitat.

Encontró que la diversidad de briozoos en las profundidades del océanos comenzó a decrecer hace aproximadamente 270 millones de años y cayó en picado en los 10 millones de años antes de la extinción masiva que marcó la era del Pérmico.

Pero la diversidad en profundidades medias y cerca de la costa cayó más tarde y gradualmente, con los briozoos costeros siendo los últimos afectados, dijo Powers.

Observó el mismo patrón antes de la extinción de finales del Triásico, 50 millones después de la de finales del Pérmico.

El trabajo de Powers fue patrocinado por la Sociedad Geológica Americana, la Sociedad Paleontológica, el Museo Americano de Historia Natural y el Museo Yale Peabody, y complementada con una beca del programa Mujeres en la Ciencia e Ingeniería de la USC.

Geology es una publicación de la Sociedad Geológica Americana.



Autor: Carl Marziali
Fecha Original: 24 de octubre de 2007
Enlace Original

El peculiar púlsar en la Nebulosa del Cangrejo

En 1054, los astrónomos árabes y chinos notaron una nueva estrella brillando con fuerza en el cielo. Esta fue una de las primeras observaciones registradas de una supernova, y los restos de la explosión son lo que hoy conocemos como la Nebulosa del Cangrejo. La nebulosa aún interesa hoy día a los astrónomos, además de por su espectacular belleza, alberga un púlsar con curiosas propiedades que pueden cambiar drásticamente nuestra comprensión de la física de los púlsares.

Un equipo liderado por el Dr. Jean Eileck y Tim Hankins en la Universidad Tecnológica de Nuevo México observó el púlsar del cangrejo en el espectro de radio usando el Conjunto Muy Grande (VLA) y el telescopio de Arecibo, descubriendo, para su sorpresa, que las emisiones de radio del púlsar son mucho más complejas de lo que habían pensado en un principio.

Su artículo, What makes the Crab pulsar shine? (¿Qué hace brillar al púlsar del Cangrejo?, apareció en las actas de la reunión de Forty Years of Pulsars: Millisecond Pulsars, Magnetars and More (Cuarenta años de púlsares: Púlsares de milisegundos, magnetares y más).

El pulsar del cangrejo – una estrella de neutrones de giro rápido que emite radiación a través de sus polos magnéticos como un faro – en realidad emite dos pulsos distintos; uno es llamado pulso principal, y el otro, que está a unos 160 grados del principal en la rotación, es llamado interpulso.

Observaron pulsos individuales en periodos de tiempo muy cortos para separar sus propiedades, y encontraron que el interpulso difiere en tres formas significativas del pulso principal en ciertas frecuencias de radio: produce luz más polarizada – las longitudes de onda de la luz están más alineadas – el interpulso dura más, y la radiación emitida está más dispersa.

“Dado que una física similar debería conducir a procesos de emisión similares, estos modelos sugieren que el pulso principal y el interpulso deberían ser iguales en sus cantidades observables. Quedamos – y seguimos – bastante sorprendidos cuando resultó que esto no sucedía en el púlsar del cangrejo”, escribió Eileck.

En otras palabras, es curioso que el interpulso tenga propiedades distintas, dado que se creía que provenía del mismo mecanismo que el pulso principal. Esto genera gran cantidad de preguntas sobre nuestro conocimiento de la física de los púlsares: ¿Hay otros púlsares como este? ¿Cómo crean los púlsares emisiones de radio tan distintas?

“El Cangrejo es especialmente claro dado el número de componentes de su perfil medio, y también por el hecho de que tiene un número mayor de pulsos muy brillantes que la mayoría de púlsares (esos pulsos “gigantes” son los que brillan lo bastante para permitirnos estudiarlos de forma individual). Pero nadie sabe si esto significa que la física de sus emisiones es especial, o común … aún hay debate sobre eso”, escribió Eileck en respuesta a un correo electrónico.

El equipo de Eileck planea observar otros púlsares con el objetivo de contestar esta pregunta, entre la multitud de ellas que ha generado su investigación.


Autor: Nicholos Wethington
Fecha Original: 23 de octubre de 2007
Enlace Original

Más agujeros extraños en los anillos de Saturno

Los científicos han encontrado pruebas de un cinturón de lunitas en el anillo más externo “A de Saturno (imagen de arriba, banda exterior púrpura). Las lunitas del cinturón se detectaron mediante “estelas” de gravedad de entre 15 y 30 kilómetros de diámetro (en la caja de la imagen inferior) por la nave Cassini de la NASA. Crédito: NASA/JPL/Space Science Institute/ University of Colorado

El descubrimiento de más huecos de formas extrañas en los anillos de Saturno refuerza la idea de que una de las lunas del planeta fue hecha pedazos en una antigua colisión.

Con la forma de hélices de avión, los huecos se formaron, probablemente, cuando “lunitas” del tamaño de un campo de fútbol araron las partículas de los anillos de Saturno mientras orbitaban el planeta, dicen los científicos. Los vacíos en hélice han sido predichos por modelos de ordenador, pero no se habían observado hasta 2004, cuando la nave Cassini reveló cuatro de ellos.

Los científicos encontraron recientemente pruebas de ocho hélices más examinando imágenes tomadas en 2005 por Cassini.

El descubrimiento, detallado en el ejemplar del 25 de octubre de la revista Nature, dan un mayor apoyo a la teoría de que un cometa o asteroide impactó con una de las pequeñas lunas de Saturno hace unos 100 millones de años, creando “miles y miles” de lunitas del tamaño de pedruscos, dijo el miembro del equipo de estudio Miodrag Sremcevic de la Universidad de Colorado en Boulder.

Las lunitas son difíciles de discernir debido a su reducido tamaño. “Necesitas un zoom tan grande que incluso con una nave allí no podemos ver estas lunas de forma individual debido a que son tan diminutas”, dijo Sremcevic. “Pero podemos ver estas hélices, o “alas”, que flanquean a las lunitas”.

Cada hélice tiene aproximadamente 16 kilómetros de largo, y se piensa que las lunitas tienen unos tamaño entre un camión y un campo de deportes.

Las nuevas lunitas flotan a una distancia aproximada de 130 000 kilómetros de Saturno en una banda relativamente estrecha de 3218 kilómetros de anchura, o sólo de 1/80 del tamaño total del sistema de anillos de Saturno.

“Todos esperábamos que estuviesen por todo el anillo”, dijo Sremcevic a SPACE.com. “Nuestro estudio demuestra que están concentradas en ciertas regiones del anillo como en un cinturón”.


Autor: Ker Than
Fecha Original: 24 de octubre de 2007
Enlace Original

Vida y muerte en el universo

Astrónomos de la Universidad de Bonn simula la formación y desintegración de cúmulos estelares.

Las estrellas evolucionan siempre en el universo en grandes grupos conocidos como cúmulos. Los astrónomos distinguen estas formaciones por su edad y tamaño. La cuestión de cómo se crearon los cúmulos de estrellas a partir de las nubes de gas interestelar y por qué se desarrollaron de formas distintas ha sido contestada por investigadores del Instituto Argelander de Astronomía en la Universidad de Bonn con la ayuda de simulaciones por ordenador. Los científicos han resuelto – la menos a nivel teórico – uno de los misterios astronómicos más antiguos, la cuestión de si los cúmulos estelares difieren en su estructura interna. Los hallazgos han sido publicados en la revista científica “Monthly Notices of the Royal Astronomical Society” (MNRAS 380, 1589) .

Superordenador GRAPE

Las observaciones astronómicas han mostrado que todas las estrellas se forman en cúmulos estelares. Los astrónomos distinguen entre, por una parte, pequeños y, según los estándares astronómicos, jóvenes cúmulos que van de varios cientos a varios miles de estrellas y, por otro lado, cúmulos estelares globulares de alta densidad que constan de decenas de millones de estrellas empaquetadas que son tan viejas como el universo. Nadie sabe cuántos cúmulos estelares podría haber de cada tipo, dado que los científicos no han intentado anteriormente computar completamente los procesos físicos que se ocultan tras su génesis.

Las estrellas y cúmulos estelares se forman cuando colapsan las nubes de gas interestelar. Dentro de estas nuble cada vez más densas, surgen “terrones” individuales los cuales, bajo su propio tirón gravitatorio, se van acercando cada vez más y se convierten finalmente en estrellas. De forma similar a nuestro “viento solar”, las estrellas envían fuertes flujos de partículas cargadas. Estos “vientos” literalmente barren el gas restante de la nube. Lo que queda es un cúmulo que gradualmente se desintegra hasta que las estrellas que lo componen pueden moverse libremente en el espacio interestelar de la Vía Láctea.

Los científicos creen que nuestro sola surgió dentro de un pequeño cúmulo estelar que se desintegró en el curso de su desarrollo. “De otra forma nuestro sistema planetario probablemente habría sido destruido por una estrella que se acercase”, dice el Profesor Dr. Pavel Kroupa del Instituto Argelander para Astronomía en la Universidad de Bonn. Para lograr una mejor comprensión del nacimiento y muerte de las agregaciones estelares el Profesor Kroupa y el Dr. Holger Baumgardt han desarrollado un programa de ordenador que simula la influencia de los gases que quedan en el cúmulo sobre las rutas tomadas por las estrellas.

Los grandes cúmulos estelares viven más

El objetivo principal de esta investigación estaba en la pregunta de qué condiciones iniciales deberían verse si un cúmulo estelar recién nacido va a sobrevivir mucho tiempo. Los astrónomos de Bonn descubrieron que los cúmulos por debajo de cierto tamaño se destruyen con gran facilidad debido a la radiación de las estrellas que lo componen. Los grandes cúmulos estelares, por su parte, disfrutan de unas “posibilidades de supervivencia” significativamente mejores.

Para los astrónomos, otra idea importante de este trabajo es que tanto los cúmulos estelares ligeros como los pesados tienen los mismos orígenes. Tal y como explica el Profesor Kroupa, “Parece que cuando nació el universo no había sólo cúmulos globulares sino también incontables mini cúmulos estelares. El reto para la astrofísica es encontrar estos restos”. Los cálculos de Bonn han pavimentado el camino para esta búsqueda proporcionando algunas valiosas sugerencias teóricas.

El Instituto Argelander ha sido equipado recientemente con cinco “Ordenadores GRAPE”, los cuales funcionan a velocidades 1000 veces mayores que un PC normal. Están siendo desplegados no sólo para investigación, sino para la enseñanza relacionada con la investigación: “Gracias a las instalaciones de GRAPE, nuestros estudiantes y profesores junior están aprendiendo a aprovechar la potencia de los supercomputadores y el software desarrollado específicamente para ellos”. El Instituto Argelander está considerado a nivel mundial como la Meca de la computación de procesos estelares. A pesar de su enorme capacidad de cálculo, las máquinas necesitaron de varias semanas para completar la simulación.


Fecha Original: 29 de octubre de 2007
Enlace Original

Divisada nueva firma del supersólido

Se acumulan las pruebas sobre la existencia de una extraña y nueva forma de la materia llamada “supersólido”, en la cual una pequeña fracción de helio ultrafrío se desacopla del resto del sólido y fluye sin resistencia a través del material como si no estuviese allí. Aunque los primeros signos claros de supersólidos fueron obtenidos hace tres años por Moses Chan y sus colegas de la Universidad Estatal de Pennsylvania en los Estados Unidos, siguientes investigaciones arrojaron dudas sobre esos hallazgos. Ahora, sin embargo, Chan ha medido el calor específico de varias muestras de helio-4 y ha hallado un pico en los datos que según dice es una firma “probable” de la fase de supersólido (Nature 449 1025).

Contenedor de silicio usado por Chan y sus colegas para medir la capacidad de calor del helio-4 sólido: se usó silicio debido a que tiene muy poca capacidad de calor

La supersolidez se predijo pro primera vez en 1969 por parte el teórico ruso Alexander Andreev e Ilya Liftshitz. Dijeron que los huecos en el entramado del helio sólido podrían colapsar en el mismo estado cuántico si el helio se enfriase hasta una temperatura extremadamente baja. Este condensado de Bose-Einstein (BEC) de huecos se comportaría como una entidad coherente, moviéndose a través del resto del sólido como un superfluido.

En 2004 Chan y su estudiante graduado Eun-Seong Kim hallaron las primeras evidencias de superfluidez en un oscilador de torsión, el cual consistía en una célula cilíndrica rellena de helio-4 a alta presión. La célula, que estaba suspendida de una vara, rotaba adelante y atrás mientras se enfriaba. Cuando la temperatura alcanzó aproximadamente los 200 mK, los investigadores observaron un cambio repentino en el periodo de oscilación de la célula, lo que interpretaron como una prueba de que aproximadamente un 1% de helio se había “desacoplado” del helio-4 sólido y no estaba oscilando.

Aunque esto fue tomado como un signo de supersolidez, posteriores experimentos de Chan y otros científicos revelaron que la temperatura de desacople y el porcentaje desacoplado variaron significativamente de una muestra a otra. Esto llevó a algunos físicos a sugerir que el efecto observado no estaba provocado por el condensado de los huecos, sino por el flujo del helio superfluido a lo largo de límites entre granos en muestras policristalinas, o por transición a una fase de “supercristal”. A principios de este año Chan y sus colegas repitieron sus experimentos de torsión en un único cristal de helio-4 – el cual no tenía límites entre granos. Esta vez el desacoplamiento se produjo a una temperatura menor, 75 mK, con sólo el 0,3 % de la muestra desacoplada – la mayor evidencia hasta ahora de que los huecos se convierten en superfluido.

Ahora Chan y sus colegas han medido el calor específico – la energía requerida para cambiar la temperatura de un material – de varias muestras de helio-4. Encontraron picos en el calor específico a aproximadamente 75 mK, lo cual les llevó a concluir que era una “probable” señal de la fase de supersólido. “Si existe una transición de fase real del sólido normal a la fase de supersólido, debería haber una firma termodinámica, como un pico en el calor específico del helio sólido”, explicó Chan. No obstante, el experimento no estaba diseñado para medir el desacoplamiento simultáneo de masa, y por tanto el equipo no puede tener certeza absoluta de que el pico esté asociado con la supersolidez.

El equipo también encontró que la dependencia de temperatura del calor específico estaba reñida con la esperada si se estaba formando un estado cristalino en el sólido – descartando la explicación del supercristal para el desacoplamiento.

El pico en la capacidad de calor sugiere que el estado supersólido surge en un segundo orden o transición de fase continua – igual que la superfluidez. “No existe un consenso teórico sobre la naturaleza de esta fase supersólida”, dijo Chan, “pero basándonos en nuestro conocimiento de los superfluidos, la transición es más probable que sea de segundo orden que de primer orden”.

Chan dijo a physicsworld.com que el equipo había incorporado termómetros más nuevos y sensibles en sus aparatos, lo cual debería permitirles hacerse una mejor idea de la forma exacta del pico. Analizando la forma, el equipo podría obtener una mejor comprensión de la naturaleza de la transición de fase. Chan también es entusiasta respecto a otras firmas de supersolidez tales como el “segundo sonido”, que es un drástico incremento en la conductividad térmica de un material cuando se convierte en un superfluido.


Autor: Hamish Johnston
Fecha Original: 25 de octubre de 2007
Enlace Original

Nos guste o no, la incertidumbre y el cambio climático van de la mano

A pesar de décadas de proyectos científicos cada vez más exactos sobre el cambio climático en la Tierra, aún quedan grandes incertidumbres sobre cuánto calentamiento hay realmente.

Dos científicos de la Universidad de Washington creen que la incertidumbre se mantiene tan alta debido a que el clima es un sistema muy sensible a una variedad de factores, tales como el incremento en los gases invernadero o una mayor concentración de partículas atmosféricas que reflejan la luz solar hacia el espacio.

En esencia, los científicos han encontrado que cuanto más probables son las condiciones que causen que el clima se caliente, mayor incertidumbre existe acerca de cuánto calentamiento hay.

“La incertidumbre y la sensibilidad tienen que ir de la mano. Son inextricables”, dijo Gerard Roe, profesor asociado de la UW de Ciencias del Espacio y la Tierra. “Hemos usado sistemas en los cuales reducir la incertidumbre en la física implica reducir la incertidumbre en la respuesta aproximadamente en la misma proporción. Pero no es así como funciona el clima”.

Roe y Marcia Baker, profesora emérita de la UW de Ciencias del Espacio y de la Tierra y de Ciencias Atmosféricas, han ideado y probado una teoría que creen que puede ayudar a los modeladores y observadores del clima a comprender el rango de posibilidades de distintos factores, o “feedbacks”, implicados en el cambio climático. La teoría está incluida en un artículo publicado en la edición del 26 de octubre de la revista Science.

En la votación política, conforme se pregunta a más y más gente las mismas cuestiones la incertidumbre, expresada como margen de error, decae sustancialmente y la votación se convierte en una clara instantánea de la opinión pública de ese momento. Pero resulta que con el clima, la investigación adicional no reduce sustancialmente la incertidumbre.

La ecuación ideada por Roe y Baker ayuda a los modeladores a comprender las incertidumbres incorporadas de tal forma que los investigadores puedan obtener resultados significativos tras ejecutar los modelos climáticos sólo unas pocas veces, en lugar de tener que ejecutarlo varias miles de veces y ajustar varios factores climáticos cada vez.

“Es un criterio contra el que se pueden probar modelos climáticos”, dijo Roe.

Los científicos han proyectado que simplemente doblando el dióxido de carbono de la atmósfera de los niveles de la Revolución pre-Industrial incrementaría la media de la temperatura global aproximadamente 1 grado. Sin embargo, tal proyección no tiene en cuenta los feedbacks climáticos – los procesos físicos en el sistema climático que amplifican o atenúan la respuesta. Esos feedbacks elevarían la temperatura incluso más, tanto como otros 2,8 grados de acuerdo con las proyecciones más probables. Un ejemplo de un feedback es que una atmósfera más cálida retiene más vapor de agua, que es él mismo un gas invernadero. El incremento en el vapor de agua amplifica entonces el efecto sobre la temperatura provocado por el incremento original del dióxido de carbono.

“La sensibilidad a la concentración de dióxido de carbono es sólo una de las medidas del cambio climático, pero es la medida estándar”, dijo Roe.

Antes de la Revolución Industrial que comenzó a finales del siglo XVIII, el dióxido de carbono atmosférico estaba en una concentración de 280 partes por millón. Hoy es de aproximadamente 380 partes por millón y se estima que alcanzará entre 560 y 1000 partes por millón a finales de siglo.

La cuestión es qué hará todo el dióxido de carbono añadido con al temperatura del planeta. La nueva ecuación puede ayudar a proporcionar una respuesta, dado que vincula la probabilidad del calentamiento con la incertidumbre en los procesos físicos que afectan a cuánto calentamiento tendrá lugar, dijo Roe.

“El truco está en que pequeñas incertidumbres en los procesos físicos se amplifican en grandes incertidumbres en la respuesta climática, y no hay nada que se pueda hacer respecto a eso”, dijo.

Aunque la nueva ecuación ayudará rápidamente a los científicos a ver los impactos más probables, también mostrará que los cambios de temperatura más extremos – tal vez de 9 grados o más en la media global – son posibles, aunque no probables. Este mismo resultado se informó en estudios previos que usó miles de simulaciones por ordenador, y la nueva ecuación demuestra que las posibilidades extremas son fundamentales para la naturaleza del sistema climático.

Mucho dependerá de lo que suceda con las emisiones de dióxido de carbono y de otros gases invernadero en el futuro. Dado que pueden permanecer en la atmósfera durante décadas, incluso un ligero decremento en las emisiones es improbable que haga más que estabilizar las concentraciones globales, dijo Roe.

“Si todo lo que hacemos en estabilizar las concentraciones, entonces aún estaremos arriesgándonos a los cambios de temperatura más altos mostrados en los modelos”, dijo.


Autor: Vince Stricherz
Fecha Original: 25 de octubre de 2007
Enlace Original

El Universo

¿Dónde estamos?

Nuestro pequeño planeta, inmerso en el espacio, que gira alrededor de una estrella común, se encuentra en el brazo (brazo de Orión) de una enorme galaxia espiral, la Vía Láctea, una más de las innumerables que se encuentran distribuidas por el universo. Cerca de la Tierra se encuentran otros planetas, planetas enanos, satélites, asteroides y cometas, todos ellos orbitando nuestro Sol, atrapados por su potente fuerza de atracción gravitatoria, formando lo que llamamos el Sistema Solar.

Representación artística de la Vía LácteaCrédito: NASA
Representación artística del Sistema Solar
Crédito: NASA

Alrededor de nuestro sistema estelar, a miles de años luz de distancia, se encuentran millones y millones de estrellas de todo tipo, enanas, supergigantes, agujeros negros, púlsares, estrellas múltiples …; hay lugares donde nacen las estrellas y otros donde quedan los restos de las muertes de otras, como las nebulosas; y existen lugares donde parecen congregarse las estrellas, como los cúmulos. Todo este impresionante conjunto forma nuestra galaxia, la Vía Láctea. Se piensa que nuestra galaxia puede albergar unos 100.000 millones de estrellas.La Vía Láctea se encuentra en un grupo de galaxias, el llamado Grupo Local, formado por unas 30 galaxias, divididas en 3 grandes grupos, uno por cada galaxia masiva del grupo:

  • El Sistema de Andrómeda, que lo integran la propia Andrómeda (M31), M32, M110, NGC 147, NGC 185, Andrómeda I, Andrómeda II, Andrómeda III y Andrómeda IV.
  • El Sistema de la Vía Láctea, integrado por la Vía Láctea, Enana de Sagitario, Gran Nube de Magallanes, Pequeña Nube de Magallanes, Enana de Ursa Minor, Enana de Draco, Enana de Carina, Enana de Sextans, Enana de Sculptor, Enana de Formas, Leo I, Leo II y Enana de Tucana.
  • El Sistema del Triángulo, integrado por M33 y Enana de Piscis.
Galaxia NGC 4038-4039
Crédito: NASA , ESA , and the Hubble Heritage Team ( STScI / AURA )- ESA /Hubble Collaboration
Crédito: NASA
Galaxia espiral del Triángulo (M33)
Crédito: NASA

A su vez, este cúmulo de galaxias, queda integrado dentro del Supercúmulo de Virgo, el cual está formado por unos 10 grupos o cúmulos de galaxias. Se estima que pueden existir unos 10 millones de supercúmulos en el universo.

Cómo comenzó

Se cree que todo comenzó hace unos 15.000 millones de años, cuando todo el material del universo se encontraba concentrado en un solo punto. Las investigaciones indican que hubo una gran explosión, el llamado Big Bang, y desató el inicio de la formación del universo. En los primeros instantes de la explosión el universo se convierte en una inmensa bola de fuego que aumenta de tamaño a muchísima velocidad y con una temperatura de miles de millones de grados. Aproximadamente un minuto después de la explosión, el universo se ha convertido en un enorme reactor termonuclear y se comienzan a formar los primeros núcleos de helio a partir de los de hidrógeno. Es necesario que transcurran miles de años para que la temperatura descienda lo suficiente para que se puedan formar los átomos, es entonces cuando la materia comienza a agruparse por la fuerza de la gravedad y surgen las primeras estrellas. Se necesitarán aún miles de millones de años para que, gracias a la formación de inmensas nubes de gas, compuestas primordialmente de hidrógeno y helio, y por su propia gravitación, comiencen a aparecer las primeras galaxias.

Evolución del universo y de las galaxiasCrédito: NASA, ESA y A. Feild (STScl)
Galaxias espirales, NGC 2207 y 2163 interactuando
Crédito: NASA, ESA, Hubble Heritage Team (STScl)

No se conoce la forma exacta del mecanismo de la formación de una estrella, pero de alguna manera el gas se empieza a aglutinar en diferentes puntos bajo el efecto de su propia gravedad, formando nubes cada vez más densas. Un núcleo denso, que podría ser unas 60 veces mayor que el sol, la protoestrella, empieza a formase rodeado por un halo de gas. Debido al aumento de presión, cada vez mayor, y tras unos 50.000 años, el centro de la protoestrella se vuelve tan caliente que da principio la combustión nuclear y se inicia la transformación de átomos de hidrógeno en átomos de helio. Ha nacido una estrella.La fuerza de expansión de la energía liberada en esta transformación contrarresta la fuerza de la gravedad de la estrella, lo que impide que se colapse totalmente y se estabilice. Al cabo de unos 10 millones de años se acaba el hidrógeno del núcleo. Al no existir una fuerza que contrarreste a la gravedad, éste se contrae y calienta aún más. Al mismo tiempo, el hidrógeno restante, en una corteza exterior, continúa fusionándose y se convierte en helio; la estrella se expande hasta llegar a ser una gigante roja. El núcleo se calienta al grado de poder convertir, por fusión, el helio en carbono. En fusiones sucesivas, el carbono da origen a elementos mas pesados, hasta llegar al hierro. Al llegar a éste ya no se genera más energía por fusión nuclear, y la parte media de la estrella se desintegra en forma catastrófica por efecto de su propia gravedad. El colapso libera energía hacia las partes exteriores y origina la explosión mas violenta que se conoce en el universo: la supernova.

Supernova 1994D en Galaxia NGC 4526 (abajo-izquierda)Crédito: NASA, ESA, The Hubble Key Project Team, and The High-Z
Supernova Search Team

Después de la explosión, la supernova despide ondas de choque y nubes de gas. A partir de este gas se forma una nueva generación de estrellas, enriquecidas con elementos creados en las fusiones de la vieja estrella y elementos mas pesados creados en la tremenda explosión, y en el caso el Sol, de planetas en los que puede evolucionar la vida. Así, cada átomo de nuestro mundo se fusionó en el núcleo incandescente de una estrella gigante, que al explotar esparció los elementos necesarios para la formación de estrellas y planetas. Fue la primera generación de estrellas, estrellas gigantes, las cuales han desaparecido casi en su totalidad, y vivimos gracias a su legado. No todas las estrellas de la primera generación fueron así, pero estas son las que hicieron posible la creación de los planetas y de nosotros mismos.De la supernova solo sobrevive el núcleo, de una extraordinaria densidad y de pocos kilómetros de diámetro. La enorme presión generada logra triturar absolutamente todo hasta convertirlo en neutrones, los que se concentran y compactan. Ha nacido una estrella de neutrones, la cual gira hasta 30 veces por segundo y emite señales de radio que se concentran en los polos magnéticos. Al barrer el espacio como el haz de la luz de un faro, los radioastrónomos captan esas señales en forma de pulsaciones, por ello, en su descubrimiento se los llamó púlsares.Si la masa inicial es de 50 veces la del Sol, en vez de convertirse en una supernova, la inmensa fuerza de la gravedad hará que la estrella implosione sin remedio hasta convertirla en un agujero negro, donde ni siquiera la luz es capaz de escapar al intenso campo gravitatorio y donde el espacio y el tiempo se funden y contraen.

Visión artística de un agujero negroCrédito: NASA, G. Bacon (STScl)

Nuestro sistema

Durante la formación de una estrella como el Sol, los fragmentos de una nube de gas llegan a tardar un millón de años en contraerse hasta el tamaño del sistema solar. A medida que la nube se compacta, la liberación de energía gravitacional calienta el núcleo, el cual comienza a resplandecer. Un millón de años después de la condensación de la nube original, el Sol medía la mitad de su diámetro actual y su brillantez era de una vez y media la de la actual. En su núcleo se inician las reacciones termonucleares. La rotación obtenida al contraerse, aplanó la nube original y la cambió a un disco plano. El polvo y el gas del disco se aglutinaron en la periferia hasta formar protoplanetas.30 millones de años después, el Sol alcanzó un estado semejante al que tiene ahora. Se inicia la transformación de hidrógeno en helio. Los protoplanetas crecieron lo suficiente para lograr atraer casi todas las partículas circundantes y convertirse así en planetas. El sistema se estabiliza y transcurren unos 4.600 millones de años así.El hidrógeno de nuestra estrella se consumirá en unos 4.000 millones de años más. En ese momento, la combustión del hidrógeno se extenderá a las capas exteriores, las cuales se expandirán, como una gigante roja, absorbiendo en ese proceso a todos los planetas interiores. El helio que quedaba en el núcleo también se agotará, haciendo que el núcleo se contraiga y se caliente más, aunque no lo suficiente como para quemar elementos mas pesados. Las capas superiores del hidrógeno sin quemar se expandirán y formarán una nebulosa planetaria, y las capas inferiores darán lugar a una estrella enana blanca. Con el tiempo, la enana blanca se enfriará hasta convertirse en una enana negra, fría y densa, que no irradiará energía y será invisible.

Nebulosa PlanetariaCrédito: NASA, Raghvendra Sahai, John Trauger (JPL), and the WFPC2 Science Team
Visión artística de una enana blanca, Sirio BCrédito: NASA, ESA y G. Bacon (STScl)

Nacimiento de un planeta

De una forma similar a las estrellas se forman los planetas, pues se forman a partir de las mismas nubes de gas y polvo, con la diferencia de que se trata de objetos en los que no se desarrollan procesos de fusión nuclear. El comienzo de su creación parte de los discos de gas y polvo que se han observado alrededor de algunas estrellas recién formadas, discos en los que las partículas se atraen unas a otras y se fusionan en objetos que cada vez tienen un mayor tamaño. Con el incremento de masa, se aumenta cada vez más rápidamente su fuerza de atracción sobre los objetos circundantes, terminando por “limpiar” la vecindad de su órbita.

Anillo de polvo alrededor de Fomalhaut. Estas observaciones se consideran la evidencia de la presencia de un planeta gigante modelando la densidad de polvo en el anillo de material observado.Crédito: NASA , ESA , P. Kalas and J. Graham (University of California, Berkeley) and M. Clampin ( NASA /GSFC)
Ilustración del supuesto planeta que orbita Fomalhaut por el interior del anillo, con estrellas y constelaciones de fondo, incluido el Sol en la constelación de Leo.Crédito: NASA , ESA and A. Feild ( STScI )

En nuestro sistema contamos con ocho planetas, cuatro de tipo telúrico o rocosos (Mercurio, Venus, la Tierra y Marte) y otros cuatro de tipo joviano, esencialmente gaseosos (Júpiter, Saturno, Urano y Neptuno).Desde el año 1955, cuando se descubrió el primer planeta extrasolar (exoplaneta) orbitando la estrella 51 Pegasi b, la cifra ha ascendido a mas de 200 planetas, que en su mayoría corresponden con planetas gigantescos del tipo joviano y en algunos casos corresponden con sistemas planetarios múltiples (mas de un planeta orbitando una misma estrella, siendo el primer sistema múltiple detectado el de Upsilom Andromedae), aunque esto es normal, pues son los más fáciles de detectar con los medios técnicos disponibles. El planeta con una masa mas parecida a nuestra Tierra es OGLE-2005-BLG-390L b, orbitando a una estrella en la constelación de Sagitario, con unas 5,5 veces la masa de la Tierra.

Visión artística del exoplaneta OGLE-2005-BLG-390L bCrédito: NASA y ESA

Cómo evolucionan las estrellas

Como será una estrella y su final depende casi en exclusiva de la masa que tenía la nube de gas que se compactó para crearla. Si la nube original no tuviera la masa suficiente para iniciar procesos termonucleares del hidrógeno, se parecerían mas a un planeta gaseoso como Júpiter. A estas estrellas se las denomina enanas marrones. Objetos con una masa inferior a 80 veces la masa de Júpiter exhiben este comportamiento.

Objeto candidato a enana marrón (B), CHXR 73 B. orbitando alrededor de una enana roja (A)Crédito: NASA, ESA y K. Luhman (Penn State University)

Si la masa inicial está por debajo de 0,5 veces la del Sol, solo conseguirán quemar el hidrógeno, convirtiéndose en enanas blancas de helio, con una vida en torno a los 50.000 millones de años. Son los objetos más longevos del universo.Si la masa está entre 0,5 y 10 veces la del Sol, al agotar el hidrógeno serán capaces de calentarse lo suficiente como para iniciar la combustión del helio, acabando sus días como enanas blancas de carbono y oxígeno; y formando una nebulosa planetaria. Es el caso de nuestra estrella.Si la masa es superior a 11 veces la del Sol, evolucionan a través de todas las fases de combustión hasta llegar al hierro y agotar así toda la energía potencial nuclear de que disponen. El final de estas estrellas será el inmenso estallido de una supernova, dejando como remanente una estrella de neutrones.Mas allá de las 50 masas solares, la gravedad es tan excesiva que no hay nada que pueda contrarrestar el colapso total de la estrella, convirtiéndose en un agujero negro.

Cómo acabará

Posibles escenarios para el universoCrédito: NASA y A. Feild (STScl)

Desde el gran estallido original, Big Bang, el universo se sigue expandiendo, y las últimas mediciones indican que cada vez lo hace a mayor velocidad. Al mismo tiempo, toda la materia del universo se atrae la una a la otra por efecto de la gravedad. Esta fuerza podría ser capaz de detener la expansión, incluso de invertirla, todo dependerá de la cantidad de materia que exista, y esta es la gran incógnita, pues solo somos capaces de ver aproximadamente el 1% del total. El 99% restante la materia se cree que está ubicada en los inmensos halos que rodean a las galaxias, pero no la podemos ver ni medir, a esta materia es a la que se denomina materia oscura.Dependiendo de la cantidad de materia total se vierten dos hipótesis:La primera se basa en que la masa total existente no será suficiente para detener la expansión, abocando al universo a una expansión infinita, en la que las estrellas terminarán por consumir el total del combustible disponible y se terminarán apagando. Se trata de un universo oscuro, frío y yelmo. Se trata del Big Rip o Gran Desgarramiento, en la que la gravedad se llega a hacer tan débil que primero los sistemas solares perderían su cohesión, se difuminarían las estrellas y los planetas y al final terminarían destruyéndose los átomos, llegando el fin del tiempo, el cual se ha estimado en unos 35.000 millones de años.La segunda es todo lo contrario. Si la masa disponible en el universo es suficiente para detener la expansión e invertirla, donde el universo volvería a comprimirse hasta colapsarse en una singularidad dentro de unos 20.000 millones de años, se trata del Big Crunch o la Gran Implosión. Este colapso podría volver a originar un nuevo Big Bang.


Fuente: Aportado por Vicente Díaz a la web El Cielo del Mes y reproducido en Ciencia Kanija bajo consentimiento del autor.

Informe de agujeros negros perdidos: ¡Se hallan cientos!

Los astrónomos han desenmascarado cientos de agujeros negros ocultos en el interior de polvorientas galaxias a miles de millones de años luz de distancia.

Los masivos y crecientes agujeros negros descubiertos por los telescopios espaciales de la NASA, Spitzer y Chandra, representan una gran parte de una población perdida buscada durante largo tiempo. Su descubrimiento implica que hubo cientos de millones de agujeros negros adicionales creciendo en nuestro joven universo, más del doble de la cantidad conocida a tal distancia.

Agujero negro en crecimiento, llamado quásar, puede ser visto en el centro de una galaxia lejana en este concepto artístico. Crédito de la imagen: NASA/JPL-Caltech

“Los agujeros negros supermasivos activos estaban por todos sitios en el joven universo”, dijo Mark Dickinson del Observatorio de Astronomía Óptica Nacional en Tucson, Arizona. “Habíamos visto la punta del iceberg antes en nuestra búsqueda de estos objetos. Ahora podemos ver todo el iceberg”. Dickinson es el coautor de dos nuevos artículos que aparecen en el ejemplar del 10 de noviembre de la revista Astrophysical Journal. Emanuele Daddi de la Comisión de la Energía Atómica en Francia lideró la investigación.

Los hallazgos son también las primeras pruebas directas de que la mayoría, si no todas, de las galaxias masivas del universo distante pasan sus juventudes construyendo monstruosos agujeros negros en sus núcleos.

Durante décadas, una gran población de agujeros negros activos se ha considerado perdida. Estas estructuras altamente energéticas pertenecen a la clase de agujeros negros llamados quásares. Un quásar consiste en una nube de gas y polvo en forma de rosquilla que rodea y alimenta a un agujero negro supermasivo que inicia su desarrollo. Conforme el gas y el polvo son devorados por el agujero negro, se calientan y lanzan rayos-X. Esos rayos-X pueden ser detectados como un brillo general en el espacio, pero a menudo los mismos quásares no pueden verse directamente debido a que el polvo y gas bloquean nuestra visión.

“Sabíamos por otros estudios anteriores de hace 30 años que debía haber más quásares en el universo, pero no sabíamos dónde encontrarlos hasta ahora”, dijo Daddi.

Daddi y su equipo se propusieron estudiar 1000 galaxias masivas polvorientas que tenían gran formación estelar y se pensaba que carecían de quásares. Las galaxias tienen aproximadamente la misma masa que nuestra galaxia espiral de la Vía Láctea, pero con una forma irregular. A una distancia entre 9 y 11 mil millones de años luz, existieron en una época en la que el universo era adolescente, con una antigüedad entre 2500 y 4500 millones de años.

Cuando los astrónomos revisaron las galaxias más de cerca con los ojos infrarrojos del Spitzer, notaron que aproximadamente 200 galaxias emitían una cantidad inusual de luz infrarroja. Los datos de rayos-X de Chandra, y una técnica llamada “stacking” (apilamiento), revelaron que las galaxias estaban, de hecho, escondiendo enormes quásares en su interior. Los científicos ahora creen que los quásares calientan el polvo de las nubes en forma de rosquilla que los rodean, liberando el exceso de luz infrarroja.

“Encontramos la mayor parte de quásares ocultos del joven universo”, dijo Daddi. Previamente, sólo los más extraños y más energéticos de tales agujeros negros ocultos se habían visto en esta época temprana.

Los quásares recién hallados están ayudados a contestar cuestiones fundamentales sobre cómo evolucionan las galaxias masivas. Por ejemplo, los astrónomos han aprendido que las galaxias más masivas forman a ritmo constante sus estrellas y agujeros negros de forma simultánea hasta que son demasiado grandes y los agujeros negros suprimen la formación estelar.

Esta imagen, tomada con la visión infrarroja de Spitzer, muestra una fracción de los agujeros negros, que están situados en las profundas entrañas de las galaxias distantes masivas (con un círculo azul).

Las observaciones también sugieren que las colisiones entre galaxias podrían no desempeñar un papel en la evolución galáctica como se pensaba anteriormente. “Los teóricos pensaban que las fusiones entre galaxias eran un requisito para iniciar la actividad del quásar, pero ahora vemos que pueden estar activos en galaxias sin choques”, dijo el coautor David Alexander de la Universidad de Durham en el Reino Unido.

“Es como si antes tuviésemos los ojos vendados al estudiar al elefante, y no estuviésemos seguros de qué tipo de animal teníamos”, dijo el coautor David Elbaz de la Comisión de la Energía Atómica. “Ahora podemos ver al elefante por primera vez”.

Las nuevas observaciones se realizaron como parte de la Investigación de los Orígenes Profundos de Grandes Observatorios, la investigación más sensible hasta la fecha del universo lejano a múltiples longitudes de onda.

Recientemente hubo resultados consistentes obtenidos por Fabrizio Fiore del Observatorio Astronómico de Roma, Italia, y su equipo. Sus resultados aparecerán en el ejemplar del 1 de enero de 2008 de la revista Astrophysical Journal.

El Centro de Vuelo Espacial Marshall de la NASA en Huntsville, Alabama, gestiona el programa Chandra para el Consejo de Misión Científica. El Observatorio Astrofísico Smithsoniano controla las operaciones científicas y de vuelo del Centro de rayos-X Chandra en Cambridge, Massachussetts. EL Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California, gestiona la misión del Telescopio Espacial Spitzer para el Consejo de Misión Científica de la NASA en Washington. Las operaciones científicas se llevan a cabo en el Centro de Ciencia de Spitzer en el Instituto Tecnológico de California, también en Pasadena. Caltech gestiona el JPL para la NASA.

El Observatorio Astronómico Óptico Nacional está operado por la Asociación de Universidades para la Investigación en Astronomía bajo un acuerdo de cooperación con la Fundación Nacional de Ciencia.

Para más información y gráficos, visita http://www.spitzer.caltech.edu/spitzer y http://www.nasa.gov/spitzer y http://chandra.harvard.edu/ y http://www.nasa.gov/mission_pages/chandra/main/index.html.


Fecha Original: 25 de octubre de 2007
Enlace Original

¿Es hora de dejar atrás la Teoría de la Gravitación de Newton?

Durante casi 75 años, los astrónomos han creído que el universo tenía una gran cantidad de materia invisible o “materia oscura”, que constituía cinco sextas partes de la materia del cosmos. Con la Teoría de la Gravitación convencional, basándose en las ideas de Newton y refinadas por Einstein hace 92 años, la materia oscura ayuda a explicar el movimiento de las galaxias y cúmulos de galaxias a las mayores escalas.

Cúmulo Bala

Ahora dos investigadores canadienses del Instituto Perimeter para Física Teórica sugieren que el movimiento de las galaxias en un cúmulo distante se explica más fácilmente mediante una Teoría de Gravedad Modificada (MOG) que por la presencia de materia oscura. El estudiante graduado Joel Brownstein y su supervisor el Profesor John Moffat de la Universidad de Waterloo presentarán sus resultados en un artículo de la edición del 21 de noviembre de Monthly Notices of the Royal Astronomical Society.

Los dos científicos analizaron las imágenes del “Cúmulo Bala” de galaxias usando el Telescopio Espacial Hubble, el observatorio de rayos-X Chandra el observatorio infrarrojo Spitzer y el Telescopio Magallanes en Chile. El Cúmulo Bala consta de dos cúmulos de galaxias en fusión y está a una distancia de aproximadamente 3000 millones de años luz en la dirección de la constelación sureña de Carina.

Este arsenal de instrumentos les dio mapas del gas caliente a 150 millones de grados entre las galaxias y mostrando el efecto de lente gravitatoria, donde la gravedad de un objeto – en este caso el Cúmulo Bala – desvía parte de la luz emitida por una galaxia más distante.

Estudios previos sugerían que el Cúmulo Bala demostraba claramente la presencia de materia oscura. Pero cuando Brownstein y Moffat compararon la lente gravitatoria observada y la distribución de gas predicha usando la Teoría MOG, encontraron que no había prueba de tal materia oscura. En otras palabras, es más natural explicar la apariencia de este cúmulo usando una Teoría de Gravitación revisada que incluyendo la materia oscura.

La Teoría MOG surge de una generalización de la relatividad que incuso Einstein esquivó. La teoría ha sido desarrollada por Moffat durante casi 30 años y ahora está arrojando resultados astronómicos y cosmológicos. Ha sido usada con éxito para explicar el movimiento de estrellas en unas 100 galaxias y en más de 100 cúmulos. La Teoría MOG puede explicar también la aparentemente anómala deceleración de las sondas espaciales Pioneer 10 y 11, lanzadas a principios de los años 70 y ahora a más de 12 000 millones de kilómetros del Sol.

Los dos físicos están entusiasmados con sus hallazgos. Brownstein comenta que “Usando la Teoría de Gravedad Modificada, la materia “normal” del Cúmulo Bala es suficiente para el efecto de lente gravitatoria observada. Con el tiempo, mejores observaciones llevarán a imágenes con mejor resolución de los sistemas que estamos estudiando. Continuar con la investigación y luego analizar otros cúmulos de galaxias en fusión nos ayudarán a decidir si la Teoría de la materia oscura o de la MOG ofrecen mejores explicaciones para las estructuras a gran escala del universo”.

El Profesor Moffat añade que, ‘Si los experimentos de laboratorio multimillonarios que están en proceso para detectar directamente la materia oscura tienen éxito, entones me alegraré de que se mantengan la gravedad Einsteniana y Newtoniana. Sin embargo, si no se detecta la materia oscura y tenemos que concluir que no existe, entonces la gravedad Einsteniana y Newtoniana deben ser modificadas para que encajen con la extensa cantidad de datos astronómicos y cosmológicos, tales como los del Cúmulo Bala, que no pueden explicarse de otra forma”.


Autor: Robert Massey
Fecha Original: 26 de octubre de 2007
Enlace Original

Siguiente modelo de la Teoría de Cuerdas

Ernest Rutherford solía contar a sus estudiantes de física que si no podían explicar un concepto a una camarera, realmente no entendían el concepto. En lo que concierne a las implicaciones cosmológicas de la Teoría de Cuerdas, tanto las camareras como los físicos están en dificultades — un aprieto que el teórico de cuerdas de SLAC, Shamit Kachru, espera resolver pronto.

Distintos espacios de “Calabi-Yau”como los de la imagen ofrecen prometedores modelos candidatos para modelos inflacionarios de la Teoría de Cuerdas. Shamit Kachru y sus colegas esperan encontrar un modelo “de juguete” más simple para ayudar a los teóricos de cuerdas a abordar temas conceptuales básicos

La Teoría de Cuerdas es actualmente el candidato más popular a una Teoría Unificada de las fuerzas fundamentales, pero no se comprende completamente — y las pruebas experimentales son notoriamente esquivas. Los físicos pueden, sin embargo, lograr una visión crucial sobre la teoría evaluando con qué precisión pueden predecir sus modelos el universo observado.

Usando esta aproximación indirecta, Kachru, en colaboración con los teóricos de la Universidad de Rutgers y el Instituto Tecnológico de Massachusetts, buscaron modelos que pudiesen reproducir la inflación — el paradigma cosmológico predominante en el cual el universo naciente experimentó un fugaz periodo de expansión exponencial. Aunque ya hay un cuerpo sustancial de literatura presentando tales modelos — generados en parte por las publicaciones de Kachru y sus colegas de Stanford y SLAC Renata Kallosh, Andrei Linde y Eva Silverstein en 2003 — la complejidad de los modelos deja lugar a la duda.

“Incorporan la inflación, y son los modelos más realistas de la Teoría de Cuerdas”, dijo Kachru, “pero son complejos. Son estrambótico. Tienen un motón de “partes móviles”, y necesitamos ajustarlas finamente cada una de ellas, por lo que no pueden verificar nada con un alto grado de precisión. Nos fuerza a preguntar — ¿confiamos que realmente comprendemos lo que está sucediendo?”

Para lograr una comprensión exhaustiva de cómo la inflación puede embeberse en la Teoría de Cuerdas, Kachru y sus colaboradores emplearon una táctica pedagógica. “Lo que queríamos era un modelo “de juguete” explícito”, explicó Kachru. “El objetivo no era tener algo realista, sino algo que nos permitiese comprender todo de cada detalle”.

“Existen preguntas conceptuales sobre cómo se supone que trabaja la inflación”, continuó Kachru. “Para comprender estos temas, es mejor tener un modelo simple. Hay demasiado desorden en los ejemplos complicados, no se puede desentrelazar los temas conceptuales del desorden”.

El grupo investigó tres versiones de las formulaciones más simples de la Teoría de Cuerdas, y encontraron que eran incompatibles con la inflación. “Esto significa que tenemos que considerar escenarios ligeramente más complicados”, dijo Kachru. “Hay un montón de niveles entre esto y los modelos de funcionamiento complejo, por lo que finalmente encontraremos uno”.

Kachru y sus colegas publicaron su trabajo en Physical Review Letters D, proporcionando un marco de trabajo para otros en la búsqueda de modelos inflacionarios simples de la Teoría de Cuerdas. “Existen muchos modelos exitosos que incorporan la Teoría de Cuerdas y la inflación, por lo que sin duda encontraremos una versión más simple. Cuando encontremos la versión “de juguete”, donde todas las partes móviles son obvias, podremos afrontar las preguntas fundamentales básicas sin perdernos en los detalles”.


Autor: Elizabeth Buchen
Fecha Original: 24 de octubre de 2007
Enlace Original

Se sospecha de un defecto cósmico en el tejido del espacio-tiempo

Un enorme punto frío en el universo podría explicarse mediante un defecto cósmico en el tejido del espacio-tiempo creado poco después del Big Bang, dicen los científicos.

La figura muestra una colección aleatoria de texturas tomadas de simulaciones de supercomputadores en alta resolución. El rojo indica un giro positivo en la densidad de carga topológica y el azul un giro negativo. Crédito: V. Travieso y N. Turok/Universidad de Cambridge

De confirmarse en futuros estudios, el hallazgo, detallado en el ejemplar del 25 de octubre de la revista Science, podría proporcionar a los cosmólogos una pista buscada desde hace tiempo de cómo evolucionó el universo en sus inicios.

Pero otros científicos, e incluso miembros del estudio, son escépticos respecto a esta nueva afirmación.

Cubitos de hielo cósmicos

Los científicos creen que poco después del Big Bang, cuando el universo se enfrió y expandió, las partículas exóticas se transformaron en las partículas que hoy conocemos a través de transiciones de fase similares a las transiciones gas-líquido-sólido que la materia experimenta ahora en la Tierra.

Y como las transiciones de fase en la Tierra, los defectos tienen lugar de forma inevitable. Cuando el agua cristaliza en hielo, por ejemplo, aparecen puntos nubosos en el hielo que marca donde las moléculas de agua están desalineadas. Los físicos predicen que defectos similares habrían sucedido durante las transiciones de fase en los inicios del universo, y que los defectos tuvieron lugar de distintas formas.

Esta ilustración muestra cómo las texturas cósmicas llevan a puntos fríos y calientes en la radiación del fondo de microondas cósmico, cuando la radiación de microondas pasa a través de una textura desenrollada recibe un desplazamiento al rojo o al azul. WMAP (arriba) recibe la radiación del fondo de microondas cósmico emitido desde los inicios del universo. En el diagrama, el tiempo corre en dirección vertical y el espacio en la horizontal. La radiación liberada del plasma caliente del inicio del universo (mostrado como la elipse de abajo) viajó a través del espacio hasta nosotros a la velocidad de la luz. Conforme el universo se expande, las texturas de una escala cada vez mayor se forma, colapsan y se desenrollan. Crédito: V. Travieso y N. Turok/NASA

El equipo cree que el punto frío del fondo de microondas cósmico (CMB) – un artefacto de energía del Big Bang que ha sido detectado y cartografiado por el satélite Sonda de Anisotropía de Microondas Wilkinson de la NASA (WMAP) — representa el tipo más complejo de defecto cósmico, una estructura 3-D en forma de mancha llamada textura.

Marcos Cruz del Instituto de Física de Cantabria en España y sus colegas analizaron el punto frío del CMB, el cual se expande a lo largo de 1000 millones de años luz, encontrando que tiene propiedades consistentes con una textura.

“El fondo cósmico de microondas es la imagen más antigua que tenemos del universo, y por tanto es una de las herramientas más valiosas para comprender el origen del universo”, dijo Cruz. “Si este punto es una textura, nos permitiría discriminar entre distintas teorías propuestas sobre cómo evolucionó el universo”.

”Poco convincente”

La evolución del universo, con el tiempo corriendo de izquierda a derecha. La luz más antigua es medida por el satélite WMAP. Esta radiación contiene firmas de objetos tales como texturas cósmicas que se encuentran en el camino hacia nosotros. Crédito: Marcos Cruz/NASA

Otros científicos dicen que la exposición del equipo del defecto cósmico es débil. “Sería espectacular, y una nueva respuesta sobre el joven universo, si el punto frío resultase ser una textura en lugar de una fluctuación aleatoria, lo que es tal vez una explicación más probable”, dijo Lyman Page, miembro del equipo WMAP en la Universidad de Princeton quien no estuvo involucrado en el estudio.

Liliya Williams y Lawrence Rudnick, astrónomos de la Universidad de Minnesota, atribuyeron recientemente el punto frío del CMB no a un defecto cósmico, sino a un enorme “agujero” en nuestra galaxia, carente de estrellas, gas, e incluso materia oscura, una misteriosa sustancia que se piensa que impregna todo el universo pero que hasta ahora se ha mantenido esquiva a la detección.

Un “defecto cósmico es una explicación plausible e intrigante. Sin embargo, no creo que se pueda descartar un vacío como la causa del punto frío del CMB”, dijo Williams en una entrevista por correo electrónico. “Sea cual sea la interpretación correcta, está destinada a abrir una ventana a los inicios del universo, pero lo que veremos a través de la ventana aún no está claro”.

El miembro del equipo del estudio Neil Turok de la Universidad de Cambridge admite que la exposición de su equipo no es “totalmente convincente” por el momento. El punto frío podría ser una textura, pero existe un 1 por ciento de probabilidad de que sea una fluctuación aleatoria en el CMB.

“Lo que lo hace tan interesante es que existe un número de chequeos de seguimiento, que ahora pueden realizarse”, dijo Turok. “Por lo que la hipótesis de la textura ahora es realmente muy comprobable”.

Una textura cósmica causaría que la luz que pasara a través de ella se doblase en un punto de cierta forma que debería ser detectable por futuras misiones espaciales, dijo Turok.


Autor: Ker Than
Fecha Original: 25 de octubre de 2007
Enlace Original

Las galaxias enanas también necesitan materia oscura

Las estrellas de las galaxias enanas esferoidales se comportan de forma que sugieren que las galaxias están completamente dominadas por la materia oscura, según han encontrado astrónomos de la Universidad de Michigan.

Galaxia enana

El profesor de astronomía Mario Mateo y el investigador de posdoctorado Matthew Walker midieron la velocidad de 6804 estrellas en siete galaxias enanas satélite de la Vía Láctea: Carina, Draco, Fornax, Leo I, Leo II, Sculptor y Sextans. Encontraron que, contrariamente a lo que predice la Ley de la Gravedad de Newton, la estrellas de estas galaxias no se mueven más lentamente conforme más alejadas están del núcleo de su galaxia.

“Estas galaxias muestran un problema justo en el centro”, dijo Mateo. “La velocidad no se hace menor. Simplemente se mantiene, lo cual es sorprendente”.

Los astrónomos ya conocían estrellas en galaxias espirales que se comportaban de forma similar. Esta investigación incrementa drásticamente el número de información disponible sobre las galaxias más pequeñas, haciendo posible confirmar que la distribución de la luz y las estrellas en ellas no es la misma que la distribución de la masa.

“Hemos multiplicado por dos la cantidad de datos que están relacionados con estas galaxias, y esto nos permite estudiarlas de una forma sin precedentes. Nuestra investigación demuestra que las galaxias enanas están completamente dominadas por la materia oscura, siempre y cuando la gravedad Newtoniana describa adecuadamente estos sistemas”, dijo Walker. Walker recibió su doctorado en la UM a principios de este año y actualmente tiene un puesto de posdoctorado en la Universidad de Cambridge en el Reino Unido.

La materia oscura es una sustancia que los astrónomos no han observado directamente, pero deducen que existe debido a que detectan sus efectos gravitatorios en la materia visible. Basándose en estas medidas, la teoría predominantes en astronomía y cosmología es que las partes visibles del universo forman sólo una fracción de la materia y energía totales.

El planeta Neptuno fue en una ocasión “materia oscura”, dijo Mateo. Antes incluso de que el término fuese acuñado, los astrónomos predijeron su existencia basándose en una anomalía en la órbita Urano, el vecino de Neptuno. Simplemente sabían dónde buscar a Neptuno.

Durante el pasado cuarto de siglo, los astrónomos han estado buscando al Neptuno del Universo, por así decirlo. La materia oscura podría tomar la forma de estrellas enanas y planetas, partículas elementales incluyendo los neutrinos, o las hipotéticas y aún no descubiertas partículas que no interactúan con la luz visible ni otras partes del espectro electromagnético.

Se cree que la materia oscura mantiene unidas a las galaxias. La fuerza gravitatoria de la materia visible no se considera lo bastante fuerte como para evitar que las estrellas escapen. Sin embargo, existen otras teorías para explicar estas discrepancias. Por ejemplo, la Dinámica Newtoniana Modificada, dijo Mateo, propone que las fuerzas gravitatorias se hacen más fuertes cuando las aceleraciones son muy débiles. Aunque sus resultados se alinean con los modelos actuales de materia oscura, Mateo y Walker dicen que también apoyan esta explicación menos popular.

“Estas galaxias enanas no son mucho a lo que mirar”, continúa Mateo, “pero pueden alterar verdaderamente nuestra visión fundamental de la naturaleza de la materia oscura y, tal vez, incluso de la gravedad”.

Walker presentará un artículo con estos hallazgos en el Reunión Científica Magallanes del 30 de octubre en Cambridge, Massachussets. El artículo que presentará es Velocity Dispersion Profiles of Seven Dwarf Spheroidal Galaxies (Perfiles de Dispersión de Velocidad de Siete Galaxias Esferoidales Enanas). Se publicó en la edición del 20 de septiembre de la revista Astrophysical Journal Letters.



Fecha Original: 24 de octubre de 2007
Enlace Original

¿Cómo funciona la anestesia?

Muchos inventos del siglo XIX – teléfonos, aviones, fonógrafos – han ayudado a dar forma a nuestro mundo moderno. Sin embargo, podría decirse que el descubrimiento de 1846 de la anestesia quirúrgica eficaz tiene un lugar de honor entre los avances del siglo. Antes de la llegada de anestésicos eficaces, la cirugía era el desesperado último recurso que usaba métodos primarios y peligrosos para aliviar las sensaciones del paciente (incluyendo grandes dosis de opio o alcohol, o golpear al paciente para dejarlo inconsciente). Hoy en día, se inyecta novocaína por el dentista, una espinal o epidural durante el parto, sedación profunda para un procedimiento menor, o una anestesia general para una cirugía mayor, el uso de la anestesia efectiva es una rutina que forma parte de nuestros cuidados médicos.

Primeras anestesias

Aunque la mayoría de nosotros hemos experimentado la anestesia, el público general tiene un pequeño entendimiento de qué es y cómo funciona.

De acuerdo con Steve Kimatian, profesor asociado de anestesiología y pediatría en el Colegio de Medicina del Estado de Pennsylvania, la anestesia no es una sola entidad, sino más bien una manipulación de varias funciones fisiológicas del cuerpo.

“En el sentido más básico, se puede decir que la anestesia consiste en cuatro componentes: hipnosis, amnesia, analgesia y relajación muscular”, explica Kimatian.

Estos componentes – que varían desde las inyecciones de anestésicos locales a la anestesia regional (tales como la espinal y la epidural) o a la anestesia general – podrían ser combinadas o usadas por separado dependiendo del tipo de cirugía que necesite el paciente.

A pesar de que pudieras haber pensado que estabas “dormido” para la amigdalectomía de cuando eras un adolescente, técnicamente estabas en un estado de profunda hipnosis. Cuando finalmente despertaste en la sala de recuperación, probablemente no recordaras nada sobre la cirugía – gracias a los efectos de los agentes inductores de amnesia que te proporcionaron.

Pero Kimatian explica que la sedación y la amnesia no necesariamente significan la misma cosa. Puedes estar “dormido” durante el procedimiento pero más tarde recordar oír las voces de los doctores, o puedes también estar “despierto” durante el procedimiento, hablando con los doctores, respondiendo a sus preguntas, y siguiendo sus órdenes, pero no recordar nada.

Dice Kimatian que aunque no recuerdes tener algún dolor durante la cirugía, no significa necesariamente que el dolor no estuviese allí.

Anestesia epidural

“Una persona puede estar sedada y parecer estar dormido, pueden estar amnésicos y no recordar nada, pero su cuerpo puede aún tener una respuesta fisiológica a los estímulos”. “Considera la analogía de la caída del árbol en el bosque. Si tuvieras dolor y no lo recuerdas, ¿realmente tenías dolor? Desde el punto de vista de un anestesiólogo, sí, porque nosotros hemos tratado aquellos cambios fisiológicos que ocurren con la respuesta a los estímulos”.

En casos que necesitan anestesia regional, ¿cómo bloquea el anestesiólogo el tacto de partes específicas del cuerpo y no otras?

Kimatian explica que si tocamos una estufa caliente, los receptores térmicos en nuestra mano envían una señal eléctrica a nuestra médula espinal las cuales se comunican por señales con nuestro cerebro, y nosotros reaccionamos por la experiencia al dolor y movemos nuestra mano por el estímulo. Para asegurarnos que nos sentimos dolor durante una cirugía o procedimiento, el anestesiólogo usa analgésicos o anestésicos locales que bloquean la señal en algún punto entre el estímulo y el cerebro.

“Podría hacer una anestesia regional selectiva en un único dedo, para bloquear sólo los nervios de ese dedo, y no podrías saber si está dolorido”, dijo Kimatian. “O puedes bloquear todos los nervios del antebrazo y así no podrías sentir el dolor allí. Podrías bloquearlo hasta el hombro. Podrías bloquearlo en el espacio epidural donde los nervios entran en el saco espinal, o puedes dejar a la persona completamente dormida y bloquearlo a un nivel cerebral”. El arte y la ciencia de la anestesia, dice Kimatian, es saber cómo adaptar ambas técnicas y la dosis a las necesidades individuales de los pacientes. “Comprender el delicado equilibrio entre los efectos deseados y los efectos secundarios no deseados requiere un conocimiento médico a fondo de la fisiología y la farmacología”, añadió.


Fecha Original: 22 de octubre de 2007
Enlace Original

Ahora puedes ayudar a los científicos a comprender el universo

Un nuevo proyecto de computación distribuida permite a la gente de todo el mundo participar en la investigación cosmológica de vanguardia compartiendo sus ciclos de ordenador sin uso.

Diseñado por un profesor de astronomía, Cosmology@Home es similar a SETI@Home, el popular software que busca datos en los datos de radiotelescopios pruebas de transmisiones extraterrestres.

“Cuando ejecutas Cosmology@Home en tu ordenador, usa parte de la potencia de proceso de tu ordenador, espacio de disco y ancho de banda”, dijo el líder del proyecto Benjamin D. Wandelt, quien enseña astronomía y física en la Universidad de Illinois. “Nuestro objetivo es buscar modelos cosmológicos que describan nuestro universo y concuerden con los datos astronómicos y de física de partículas disponibles”.

Para conseguir esto, los ordenadores participantes calcularán predicciones realizadas por millones de modelos teóricos con distintos parámetros. Las predicciones se compararán entonces con los datos, los cuales incluyen las fluctuaciones en el fondo de microondas cósmico, la distribución a gran escala de las galaxias y la aceleración del universo.

Cosmology@Home podría también ayudar en el diseño de futuras observaciones cosmológicas y preparar el análisis de futuros conjuntos de datos, tales como los recopilados por la nave Planck, dijo Wandelt.


Autor: Personal de Space.com
Fecha Original: 24 de octubre de 2007
Enlace Original

Cometa oscuro que brilla repentinamente

Un pequeño y tenue cometa ha sorprendido a los observadores de todo el mundo esta noche convirtiéndose en lo bastante brillante para verlo a simple vista.

El cometa Holmes, que se descubrió en noviembre de 1892 por Edwin Holmes, en Londres, Inglaterra, no era más brillante de una magnitud 17 a mediados de octubre — esto significa unas 25 000 veces más tenue que la estrella más débil que podemos ver normalmente sin ayuda de instrumentos ópticos. Para ver un objeto tan débil, se necesitaría un telescopio medianamente grande.

La posición del cometa Holmes en el 24 de octubre a las 8 p.m. hora local para latitudes del medio norte

Pero el brillo del cometa se ha disparado repentinamente hasta llegar a una magnitud 3, ¡brillando casi 400 000 veces más en menos de 24 horas! En la escala astronómica, número más pequeños indican objetos más brillantes. Desde localizaciones urbanas, un objeto de magnitud 3 podría estar oculto por la contaminación lumínica, pero bajo los cielos rurales sería claramente visible.

Sin cola

El cometa Holmes no es tan espectacular como otros, ya que carece de la cola característica que hacen tan magníficos a algunos de estos trotamundos helados. En lugar de esto, parece un objeto similar a una estrella borrosa, aunque distinto, pero sin cola apreciable.

El resplandor de la luna puede hacerlo difícil de encontrar. Pero con un mapa y un pequeño telescopio, cualquier astrónomo aficionado con algo de experiencia debería ser capaz de verlo.

El cometa está actualmente situado entre las estrellas de la constelación de Perseus, la cual puede encontrarse a medio camino de la parte noreste del cielo cuando cae la oscuridad. Perseus está casi directamente sobre tu cabeza alrededor de las 2 a.m. de la hora local y se mantiene bien al noroeste cuando llega el amanecer.

Por qué el cometa Holmes ha sufrido un estallido como este es algo que aún no se sabe. Lo que es sorprendente es que hizo su máxima aproximación al Sol el pasado mayo, pero no pasó más cerca de 307 millones de kilómetros. El cometa ahora se está alejando del Sol y actualmente está bastante lejos de la Tierra a una distancia de unos 243 millones de kilómetros. No es la fórmula típica para la exhibición de un cometa.

Del espacio profundo

Este cometa es parte de la “familia” de cometas de Júpiter — un grupo cuyo punto más alejado de sus órbitas (afelio) se encuentra alrededor de Júpiter y necesitan 6,99 años para realizar una órbita alrededor del Sol.

Entonces, ¿Por qué un cometa alejado en el frío espacio de pronto aumenta su brillo cientos de miles de veces? ¿Cuál es la fuente de tal energía? ¿Proviene del cometa o de fuera?

Desgraciadamente, el cometa permanece como un misterio.

El cometa Holmes no es el único en exhibir tales efectos anómalos. En el pasado, otros cometas han sufrido estallidos inesperados de brillo. Y este probablemente no sea el primero para el cometa Holmes: cuando se descubrió en 1892, probablemente fue en el modo de estallido, dado que su brillo era de cuarta magnitud y era claramente visible al ojo desnudo.

“Parece que está pasando por un estallido que es notablemente similar al famoso evento de 1892″, dijo el experto en cometas John Bortle.

El miércoles por la tarde, dijo Bortle que un informe procedente de Japón sugería que el cometa aún estaba brillando.

”Estrella amarillenta”

Los observadores informan que el cometa aparece como una estrella, dijo Bortle, apuntando que el observador Bob King, de Minnesota, dijo que se veía como “una estrella amarillenta”.

Debido a sus acercamientos ocasionales a Júpiter, la órbita del cometa Holmes se ha alterado unas pocas veces. De hecho el cometa se consideró “perdido” durante casi 60 años hasta que se recuperó de nuevo con un gran telescopio en un observatorio en 1964.

Lo que hará el objeto en los próximos días y semanas aún se desconoce. La luz brillante de la Luna creciente dificultará la observación durante el resto de la semana, pero si tienes unos binoculares o un pequeño telescopio, puedes intentar ver lo que es ciertamente uno de los objetos más enigmáticos del Sistema Solar.


Autor: Joe Rao
Fecha Original: 24 de octubre de 2007
Enlace Original

Detectados embriones planetarios del tamaño de Plutón

Discos de restos hinchados alrededor de tres estrellas cercanas podrían albergar futuros planetas del tamaño de Plutón, según sugiere un nuevo modelo por ordenador.

Los “embriones planetarios” se predice que orbiten las tres jóvenes estrellas cercanas, situadas a 60 años luz o menos de nuestro Sistema Solar. AU Microscopii (AU Mic) y Beta Pictoris (Beta Pic) se estima que tienen unos 12 millones de años de antigüedad, mientras que la tercera estrella, Fomalhaut, tiene una edad de 200 millones de años.

Una imagen del anillo de restos alrededor de Fomalhaut, una joven estrella situada a 25 años luz de distancia. Crédito: NASA, Telescopio Espacial Hubble

Si se confirma, los objetos representarían la primera prueba de una fase del inicio de la formación planetaria nunca antes vista. Otro equipo observó recientemente “pelusa espacial” alrededor de una estrella cercana que apunta a una fase incluso anterior de la construcción de planetas, cuando cúmulos de granos de polvo interestelar del tamaño de una pelota de béisbol colisionan entre sí.

El nuevo hallazgo se detallará en un próximo ejemplar de Monthly Notices of the Royal Astronomical Society.

Planetas que hinchan

Usando el Telescopio Espacial Hubble de la NASA, los investigadores midieron el grosor vertical de los llamados discos de restos circunestelares alrededor de las estrellas, y entonces usaron un modelo para calcular el tamaño de los planetas que crecían en él.

El grosor de un disco de restos depende del tamaño del objeto que orbita dentro de él. El anillo de polvo se hace más fino conforme el sistema estelar se hace más viejo, pero si se ha acumulado bastante polvo para formar un embrión planetario, este lanza otros granos de polvo a órbitas excéntricas. Con el tiempo, pueden hinchar lo que era un disco del grosor del filo de una navaja.

El nuevo modelo que crearon los investigadores predice cómo de grandes deben ser los cuerpos del disco para hincharlo hasta un cierto grosor. Los resultados sugieren que cada una de las estrellas estudiadas alberga un embrión planetario del tamaño de Plutón.

El Telescopio Espacial Hubble de la NASA reveló dos discos de polvo orbitando alrededor de la estrella cercana Beta Pictoris. Las imágenes confirmar una década de especulación científica de que una curvatura en el disco de polvo de las estrellas jóvenes puede en realidad ser un segundo disco inclinado, lo cual es evidencia de la posibilidad de un segundo planeta que es al menos tan grande como Neptuno. Crédito: NASA

Incluso aunque los discos son bastante delgados, resultan ser lo bastante gruesos como para que creamos que hay algo que los está hinchando”, dijo el miembro del equipo de estudio Alice Quillen de la Universidad de Rochester en Nueva York.

Al menos una de las estrellas se cree que contiene otro planeta además del que tiene un tamaño de Plutón. El disco circunesteler de Fomalhaut contiene un vacío que los científicos piensan que ha sido limpiado por un mundo del tamaño de Neptuno. Los investigadores creen que los embriones planetarios predichos por los modelos son demasiado pequeños para limpiar los huecos del disco.

“Si piensas en agua fluyendo sobre guijarros, si los guijarros son muy pequeños en el fondo del agua, no crean una buena onda”, dijo Quillen a SPACE.com.

¿Demasiado lejos?

Estas imágenes del Telescopio Espacial Hubble de la NASA muestran la luz reflejada por el polvo en el disco de restos alrededor de la joven estrella AU Microscopii. Crédito: NASA

“Todos los embriones planetarios predichos en estos tres sistemas están situados bastante alejados de sus estrellas madre. El planeta en ciernes de Au Mic se estima que está a una distancia de 30 UA de su estrella, o aproximadamente la misma distancia que Plutón del Sol. Una unidad astronómica (UA) es igual a la distancia entre la Tierra y el Sol. Los embriones planetarios de Beta Pic y Fomalhaut se cree que están incluso más alejados, a 100 y 133 UA, respectivamente.

Es esta larga distancia que separa a los embriones planetarios de sus estrellas lo que ha dirigido más críticas por parte de los colegas, dice Quillen. Muchos ven difícil creer que algún planeta, incluso uno diminuto del tamaño de Plutón, pudiese formarse a una distancia tan lejana.

De acuerdo con la teoría de cómo se formó nuestro Sistema Solar, Plutón se formó mucho más cerca de nuestro Sol pero fue golpeado hacia su órbita exterior debido a la inestabilidad del Sistema Solar interior. Sin embargo, hay objetos en nuestro Sistema Solar que están situados incluso más lejos de nuestro Sol y que son difíciles de explicar mediante esta teoría. Sedna, por ejemplo, es de aproximadamente tres cuartas veces el tamaño de Plutón y está situado tres veces más lejos del Sol.

Mordecai-Marc Mac Low, astrofísico en el Museo Americano de Historia Natural en la ciudad de Nueva York quien no estuvo involucrado en el estudio, dijo que el nuevo modelo debería verse como un argumento plausible de la presencia de objetos del tamaño de Plutón más que probar su existencia.

“El trabajo presentado aquí demuestra que los objetos del tamaño de Plutón que remueven el disco son consistentes con el grosor observado del disco y otras propiedades”, dijo Mac Low.

James Graham, astrónomo de la Universidad de California en Berkeley, que tampoco estuvo implicado en el estudio, expresó un sentimiento similar. “Este cálculo es realizar una audaz extrapolación”, dijo Graham en una entrevista vía correo electrónico. Es como describir a un elefante a partir de una única célula del animal. Con suficiente conocimiento, esto es posible —si sabes lo suficiente sobre microbiología y genética y puedes leer el ADN de la célula e imaginar en principio toda la criatura”.

Quillen está ahora buscando más estrellas jóvenes para investigar con su modelo, pero el criterio para ser candidato es estricto. Los sistemas tienen que ser lo bastante jóvenes para tener aún sus discos circunestelares, pero lo bastante antiguas para tener embriones planetario en formación. También deben verse de lado desde la Tierra y estar lo bastante cerca para que Hubble pueda discernir con precisión el grosor de sus discos.

Por el momento las tres estrellas que Quillen ha observado parecen ser las únicas candidatas que reúnen todos los requisitos.


Autor: Ker Than
Fecha Original: 01 October 2007
Enlace Original

La energía plantea la mayor crisis del siglo XXI

La energía planeta uno de las mayores amenazas a las que se enfrenta la humanidad este siglo, según advirtieron los líderes mundiales de las academias de las ciencias el lunes, remarcando el peligro de las guerras del petróleo y el cambio climático dirigido por la dependencia de los combustibles fósiles.

Los países deben proporcionar energía a 1600 millones de personas que viven sin electricidad y destetarse a sí mismo de las fuentes de energía que avivan el calentamiento global y los conflictos geopolíticos, demandaron los científicos.

Una imagen mostrando los paneles solares en la fachada de la fábrica Tenesol Technologies, en 2006 en Saint-Martin du Touch, suburbio de Toulouse, al sur de Francia. La energía plantea uno de las mayores amenazas que encara la humanidad en este siglo, según advirtieron los líderes mundiales de las academias de las ciencias advirtieron el lunes, remarcando el peligro de las guerras del petróleo y el cambio climático dirigido por la dependencia de los combustibles fósiles.

“Hacer la transición hacia un futuro de energía sostenible es uno de los retos centrales que la humanidad afronta en este siglo”, comentó.

Su informe, “Lighting the Way: Toward A Sustainable Energy Future (Alumbrando el camino: Hacia un futuro de energía sostenible)”, fue publicado por el Consejo Interacadémico, cuyos 15 miembros incluyen las academias nacionales de ciencias de los Estados Unidos, Gran Bretaña, Francia, Alemania, Brasil, China e India.

Sus autores son 15 miembros de un panel cuyo copresidente es el premio Nobel de Física de 1997 Steven Chu de los Estados Unidos.

“La abrumadora evidencia científica demuestra que la tendencia energética actual es insostenible”, dijo sin rodeos el informe.

Sus autores alertaron especialmente sobre el aumento de la construcción de plantas de energía de carbón en China y otros países en desarrollo, dado que tales infraestructuras serán sin duda afianzadas en las próximas décadas.

“La sustancial expansión de la capacidad del carbón que actualmente está en curso en todo el mundo puede plantear el mayor reto individual para esfuerzos futuros encaminados a estabilizar los niveles de dióxido de carbono en la atmósfera”, advierte el informe.

Gestionar las “huellas” de gas invernadero de estas plantas mientras fomentamos una conversión a la captura y almacenamiento de carbono (CCS) será un impresionante reto económico y tecnológico, dijo.

CCS se basa en crear tuberías para expulsar el CO2 de una planta y bombearlo en cámaras geológicas profundas bajo el suelo, tales como los campos petrolíferos sin usar, en lugar de liberarlo a la atmósfera.

Muchos científicos ven esta tecnología piloto con recelo, esperando a que se les convenza que el CCS es seguro, una brecha en la cámara podría tener consecuencias potencialmente catastróficas para el sistema climático.

El informe también hace un llamamiento para dirigirnos globalmente a favor de una eficiencia energética para reducir las emisiones de carbono.

Y habla claramente a favor de las energías renovables, describiendo su potencial como “sin explotar” y ofreciendo “inmensas oportunidades” para los países pobres que son ricos en luz solar y viento pero pobres en dinero para comprar petróleo o gas.

La energía nuclear, como una fuente baja en carbono, “puede continuar haciendo una contribución significativa a la cartera energética mundial en el futuro, pero sólo si las principales preocupaciones relacionadas con el coste de capital, seguridad y proliferación de armas nucleares son abordadas”, advierten.

Volviéndonos hacia los biocombustibles, los científicos dicen que estas fuentes son una “gran promesa”, pero sólo a través de un cambio hacia fuentes de segunda generación.

Actualmente, las materias primas tales como la caña de azúcar y el maíz son la fuente principal de los biocombustibles, lo cual tiene un efecto global sobre los precios de la comida. Un objetivo más prometedor, pero aún no comercializado, es el uso de la lignocelulosa de las astillas y residuos de agricultura, la cual los microbios convierten en combustible.

Otras tecnologías recientes, como los coches híbridos enchufables y las células de combustible de hidrógeno para almacenamiento de energía, pueden hacerse un hueco importante en la contribución, dicen los científicos.

Pero advierten que el movimiento hacia una energía sostenible podría sólo llegar si las naciones trabajan unidas para liberar los recursos financieros necesarios y la experiencia – y establecen un precio para el carbón que castigue la contaminación y los residuos y recompense la energía limpia como parte clave de la mezcla.

Un informe de 2006 de la Agencia de Energía Internacional sugirió que el consumo mundial de petróleo se elevaría casi un 40 por ciento para el 2030 en comparación con los niveles de 2005, y las emisiones de CO2 se incrementarían en un 50 por ciento sobre los niveles de 2004, bajo un escenario como el actual.


Fecha Original: 22 de octubre de 2007
Enlace Original

Los perdurables misterios del Sol

El Sol yace en el corazón de nuestro Sistema Solar, pero aún mantiene muchos secretos que los científicos no han podido desvelar. Resolver esos misterios podría arrojar luz sobre la desconcertante actividad vista en otras estrellas e incluso salvar vidas.

Una estrella explosiva

El Sol está literalmente estallando con energía, explotando violentamente con llamaradas solares, eyecciones de masa coronal y otros tipos de erupciones cientos de veces cada año. El número de explosiones y machas solares que experimenta el Sol tiende a incrementarse y caer en “ciclo solar” de aproximadamente 11 años, las raíces del cual aún son inciertas.

Los astrofísicos acuerdan en general que el ciclo solar estar dirigido por la dinamo solar — el flujo del gas eléctricamente cargado dentro del Sol que genera su campo magnético — y que las fluctuaciones magnéticas disparan las explosiones solares. “Pero no está claro cuál de los modelos de dinamo es el correcto”, dijo el físico solar Paul Charbonneau de la Universidad de Montreal.

Arrojar luz sobre la dinamo solar podría ayudar a predecir cuando sucederán las explosiones solares, “las cuales pueden poner en peligro a los astronautas y satélites espaciales y dañas las líneas de energía en la Tierra”, dijo Charbonneau. Pero si los científicos podrán alguna vez predecir el ciclo solar aún es una incógnita — algunos afirman que es físicamente imposible de predecir.

La corona súper-caliente

Así como sientes el fuego más cálido conforme te aproximas a él, el núcleo del Sol es más cálido que su superficie. Misteriosamente, sin embargo, la corono — la atmósfera del Sol — también es más cálida que su superficie.

La superficie del Sol está aproximadamente a 5500 grados Celsius. La corona, por su parte, está a entre 1 y 3 millones de grados o más.

Porqué la corona está súper-caliente es un acalorado debate. Algunos investigadores sugieren que los campos magnéticos del Sol calientan la corona, mientras otros proponen que son las ondas del Sol las que lo hacen. “No me sorprendería que ambos mecanismos actuasen juntos. No son mutuamente excluyentes”, dijo Bernhard Fleck, científicos del proyecto para la nave del proyecto Observatorio Heliosférico y Solar (SOHO).

El Mínimo de Maunder

Extrañamente, el ciclo solar pareció marcharse en una ocasión de vacaciones durante casi 70 años. Se observaron sólo 50 machas solares durante este Mínimo de Maunder entre 1645 y 1715, en contra de las entre 40 y 50 mil esperadas.

A investigación sugiere que fases similares de baja actividad han tenido lugar en los últimos 10 000 años, con el Sol en modos “tranquilos” durante aproximadamente el 15% del tiempo, dijo Charbonneau. Por qué suceden esto aún no está claro, aunque existen modelos del Sol que sugieren que la dinamo solar puede acelerar o decelerar los ciclos solares.

El Mínimo de Maunder coincide también, en parte, con la Pequeña Edad de Hielo, lo que lleva a debates sobre si el Sol es la causa o no de pasados cambios climáticos o incluso el que sufrimos actualmente. “El acuerdo de la mayoría de científico es que aunque el Sol ha tenido influencia sobre el clima de la Tierra en el pasado, los cambios drásticos recientes en el clima no están causados por el Sol sino debido a los gases invernadero generados por el hombre”, dijo Fleck.

Hermanos erráticos

La mayoría de estrellas similares al Sol se comportan en realidad de forma más errática que nuestra estrella. “Más de la mitad de las estrellas similares al Sol tienen ciclos que incrementan o decrementan lentamente su actividad a lo largo del tiempo en lugar de mantenerse estables, o son completamente irregulares”, dijo el físico solar Karel Schrijver del Centro de Tecnología Avanzada de Lockheed Martin en Palo Alto, California. “Realmente no sabemos por qué”.

El próximo Observatorio de Dinámica Solar de la NASA podría arrojar luz sobre el funcionamiento interno del Sol y por tanto, sobre sus hermanos, dijo Schrijver, “y también sobre estos misterios”.


Autor: Charles Q. Choi
Fecha Original: 22 de octubre de 2007
Enlace Original