Un agujero negro crea una curvatura en el espacio-tiempo

La abolladura es la clase de cosa que predijo la Teoría de la Relatividad General de Albert Einstein. Afecta al movimiento de la materia que cae en el agujero negro.

El espacio-tiempo curvado es invisible, pero los científicos dedujeron su existencia tras detectar dos frecuencias de rayos-X procedentes del agujero negro que eran idénticas a las emisiones anotadas nueve años antes. El descubrimiento permitió a los científicos calcular el giro del agujero negro, una medida crucial necesaria para describir el comportamiento del objeto.

Rayos-X parpadeantes

Los agujeros negros se forman cuando estrellas muy masivas empiezan a agotar su combustible. Sus núcleos implosionan en un punto de densidad infinita y sus capas externas estallan en una potente explosión de supernova. Dentro de un límite teórico llamado horizonte de eventos, la gravedad del agujero negro es tan fuerte que nada, incluyendo a la luz, puede escapar.

Las frecuencias de rayos-X detectadas por el equipo de investigadores provienen del exterior del horizonte de eventos de GRO J1655-40, un agujero negro situado a unos 10 000 años luz de la Tierra. Es unas siente veces más masivo que el Sol y aspirando gas de una estrella compañera cercana.

GRO J1655-40 sufre cortos periodos de intensas emisiones de rayos-X, seguidas por largos periodos de relativa calma. Los científicos piensan que este patrón de parpadeo de la actividad de rayos-X está relacionado con cómo se acumula la materia alrededor del agujero negro.

El gas aspirado de la compañera se acumula sin cesar en un disco de acreción alrededor del agujero negro. Este proceso continua durante varios años. Mientras tiene lugar la acumulación, el agujero negro consume muy poco gas del disco.

Cada pocos años, sin embargo, algo —los científicos no están seguros de qué— dispara una repentina comilona por parte del agujero negro, causando que engulla la mayor parte de la materia del disco en un periodo de solo unos meses.

Los agujeros negros emiten millones de veces más rayos-X durante estos periodos de mayor actividad que cuando están en calma.

En los últimos años, el Explorador Sincrónico Rossi de Rayos-X ha captado a GRO J1655-40 de festín dos veces, una vez en 1996 y de nuevo en 2005. Entre las frecuencias de rayos-X observadas en 1996 hubo una a 450 Hz y otra a 300 Hz. Estas dos frecuencias fueron observadas nuevamente en 2005.

Esto fue sorprendente dado que cuando emiten rayos-X, los agujeros negros son conocidos por su falta de estabilidad. Los rayos-X son emitidos por partículas de gas supercalentado cuando cae por el agujero negro y roza con otras partículas. Sin embargo, la luminosidad y frecuencia a la que parpadean los rayos-X varía de un momento a otro ya que la razón a la que el agujero negro consume el gas no es constante.

Por tanto, detectar dos frecuencias estables con una diferencia de nueve años sugiere que no están causadas por las fluctuaciones de la consumición de gas por parte del agujero negro, sino por alguna otra cosa.

“Debido a que es muy difícil obtener que el comportamiento del gas sea el mismo dos veces, esto apunta con fuerza a que estas frecuencias están siendo fijadas por la masa y giro del agujero negro, propiedades fundamentales del mismo agujero negro”, comenta el co-autor del estudio Jon Miller de la Universidad de Michigan a SPACE.com.

Dado que el agujero negro es tan masivo y gira tan rápido, curva el espacio-tiempo a su alrededor.

Espacio-tiempo

Mientras desarrollaba su Teoría de la Relatividad General, Einstein combinó las tres dimensiones del espacio con una dimensión del tiempo en un útil concepto que llamó espacio-tiempo.

El espacio-tiempo puede imaginarse como una lámina elástica que se curva bajo el peso de los objetos que se colocan sobre ella. Cuanto más masivo es el objeto, más curva el espacio-tiempo. Si el objeto masivo está también girando, esto provoca que el espacio-tiempo no solo se curve sino que también se retuerza. Los científicos llaman a esto el efecto de “arrastre de marcos”.

El espacio-tiempo retorcido causará que el gas que cae en el agujero negro se mueva de cierta forma. El fenómeno puede ser comparado a grandes rasgos con el movimiento de una aguja en un tocadiscos: cuando la aguja se mueve a través de un surco grabado en el disco, este produce un sonido, la naturaleza exacta del cual está determinada por las deformaciones físicas del mismo surco.

De la misma forma, el agujero negro ha creado unas deformaciones estables en el tejido del espacio-tiempo que afectan a la materia que se mueve a su alrededor. El gas que se arremolina alrededor del agujero negro actúa como la aguja, pero en lugar de producir sonidos específicos, produce ciertas frecuencias de luz de rayos-X.

Dos picos

Los científicos piensan que las partículas de gas que se mueven en el curvado espacio-tiempo cerca del agujero negro exhiben dos tipos de movimientos, cada uno dando lugar a una frecuencia única. Un movimiento es el orbital del gas cuando gira alrededor del agujero negro. Este produce la frecuencia de 450 Hz. La frecuencia más baja de 300 Hz está causada por el ligero temblor del gas debido a las deformaciones del espacio-tiempo.

“Si el espacio-tiempo no estuviese curvado, probablemente sólo hubiésemos visto un pico”, dijo el co-autor del estudio Jeroen Homan del Instituto Kavli para Astrofísica e Investigación Espacial del MIT.

Los científicos piensan que todos los agujeros negros giratorios emiten dos frecuencias estables, y que las frecuencias están fuertemente ligadas a la masa y giro del agujero negro.

La masa de GRO J1655-40 había sido calcuada previamente en base a observaciones de la órbita de su estrella compañera. El trozo de información que faltaba era la razón de giro del agujero negro. El hallazgo de la nueva frecuencia ayudará a resolver este problema.

“Ahora podemos empezar a determinar el giro y de esta forma, por primera vez, a describir más completamente el agujero negro”, dijo Miller.

El descubrimiento fue anunciado a principios de este mes en la reunión de la Sociedad Astronómica Americana.


Autor: Ker Than
Fecha Original: 2006-01-26

La metafísica del espacio-tiempo

Espacio y tiempo han sido los temas favoritos de los filósofos desde al menos los antiguos griegos. Las paradojas del infinito y lo infinitesimal son reinventadas cada día por los niños con mentes inquisitivas. ¿Cómo puede ser el espacio infinito? Si no es infinito, ¿qué hay más allá de él? ¿Puede el Universo tener un inicio y un final? ¿Cómo han aprendido los físicos y filósofos modernos a tratar estas cuestiones?

La respuesta más simple es que usan las matemáticas para construir modelos del Universo a partir de axiomas básicos. Los matemáticos pueden definir el sistema de los números reales a partir de la Teoría de Conjuntos y probar todos los teoremas necesarios del Cálculo que necesitan los físicos. Con el sistema de los números reales pueden continuar y definir muchos tipos distintos de geometrías. De esta forma fue posible descubrir geometrías no-Euclídeas en el siglo XIX las cuales se usaron para construir la Teoría de la Relatividad General en el siglo XX.

La autoconsistencia de la Relatividad General puede probarse matemáticamente a partir de axiomas fundamentales. Esto no la hace correcta, pero la convierte en un modelo viable cuya precisión puede ser comprobada mediante la observación. En este camino no existen paradojas de lo infinito o infinitesimal. El Universo puede ser infinito o finito, con o sin límite. No es necesario contestar a preguntas sobre lo que sucedió antes del inicio del Universo ya que podemos construir un modelo matemático autoconsistente en el cual el tiempo tiene un inicio sin un antes. Observa que he dicho sin un antes no sin nada antes. Ni siquiera había tiempo antes cuando no existía nada.

Hasta aquí tenemos un modelo matemático consistente que sabemos que no tiene paradojas, pero nadie tiene aún un modelo exacto para todo el Universo. Newton usó un modelo muy simple del espacio y tiempo descrito por la geometría Euclídea. En este modelo el espacio y el tiempo estaban separados, eran continuos, infinitos y absolutos.

Esto es consistente con lo que observamos en nuestra experiencia diaria. Los relojes miden el tiempo y normalmente pueden fabricarse para mantener la misma hora dentro de la precisión de sus maquinarias. Esto es como si hubiese un tiempo universal absoluto y estándar que fluye constantemente. Puede medirse de forma aproximada con relojes pero nunca directamente.

Mientras que no exista una teoría completa para la física sabremos que cualquier modelo del espacio-tiempo es probablemente solo una aproximación a la realidad la cual se aplica en un cierto dominio restringido. Un modelo más preciso puede encontrarse más adelante y aunque la diferencia en la medida predicha puede ser pequeña, los modelos nuevo y antiguo pueden ser muy distintos en su naturaleza. Esto significa que nuestros actuales modelos del espacio y el tiempo pueden ser descripciones muy poco realistas de lo que en realidad son aunque den unas predicciones muy precisas en algunos experimentos que hemos podido realizar.

Los filósofos intentan ir más allá de lo que pueden ir los físicos. Usando solo la razón tienen consideran lo que podría ser el espacio y el tiempo más allá de lo que pueden observar. Incluso en los tiempos de Newton existía una oposición sobre la noción de tiempo y espacio absolutos con su rival alemán Leibnitz. Él, y muchos otros filósofos que llegaron más tarde, han argumentado que el espacio y el tiempo no existen de la forma absoluta descrita por Newton. El mismo Newton apreció que estaba haciendo un gran supuesto de trabajo.

Si comenzamos desde el punto de vista de nuestras experiencias, debemos reconocer que nuestras nociones intuitivas de espacio y tiempo son solo modelos en nuestra mente los cuales corresponden a lo que encuentran nuestros sentidos. Esto es un modelo, el cual existe como un programa de ordenador en nuestra cabeza. Es algo que se ha creado por evolución porque funciona. En tal caso no hay ninguna seguridad de que el espacio y el tiempo existan realmente en ningún sentido absoluto.

El punto de vista filosófico desarrollado por Leibnitz, el Obispo Berkeley y Mach es que el espacio y el tiempo deberían ser vistos como formados por las relaciones entre objetos. Los mismos objetos están formados por las relaciones entre nuestras experiencias. Solo nuestras experiencias son absolutas. Los modelos matemáticos usados por los físicos lo colocan al revés. Ellos comienzan con el espacio y el tiempo y entonces colocan los objetos en ellos, entonces predicen nuestras experiencias como resultado de la interacción de los objetos.

Mach creía que el espacio y el tiempo no existían en ausencia de materia. La inercia de los objetos debería verse como el resultado de la relación con otros objetos más que como la relación con el espacio y el tiempo. Einstein estuvo influenciado en gran parte por el principio de Mach y esperaba seguir a este con sus propios principios de relatividad.

En la Teoría de la Relatividad Especial encontró que el espacio y el tiempo no existen como entidades absolutas independientes sino que el espacio-tiempo existe como una combinación de ambas. En la Relatividad General encontró, irónicamente, que para la descripción correcta de su teoría debía usar las matemáticas de la Geometría de Riemann. En lugar de confirmas el principio de Mach encontró que el espacio-tiempo podía tener una estructura dinámica por sí mismo. No solo podía existir el espacio-tiempo independientemente de la materia sino que incluso tenía un comportamiento interesante por sí mismo. Su predicción más asombrosa de que deberían existir ondas gravitatorias, ondas en el tejido del mismo espacio-tiempo, podría ser confirmada directamente en breve por los observatorios de ondas gravitatorias.

El uso de Einstein de la geometría era tan elegante y convincente que los físicos a partir de entonces siempre han buscado extender la teoría a una descripción unificada de la materia a través de la geometría. Los ejemplos incluyen los modelos Kaluza-Klein en los cuales el espacio-tiempo se supone que tiene más de cuatro dimensiones con todas ellas compactadas en una geometría indetectablemente pequeña. Hasta aquí los físicos y filósofos han estado distanciados durante el siglo XX.

Las teorías recientes de la física de partículas han sido tan exitosas que ahora es muy complejo encontrar un resultado experimental que pueda ayudar a los científicos a ir más allá de las teorías presentes. Como resultado ellos mismos han empezado a sonar más filosóficos y están lentamente revisando las viejas ideas. El problema fundamente con el que se encuentran es la combinación de la relatividad general y la teoría cuántica en un modelo consistente.

De acuerdo con la teoría cuántica, el vacío no está vacío. Es un mar de partículas virtuales. Esto es muy distinto de la forma de ver el espacio y el tiempo en los días de Mach. En una Teoría de la Gravedad Cuántica tendríamos gravitones, partículas de pura geometría. Seguramente esta idea habría sido un completo anatema para Mach. Pero los supuestos gravitones podrían ser colocados al mismo nivel que la materia. Tal vez entonces Mach estaría más contento con los gravitones después de todo. La teoría podría iluminar su mente con el espacio-tiempo como resultado de las interacciones entre gravitones.

En la Teoría de Cuerdas, la esperanza más prometedora para una completa Teoría Unificada de Física, encontramos que los gravitones están en efecto al mismo nivel que el resto de partículas. Se cree que todas las partículas son diferentes modos de vibración en los bucles de las cuerdas. Incluso los agujeros negros, una de las últimas manifestaciones de la geometría del espacio-tiempo se piensa que son ejemplos de simples bucles de una cuerda en un modo de muy alta energía. No hay distinción cualitativa entre agujeros negros y partículas, o entre materia y espacio-tiempo.

El problema es que no tenemos aún un modelo matemático que haga evidente esta identidad. Las ecuaciones que tenemos para cuerdas son un tanto convencionales. Describen a las cuerdas moviéndose en un fondo de espacio-tiempo. Y aún más, los matemáticos manejan extrañas simetrías que sugieren que las Teorías de Cuerdas en distintos fondos de espacio-tiempo e incluso distintas dimensiones son en realidad equivalentes. Para completar nuestra compresión de la Teoría de Cuerdas debemos formularla de forma independiente del espacio-tiempo. La situación parece ser análoga al estado de la electrodinámica a finales del siglo XIX. Las ecuaciones de Maxwell estaban descritas como vibraciones en un espacio impregnado de éter. Los experimentos de Michelson-Morley fallaron al intentar detectar el hipotético éter y señalaron el inicio de una revolución científica.

Tal como Einstein desterró el éter como medio para el electromagnetismo nosotros debemos ahora completar su trabajo desterrando el espacio-tiempo como medio para la Teoría de Cuerdas. El resultado será un modelo en el cual el espacio-tiempo sea recuperado como resultado de la relación entre cuerdas que interactúan. Este será el primer paso hacia la reconciliación de la física y la filosofía. Tal vez sea rápidamente seguido por un cambio en la visión, hacia un punto desde donde todo nuestro Universo pueda verse como consecuencia de nuestras posibles experiencias tal y como los antiguos filósofos querían hacernos ver. ¿Qué otros modos tendremos para modificar nuestro entendimiento y acomodarlo a tal teoría?. No todo puede ser previsto.

El misterio de las supercuerdas

¿Teoría del Todo?

En 1982 Michael Green y John Schwarz hicieron un descubrimiento que podría convertirse en uno de los avances científicos mayores de todos los tiempos, si resulta ser correcto. Lo que encontraron fue que una Teoría de Campo Cuántico particular de cuerdas supersimétricas en 10 dimensiones daba infinitas respuestas a todos los órdenes en la Teoría de Perturbación.

Esto fue un tremendo avance dado que la Teoría de Supercuerdas tenía la capacidad de incluir todas las partículas y fuerzas de la naturaleza. Ésta podría ser una teoría de física completamente unificada. En 1985 la prensa tuvo noticia de la misma, aparecieron artículos en Science y New Scientist y llamaron a las cuerdas Teoría del Todo.

El término Teoría del Todo es desesperadamente desorientador. Los físicos normalmente intentar evitarlos pero los medios no los ayudan. Si los físicos encontrasen un conjunto de ecuaciones unificado y completo para las leyes de la física, entonces este sería un fantástico descubrimiento. Las implicaciones serían enormes, pero llamarlo Teoría del todo sería un sinsentido.

Para empezar, sería necesario resolver las ecuaciones para comprender algo. Sin duda que muchos problemas de la física de partículas podrías resolverse a partir de estos principios, tal vez sería posible incluso derivar el espectro completo de partículas elementales. Sin embargo, estaríamos limitados por la resolubilidad de las ecuaciones. Ya encontramos que es casi imposible derivar el espectro de hadrones compuestos por quarks, incluso aunque creemos tener una precisa teoría de interacciones fuertes. En teoría cualquier conjunto de ecuaciones bien definidas puede resolverse numéricamente si tenemos suficiente potencia de cálculo. El conjunto de toda la química y física nuclear debería ser posible de calcularse a partir de las leyes que tenemos. En la práctica los ordenadores son limitados y siempre serán necesarios.

Además de esto, incluso no siempre es posible derivar todo en teoría de las leyes básicas de la física. Muchas cosas en ciencia se han determinado históricamente por accidente. La fundación de la biología cae en esta categoría. La teoría final de la física no nos ayudará a entender cómo se originó la vida en la Tierra. El reduccionista más ardiente podría replicar a esto, en teoría, que sería posible derivar una lista de posibles formas de vida de las leyes de la física.

Finalmente debemos decir que incluso dando una teoría unificada de física convincente, sería posible que aún nos quedase la indeterminación de la mecánica cuántica. Esto significaría que ningún argumento podría finalmente zanjar las cuestiones sobre los temas paranormales, religión, destino o temas similares, y más allá de esto hay muchos otras materias de filosofía y metafísica que podrían no ser resueltas, sin mencionar un infinito número de problemas matemáticos. Claramente el término Teoría del Todo es engañoso.

¿Teoría de Nada?

Siguiendo los informes de los medios sobre la Teoría de Cuerdas tenemos un inmediato paso atrás. La gente preguntaba, naturalmente, qué nos diría esta Teoría del Todo. La respuesta fue que podría no decirse aún nada, incluso ni sobre física. En un examen más profundo se revelaba que la teoría no estaba completa. Aparece solo como unas series de perturbación con un infinito número de términos. Aunque cada término está bien definido y es finito, la suma de las series es divergente. Para comprender la Teoría de Cuerdas adecuadamente es necesario definir el principio de acción para una Teoría de Campo Cuántico no perturbativo. En la física de partículas puntuales es posible hacer esto al menos formalmente, pero en la Teoría de Cuerdas todos los intentos han sido infructuosos. Para conseguir cualquier predicción que podamos usar fuera de la Teoría de Cuerdas es necesario encontrar resultados no perturbativos. La Teoría de la Perturbación simplemente no puede aplicarse a la escala de Planck donde los efectos de las cuerdas serían interesantes.

Pero aún quedan más malas noticias. El análisis sistemático demuestra que habría realmente 10 Teorías de Supercuerdas dimensionales diferentes las cuales están todas bien definidas en la Teoría de la Perturbación. Si tenemos en cuenta las distintas Teorías de Cuerdas abiertas y cerradas con todos sus posibles modos quirales y grupos gauge que no tengan anomalías nos quedan 4 en total. No está mal si lo comparamos con el infinito número de teorías renormalizables de partículas puntuales, pero una de los argumentos principales de la Teoría de Cuerdas es su unicidad. Peor aún, para producir una Teoría de Cuerdas de cuatro dimensiones en necesario compactar seis dimensiones en un pequeño espacio curvado. Se ha estimado que hay miles de formas de hacer esto y cada una predice una física de partículas distinta. Con la Cuerda Heterótica es posible obtener una esperanzadora aproximación al número correcto de partículas y grupos gauge. Por el momento hay demasiadas posibilidades y el problema se hace más difícil debido a que no sabemos cómo se rompe la supersimetría.

Todo esto hace a la Teoría de Cuerdas menos prometedora. Algunos físicos la llamaron Teoría de Nasa y abogaron por una aproximación más conservadora a la física de partículas vinculada más cercanamente a los resultados experimentales. Pero un gran número de físicos persisten. Hay algo en la Teoría de Supercuerdas que es muy persuasivo.

¿Por qué la Teoría de Cuerdas?

La cuestión más común de la gente de a pie sobre la Teoría de Cuerdas es, ¿Por qué?. Para comprender por qué los físicos estudian la Teoría de Cuerdas en lugar de otras teorías de superficie u otros objetos tenemos que volver a sus orígenes. En 1968 los físicos estaban intentando comprender la naturaleza de las interacciones nucleares fuertes que mantienen a los quarks unidos en los núcleos. Hubo uno idea acerca de la dualidad entre las interacciones dispersas que llevaron a Veneziano y Virasoro a sugerir formas exactas para la amplitud de resonancia dual. Estas amplitudes habían mostrado tener interesantes propiedades en 26 dimensiones y varias líneas independientes de investigación por parte de Nambu, Nielson y Susskind llevaron a la revelación de que las amplitudes eran derivables de una Teoría de Cuerdas.

La Teoría de Cuerdas fue considerada como una Teoría de las interacciones fuertes durante algún tiempo. Los físicos pensaron que la explicación para el confinamiento de los quarks se debía a que estaban de alguna forma unidos por cuerdas. Por lo tanto esta teoría daba paso a otra teoría llamada Cromodinámica Cuántica la cual explicaba las interacciones nucleares fuertes en términos de carga de colores en gluones.

La Teoría de Cuerdas sufrió ciertas inconsistencias aparte de su dependencia de 26 dimensiones de espacio-tiempo. Tenía también modos taquiónicos que desestabilizaban el vacío, pero la Teoría de Cuerdas ya había lanzado su hechizo sobre un pequeño grupo de físicos que sentían que había algo más allí. Ramond, Neveu y Schwarz buscaron otras formas para la Teoría de Cuerdas y encontraron una con fermiones en lugar de bosones. La nueva teoría en diez dimensiones era supersimétrica y, mágicamente, se eliminaron los modos taquiónicos.

¿Pero cuál era la interpretación de este nuevo modelo?. Scherk y Schwarz encontraron que a bajas energías las cuerdas parecerían partículas. Solo a muy altas energías estas partículas se revelarían como bucles de cuerdas. Las cuerdas podrían vibrar en una infinita torre de modos cuantizados en un rango de masa, spin y carga siempre incremental. Los modos más bajos corresponden a todas las partículas conocidas. Mejor aún, los dos modos del spin podrían comportarse como gravitones. La teoría era necesariamente una Teoría Unificada de todas las interacciones incluyendo la gravedad cuántica. Aún así solo un pequeño grupo seguía en esta idea hasta el histórico artículo de Green y Schwarz con el descubrimiento de la casi milagrosa cancelación de anomalías en una teoría particular.

Para volver a la pregunta original, ¿por qué la Teoría de Cuerdas?. La respuesta es simplemente que tiene las propiedades matemáticas adecuadas para ser capaz de reducirse a teoría de partículas puntuales a bajas energías, siendo a la vez una Teoría Perturbativa Finita que incluye la gravedad. El hecho simple es que no hay otra teoría conocida que lleve a cabo tantas cosas. Por supuesto, los físicos han estudiado las matemáticas de las membranas vibrantes en cualquier número de dimensiones. Solo existen un cierto número de posibilidades para intentarlo y solo las Teorías de Cuerdas conocidas funcionan bien en la Teoría de la Perturbación.

Desde luego que es posible que haya otras teorías distintas autoconsistentes pero carecerían de la importante forma perturbativa de las Teorías de Cuerdas. La realidad es que los teóricos de las cuerdas están ahora girando hacia las teorías de membranas, o Teorías de p-brana como se las conoce, donde p es el número de dimensiones de la membrana. Harvey, Duff y otros han encontrado ecuaciones para ciertas p-branas que sugieren que podrían existir Teorías de Campo autoconsistentes de este tipo, incluso so no tienen una forma perturbativa.

Dualidades

En el último par de años ha habido algunos nuevos desarrollos que han inspirado una reavivación del interés en la Teoría de Cuerdas. El primero de ellos concierne a la dualidad entre los monopolos eléctrico y magnético.
Las ecuaciones de Maxwell para ondas electromagnéticas en el espacio libre son simétricas entre campos eléctricos y magnéticos. Un campo magnético variable genera un campo eléctrico y un campo eléctrico variable genera uno magnético. Las ecuaciones son las mismas en cada caso, quitando un cambio de signo que aquí es irrelevante. Sin embargo, es un hecho experimental que no existen cargas monopolares magnéticas en la naturaleza reflejo de la carga eléctrica de electrones y otras partículas. A pesar de algunos minuciosos experimentos solo se han observado campos magnéticos bipolares generados por cargas eléctricas en circulación.

En la electrodinámica clásica no existen inconsistencias en una teoría que coloque juntos un monopolo eléctrico y magnéticos. En la electrodinámica cuántica no es tan fácil. Para cuantizar las ecuaciones de Maxwell es necesario introducir un campo de potencial vectorial desde el cual los campos eléctrico y magnético son derivados por diferenciación. Este procedimiento no puede hacerse de forma que sea simétrico entre los campos eléctrico y magnético.

Hace 40 años Paul Dirac no estaba convencido de descartar la existencia de monopolos magnéticos. Siempre había declarado que estaba motivado por la belleza matemática en la física. Intentó formular una teoría en la cual el potencial gauge podría ser singular a lo largo de una cuerda que uniese dos cargas magnéticas de tal forma que la singularidad podría ser desplazada a través de transformaciones gauge y debe, por tanto, ser considerada físicamente inconsecuente. La teoría no estaba lo bastante completa pero tenía una salvación. Proporcionaba una considerable explicación de por qué las cargas eléctricas deben ser cuantizadas como múltiplos de una unidad de carga eléctrica.

En los años 70 conocimos gracias a ‘t Hooft y Polyakov que las grandes teorías unificadas que podrían unificar las fuerzas electrodébil y fuerte estarían alrededor del problema del potencial gauge singular debido a que tienen una estructura gauge más general. De hecho estas teorías predicen la existencia de monopolos magnéticos. Incluso en su formulación clásica podrían contener estas partículas las cuales se formarían fuera de los campos de materia como solitones topológicos.

Existe un modelo simple que da una idea intuitiva de lo que es un solitón topológico. Imagina primero un cable recto tensado como un tendedero con muchas pinzas de la ropa prendidas a lo largo del mismo. Imagina que las pinzas están libres para rotar alrededor del eje del cable pero que cada una está unida a sus vecinas por bandas elásticas en los finales, si giras una pinza levantará al resto con ella. Cuando se libere oscilará como un péndulo pero la energía será transportada por las ondas que viajan a través del cable. En ángulo de las pinzas es parecido a un campo a lo largo de una línea de una dimensión. La ecuación para la dinámica de este campo es conocida como la ecuación de sine-Gordon. Es un juego de palabras en la ecuación de Klien-Gordon la cual es la ecuación lineal correcta para un campo escalar y la que es el primer orden de aproximación a la ecuación de sine-Gordon para pequeñas amplitudes de onda. Si la ecuación de sine-Gordon es cuantizada se encontrará una descripción para campos escalares de interacción en una dimensión.

El comportamiento interesante de este sistema aparece cuando alguna de las pinzas oscila a través de un gran ángulo de 360 grados sobre la vertical del cable. Si agarras una pinza y la giras de esta forma crearías dos giros en el sentido opuesto alrededor de la línea. Estos giros son bastante estables y pueden hacerse para viajar por encima y debajo de la línea. Un giro solo puede desaparecer si colisione con un giro en la dirección opuesta.

Estos giros son ejemplos de solitones topológicos. Pueden ser considerados como si fuesen partículas y antipartículas de las que existen en los sistemas de física clásica y son aparentemente bastante diferentes de las partículas escalares de la Teoría Cuántica. De hecho los solitones también existen en la Teoría Cuántica pero solo pueden ser comprendidos de forma no perturbativa. Por tanto la ecuación cuantizada de sine-Gordon tiene dos tipos de partículas que son bastante distintas.

Lo que hace a esta ecuación tan notable es que es una transformación no-local del campo la cual lo transforma en otra ecuación de una dimensión conocida como el modelo Thirring. La transformación mapea las partículas solitón de la ecuación de sine-Gordon en excitaciones cuánticas corrientes del modelo Thirring, por lo que estos dos tipos de partículas no son tan distintos después de todo. Decimos que existe una dualidad entre los dos modelos, de sine-Gordon y Thirring, tienen diferentes ecuaciones pero en realidad son el mismo.

La relevancia de esto es que los monopolos magnéticos que predice la Teoría de la Gravitación Universal (TGU) tiene también solitones topológicos, aunque la configuración en un espacio tridimensional es más compleja de visualizar que el tendedero de una dimensión. No sería genial si hubiese una dualidad similar a la de las cargas eléctricas y magnéticas en la descubierta en la ecuación de sine-Gordon?. Si fuese así, entonces la dualidad entre los campos eléctrico y magnético quedaría demostrada. No sería una simetría perfecta ya que sabemos que los monopolos magnéticos deben ser muy pesados en caso de existir.

En 1977 Olive y Montenen pensaron que este tipo de dualidad podría existir, pero las matemáticas de las teorías de campo en 3 dimensiones espaciales son mucho más complejas que en una dimensión y parece estar más allá de cualquier esperanza que se puede construir tal transformación de dualidad. Pero ellos dieron un paso más hacia delante. Demostraron que la dualidad podría existir solo en una versión supersimétrica de una TGU. Esto es bastante tentador dado el creciente interés en las TGU supersimétricas, las cuales se consideran actualmente más prometedoras que la variedad ordinaria de TGU por un gran número de razones.

Hasta 1994 la mayoría de físicos pensaban que no había una buena razón para creer que hubiese algo en la conjetura de Olive-Montenen. Entonces Seiberg y Witten hicieron un avance fantástico. A través de un conjunto especial de ecuaciones demostraron que una cierta Teoría de Campo Supersimétrico no necesitaba, de hecho, exhibir dualidad electromagnética. Como añadido, su método puede ser usado para resolver un gran número de problemas que hasta ahora no tenían solución en topología y física.

Finalmente volvemos a la Teoría de Cuerdas con la idea que de la dualidad en la Teoría de Cuerdas en muy natural. En el último año los físicos han descubierto cómo aplicar pruebas de dualidad a diferentes teorías de cuerdas y p-branas en varias dimensiones. Se han podido hacer y comprobar una serie de conjeturas. Esto no prueba que la dualidad sea correcta pero cada vez que una prueba ha tenido la capacidad de demostrar una inconsistencia ha fallado al destruir las conjeturas. Lo que hace a este descubrimiento tan útil es que las dualidades son características no perturbativas para la Teoría de Cuerdas. Ahora muchos físicos ven que las Teorías de p-branas pueden ser tan interesantes como las Teorías de Cuerdas en una configuración no perturbativa. El último resultado en este esfuerzo es el descubrimiento de que las cuatro Teorías de Cuerdas que se conoce que son finitas perturbativamente se piensa ahora que son derivables de una única teoría en 11 dimensiones conocida como Teoría M. La Teoría M es una hipotética Teoría de Campo Cuántico que describe la relación entre 2-branas y 5-branas a través de una dualidad.

Podría ser incorrecto decir que se comprenden muchas de estas cosas. Aún no existe Aún no existe una formulación correcta para la Teoría M o las Teorías de p-branas en su forma completamente cuántica, pero hay una nueva esperanza dado que ahora se ve que todas las diferentes teorías pueden ser parte de una única teoría.

Cuerdas negras

Como si un gran avance conceptual no fuese suficiente, los teóricos de las cuerdas se han conformado con otro que llegó el año pasado. Así como los físicos han estado especulando pacientemente durante décadas sobre la dualidad electromagnética, unos pocos también han especulado con que algunas partículas elementales podrían ser algo similar a los agujeros negros por lo que la materia podría ser considerada como una característica del espacio-tiempo. La idea en realidad viene de atrás, al menos desde Riemann.

La teoría comenzó a verse algo menos ridícula cuando Hawking postuló que los agujeros negros en realidad emitían partículas. El proceso podría ser similar a una partícula muy masiva que decae. Si un agujero negro irradiase lo suficiente eventualmente perdería tanta energía que su masa se reduciría a la escala de Planck. Aún sería mucho más pesado que cualquier partícula elemental conocida pero los efectos cuánticos serían tan abrumadores en tal agujero negro que sería difícil distinguirlo de una partícula masiva extremadamente inestable en su explosión final.

Para hacer tal idea concreta se requiere una teoría completa de gravedad cuántica y dado que la Teoría de Cuerdas proclama ser justo eso parece que el paso natural es comparar estados de cuerdas y agujeros negros. Sabemos que las cuerdas pueden tener un infinito número de estados para un siempre incremental spin, masa y carga. De la misma forma que un agujero negro, de acuerdo con la conjetura no-pelo (no-hair) también está caracterizado solo por su spin, masa y carga. Es por lo tanto bastante plausible que exista una complementariedad entre los estados de las cuerdas y los estados de un agujero negro, y de hecho esta hipótesis es bastante consistente con todas las pruebas que se han aplicado. Esto no es algo que puede establecerse con certeza, simplemente porque no hay una definición adecuada de la Teoría de Cuerdas para probar esta identidad. No obstante, muchos físicos consideran razonable ver los agujeros negros como estados de cuerdas individuales que están decayendo continuamente a estados más bajos a través de la radiación de Hawking.

El reciente avance debido a Strominger, Greene y Morrison es el descubrimiento de que si consideramos agujeros negros de la masa de Planck en el contexto de la Teoría de Cuerdas entonces es posible para el espacio-tiempo sufrir una suave transición de una topología a otra. Esto significa que muchas de las posibles topologías de las dimensiones enrolladas están conectadas y pueden allanar el camino hacia una solución de la selección de los estados del vacío en la Teoría de Cuerdas.

Simetría de cuerdas

La Teoría de Supercuerdas está llena de simetrías. Hay simetrías gauge, supersimetrías, covarianza, dualidades, simetrías conformales y muchas más. Pero la Teoría de Supercuerdas se supone que es una Teoría Unificada lo cual significaría que estas simetrías están unificadas. En la formulación perturbativa de la Teoría de Cuerdas que tenemos, las simetrías no están unificadas.
Una cosa sobre la Teoría de Cuerdas que se descubrió muy pronto fue que a altas temperatuas entraría en una fase de transición. La temperatura a la que sucede esto es conocida como la temperatura de Hagedorn tras un artículo escrito por Hagedorn a finales de 1968, pero fue en los años 80 cuando los físicos como Witten y Gross exploraron el significado de esto para la Teoría de Cuerdas.

La temperatura de Hagedorn para la Teoría de Supercuerdas es altísima, tales temperaturas solo han existido durante los primeros 10-43 segundos de la existencia del universo, si es que en efecto tiene sentido hablar de tiempo en estas situaciones.

Los cálculos sugieren que ciertas características de la Teoría de Cuerdas se simplifican por encima de esta temperatura. La implicación parece ser que se restaura una enorme simetría. Esta simetría se rompería u ocultaría a temperaturas más bajas, presumiblemente dejando las simetrías conocidas como residuos.

El problema entonces está en comprender qué es esta simetría. Si se conociera esto podría ser posible comprender qué es realmente la Teoría de Cuerdas y contestar todas las enigmáticas cuestiones que posee. Este es el misterio de las supercuerdas.

Una teoría favorita es que la Teoría de Supercuerdas está descrita por una Teoría de Campo Cuántico Topológica ( N del T: TQTF por sus siglas en inglés ) por encima de la temperatura de Hagedorn. TQFT es una Teoría de Campo Cuántico especial que tiene el mismo número de grados para la simetría gauge que para campos, con lo que es posible transformar todos los campos variables excepto aquellos que dependen de la topología del espacio-tiempo. La gravedad cuántica en un espacio dimensional 2+1 es un TQFT y es lo bastante simple como para poder resolverlo, pero para la Gravedad de Einstein en el mundo real de 3+1 dimensiones esto no se da, o eso parece.

Pero la TQFT en sí misma no es suficiente para resolver el problema del misterio de las supercuerdas. Si el cambio topológico del espacio-tiempo es una realidad entonces necesitamos algo más que eso.

La mayoría de los físicos que trabajan en la Teoría de Cuerdas creen que se necesita un cambio radical en el punto de vista para comprenderlo. Por el momento parece que nos encontramos con la misma clase de contradicciones con las que se encontraron los físicos hace 100 años con el electromagnetismo. Este misterio fue finalmente resuelto por Einstein cuando disolvió el éter. Para resolver la Teoría de Cuerdas es necesario disolver el espacio-tiempo en conjunto.

En la Teoría de Cuerdas como la entendemos ahora, el espacio-tiempo se enrolla y cambia de dimensión. Se introduce una escala mínima fundamental de longitud, bajo la cual todas las medidas son posibles. Probablemente sea necesario revisar nuestra comprensión del espacio-tiempo para apreciar qué significa esto.

Incluso la relación entre la mecánica cuántica y la Teoría Clásica parecen necesitar una revisión. La Teoría de Cuerdas puede explicar por qué funciona la mecánica cuántica de acuerdo con algunos teóricos de las cuerdas.
Todo esto junto parece ser un gran conjunto de pasos radicales a dar y puede que sea necesario darlos en un salto en la oscuridad.

Aquellos que trabajan con la gravedad cuántica viniendo del lado de la relatividad más que de la física de partículas ven las cosas de modo diferente. Ellos creen que es esencial mantener la fe en los principios de la invarianza del difeomorfismo a partir de la Relatividad General más que en el trabajo relativo a una métrica de fondo fija como hacen los teóricos de cuerdas. No consideran la renormalizabilidad como una característica esencial de la gravedad cuántica.

Trabajando en esta dirección han desarrollado una Teoría Canónica de la Gravedad Cuántica, la cual también está incompleta. Esta es una Teoría de Bucles, tentadoramente similar en ciertos aspectos a la Teoría de Cuerdas, aunque diferente. Los relativistas como Lee Smolin esperan que este sea un camino que permita salvar el hueco y desarrollar un método unificado.

Sonda a Plutón de la NASA lista para el vuelo

Una sonda de NASA destinada al planeta Plutón y el distante reino helado del Cinturón de Kuiper pasa sus últimos días en la Tierra y su fecha de lanzamiento, el 17 de enero, se acerca.

“Estamos en una gran forma”, cuenta el investigador principal de New Horizons (Nuevos Horizontes) Alan Stern a SPACE.com esta semana. “Tenemos un vehículo muy limpio”.

New Horizons completó una revisión de preparación para el vuelo el Jueves cuando se descuentan los días para el despegue de la primera misión en la historia de un sobrevuelo de Plutón, dice el oficial de la misión, añadiendo que unas serie de noticias de la misión y noticias científicas informativas serán distribuidas por NASA TV comenzando a las 1:00 p.m EST (1800 GMT).

La nave se encuentra colocada sobre el cohete construido por Lockheed Martin Atlas 5 y está lista para la mañana del Lunes en la rampa de lanzamiento de la Estación de las Fuerzas Aéreas de Cabo Cañaveral . El combustible para los cohetes le seguirá en breve, añaden los oficiales de NASA.

La ventana de lanzamiento para el vuelo se abre a las 1:24 p.m. EST (1824 GMT) del 17 de enero y continúa hasta el 14 de febrero, aunque la nave debe despegar antes de finales de enero para conseguir la ventaja del impulso gravitatorio de Júpiter que podría apurar en tres años s esta nave. Si todo va bien la sonda debería pasar por Plutón y sus lunas en 2015, dicen los investigadores.

“Todo es muy positivo y todo el mundo está muy nervioso”, dice David Kusnierkiewicz, ingeniero de sistemas de la misión New Horizons del Laboratorio de Física Aplicada, quienes construyeron la sonda para NASA. “Es un sentimiento agradable…tiene todas las aprobaciones oficiales”.

Oficiales de NASA confirmaron este semana que la Oficina de Ciencia, Tecnología y Política de la Casa Blanca, dio su aprobación final para el generador termoeléctrico de radioisótopos de New Horizons (RTG por sus siglas en inglés), que convierte el calor del plutonio que decae en energía para la nave de Plutón.

El RTG es uno de los intrumentos sobrantes de la nave Cassini de NASA, que actualmente está estudiando Saturno y sus numerosas lunas, cuenta Stern a SPACE.com.

Stern dijo que el lanzamiento de la sonda New Horizons el 17 de enero también da la casualidad de que coincide con el aniversario de la muerte del descubridor de Plutón Clyde Tombaugh, quien fue el primero en observar este distante mundo en 1930 y que murió en 1997.

“Es una absoluta coincidencia, pero interesante”, dijo Stern.

El lanzamiento está también encuadrado entre el 100 aniversario del nacimiento de Tombaugh (18 de febrero), así como del de Gerard Kuiper (7 de diciembre) – que dio nombre al Cinturón de Kuiper y sus objetos. Miembros de la familia de ambos, Kuiper y Tombaugh, se espera que estén presentes en el lanzamiento.

Stern y Kusnierkiewicz no piensan relajarse una vez que New Horizons haya emprendido su camino, e irán inmediatamente al centro de control de la misión en el Laboratorio de Física Aplicada.

“Esto ha llevado una gran cantidad de trabajo y es gratificante haber alcanzado este punto”, dice Kusnierkiewicz, quien ha pasado los últimos cinco años cuidando de la nave New Horizons. “Es en cierto modo excitante que en un principio toda esta maquinaria comenzaba a mostrar lo que sería un día, te das la vuelta y está en la rampa de lanzamiento”.


Autor: Tariq Malik
Fecha Original: 2006-01-14

¿Galaxia de materia oscura?

Las nuevas pruebas de que VIRGOHI 21, una misteriosa nube de hidrógeno en el Cúmulo de Virgo a 50 millones de años luz de la Tierra, es una Galaxia Oscura, no emite ninguna luz de estrellas, fueron presentadas hoy en la reunión de la Sociedad Astronómica Americana en Washington, D. C. por un equipo internacional liderado por los astrónomos del Observatorio de Arecibo de la Fundación Nacional de Ciencia y de la Universidad de Cardiff en el Reino Unido. Sus resultados no solo indican la presencia de una galaxia oscura sino que explican la antiguo misterio de su extrañamente alargada compañera.

Las nuevas observaciones, hechas con el Radio Telescopio de Sístesis Westerbork en los Países Bajos, demuestran que el gas hidrógeno de VIRGOHI 21 parece estar rotando, lo que implicaría una galaxia oscura con aproximadamente unos 10 000 millones de veces la masa de nuestro Sol. Solo un uno por cierto de esta masa ha sido detectada como hidrógeno neutro – el resto parece ser materia oscura.

Los chorros de gas de hidrógeno neutro entre NGC 4254 y VIRGOH1 21. Crédito de la imagen: Observatorio de Arecibo

Pero esto no es todo lo que revelan los nuevos datos. Los resultados pueden también resolver una larga duda sobre otra galaxia cercana. NGC 4254 está torcida, con uno de sus brazos espirales mucho más largo que el resto. Esto es habitualmente causado por la influencia de una galaxia compañera, pero nadie había podido encontrarla hasta ahora – el equipo piensa que VIRGOHI 21 es el culpable. El Dr. Robert Minchin del Observatorio de Arecibo dice; “La teoría de la galaxia oscura explica tanto las observaciones de VIRGOHI 21 como el misterio de NGC 4254″.

El gas de NGC 4254 está siendo arrancado por la galaxia oscura, formando una conexión temporal entre las dos y alargando el brazo de la galaxia espiral. Cuando VIRGOH1 21 se mueva, las dos se separarán y el inusual brazo de NGC 4254 se relajará hasta hacerse igual a sus compañeros.

El equipo ha sopesado muchas otras posibles explicaciones, pero han encontrado que solo la teoría de la galaxia oscura puede explicar todas las observaciones. Como dijo el Profesor Mike Disney de la Universidad de Cardiff, “Las nuevas observaciones hacen incluso más difícil escapar a la conclusión de que VIRGOHI 21 es una galaxia oscura”.

El equipo espera que este sea el primero de muchos de estos descubrimientos. “Vamos a seguir buscando más galaxias oscuras con el nuevo instrumentos ALFA del Observatorio de Arecibo”, explica el Dr. Jon Davies de la Universidad de Cardiff. “Esperamos encontrar muchas más en los próximos años – ¡es un momento excitante!”


Fecha Original: 2006-01-13

Los sistemas binarios pueden albergar planetas

Un nuevo trabajo teórico demuestra que la formación de un planeta gigante gaseoso puede tener lugar alrededor de estrellas binarias casi de la misma forma que tiene lugar alrededor de estrellas simples como el Sol. El trabajo se presentará hoy por el Dr. Alan Boss del Departamento de Magnetismo Terrestre de la Institución Carnegie en la reunión de la Sociedad Astronómica Americana meeting en Washington, DC. Los resultados sugieren que los planetas gigantes gaseosos, como Júpiter, y los planetas habitables similares a la Tierra podrían ser más frecuentes de lo que se pensaba. Un artículo describiendo estos resultados ha sido aceptado para su publicación en el Astrophysical Journal.

“Tendemos a centrarnos en buscar otros Sistemas Solares alrededor de estrellas muy parecidas a nuestro Sol”, dice Boss. “Pero estamos aprendiendo que los sistemas planetarios pueden encontrarse en toda clase de estrellas, desde púlsares a enanas M con solo un tercio de la masa de nuestro Sol”.

Ilustración por ordenador de una estrella binaria. Crédito de Imagen: Institución Carnegie.

Dos de cada tres estrellas en la Vía Láctea son miembros de un sistema estelar binario o múltiple, en el cual las estrellas orbitan unas alrededor de otras con separaciones que pueden estar en un rango de llegar casi al contacto (binarias cercanas) a miles de años luz o más (binarias separadas). La mayoría de binarias tiene una separación similar a la distancia del Sol a Neptuno (aproximadamente 30 UA, donde 1 UA = 1 Unidad Astronómica = 150 millones de kilómetros – la distancia de la Tierra al Sol).

No se ha aclarado si la formación de sistemas planetarios podría tener lugar en los sistemas binarios típicos, donde la potentes fuerzas gravitatorias entre una y otra estrella podrían interferir con el proceso de formación de planetas alrededor de la otra estrella y viceversa. El trabajo teórico previo ha sugerido, de hecho, que los sistemas estelares binarios típicos no serían aptos para formar sistemas planetarios. Sin embargo, los cazadores de planetas han encontrado recientemente un número de planetas gaseosos gigantes en órbita alrededor de estrellas binarias con un rango de separación.

Boss encontró que si el calentamiento resultante de las fuerzas gravitatorias de la estrella compañera es débil, entonces los planetas gigantes gaseosos son capaces de formarse en discos de formación planetaria en un modo muy similar a como lo hacen alrededor de las estrellas simples. El disco de formación planetaria permanecería lo bastante frío para que los granos de hielo permaneciesen sólidos y de esta forma permitir el crecimiento de núcleos sólidos que deben alcanzar el tamaño de varias Tierras para que tenga éxito el mecanismo convencional de formación de planetas gaseosos gigantes (acreción del núcleo).

Los modelos de Boss muestran incluso más directamente que el mecanismo alternativo para la formación de planetas gaseosos gigantes (inestabilidad del disco) puede tener lugar en sistemas de estrellas binarias así como alrededor de estrellas simples, y de hecho podría incluso ser fomentado por las fuerzas gravitatorias de la otra estrella. En los nuevos modelos de Boss, el disco de formación planetaria en órbita alrededor de una de las estrellas es llevado rápidamente a formar densos brazos de espirales, en los cuales la gravitación de los mismos trozos de gas y polvo forman y comienzan el proceso de contracción a tamaño planetario. El proceso es sorprendentemente rápido, requiriendo menos de 1 000 años para que los densos trozos formen otra clase de disco sin rasgos distintivos. Habría una enorme cantidad de planetas similares a la Tierra formándose cerca de la estrella central después de que los planetas gaseosos gigantes se hayan formado, muy parecido a la forma en que pensamos que nuestro sistema planetario se ha formado.

Boss apunta, “Este resultado puede tener profundas implicaciones en el incremento de la probabilidad de la formación de sistemas planetarios parecidos al nuestro, debido a que las estrellas binarias son la regla en nuestra galaxia, no la excepción”. Si las estrellas binarias pueden dar cobijo a sistemas planetarios compuestos de planetas gigantes gaseosos externos y pequeños planetas terrestres internos, entonces la probabilidad de otros mundos habitables se convierte de pronto en tres veces mayor – dado que hay tres veces más posibles anfitriones para sistemas planetarios similares al nuestro. Los planes de NASA para la búsqueda y caracterización de planetas similares a la Tierra en la próxima década tendría entonces muchas más posibilidades de éxito.

Una de las cuestiones clave que aún permanecen sobre los modelos teóricos es la cantidad correcta de calor en el disco de formación planetaria, así como la cuestión más general sobre cómo de rápido es capaz de enfriarse en disco. Boss y otros investigadores están trabajando activamente para una mejor comprensión de estos procesos de calentamiento y enfriamiento. Dadas las crecientes pruebas observacionales sobre planetas gaseosos gigantes en sistemas estelares binarios, los nuevos resultados sugieren que el calentamiento en los discos binarios no puede ser muy grande, o evitaría la formación de planetas gaseosos gigantes.


Fecha Original: 10 de Enero de 2006

¿Marte no fue húmedo después de todo?

Poco después de que el rover robótico de NASA Opportunity comenzara la exploración de Marte, encontró minerales y rocas que los científicos que lo manejaban dijeron que eran prueba de una historia húmeda y cálida. Pero dos grupos de científicos se cuestionan ahora esta interpretación.

La mayoría de los científicos están de acuerdo en que el agua fluyó por la superficie del planeta en algún punto. El planeta tiene profundos valles similares al propio Gran Cañón de la Tierra, lo que nos hace pensar que han sido excavados por corrientes de aguan punto.

Pero no está claro si todo el agua de Marte sobrevino de golpe hace mucho tiempo, cuando los meteoritos golpearon los depósitos de hielo del joven planeta, o si algunos se quedaron en templados charcos más tarde en la vida de Marte, lo que podría haber dado tiempo a la vida para evolucionar.

Cuando la Opportunity tomó tierra en una zona de Marte llamada Meridiani Planum, dio con una geología que parecía tentadoramente similar al producto de agua estancada. Los investigadores que ejecutaban la misión escribieron que “las condiciones de superficie en Meridiani pueden haber sido habitables durante algunos periodos de la historia marciana (1)”.

Opportunity encontró un conjunto de diminutos cantos rodados dispersos que parecían haberse formado en el agua, y agujeros rectangulares en el muro del cráter que podrían haber sido dejados por la disolución del material y cristales. El equipo también observó patrones de ondas en las rocas y una capa similar a sedimentos que se han depositado al desaparecer el agua.

Pero en el Nature de esta semana (2),(3), otros investigadores sugieren una seca y alternativa explicación.

Meteoros y volcanes

Paul Knauth, un geólogo de la Universidad del Estado de Arizona, Tempe, y sus colegas argumentan que todas estas características fueron producidas por un repentino aumento de rocas, minerales y salmuera debido al impacto de un meteorito, unido a cambios químicos de agua superficial – pero no piscinas (2).

“Las observaciones de Opportunity en sí mismas son válidas”, dice Donald Burt el colega de Arizona de Knauth. “Pero las actuales interpretaciones no están apoyadas por las pruebas”.

Burt apunta que cualquier agua del área habría dejado canales, deltas y otras características costeras que Opportunity no ha encontrado. Añade que la salmuera de agua ácida disolvería a través de las rocas de basalto alcalinas, no crearía charcos. “Sería como intentar verter ácido en una bañera de mármol”, dice.

Las características de capa encontradas por Opportunity, interpretadas como sedimentación acuática, también son vistas en la Tierra. Pero en algunos casos se atribuyen a repentinos aumentos de material procedente de impactos de meteoritos.

Thomas McCollom y Brian Hynek, ambos científicos planetarios en la Universidad de Colorado, Boulder, proporcionan otra árida explicación. Sugieren que los depósitos de mineral son cenizas volcánicas que han reaccionado con pequeñas cantidades de agua ácida y el gas volcánico dióxido de azufre (3).

La interpretación del agua falla, según argumentan, porque los sedimentos no contienen suficiente cantidad de metales – tales como calcio, magnesio e hierro – que deberían aparecer en rocas sumergidas en agua.

Opción remota

Si alguna de estas explicaciones es cierta, podría reducir las opciones de que la vida existiera alguna vez en Marte.

Pero Steve Squyres, científico planetario de la Universidad de Cornell University, Ithaca, Nueva York, que lidera el equipo científico de Opportunity se mantiene es sus conclusiones originales. “No hay dudas de que hubo masas de agua duraderas en la superficie”, mantiene.

Las rocas de un gran cráter, llamado Endurance, parece como si les hubiese dado forma por el agua aunque alteradas por los fuertes vientos, dice Squyres. Esto puede explicar algunas de las objeciones realizadas en los artículos de Nature. Como los resultados de Endurance fueron publicados solo recientemente (4), las dos explicaciones rivales han fallado la historia completa, sugiere Squyres.

Opportunity está ahora encarando un cráter incluso mayor llamado Victoria. “Victoria es un potencial túnel del tiempo, permitiendo acceso a material marciano antiguo que de otra forma estaría enterrado bajo la superficie”, dice John Callas, subdirector general de la misión de los rover en el Laboratorio de Propulsión a Chorro en Pasadena, California. Si el robot puede mantenerse funcionando lo suficiente, podría recolectar bastantes datos para decidir el debate.


Autor: Mark Peplow

Referencias

1.Knauth L. P., Burt D. B., Wohletz K. H.. . Nature, 438. 1123 – 1128 (2005).
2.McCollom T. M., Hynek B. M . Nature, 438. 1129 – 1131 (2005).
3.Squyres S. W., et al. Science, 306. 1709 – 1714 (2004).
4.Squyres S. W., et al. arth Planet. Sci. Lett., 240. 1 – 10 (2005).

Fecha Original: 2006-01-11

Viaje interestelar: ¿Es posible?

Con los actuales viajes espaciales limitados a solo unas cuantas sondas robóticas visitando planetas cercanos, ¿cómo de realista es pensar en alcanzar las estrellas más cercanas?

A corto plazo, no mucho – especialmente cuando hablamos de misiones tripuladas. Pero a largo plazo – 50 o incluso 100 años – la humanidad tiene buenas opciones de tener misiones, no tripuladas en principio, de viajar a las estrellas en nuestra vecindad galáctica.

En realidad, ya tenemos naves espaciales aventurándose en el espacio interestelar. Las sondas Pioneer y Voyager, dos de cada, han alcanzado la velocidad de escape solar y ahora permanecerán en el límite exterior para siempre. La más rápida, la Voyager 1, viaja a 62 000 kilómetros por hora. Incluso esta tremenda velocidad es dolorosamente lenta cuando se ve envuelta en distancias interestelares. La Voyager 1 necesitaría unos 17 000 años para llegar a Próxima Centauri, nuestra vecina más cercana a 4,22 años luz de distancia.

Con un límite teórico de velocidad impuesto por la Teoría de la Relatividad de Einstein de 1 079 252 848,8 km/h, o la velocidad de la luz, incluso la estrella más cercana está, en efecto, muy lejana.

Pero si tenemos en cuenta el rápido ritmo del avance tecnológico, las cosas tienen mejor aspecto. Los primeros débiles vuelos de los hermanos Wright llevaron a un hombre a la Luna en tan solo 50 años. En menos de 100 años, podremos viajar 1 000 veces más rápido. Si esta regla se mantiene durante los próximos 100 años, seremos capaces de viajar a las estrellas más cercanas con relativa facilidad.

Predecir este futuro, sin embargo, no es fácil. Simplemente carecemos de las teorías más básicas para viajar por encima de la velocidad de la luz, haciendo la ingeniería del viaje interestelar algo incluso más lejano. Hay, no obstante, algunas ideas interesantes sobre el papel que están dentro de los límites teóricos actuales.

Un estudio realizado por NASA en 1998 identificó 3 sistemas potenciales de tecnologías de propulsión que podrían permitir la exploración más allá de nuestro Sistema Solar. Antimateria, fusión y velas de luz.

Las velas de luz son actualmente la opción tecnológicamente más viable de las tres. Robert L. Forward, científico y escritor de ciencia-ficción fue el primero en proponerlas en 1984. La idea básica es usar enormes lasers para empujar un objeto fuera del sistema solar. Aunque suena extraño pensar que la luz empuje un objeto, los fotones pueden ejercer una fuerza muy pequeña sobre los objetos en los que impactan. Dado que esta fuerza es pequeña, el objeto necesita ser grande y ligero – como una vela. Necesita también ser reflectante solo cuando los fotones reboten en el objeto para transferirle velocidad – los fotones que absorba generan calor. Para prevenir el calor acumulado, la parte trasera de la vela necesita ser un radiador efectivo.

Dado que los fotones ejercen una minúscula fuerza sobre una gran área, la vela debe ser, por supuesto, grande. Sin embargo, como el espacio está virtualmente vacío, existe poco rozamiento. Esto significa que cualquier velocidad impartida será incremental – un diminuto empujón a lo largo de un largo periodo de tiempo equivale a un gran empuje.

El material de la vela podría ser alguna forma de Mylar – fino y fuerte a la vez. Conducir la vela y apuntar los enormes lasers, sin embargo, no son problemas triviales. Para los lasers gigantes, pensemos en 10 gigavatios de luz brillando sobre una vela de 1 kilómetro de diámetro solo para enviar 16 gramos de carga a la estrella más cercana. El laser debe estar apuntando con precisión al objetivo durante todo el tiempo posible para obtener las velocidades deseadas. De acuerdo con su inventor, esta nave propulsada por luz podría llegar a la estrella más cercana en solo 10 años.

Esta tecnología nos lleva también a permitir mayores cargas pero los niveles de potencia de los laser se convierten rápidamente en inadmisibles. Para enviar una nave de 1 000 toneladas con tripulación al mismo destino se requeriría una vela de 1 000 kilómetros empujada por un laser de 10 millones de gigavatios – diez mil veces más que la potencia que usamos hoy en toda la Tierra.

Estas velas han sido probadas: El 9 de agosto de 2004 el ISAS japonés envió con éxito dos prototipos de velas solares a la órbita baja de la Tierra. Una vela con forma de trébol se envió a una altitud de 122 kilómetros y una vela de tipo abanico se envió a una altura de 169 kilómetros. Ambas velas usaron una película de 7,5 micras de grosor. Usaron la fuerza de los fotones solares como propulsión en lugar de usar un gran laser.

Se podría conseguir una velocidad mayor mediante motores de fusión. Por desgracia, al contrario que las velas de luz, la fusión aún no se comprende lo bastante bien como para usarlo como dispositivo de propulsión. No por la falta de miles de millones de dólares en fondos para su estudio, sin embargo. Algún día cercano podremos tener la capacidad de controlar las mismas reacciones que realiza nuestro Sol. La fusión libera una tremenda energía a partir de una masa dada haciéndolo ideal para largos viajes cuando el peso del combustible se convierte en un factor crítico.

Una interesante idea es el ramjet de Bussard propuesto por primera vez en 1960 por el físico americano RW Bussard. En lugar de llevar combustible, ¿por qué no obtenerlo del espacio?.

Aunque comúnmente se percibe como vacío, el espacio interestelar tiene una minúscula cantidad de gas de hidrógeno – con una densidad de aproximadamente uno o dos átomos por centímetro cúbico. La idea de Bussard es recolectar este gas usando campos de fuerza electromagnética que se extenderían por delante de la nave. Este campo debería ser absolutamente gigantesco – del orden de 50 000 kilómetros de diámetro. Las bobinas superconductoras de la nave conducirían el gas interestelar hacia la nave comprimiéndolo hasta la densidad suficiente para producir combustible. Para empezar este proceso de recolección la nave necesitaría tener ya una sustancial velocidad – del orden de un 3 o 4 por ciento de la velocidad de la luz.

Un ramjet de Bussard podría posiblemente conseguir una aceleración constante de 1g lo que permitiría al piloto hacer trayectos muy largos. Para un observador situado en la Tierra, tal nave necesitaría cientos de miles de años en alcanzar el centro de la galaxia, pero debido a la dilatación relativista del tiempo sólo pasarían 20 años para la tripulación de la nave. Imagina – ¡solo 20 años hasta el centro de la galaxia!. Por supuesto, permanecen los problemas técnicos tales como el campo magnético de tracción, proteger a la tripulación de la radiación interestelar y la capacidad de controlar las reacciones de fusión.

Incluso más alejada técnicamente es la propulsión de antimateria. Cuando la materia y la antimateria se encuentran en proximidad, se aniquilan entre sí liberando incluso más energía que la fusión.

Una unidad de propulsión basada en la fusión podría generar 100 billones de julios por kilo de combustible – aceptable si tenemos en cuenta que sería 10 millones de veces más eficiente que los cohetes químicos. Las reacciones de materia-antimateria, sin embargo, hacen parecer pequeñas al resto de reacciones. Imagina un motor que pudiese generar 20 mil billones de julios por kilo de masa reactiva. Esto sería suficiente energía para satisfacer las necesidades del mundo durante unos 25 minutos a partir de un kilo.

Los problemas técnicos incluyen la falta de combustible – el suministro mundial es de unas pocas docenas de nanogramos al año, el manejo del combustible – se puede predecir fácilmente el catastrófico resultado de un accidente del combustible de antimateria – y el control de la reacción.

Toda esta tecnología está de lejana como lo estaba la bomba atómica de Alfred Nobel – el inventor de la dinamita. Es decir, no demasiado. Podemos empezar a ver los inicios de un programa de vuelo interestelar antes del final del milenio. Simplemente necesitaremos una razón convincente.

Para contemplar seriamente la posibilidad de alcanzar las estrellas más cercanas, necesitamos entender los obstáculos que nos rodean. Primero, el enorme costo que supone el despliegue de estas tecnologías. Segundo, a pesar de los entusiastas en el fenómeno OVNI, no hay ninguna prueba firme de que hayamos sido visitados alguna vez por viajeros espaciales. Tercero, sabemos que podemos enviar ondas de radio a estos destinos sin problemas.

Con esto en mente, puede ser simplemente demasiado caro y técnicamente complejo viajar por el espacio interestelar. Se ha propuesto una mejor solución: ¿por qué no crear una red intergaláctica?. Envíar pequeñas sondas de investigación autorreplicantes a otras estrellas. Una vez allí, harán copias de sí mismas y continuarán explorando el exterior, transmitiendo un flujo de información continuo a la Tierra.

Estas sondas autorreplicantes, también conocidas con máquinas de Von Neumann, deben su nombre a su inventor, el matemático John Von Neumann (1903-1957). La belleza de esta idea es que una vez has logrado construir la primera máquina autorreplicante, el resto es automático. Las sondas se expandirían por el espacio en progresión geométrica, extendiéndose rápidamente por toda la galaxia. Una vez establecida, esta red podría usarse para comunicación y localización de planetas similares a la Tierra para colonizar.

Por ahora, las máquinas construidas que funcionen bien sin asistencia siguen siendo un problema incluso para los mejores científicos si nos atenemos a los recientes fallos en misiones no tripuladas. Una sonda robótica que se autorrepare y autorreplique parece aún más lejana.

El viaje en el espacio interestelar representa un enorme reto para la humanidad. Por ahora permanece en los dominios de la ciencia-ficción – pero pronto, ¿quién sabe?. Podríamos vivir para ver las primeras misiones a las estrellas cercanas – si es que los últimos 100 años de historia son una guía.


Autor: Chuck Rahls
Fecha Original: 2005-12-22

Los récords de la exploración espacial (IV)

Viajero especial más experimentado

El cosmonauta ruso Sergei Avdeyev ha registrado un total de 747 días 14 horas y 22 minutos en tres vuelos espaciales a la estación espacial Mir entre julio de 1992 y julio de 1999. Sus misiones fueron:

Soyuz TM-15, lanzada el 27 de julio de 1992, ingeniero de vuelo, llegó a la Mir y pasó 188 días, 21 horas y 49 minutos.

Soyuz TM-22, lanzada el 3 de septiembre de 1995, ingeniero de vuelo, llegó a la Mir y pasó 179 días, 1 hora y 41 minutos.

Soyuz TM-28, lanzada el 13 de agosto de 1998, ingeniero de vuelo, llegó a la Mir y pasó 379 días, 14 horas y 52 minutos

Volvió a la Tierra en la Soyuz TM-29.

Nota del Traductor: Este récord ha sido recientemente superado por Serguei Krikalev. Más información en este artículo

El ser humano más aislado

El piloto del módulo de mandos Alfred M. Worden, en la misión lunar estadounidense Apolo 15 del 30 de julio al 1 de agosto de 1971, estuvo a 3 596,4 km del ser humano más cercano cuando David Scott y James Irwin estaban explorando la superficie de la Luna.

Telescopio de rayos X más potente

El telescopio de rayos-X Chandra, lanzado en julio de 1999, tiene un poder de resolución equivalente a la capacidad de ver una señal de stop a una distancia de 19 kilómetros. La sensibilidad, o potencia, es debida al tamaño y perfecto pulido de sus espejos.

Mayor número de vuelos espaciales por un cosmonauta soviético

El mayor número de vuelos por un cosmonauta Soviétivo/Ruso es de cinco, una marca conseguida por Vladimir Dzhanibekov (de 1978-1985) y Gennadiy Strekalov (de 1980-1995).

Mayor número de vuelos por un astronauta

El record de mayor número de vuelos espaciales por un individuo es de siete. Hasta la fecha, dos astronautas estadounidenses han logrado esto. Jerry Ross (nacido en 1948) voló en su séptima mission (STS 110) a bordo de la lanzadera espacial Atlantis entre el 8 y el 19 de abril de 2002, y Franklin Chang-Dìaz (nacido en 1950) voló en su séptima misión a bordo de la lanzadera espacial Endeavour entre el 5 y el 19 de julio de 2002.

Más aterrizajes de una lanzadera especial por una mujer

Eileen Collins (USA) ha aterrizado una lanzadera especial dos veces. Collins fue la primera mujer en aterrizar la lanzadera como piloto en Febrero de 1995, y como comandante en Julio de 1999. Durante su segunda mission desplegó con éxito el Observatorio de Rayos-X Chandra, antes de llevar a salvo la lanzadera Columbiar de vuelta al Centro Espacial Kennedy.

Vuelo especial tripulado más corto

El vuelo especial tripulado más corto fue realizado por el Comandante Alan Bartlett Shepard (nacido en 1923), de la Marina de los Estados Unidos a bordo de la Mercury-Redstone 3 el 5 de mayo de 1961. Su misión sub-orbital duró 15 minutos y 28 segundos. El cohete no era lo bastante potente para alcanzar la órbita, en lugar de esto subió y bajó en una trayectoria parabólica como una bala de cañón.

Nave especial tripulada más pequeña

La Unidad de Maniobras Tripulada o MMU por sus siglas en inglés, usada por los astronautas para el trabajo en el exterior de la lanzadera espacial, tiene una altura de 1,24 metros, 0,83 metros de ancho y 1,12 metros de profundidad. La unidad tiene un peso de solo 109 kilos. Propulsada por chorros de nitrógeno, se usó por primera vez en la mission lanzadera STS-41-B en Febrero de 1984 cuando el astronauta Bruce McCandless viajó 100 metros por encima de la nave Challenger.

Cohete más pequeño

El cohete lanzador de satélites más pequeño fue el Pegaso. El cohete de tres etapas tenía una longitud de 15 metros. El Pegaso original se usó por primera vez en 1990 y fue lanzado desde un avión. El cohete fue diseñado por las Fuerzas Aéreas de los Estados Unidos y la industria Americana para permitir lanzamientos de satélites al espacio de forma más barata.

Objeto hecho por el hombre más lejano

La sonda Voyager 1, lanzada desde Cabo Cañaveral en Florida, USA el 5 de septiembre de 1977, es actualmente el objecto hecho por el hombre más lejano de la Tierra. El 17 de febrero de 1998 sobrepasó a la más lenta Pioneer 10, que fue lanzada el 2 de marzo de 1972. La Voyager 1, a fecha de 25 de febrero de 2003, está a unos 13 091 millones de kilómetros de la Tierra.


Fecha Original: 2005-12-20
Ir a la primera parte
Ir a la segunda parte
Ir a la tercera parte

Los récords de la exploración espacial (III)

Mayor funeral espacial

Las cenizas de 24 pioneros y entusiastas del espacio, incluyendo a los creadores de Star Trek Gene Roddenberry y al científico especialista en cohetes Kraffte Ehricke, fueron puestas en órbita el 21 de Abril de 1997. Las cenizas aún permanecerán en órbita durante un periodo entre 18 meses y 10 años. El creador de Star Trek técnicamente ya había estado en el espacio. En una misión de la lanzadera espacial en 1992, un astronauta amigo de Roddenberry había guardado en secreto unos pocos gramos de sus cenizas a bordo.

Telescopio más grande

Los telescopios gemelos Keck, en la cima del volcán inactivo Mauna Kea en Hawaii, son los telescopios ópticos e infrarrojos mayores del mundo. Cada uno de estos telescopios mide 10 metros (8 pisos de altura) y pesa 300 toneladas.

Estancia orbital más prolongada en un planeta exterior

La sonda de NASA Galileo – que ardió en la atmósfera de Júpiter el 21 de septiembre de 2003 – fue lanzada a bordo de la lanzadera espacial Atlantis el 18 de octubre de 1989. Alcanzó el mayor planeta de nuestro Sistema Solar el 7 de diciembre de1995, donde deceleró y entró en órbita. Esta estancia en Júpiter y sus lunas representa la primera vez que una sonda fabricada por el hombre orbitaba un mundo de Sistema Solar exterior, y los 30 gigabytes de información que transmitió hacia la Tierra seguirán siendo estudiados por los científicos durante los próximos años.

La sonda que se “suicidó” lanzándose a la atmósfera Joviana a una velocidad de 173 800 kph en septiembre de 2003 estaba diseñada para asegurar que no impactara contra ninguna luna del planeta, las cuales – como descubrió la sonda Galileo – podrían mantener agua e incluso soportar vida, por lo que era necesario prevenir cualquier posible contaminación de organismos terrestres que pudiesen haberse acoplado a la nave.

“Estoy triste”, dijo Jim Erickson, un antiguo jefe del proyecto Galileo que guarda fotografías de la nave en su salón de casa. “Es como ver a un hijo crecer”.

Vuelo más largo de una lanzadera espacial

El Columbia fue lanzado en su vigésimo primera misión, STS-80, con una tripulación de 5 personas (cuatro hombres y una mujer) el 19 de noviembre de 1996. El vuelo duró 17 días, 15 horas, y 53 minutos, hasta que el motor principal se apagó. El aterrizaje se retrasó dos días debido a las malas condiciones climatológicas en Cabo Cañaveral y la Base Aérea de Edward en el desierto de Mojave. La tripulación de la misión incluía a Storey Musgrave quien, en el momento de la misión, se convirtió en la persona más anciana en viajar al espacio a la edad de 61 años- un récord que fue batido posteriormente por John Glenn.

Vuelo espacial más largo de una mujer

El vuelo espacial más largo llevado a cabo por una mujer corresponde a Shannon Lucid (USA) en la lanzadera espacial STS 76/Atlantis el 22 de marzo de 1996, aterrizando a bordo de la STS 79/Atlantis el 26 de septiembre de 1996 tras un vuelo espacial de 188 días 4 horas y 14 segundos.

Paseo espacial más largo

Los astronautas americanos Jim Voss y Susan Helms pasaron 8 horas y 56 minutos en el espacio exterior el 11 de marzo de 2001. Su trabajo consistía en hacer espacio en la Estación Espacial Internacional para el módulo de carga italiano Leonardo, el cual sería llevado al espacio por la lanzadera espacial Discovery. La carga de Leonardo incluía unas 5 toneladas de suministros y equipo para la estación.

¿Quieres conocer más?

El término técnico para un paseo espacial es Actividad Extra Vehicular, o EVA por sus siglas en inglés. La pieza más esencial del equipo de un astronauta en un EVA es el traje espacial. Este crea una atmósfera presurizada y regula la temperatura. El primer paseo espacial de la historia fue realizado por el cosmonauta soviético Alexei Leonov el 18 de marzo de 1965, durante la misión Voskhod 2. Durante el paseo, hizo observaciones, tomó fotografías, y practicó la caída libre mientras se encontraba unido a la nave por un cable.

Mira esto…

La operación Leonardo empezó con mal pie para Jim Voss ya que el astronauta perdió su punto de agarre a causa de un componente que debería haber estado unido a la lanzadera espacial Discovery. El dispositivo vagó por el espacio, pero podría haber ardido tan pronto como reentrase en la atmósfera de la Tierra.

Cinco hitos en los viajes al espacio

1. 4 de cctubre de 1957 – La URSS lanza el Sputnik 1, el primer satélite artificial en orbitar la Tierra.

2. 3 de noviembre de 1957 – La mascota soviética Laika se convierte en el primer perro en el espacio a bordo del Sputnik 2.

3. 12 de abril 1961 – El cosmonauta soviético Yury A. Gagarin es el primer hombre en el espacio, hacienda una órbita a la Tierra en el Vostok 1.

4. junio de 1965 – El Mayor Edward H. White II se convierte en el primer astronauta de Estados Unidos en realizar una Actividad Extra Vehicular. Cuando se le dijo que debía volver a bordo de la nave dijo: “Este es el momento más triste de mi vida”.

5. 20 de julio de1969 – Neil A. Armstrong se convierte en el primer hombre en andar sobre la superficie de la Luna.

Récord de velocidad lunar

El record de distancia y velocidad lunar fue conseguido por el rover tripulado del Apolo 16 conducido por John Young, quien logró una velocidad de 18 kmph en unos 33,8 km.

Los aficionados lo llaman “El Padrino del Espacio”, pero sus padres prefieren simplemente al viejo John Young. Tras conseguir su licenciatura en Ingeniería Aeronaútica con las mejores calificaciones, John se unió a la Marina de los Estados Unidos, antes de ser seleccionado por NASA como astronauta en 1962. Voló en seis misiones espaciales, marcando unas sorprendentes 835 horas de vuelo. Ahora a sus 70 años, John es aún seleccionable para comandar futuras misiones de lanzaderas. ¡Joven por nombre, joven por naturaleza! (N. del T: “Young”, apellido del astronauta, significa joven en español.)

¿Quieres saber más?

La fuerza de la gravedad en la Luna es solo un sexto de la que hay en la Tierra, lo que significa que es más difícil para los objetos mantenerse en el suelo. Con cada pequeño bache, el rover del Apolo 16 abandonaba momentáneamente la superficie lunar. Por lo que, de haber conducido John Young algo más rápido, ¡habría pasado más tiempo fuera de la Luna que sobre ella!

Mira esto…

De acuerdo con las notas del oficial astronauta del Apolo 16, John Young compara conducir en la Luna a conducir sobre la nieve. Cuando el control de la misión dijo que entendían la comparación, John dijo, “Se que lo sabéis, pero nosotros los chicos de Florida no sabemos mucho de eso” – una referencia a su época en el Instituto de Orlando.

Cinco cosas más rápidas que en rover del Apolo 16

1. Guepardo – unas cinco veces más rápido.

2. Maurice Greene – el campeón de atletismo corre casi dos veces más rápido.

3. Pez espada – tres veces más rápido que el rover.

4. Hiroyasu Shimizu – con su monopatín alcanza el doble de la velocidad del rover.

5. Pelota de tenis – si la golpea Greg Rusedski, podría ir a ocho veces esa velocidad.

Objeto más distante

Los astrónomos de Caltech (USA), usando el Telescopio Espacial Hubble y el Observatorio Keck, han descubierto un pequeño y compacto sistema de estrellas de unos 2 000 años luz de tamaño, con un desplazamiento al rojo de 7,0. Esto corresponde a una distancia de unos 13 000 millones de años luz. Este resultado se anunció en Febrero de 2004.

Telescopio más caro

El Telescopio Espacial Hubble fue lanzado el 25 de abril de 1990, y tuvo un coste de 3 mil millones de dólares. El telescopio de una anchura de 2,4 m fue colocado en la órbita de la Tierra por astronautas de la lanzadera Discovery el 25 de abril de 1990. Sin embargo, al poco tiempo se descubrió un defecto en el espejo principal, llamado aberración esférica, lo que daba al Hubble una visión borrosa. NASA lanzó otra misión lanzadera en Diciembre de 1993 para reparar el telescopio especial añadiendo una serie de complejos conjuntos de lentes, que constaban de una serie de pequeños espejos que actuaban para corregir los problemas causados por el espejo defectuoso. La reparación funcionó perfectamente y, desde entonces, el Telescopio Espacial Hubble ha seguido asombrando a los astrónomos con sus imágenes de ultra alta resolución de objetos del Universo tanto cercanos como lejanos.

Viaje al espacio más caro por parte de un turista

El empresario Americano Dennis Tito pagó un total de 20 millones de dólares a Rusia por el privilegio de visitar la Estación Espacial Internacional durante seis días desde el 28 de Abril al 6 de mayo de 2001. El antiguo ingeniero de la NASA llegó a bordo de la nave rusa Soyuz, para disgusto de NASA, que inicialmente puso objeciones a tener un “turista espacial” a bordo de la internacionalmente patrocinada EEI. Cedieron tras la firma de Tito de un acuerdo en el que indemnizaría a NASA en caso de herida o muerte. También estuvo de acuerdo en pagar cualquier cosa que rompiese a bordo de la estación, y no tenía permitido el acceso a las secciones americanas de la estación sin estar acompañado.

Dennis pensó que sus vacaciones espaciales valían ese alto precio. “La gran sorpresa fue que quitando un pequeño ataque de nausea espacial el primer día, el resto del viaje fue excelente”, explica. Como la primera persona en pagar una factura por su propio viaje espacial, dijo que había experimentado el vuelo orbital libre de las presiones del trabajo y de las agendas. “No tenía al Control de la Misión diciéndome a cada minuto lo que tenía que hacer. Yo decidía qué iba a hacer en cada momento”. La mayor parte del tiempo lo pasaba simplemente flotando por la estación escuchando ópera, mirando fijamente por las escotillas y tomando imágenes de la Tierra desde distintos ángulos. “Podría haber estado allí en realidad durante meses, no me habría aburrido en absoluto”, dijo.

¿Quieres saber más?

¿Acerca de la Estación Espacial Internacional?. El ensamblaje de la EEI comenzó en 1998. La EEI tiene más de 100 componentes y requerirá de más de 44 vuelos espaciales para poner todos sus componentes en órbita. Serán necesarios 160 paseos espaciales tomando 1 920 horas de trabajo para ensamblar y mantener la EEI, la cual tiene planeada su finalización en 2006. La estación tiene un periodo de vida de unos 10 años y un coste total proyectado de 35 a 37 mil millones de dólares. Cuando esté completa podrá albergar a siete astronautas.

Mira esto…

El módulo de la estación especial tiene unos alojamientos muy simples, pero proporciona todo lo que necesita la tripulación – habitaciones para dormir personales, un baño, instalaciones de higiene, una cocina, a cinta para correr y una bicicleta de ejercicios. Dormir en el espacio es bastante distinto a dormir en la Tierra. En lugar de una cama, tienes un saco de dormir colgado de un tabique donde te deslizas dentro y cierras la cremallera. El saco está equipado con restricciones para los brazos para prevenir que tus brazos flotes sobre tu cabeza mientras duermes.


Fecha Original: 2005-12-19
Ir a la primera parte
Ir a la segunda parte
Ir a la cuarta parte

Los récords de la exploración espacial (II)

Primer paseo espacial por una mujer

La primera mujer en realizar un paseo espacial fue Svetlana Savitskaya, desde la nave Soyuz T12/Salyut 7, el 25 de julio de 1984. Svetlana Savitskaya fue una cosmonauta que nació el 15 de agosto de 1948 en Moscú y fue la segunda mujer en el espacio tras Valentina Tereshkova.

Primer paseo espacial sin fijación

El Capitán Bruce McCandless II fue el primero en lograr un paseo espacial sin fijación, desde la nave espacial Challenger, a una altitud de 264 km sobre Hawaii, el 7 de febrero de 1984. El Capitán McCandless II se unió a NASA como uno más del grupo de 19 nuevos astronautas en 1966 y ha volado en dos vuelos espaciales. Su primera misión fue en la lanzadera espacial, Challenger, la cual despegó el 3 de febrero de 1984. En este vuelo realizó su histórico paso espacial, con una mochila MMU (Manned Maneuvering Unit o Unidad de Maniobra Tripulada), de un coste de desarrollo de 15 millones de dólares.

Primera mujer en el espacio

La primera mujer en la órbita de la Tierra, Valentina Tereshkova, fue lanzada en el “Vostok 6″ desde el Cosmódromo de Baikonur en Kazakhstan, a las 9.30 am GMT del 16 de junio de 1963. Aterrizó tres días más tarde tras 48 órbitas. Valentina se enroló para convertise en astronauta en 1961, poco después de que la Agencia Espacial Soviética anunciara que estaban considerando enviar una mujer al espacio.

Distancia más lejana de la Tierra alcanzada por los humanos

La mayor distancia de la Tierra alcanzada por humanos fue cuando la tripulación del Apolo 13 estaba en el apocynthion (esto es, el punto más lejano) a 254 km de la superficie de la Luna, en el lado más alejado. Esto equivale a 400 171 km sobre la superficie de la Tierra.

Este récord se alcanzó a las 1:21 a.m. (Hora de Verano Británica) el 15 de abril de 1970. La misión comenzó cuatro días antes, el 11 de Abril, y fue diseñada para ser la tercera misión tripulada en aterrizar sobre la Luna. Sin embargo, a las 56 horas de vuelo, y a mitad de camino de la Luna, uno de los tanques de oxígeno explotó y dañó seriamente el módulo de mando, el Odisea.

Los astronautas Jim Lovell, Fred Haise y Jack Swigert se refugiaron en el módulo lunar y sellaron el túnel hacia el módulo de mandos tras de ellos. Apagaron todos los sistemas del Odisea, para intentar salvar la poca energía que les quedaba, y pasar a depender de los sistemas de apoyo a la vida del módulo lunar Acuario.

El Acuario estaba específicamente diseñado para aterrizar sobre la Luna, y dar soporte a dos hombres durante unos pocos días – no para tres hombres durante todo el trayecto de vuelta a la Tierra. Los filtros de aire del Acuario empezaron a saturarse rápidamente, llenándose con el dióxido de carbono que exhalaban los tres hombres, y tuvieron que improvisar con grandes dificultades filtros extra con el equipo recuperado del Odisea. Contra todas las dificultades, NASA fue capaz de traer de vuelta a los tres hombres sanos y salvos, aunque exhaustos y seriamente deshidratados. ¡Ninguno de los tres hombres volvió a volar en el espacio!

Mayor explosión de todos los tiempos

La mayoría de astrónomos creen que el Universo comenzó hace alrededor de 12 mil millones (*) de años en una cataclísmica explosión que llamamos Big Bang. Toda la materia y energía del Universo tienen su origen en este evento, junto con el tiempo. Un segundo tras el Big Bang, la temperatura era alrededor de 10 000 millones de grados, o aproximadamente 10 veces más caliente que el interior del Sol.

(*)N del T: Según estudios recientes más precisos la edad aproximada del Universo se establece en 13 700 millones de años.

Montaña más alta del Sistema Solar

La montaña más alta del Sistema Solar es el Monte Olimpo en el planeta Marte. El pico del Monte Olimpo está a 25 km de su base, lo que hace que sea casi tres veces más alto que el Monte Everes. A pesar de su gran altura, tiene una pendiente muy suave – es, de hecho, unas veinte veces más ancho que alto.

Velocidad más alta alcanzada por una mujer

Kathryn Sullivan (USA) consiguió el récord de velocidad de una mujer con 28 582 km/h. el 29 de abril de 1990, al inicio de la re-entrada y al final de la misión STS-31 Discovery.

Mayor conjunto de Radio Telescopios

El VLA (Very Large Array o Conjunto Muy Grande) de la Fundación Nacional de Ciencia de los Estados Unidos tiene forma de Y, con 20,9 km de longitud cada brazo conteniendo 27 antenas móviles (cada una de 25 m de diámetro) sobre raíles. Se encuentra a 80 km al Oeste de Socorro en Nuevo México, USA,y se completó en 1980.

Mayor carga en una lanzadera

Con 13,71 m de longitud Chandra, el telescopio de rayos X lanzado en julio de 1999, es la mayor carga transportada por una lanzadera.

Cohete más grande

El Saturno V (USA) fue el cohete más grande pero no el más potente. Tenía una altura de 110,6 m. con la nave Apolo montada en la parte superior y con un peso de 2 857 toneladas en la rampa de lanzamiento.


Fecha Original: 2005-12-18
Ir a la primera parte
Ir a la tercera parte
Ir a la cuarta parte

Los récords de la exploración espacial (I)

Aproximación más cercana al Sol por una Sonda

La sonda de investigación Helios 2 se aproximó a 43,5 millones de kilómetros del Sol llevando instrumentación tanto de Estados Unidos como de Alemania Occidental, el 16 de abril de 1976. Las dos sondas Helios (1 y 2) eran sondas alemanas diseñadas para orbitar el Sol. Fueron lanzadas por cohetes Titán E3 desde Cabo Cañaveral en Florida el 10 de diciembre de 1974 y el 15 de enero de 1976. Su misión era estudiar las propiedades del espacio entre el Sol y la Tierra y los efectos del Sol en este área del espacio.

Primeras imágenes de la cara oculta de la Luna

A las 6.30 am, del 7 de octubre de 1959, se tomaron las primeras imágenes fotográficas de la cara oculta de la Luna. Fueron tomadas a una altura de 70 400 km por la sonda soviética Luna III, y transmitidas a la Tierra desde una distancia de 470 000 km. Lanzada por un cohete A-1 desde Baikonur en la entonces Unión Soviética, el 4 de octubre de 1959, la sonda Luna III fue el precursor de uno de los mayores golpes de propaganda de la era espacial, transmitiendo imágenes de un reino que ningún hombre había visto antes. Además de orbitar la Luna, la sonda tenía una órbita elíptica alrededor de la Tierra que la extendió más allá de la Luna.

Lugar de descanso eterno más lejano

Para el primer funeral lunar, se envió una urna de 3,8 cm de policarbonato conteniendo 28 g de los restos del pionero espacial Dr Eugene Shoemaker a la Luna a bordo de la Sonda Lunar Prospector de la NASA. Alrededor del contenedor había una lámina de latón inscrita con algunas de las imágenes del pionero trabajo de Shoemaker en la ciencia planetaria.

Avión propulsado por aire más rápido

El 27 de marzo de 2004, el avión no tripulado de NASA Hyper-X (X-43A) alcanzó Mach 6,8316, casi siete veces la velocidad del sonido. El X-43A fue elevado a una altitud de 29 000 m por un lanzacohetes Pegaso por debajo de un avión B52-B. El revolucionario avión ‘scramjet’ encendió su motor durante unos 11 segundos en el vuelo sobre el Océano Pacífico.

Entrada atmosférica más rápida

El 7 de diciembre de 1995, una pequeña sonda lanzada por la sonda Galileo comenzó un descenso en la atmósfera del planeta Júpiter. Durante esta entrada atmosférica, la más compleja de todos los tiempos, la sonda alcanzó una velocidad de 170 000 km/h.

Velocidad de escape de la Tierra más rápida

La mayor velocidad de escape desde la Tierra fue de 54 614 km/h, lograda por la sonda de la ESA (Agencia Espacial Europea) Ulises tras su despliegue desde la Lanzadera Espacial Discovery en 7 de Octubre de 1990. Iba hacia una órbita alrededor de los polos del Sol a través de un sobrevuelo de Júpiter.

Mayor velocidad de una nave espacial

Las sondas solares Helios 1 y 2 alcanzaron 252 800 km/h durante sus órbitas alrededor del Sol. Las dos astronaves, que fueron lanzadas en 1974 y 1976, eran sondas alemanas diseñadas para orbitar el Sol. Fueron lanzadas por cohetes Titán E3 desde Cabo Cañaveral en Florida el 10 de diciembre de 1974 y el 15 de Enero de 1976 y pesaban 373 y 376 kg respectivamente .

Vientos más rápidos del Sistema Solar

El planeta Neptuno fue descubierto en 1846 por el astrónomo Johann Gottfried Galle. Este, el segundo planeta en ser descubierto (tras Urano) y el cuarto en tamaño en nuestro Sistema Solar, ostenta el récord de vientos más rápidos que ningún otro lugar en el Sistema Solar. Medido por la sonda Voyager 2 de NASA en 1989, soplaron a una velocidad cercana a 2 400 km por hora.

Neptuno (llamado así por el dios romano del mar) es en ocasiones en planeta más alejado del Sol, debido a la excéntrica orbita de Plutón lo que hace que cruce la órbita de Neptuno durante unos cuantos años cada vez. Cuando la Voyager pasó por Neptuno en 1989, identificó una distintiva mancha de aproximadamente la mitad del tamaño del gran punto rojo de Júpiter, aunque las imágenes tomadas por el Telescopio Espacial Hubble en 1994 fallaron al mostrar la mancha. Neptuno también tiene una serie de anillos completos.

Primer hombre en la Luna

Neil Armstrong, piloto comandante de la misión Apolo 11, fue el primer hombre sobre la Luna, a las 02:56:15 GMT del 21 de julio de 1969, seguido del Coronel Edwin Eugene “Buzz” Aldrin, Jr. Teniente-Coronel piloto. Michael Collins orbitó por encima de ellos en el módulo de mando.

Primer paseo espacial

El Teniente-Coronel. (ahora Mayor-General) Alexei Arkhipovich Leonov (nacido el 20 de mayo de 1934) fue la primera persona en realizar una actividad extra-vehicular, comúnmente conocida como paseo espacial, el 18 de marzo de 1965. Comenzó su paseo desde la nave rusa Voskhod 2.


Fecha Original: 2005-12-17
Ir a la segunda parte
Ir a la tercera parte
Ir a la cuarta parte

La Tierra primitiva no era tan infernal

La nueva investigación de ANU establece un giro radical a la creencia convencional de que la Tierra primitiva era un planeta infernal carente de continentes.

Un grupo de investigación internacional liderado por el Profesor Mark Harrison de la Escuela de Investigación de Ciencias de la Tierra analizó minerales únicos de 4 a 4,35 mil millones de años de antigüedad del interior de Asutralia y encontraron pruebas de que una teoría extremista que detalla el desarrollo de continentes durante los primeros 500 millones de años de la historia de la Tierra – el Eón (“Infernal”) Hadeano – tiene posibilidades de ser cierta.

Crédito de Imagen: NASA

La investigación, publicada en la última edición de Science, continúa a partir de los resultados publicados por el Profesor Harrison y sus colegas a principios de este año que confirmaban que nuestro planeta también había tenido, posiblemente, océanos durante la mayor parte del Hadeano.

“Está emergiendo una nueva visión de la Tierra primigenia”, dijo el Profesor Harrison. “Tenemos pruebas de que la superficie de la Tierra primitiva sustentó agua – el ingrediente principal para hacer nuestro planeta habitable. Y tenemos pruebas de que este agua interactuó con los magmas de los continentes en formación a la largo del Hadeano.

“Ahora tenemos pruebas de que estas masivas cantidades de corteza continental se produjeron casi inmediatamente tras la formación de la Tierra. La Tierra Hadeana puede haber tenido gran parecido a como es ahora, bastante más que nuestra imaginaria visión de un mundo seco carente de continentes”.

El Profesor Harrison y su equipo recopilaron estas pruebas a partir del zirconio, el mineral más antiguo conocido de la Tierra. Estos antiguos granos, normalmente del ancho de un cabello humano, se encuentran solo en la región de Murchison en Australia Occidental. El equipo analizó las propiedades isotópicas del elemento hafnio en unos 100 diminutos zirconios de 4,35 mil millones de años.

Convencionalmente, se creía que los continentes de la Tierra se desarrollaron lentamente en un periodo largo de tiempo comenzando hace unos 4 mil millones de años – o 500 millones de años tras la formación del planeta.

Sin embargo, las variaciones en el isótopo de hafnio producidas por el decaimiento radiactivo de un átomo de lutecio indica que muchos de estos antiguos zirconios se formaron en un asentamiento continental dentro de los primeros 100 millones de años de la formación de la Tierra.

“Las pruebas apuntan a un casi inmediato desarrollo de continentes seguido de un rápido reciclado en el manto a través de un proceso semejante al de las modernas placas tectónicas”, de acuerdo con el Profesor Harrison.

La huella isotópica dejada en el manto por las primeras fusiones se muestran de nuevo en los jóvenes zirconios – proporcionando pruebas de que han surgido de la misma fuente. Esto sugiere que la cantidad de manto procesado para hacer los continentes debió ser enorme.

“El resultado es consistente con la masa de corteza continental que contiene la Tierra hoy día y la de hace 4,5-4,4 mil millones de años”.

“Esto es un radical cambio respecto a la creencia convencional sobre la Tierra Hadeana”, dice el Profesor Harrison.

“Pero estos antiguos zirconios representan el único registro geológico que tenemos de este periodo de la historia de la Tierra y por tanto las historias que cuentan tienen preferencia sobre otros mitos que se elevan en ausencia de pruebas observacionales”.

“La explicación más simple para todas las pruebas es que esencialmente, desde su formación, el planeta cayó en un régimen dinámico que han perdurado hasta el presente”.


Fecha Original: 2005-11-19

El Telescopio Binocular ve la primera luz

Los dos espejos del Gran Telescopio Binocular (Large Binocular Telescope o LBT) ha proporcionado sus primeras imágenes científicas del espacio. El evento, conocido entre los astrónomos como “primera luz”, es un importante hito en el lanzamiento del mayor y más moderno telescopio simple del mundo. El LBT será capaz de ver con mayor claridad y profundidad el Universo que ninguno de sus predecesores. Dirigidos por el Instituto Max Planck para la Astronomía, participaron cinco institutos alemanes, obteniendo un total del 25 por ciento del tiempo de observación. Entre ellos estaban los Institutos Max Planck para la Astronomía en Heidelberg, Física Extraterrestre en Garching, y para Radio Astronomía en Bonn, así como el Landessternwarte (observatorio estatal), parte del Centro de Astronomía en Heidelberg.

El Gran Telescopio Binocular, situado a 3190 metros de Altura en el Monte Graham en Arizona, es uno de los proyectos científico-técnicos más prominentes en la investigación astronómica moderna. Su nombre lo describe bien: tiene dos espejos gigantes, cada uno de ellos de 8,4 metros de diámetro. Están montados sobre la misma superficie, y enfocados, como unos prismáticos, al mismo tiempo sobre objetos distantes del espacio. La superficie de los espejos está pulida con extrema precisión, por debajo de 20 millonésimas de milímetro. Si un espejo del LBT se agrandase hasta tener el tamaño del Lago Constanza en los Alpes – ligeramente mayor que el área de la ciudad de Nueva York – las “ondas” del lago serían solo de un quinto de milímetro de alto. A pesar de su tamaño, cada uno de los dos espejos pesa “solo” 16 toneladas. Un telescopio clásico, por otra parte, con las dimensiones del LBT, tendría espejos más gruesos con un peso de unas 100 toneladas. Sería imposible construir un telescopio clásico de tal tamaño.

Gran Telescopio Binocular, situado a a 3190 metros de altura en el Monte Graham en Arizona. Crédito de la imagent: Instituto Max Planck para Astronomy

Combinando los caminos ópticos de los dos espejos individuales, el LBT capta tanta luz como un telescopio cuyos espejos tuviesen un diámetro de 11,8 metros. Este es un factor 24 veces mayor que los espejos de 2,4 metros del Telescopio Espacial Hubble. Incluso más importante, el LBT tiene la resolución de un telescopio de 22,8 metros, debido al uso de las más modernas ópticas adaptativas, superponiendo imágenes mediante un procedimiento interferométrico. Los astrónomos serán capaces de compensar la borrosidad causada por las turbulencias del aire, y ver en el Universo con mucha mayor claridad que el Hubble.

El Profesor Thomas Henning, Director General del Instituto Max Planck para la Astronomía, y el Dr Tom Herbst, científico del consorcio alemán, están de acuerdo en que “El LBT abrirá por completo nuevas posibilidades en la investigación de planetas fuera del Sistema Solar y la investigación de las más lejanas – y por tanto más jóvenes – galaxias”.

El Profesor Gerd Weigelt, Director del Instituto Max Plack para la Radio Astronomía en Bonn, dice que “Las primeras imagines del LBT nos dan una idea de qué tipo de fascinante calidad de imágenes podemos esperar”. Aunque al principio las imágenes eran tomadas “solo” por uno de los dos espejos principales, ya están mostrando vistas impresionantes de la Vía Láctea lejana. Una de ellas es un objeto de la constelación de Andrómeda llamado NGC891, una galaxia espiral a una distancia de 24 millones de años luz, la cual, desde la perspectiva de la Tierra, sólo podemos observar de lado. De acuerdo con el Profesor Reinhard Genzel, Director General del Instituto Max Planck para Física Extraterrestre en Garching,”El objeto es de un interés particular para los astrónomos, ya que también envía una gran cantidad de rayos-x.”Esta radiación se creó por un gran número de estrellas masivas cuyas vidas finalizaron con espectaculares explosiones de supernova – un tipo de fuegos artificiales cósmicos.”

Las imágenes fueron creadas usando una Gran Cámara Binocular de alta tecnología (Large Binocular Camera o LBC), desarrollada por socios italianos en el proyecto. La cámara y el telescopio trabajan juntos como una cámara digital gigante. Gracias al campo de visión especialmente grande, se hacen posibles observaciones muy eficientes – por ejemplo, la creación y desarrollo de galaxias distantes de luz débil.

Pero la cámara LBC es solo el primero de una completa gama de instrumentos de alta tecnologíá con los que se equipará en un futuro al LBT. “Un telescopio sin instrumentos es como un ojo sin retina”, dice el Profesor Hans-Walter Rix, Director del Instituto Max Planck para la Astronomía. El científico, miembro del proyecto LBT durante muchos años, añade que “un telescopio como el LBT solo se convertirá en un potente observatorio en combinación con poderosos instrumentos de medida que estén equipados con detectores sensibles”.

Los socios alemanes participaron especialmente en el desarrollo y construcción de los instrumentos, y de aquí que se asegurasen para sí mismos el 25 por ciento del tiempo de observación. Los científicos, técnicos y electricistas del LBT-Beteilungsgesellschaft (grupo de participación en LBT) construyeron el software de constrol LUCIFER 1 y 2, el cual hace posible reunir imágenes infrarrojas y espectros de objetos celestes. El Dr Immo Appenzeller del Landessternwarte Heidelberg habla del mismo como “importante para la investigación detallada de un gran número de galaxias en diferentes etapas de desarrollo”.

Los Profesores Matthias Steinmetz y Klaus Strassmeier, Directores del Instituo de Astrofísica en Potsdam, explican que “el instrumentos PEPSI es una versión de una resolución especialmente alta de lo que se conoce como espectrógrafo Echelle. Con él, podemos llevar a cabo investigaciones especialmente efectivas sobre la estructura y dinámica en la superficie de las estrellas”. Se están construyendo en el Instituto las unidades sensoras de, Adquisició, Guía y Frente de Ondas, las cuales son responsables del rastreo exacto del telescopio, así como del ajuste de los espejos.

El instrumento LINC-NIRVANA también se ha construido para asegurar que el LBT y sus instrumentos permanecen en perfecto funcionamiento. El LINC-NIRVANA, construido en cooperación con socios italianos, es el corazón del LBT. Conduce la luz desde los dos espejos principales a un plano focal simple y corrige la interferencia de la imagen debida a la atmósfera terrestre. La mayor demanda se sitúá en los componentes ópticos, mecánicos y electrónicos, debido a que cuendo sea usado con espectro infrarrojo, partes del LINC-NIRVANA deben ser enfriadas a menos 196 grados de forma que no sea “cegado” por la radiación del calor que lo rodea. En este campo de la “criotecnología”, los científicos y técnicos del Instituo Max Planck para Astronomía han mostrado una gran experiencia.

Debido a las impresionantes primeras imágenes, los astrónomos saben ahora que más de 20 años de planificación, desarrollo y construcción han valido la pena, y que el proyecto de 120 millones de dólares esta en el camino de ofrecer un nuevo entendimiento del cosmos. Este era de hecho el propósito de la gente que inició la participación alemana en el proyecto, entre ellos el Profesor Günther Hasinger (Instituto Max Planck para Física Extraterrestre, anteriomente del Instituto Astrofísico de Potsdam) y el Profesor Steven Beckwith (anteriormente del Instituto Max Planck Institute para Astronomía). Pero no solo los científicos que han participado durante tanto tiempo en el proyecto los que se beneficiarán de las observaciones del LBT. Ahora, los estudiantes y futuros científicosde todos los institutos asociados tendrán la posibilidad de analizar datos del LBT e iniciar nuevos proyectos de observación.


Fecha Original: 26 de Octubre de 2005

Los ladrillos de la vida son comunes en el espacio

Imagen de un PAH
Ilustración por ordenador de hidrocarburos aromáticos policíclicos (PAHs). Crédito de la imagen: NASA

Reproduciendo las condiciones extremas del frío espacio interestelar, científicos del Centro de Investigación Ames de NASA han demostrado que las moléculas aromáticas que contienen nitrógeno, compuestos químicos que podrían ser importantes para el origen de la vida, están dispersos a lo largo de todo el espacio.

Combinando experimentos de laboratorio con simulaciones por ordenador, este equipo ha demostrado recientemente que las moléculas orgánicas complejas conocidas como hidrocarburos aromáticos policíclicos (PAHs) están dispersos por todo el espacio. Los PAHs, moléculas grandes, planas y con forma de cable, las cuales están hechas de hidrógeno y carbono y son extremadamente estables, pueden resistir los ambientes de radiación hostil del espacio interestelar. El equipo de Ames demostró que los PAHs son los responsables de la misteriosa radiación infrarroja que los astrónomos llamaron “Emisión Infrarroja No Identificada”. El Telescopio Espacial Spitzer de NASA, un instrumento con una sensibilidad sin precedentes, ha detectado ahora la firma que delata a los PAH a través de nuestra galaxia, la Vía Láctea y en galaxias mucho más lejanas, galaxias casi tan antiguas como el mismo Universo. Ahora el equipo de Ames ha encontrado que estos PAHs contienen nitrógeno, un elemento bioquímico clave (Figura 1). Doug Hudgins, autor principal del estudio, apunta: “Los hidrocarburos aromáticos que contienen nitrógeno no solo están en las moléculas que transportan información en el ADN y ARN que forman toda la materia viviente tal y como la conocemos, sino que también se encuentran en muchas especies biológicas importantes. Por ejemplo, la cafeina y el principal ingrediente del chocolate están entre estos tipos de moléculas. Encontrar su frma a lo largo del Universo nos dice que estaban accesibles para jóvenes planetas habitables practicamente en cualquier sitio”.

Seguir Leyendo…

¿Se expandirá el Universo para siempre?

¿Qué es la misteriosa energía oscura que está causando la expansión del Universo acelerada?. ¿Es alguna forma de la famosa constante cosmológica de Einstein, o es una fuerza exótica repulsiva, apodada “quintaesencia”, que podría formar tres cuartas partes del cosmos?. Científicos del Laboratorio Nacional de Lawrence Berkeley (Berkeley Lab) y del Dartmouth College creen que hay una forma de encontrarlo.

En un artículo publicado en Physical Review Letters, el físico Eric Linder de Berkeley Lab y Robert Caldwell de Dartmouth muestran que los modelos físicos de energía oscura pueden ser separados en distintos escenarios, los cuales pueden usarse para descartar la constante cosmológica de Einstein y explicar la naturaleza de la energía oscura. Lo que es más, los científicos deberían ser capaces de determinar cuál de estos escenarios se ajusta a los experimentos que están planeándose para la misión JDEM propuesta por NASA y el Departamento de Energía de los Estados Unidos.

“Los científicos han estado discutiendo la cuestión ‘¿con qué precisión necesitamos medir la energía oscura para saber lo que es?’”, dice Linder. “Lo que hemos hecho en nuestro artículo es sugerir límites de precisión para las medidas. Con suerte, estos límites deberían estar en el rango de los experimentos del JDEM”.

La Sonda Supernova/Aceleración (SNAP)

Linder y Caldwell son ambos miembros del equipo de definición científico DOE-NASA para el JDEM, que tiene la responsabilidad de definir los requerimientos científicos de la misión. Linder es el jefe del grupo de teoría para el SNAP — la SuperNova/Acceleration Probe (Sonda Supernova/Aceleración), uno de los vehículos propuestos para transportar la misión JDEM. Caldwell, profesor de física y astronomía en Dartmouth, es uno de los creadores del concepto de quintaesencia.

En su artículo de Physical Review Letters Linder y Caldwell describen dos escenarios, uno al que llaman “deshielo” y otro al que llaman “congelación”, que apunta a diferentes destinos de nuestro Universo en permanente expansión. Bajo el escenario de deshielo, la aceleración de la expansión decrecerá gradualmente y finalmente se detendría, como un coche cuando el conductor levanta el pie del pedal del acelerador. La expansión continuaría más lentamente, o el Universo podría incluso recolapsar. Bajo el escenario de congelación, la aceleración continúa indefinidamente, como un coche con el pedal del acelerador pisado a fondo. El Universo se convertiría cada vez en más difuso, hasta que finalmente nuestra galaxia parecería estar sola en el espacio.

Cualquiera de estos dos escenarios descarta la constante cosmológica de Einstein. En su artículo Linder y Caldwell demuestran, por primera vez, cómo separar limpiamente la idea de Einstein de otras posibilidades. Bajo cualquier escenario, sin embargo, la energía oscura es una fuerza con la que hay que contar.

Dice Linder, “Dado que la energía oscura compone aproximadamente el 70 por ciento del contenido del Universo, esta predomina sobre la materia. Esto significa que la energía oscura gobernará la expansión y, en último término, determinará el destino del Universo”.

En 1998, dos grupos de investigación agitaron en campo de la cosmología con sus anuncios independientes de que la expansión del Universo estaba acelerando. Midiendo el desplazamiento al rojo de la luz de las supernovas de tipo Ia, estrellas del espacio profundo que explotaron con una energía característica, equipos del Proyecto Cosmológico Supernova con sede central en Berkeley Lab y el Equipo de Búsqueda de Supernova Alta-Z centrado en Australia determinaron que la expansión del Universo está en realidad acelerando, no decelerando. A la fuerza desconocida que está tras esta aceleración se le dio el nombre de “energía oscura”.

Antes del descubrimiento de la energía oscura, la suposición científica convencional sostenía que el Big Bang había provocado una expansión del Universo que gradualmente iría decelerando por el efecto de la gravedad. Si la cantidad de materia en el Universo proporciona la suficiente gravedad, un día la expansión se detendría por completo y el Universo retrocedería sobre sí mismo en un Big Crunch. Si la gravedad de la materia fuese insuficiente para detener la expansión por completo, el Universo continuaría expandiéndose para siempre.

“De los anuncios de 1998 y posteriores medidas, sabemos que la expansión acelerada del Universo no comenzó hasta algún momento en los últimos 10 mil millones de años”, dice Caldwell.

Los cosmólogos están ahora discutiendo para determinar qué es exactamente la energía oscura. En 1917 Einstein corrigió su Teoría de la Relatividad General con una constante cosmológica, la cual, si el valor era correcto, permitiría al Universo existir en un estado de equilibrio perfecto estático. Aunque uno de los más famosos físicos de la historia llamaría al agregado de esta constante su “mayor error”, el descubrimiento de la energía oscura ha revivido esta idea.

“La constante cosmológica era una energía del vacío (la energía del espacio vacío) que impide que la gravedad repliegue el Universo sobre sí mismo”, dice Linder. “Un problema con la constante cosmológica es que es constante, con la misma densidad de energía, presión, y ecuación de estado todo el tiempo. La energía oscura, sin embargo, habría sido insignificante en las primeras etapas del Universo; de otra forma las galaxias y todas sus estrellas nunca se habrían formado”.

Para que la constante cosmológica de Einstein diera como resultado el Universo que vemos hoy día, la escala de energía tendría que ser muchas órdenes de magnitud más pequeñas que cualquier otra cosa en el Universo. Aunque esto puede ser posible, dice Linder, no parece que sea probable. Aquí entra el concepto de “quintaesencia”, llamado así por los antiguos griegos al quinto elemento tras el aire, tierra, fuego, y agua; creían que era la fuerza que sostenía la Luna y las estrellas en su lugar.

“La quintaesencia es una forma de energía dinámica, que evoluciona con el tiempo, y dependiente espacialmente con presión negativa suficiente para conducir la aceleración de la expansión”, dice Caldwell. “Mientas que la constante cosmológica es una forma de energía muy específica — energía del vacío — la quintaesencia abarcaba un amplio rango de posibilidades”.

Para limitar las posibilidades de la quintaesencia y proporcionar objetivos firmes para pruebas básicas que también confirmarían su candidatura como fuente de la energía oscura, Linder y Caldwell usaron un campo escalar como modelo. Un campo escalar posee una medida de valor pero no dirección para todos los puntos del espacio. Con esta aproximación, los autores son capaces de mostrar la quintaesencia como un campo escalar rebajando su energía potencial a un valor mínimo. Pensar en un conjunto muelles bajo tensión y ejerciendo una presión negativa que contrarresta la presión negativa de la gravedad.

“Un campo escalas de quintaesencia es como un campo de muelles cubriendo cada punto del espacio, con cada muelle comprimido en una longitud diferente”, dice Linder. “Para la constante cosmológica de Einstein, cada muelle tendría la misma longitud y no tendría movimiento”.

Bajo el escenario de “deshielo”, la energía potencial del campo de quintaesencia estaría “congelado” en el lugar hasta que la decreciente densidad de material de un Universo en expansión la liberaría gradualmente. En el escenario de “congelación”, el campo de quintaesencia ha estado tendiendo hacia su mínimo potencial desde que el Universo experimentó la inflación, pero cuando comenzó a dominar el Universo se convirtió gradualmente en un valor constante.

La propuesta de SNAP está en investigación y desarrollo por parte de los físicos, astrónomos e ingenieros de Berkeley Lab, en colaboración con colegas de la Universidad de California en Berkeley y otras muchas instituciones; esto requiere de un telescopio reflector de 3 espejos y dos metros en órbita de espacio profundo que sería usado para encontrar y medir miles de supernovas de tipo Ia cada año. Estas medidas deberían proporcionar suficiente información para aclarar el punto del escenario de deshielo o congelación — o algo completamente nuevo y desconocido.

Dice Linder, “Si los resultados de medidas tales como estas que pueden hacerse con SNAP caen fuera del escenario de deshielo o congelación, entonces tendríamos que mirar más allá de la quintaesencia, quizá incluso a una física más exótica, tal como una modificación de la Teoría de la Relatividad General de Einstein para explicar la energía oscura”.


Fecha Original: 2005-09-01

¿Naves espaciales hechas de plástico?

Tras leer este artículo, nunca volverás a mirar las bolsas de basura de la misma forma.

Todos usamos bolsas de basura de plástico; son tan comunes que difícilmente lo pensamos dos veces. ¿Entonces quién ha pensado que una modesta bolsa de basura podría ser la clave para enviar humanos a Marte?

La mayoría de las bolsas de basura de uso doméstico están hechas de un polímero llamado polietileno. Los derivados de esta molécula pueden resultar excelentes como escudo para las más peligrosas formas de radiación espacial. Los científicos han sabido esto durante mucho tiempo. El problema ha sido intentar construir una nave especial a partir de este frágil material.

Pero ahora los científicos de la NASA han inventado un innovador material basado en el polietileno llamado RXF1 que es incluso más fuerte y ligero que el aluminio. “Este nuevo material en un inicio en el sentido de que combina propiedades estructurales superiores con propiedades de protección superiores”, dice Nasser Barghouty, Científico del Proyecto de Protección de Radiación Espacial de NASA en el Centro de Vuelo Espacial Marshall.

¿A Marte en una nave espacial de plástico?. Tan ridículo como suena y podría ser la forma más segura de ir.

Menos es más

Proteger a los astronautas de la radiación del espacio profundo es un problema importante sin resolver. Piensa en una misión tripulada a Marte: El viaje de ida y vuelta podría durar al menos 30 meses, y requeriría abandonar la burbuja protectora que es el campo magnético de la Tierra. Algunos científicos creen que materiales como el aluminio, que proporcionan un escudo adecuado en la órbita terrestre o para cortos vuelos a la Luna, serían poco adecuados para el viaje a Marte.

Barghouty es uno de los escépticos: “Ir a Marte hoy con una nave de aluminio es imposible”, cree él.

Los plásticos son una alternativa apetecible: Comparado con el aluminio, el polietileno es 50% mejor como protección a las llamaradas solares y aún mejor para los rayos cósmicos.

La ventaja de los materiales plásticos es que producen mucha menos “radiación secundaria” que los materiales más pesados como el aluminio o el plomo. La radiación secundaria proviene del material aislante mismo. Cuando las partículas de radiación espacial chocan contra los átomos del escudo, dan lugar a minúsculas reacciones nucleares. Esas reacciones producen una lluvia de subproductos nucleares – neutrones y otras partículas – que pasan a la nave espacial. Es como intentar protegerte de una bola de bolos voladora construyendo un muro de bolos. Esquivarás la bola pero serás golpeado por los bolos. ¡Los “secundarios” pueden ser peores para la salud de los astronautas que la radiación original!

Irónicamente, los elementos más pesados como el plomo, que la gente habitualmente asume que es el mejor escudo contra la radiación, produce mucha más radiación secundaria que elementos más ligeros como el carbono y el hidrógeno. Esta es la razón por la que el polietileno es un buen escudo: está compuesto completamente de átomos ligeros de carbono e hidrógeno, los cuales minimizan los secundarios.

Concepto artístico de humano enviados a Marte. Crédito NASA

Estos elementos más ligeros no pueden detener por completo la radiación espacial. Pero pueden fragmentar las partículas de radiación recibida, reduciendo enormemente los efectos perjudiciales. Imagina que te escondes tras una valla metálica para protegerte del golpe de una bola de nieve: Seguirás recibiendo algo de nieve en forma de pequeños trozos de nieve que salvan la valla, pero no sentirás el dolor de un impacto directo de una masa compacta. El polietileno es similar a esta valla metálica.

“Esto es lo que podemos hacer. Fragmentar – sin provocar gran radiación secundaria – es en realidad donde se gana o pierde la batalla”, dice Barghouty.

Hecho por encargo

A pesar de su poder de protección, las bolsas de basura corrientes, evidentemente, no se usarán para construir una nave espacial. Por tanto Barghouty y sus colegas han estado intentado mejorar el polietileno para el trabajo aeroespacial.

Así es como el investigador del Proyecto Protección Raj Kaul, trabajando junto a Barghouty, llegó a inventar el RXF1. RXF1 es considerablemente más fuerte y ligero: tiene tres veces la resistencia a la tensión del aluminio, y es 2,6 veces más ligero – impresionante incluso para los estándares aeroespaciales.

“Dado que es un escudo balístico, también rechaza micrometeoritos”, dice Kaul, quien había trabajado previamente con materiales similares en el desarrollo de blindaje para helicópteros. “Como es un tejido, puede extenderse sobre los moldes y formas de los componentes específicos de la nave”. Y al ser un derivado del polietileno, es también un excelente escudo contra la radiación.

La especificación de cómo se creó el RXF1 es secreta debido a que la patente del material aún está pendiente.

La fuerza es solo una de las características que debe tener una nave espacial, apunta Barghouty. La inflamabilidad y la tolerancia a la temperatura son también importantes: No importa lo fuertes que sean los escudos de una nave especial si se funden a la luz directa del sol o se incendian con facilidad. El polietileno puro es muy inflamable. Se necesita más trabajo para retocar aún más el RXF1 y hacerlo más resistente a las llamas y la temperatura también, dice Barghouty.

El resultado final

La gran pregunta, por supuesto, es el resultado final: ¿Puede el RXF1 llevar humanos con seguridad a Marte?. En este momento, nadie lo sabe con seguridad.

Algunos “rayos cósmicos galácticos son tan energéticos que ninguna cantidad razonable de protección puede detenerlos”, advierte Frank Cucinotta, Delegado Jefe de Salud de Radiación de NASA. “Todos los materials tienen este problema, incluido el polietileno”.

Cucinotta y sus colegas han realizado simulaciones por ordenador para comparar el riesgo de cáncer yendo a Marte en naves de aluminio o de polietileno. Sorprendentemente, “no hay una diferencia significativa”, dice. Esta conclusión depende del modelo biológico que estima cómo los tejidos humanos se ven afectados por la radiación especial – y ahí radica el problema. Tras décadas de vuelos espaciales, los científicos aún no comprenden completamente cómo reacciona el cuerpo humano ante los rayos cósmicos. Si su modelo es correcto, sin embargo, podría tener pocos beneficios prácticos la protección extra que proporciona el polietileno. Este es un tema en el que se continúa la investigación.

Debido a las numerosas dudas, no se han establecido las dosis límite para un astronauta en una misión a Marte, comenta Barghouty. Pero asumiendo que la dosis límite sea similar a los límites establecidos para los vuelos del Shuttle y la Estación Espacial, cree que el RXF1 podría hipotéticamente proporcionar una protección adecuada para una misión de 30 meses a Marte.

Hoy, a la basura. ¿Mañana a las estrellas?. El polietileno podría llevarte más lejos de lo que nunca has imaginado.


Fecha Original: 2005-08-30

Computación cósmica: Simulando el Universo

Para ver la luz, a veces tienes que viajar a través de la oscuridad. Este aforismo, al parecer, se aplica no sólo a los viajes del corazón sino también a las excursiones a través de la historia del Universo. En la mayor y más detallada simulación por ordenador de esta saga cósmica, algo completamente oscuro determina el Universo y su desarrollo durante unos 13,7 mil millones de años.

Evolución cósmica. La simulación de la materia oscura del Universo comienza sobre 400 000 años tras el nacimiento del Universo y continúa (en el sentido de las agujas del reloj) hasta el presente. Esto representa la aparición de una red cósmica hecha de largos filamentos, aproximadamente de 300 millones de años luz de longitud, que rodea gigantescos vacíos. Los ricos racimos de galaxias surgen donde la densidad de materia oscura es mayor. Springel et al.

Esta nueva situación dibuja el destino de las cantidades originales de materia y energía del Universo desde solo unos pocos cientos de miles de años tras el Big Bang hasta el presente.

Para dar sentido a la ordenación de las galaxias iluminadas por estrellas y los brillantes quásar de todo el cielo, Volker Springel del Instituto de Astrofísica Max Planck en Garching, Alemania, y sus colegas basaron su trabajo en la materia oscura. Este material invisible cuenta con más del 90 por ciento de la gravedad en el Universo.

Aunque nadie sabe de qué está hecha la materia oscura, los investigadores sospechan que es el responsable del empuje de galaxias y racimos de galaxias en las descomunales estructuras filamentosas que vemos en el cielo hoy día. Dado que la materia oscura no parece interactuar con ninguna otra fuerza que no sea la gravedad, es relativamente simple hacer un modelo. El equipo de Springel construyó 10 mil millones de grupos de material en su simulación.

Los modeladores yacen sobre esta lona de materia oscura en forma de burda aproximación a algo del desorden y complejidad de las interacciones entre galaxias, tales como la erupción en las explosiones de una supernova y las trayectorias de los potentes vientos intergalácticos. Con esto, los investigadores podrían explorar cómo evolucionaron las mayores estructuras del Universo — tanto las invisibles como la materia oscura como las visibles, galaxias normales — durante miles de millones de años.

Como se describe en el Nature del 2 de junio, el modelo confirma los recientes descubrimientos sobre que la expansión del Universo se ha acelerado. También sugiere un escenario para el sorprendentemente rápido crecimiento de los agujeros negros supermasivos — la central de energía que impulsa los quasars — al inicio de la historia del cosmos.

El nuevo trabajo “nos da unas predicciones teóricas más detalladas y precisas sobre las propiedades de las galaxias desde el amanecer del tiempo cósmico hasta el día de hoy”, comenta Nickolay Gnedin de la Universidad de Colorado en Boulder.

Actualización

En su modelo, conocido como la simulación milenium, Springel y sus colaboradores trazan la historia cósmica en un cubo de más de 2 mil millones de años luz de lado. Esto es lo bastante grande para retratar la información de unas 20 millones de galaxias junto con los extraños agujeros negros supermasivos.

Las simulaciones de materia oscura previas hechas por el mismo grupo de investigadores describían un volumen menor del Universo y estaban centradas en sus objetos visibles más grandes, gigantes racimos de galaxias (SN: 5/29/99, p. 344). Esta simulación incluye solo una décima parte de los grupos de materia oscura que maneja la nueva versión.

Debido a que el nuevo modelo puede revelar características cósmicas de un treintavo de anchura de las características más pequeñas de la anterior simulación, los astrónomos pueden ahora representar el crecimiento de galaxias individuales y por lo tanto comparar el modelo con las observaciones de telescopio reales.

“Este es un logro tecnológico impresionante”, dice el cosmólogo David Weinberg de la Universidad de Ohio State en Columbus. “Han tenido que hacer un montón de cosas ingeniosas para traernos esta gran simulación, incluso con los enormes recursos computacionales que tienen a su disposición. Esto no sólo ha sido posible gracias a que los ordenadores sean más rápidos”.

De hecho, los avances en la potencia de computación no fueron la principal motivación para hacer el nuevo modelo, comenta Gus Evrard de la Universidad de Michigan en Ann Arbor, un miembro del equipo de la simulación milenium. Los investigadores estaban reaccionando a varias colosales investigaciones realizadas en los cielos desde finales de los años 90. El Sloan Digital Sky Survey (Investigador de Cielo Digital Sloan) y el estudio de infrarrojo 2-MASS, entre otros, han trazado la distribución de galaxias y agujeros negros y la estructura del Universo con una amplitud y detalle sin precedentes.

Los recuentos teóricos de la estructura del Universo a gran escala y las simulaciones estaban quedándose atrás, dice Evrard. Los datos de la investigación “en realidad nos conducen a intentar crear una simulación que encajase”, comenta.

Los científicos necesitan saber que sus teorías y datos son consistentes entre sí “si vamos a usar estas investigaciones de hecho para aprender sobre el origen y naturaleza de nuestro mundo”, añade el miembro del equipo Simon White del Instituto de Astrofísica Max Planck.

El nuevo estudio, que es mucho más detallado que los modelos previos, es un “nivel cualitativo distinto, que permite el análisis de muchas preguntas físicas que no podrían ser tratadas con las simulaciones previas”, dice Springel. Entre estas preguntas tenemos: ¿Por qué las galaxias se formaron donde lo hicieron, y qué factores subyacen en la aparición de quasars, los cuales pueden brillar con la luz de trillones de soles?.

Obteniendo detalles

La simulación requería uno de los superordenadores más rápidos del mundo y constaba de 25 millones de megabytes de datos — suficiente para llenar 36 000 CDs.

El modelo asume que la estructura comienza en el Universo como aleatoria, ondas subatómicas en la densidad de la uniforme sopa de material y radiación. Los radiotelescopios han observado tales ondas en instantáneas del Universo primigenio.

La simulación predice que los trazos de estas ondas han dejado huella en la distribución de las galaxias actuales como vemos en las investigaciones de los grandes telescopios. A principios de este año, dos equipos de astrónomos informaron que habían, en efecto, reconocido las reverberaciones de tales ondas en el Universo actual (SN: 1/15/05, p. 35: http://www.sciencenews.org/articles/20050115/fob1.asp). Las pruebas sugieren que durante unos miles de millones de años, la gravedad amplificó las ondas para producir los racimos de galaxias que vemos hoy.

El modelo milenium predice que las galaxias comienzan pequeñas y crecen por la captura gravitatoria de más material. Esta receta de abajo a arriba, o jerárquica, de construcción de galaxias encaja con varias características de las galaxias medidas directamente, incluyendo su color, brillo y tendencia de agrupamiento.

“No puedo ayudar pero estoy atónito ante el hecho de que la descripción completa de la formación jerárquica de galaxias basada en la materia oscura del Universo trabaje tan bien”, dice Springel.

Además de probar la formación de galaxias, la simulación busca comprobar una vista asombrosa del Universo. Desde finales de los años 90, los investigadores han recolectado pruebas de que el 70 por ciento del Universo actual consta de una entidad incluso más misteriosa que la materia oscura. La llamada energía oscura, este campo de fuerza propuesto produce un empujón cósmico que podríamos medir por la aparente aceleración en la expansión del Universo.

La simulación milenium ha confirmado esta visión, junto con la propuesta de que la materia oscura y la materia normal cuentan con aproximadamente un 25 y un 5 por ciento de la masa del Universo respectivamente.

Pero la simulación también permite a los teóricos comprobar descripciones alternativas del Universo. “Puedes traer tus propias reglas del juego y ver cómo de bien reproducen la evolución de las galaxias”, apunta Evrard.

Hacer esto con rigor, dice Weinberg, requeriría descripciones matemáticas completas de formación de estrellas e interacciones de galaxias. “Pero puedes hacer grandes progresos pegando fórmulas en la simulación de la materia oscura”, añade.

O tal vez, incluso mejor, pegando datos de las observaciones directas. Durantes los últimos 4 años, el Sloan Digital Sky Survey ha encontrado varios antiguos quasars que resplandecen con un brillo superlativo. Para que los quasar sean tan brillantes en los inicios de la historia del Universo, los agujeros negros que les suministran energía tienen que haber sido mil millones de veces más masivos que el sol en un momento en que el cosmos tenía solo 870 millones de años, menos de una décima parte de su edad actual.

“Muchos astrónomos piensan que es imposible reconciliar esto con el crecimiento gradual de la estructura predicho por la descripción estándar de materia oscura”, comenta Springel.

Cuando él y sus colegas miraron más de cerca lo que indicaba el modelo sobre el Universo joven, encontraron indicadores de que unos pocos agujeros negros masivos podían en efecto haberse formado lo bastante pronto para tener en cuenta los extraños quasars. La simulación indica que en regiones inusualmente densas del joven cosmos, los agujeros negros crecieron a una tasa acelerada. El modelo también sugiere que los agujeros negros supermasivos resultantes en última instancia se convierten en el núcleo de galaxias masivas que yacen en los centros de los mayores racimos de galaxias del cosmos actual, apunta Evrard.

Extendiendo el modelo

Incluso aunque la simulación milenium confirma y clarifica las teorías y datos existentes, ha producido algunos resultados inesperados. Springel, White, y Liang Gao del Instituto de Astrofísica Max Planck usaron el modelo para examinar la agrupación de halos de materia oscura, el vasto sobre de material invisible cuya gravedad une las galaxias en racimos.

El equipo encontró que entre halos con la misma masa, aquellos que se formaron antes en la historia del Universo se agrupan más apretados que los que se formaron más tarde. Debido a que la distribución de galaxias imita la distribución de los halos, el descubrimiento sugiere que las galaxias se agrupan más o menos apretadas dependiendo de cuando se formasen. El descubrimiento, informado recientemente en la red (http://xxx.lanl.gov/astro-ph/0506510), indica que las galaxias más antiguas se agrupan más apretadas de lo que lo hacen las más jóvenes.

Tal agrupamiento contradice un supuesto clave de un escenario teórico rival de cómo surgió la distribución actual de las galaxias, dice Springel. En este modelo, la densidad de galaxias en el halo de materia oscura depende solo de la masa del halo.

Las aplicaciones de los mayores logros del modelo milenium están aún por llegar, según dicen los investigadores. “El conjunto de datos es tan rico que aún no hemos descubierto todas las sorpresas”, comenta Evrard.

Unos de los mayores retos inmediatos, dice White, es compartir la riqueza. El equipo planea hacer el modelo disponible para el público para que todos los astrónomos puedan probar sus teorías de formación de galaxias y quasars. Con 25 millones de megabytes de datos que componen el modelo, no es una tarea fácil.

Pero a finales de año, dice el grupo, los cosmólogos de todos los sitios deberían tener un nuevo — y más potente — modelo por ordenador con el que jugar.


Autor: Ron Cowen

El Principio Holográfico y la Teoría M

A ellos, les digo, la verdad no sería literalmente nada más que las sombras de las imágenes.

-Platón, La República (Libro VII)

La holografía a través de las eras

Platón, el gran filósofo Griego, escribió una serie de “Diálogos” en los que resumió muchas de las cosas que había aprendido de su maestro, el filósofo Sócrates. Uno de los más famosos de estos Diálogos es la “Alegoría de la Caverna”. En esta alegoría, la gente está encadenada en una caverna por lo que solo pueden ver las sombras que proyecta el fuego en los muros de la caverna. Para esta gente, las sombras representan la totalidad de su existencia – para ellos es imposible imaginar una realidad que consista en otra cosa que no sean difusas sombras en el muro.

Seguir Leyendo…

This page is wiki editable click here to edit this page.

Investigando el misterio de Sirio

¿Seres anfibios de la estrella Sirio visitaron la Tierra hace más de 5000 años y dejaron conocimientos astronómicos avanzados que aún posee una remota tribu africana llamada Dogon?.

Este asombroso alegato se llevó a cabo en 1976 por Robert Temple en su libro de “antiguos astronautas”, ”El Misterio de Sirio”. Un astrónomo, familiarizado con el sistema de Sirio, diría no, ya que la teoría astronómica descarta virtualmente la posibilidad de que Sirio sea una estrella padre adecuada para la vida o que pudiera tener planetas habitables. Pero la mayoría de los lectores de Robert Temple no conocen suficiente astronomía para juzgar el tema por sí mismos. Ninguno de ellos encontraría la pertinente información astronómica en el libro de Temple, la mayoría de la cual consiste en divagantes excursiones en la Egiptología. (Isaac Asimov ha sido citado por Temple diciendo que no encontró errores en el libro; pero Temple no conoce la razón de esto, de acuerdo con Asimov, ¡fue que había encontrado el libro demasiado incomprensible para leerlo!). Incluso la investigación Horizon de BBC-TV sobre antiguos astronautas (emitida como parte de las series de PBS “Nova” en los Estados Unidos), en la cual hicieron un excelente trabajo de demolición de las fantasías más radicales de Erich von Däniken, dejó el problema de Sirio sin problema debido a su extrema complejidad. Aún se necesita una respuesta, ya que las leyendas Dogon sobre una compañera de Sirio se afirman que tienen origen antes que ningún astrónomo terrestre pudiese tener constancia de la existencia de Sirio B, mucho menos su órbita de 50 años o su naturaleza de una diminuta y condensada estrella enana blanca, todo lo cual se alega que conocían los Dogon. ¿Por lo que, cuál es la verdad sobre los Dogon y Sirio?. ¿La información astronómica y antropológica omitida por Temple nos ayuda a resolver el más desconcertante de los casos de antiguos astronautas?.

Primero, permíteme recapitular la historia de Temple. En el centro del misterio están los Dogon gente que vive cerca de Bandiagara, unos 300 kilómetros al sur de Tombuctú, Mali, en el África Occidental. El conocimiento de sus costumbres y creencias proviene de los antropólogos franceses Marcel Griaule y Germaine Dieterlen, que trabajaron entre los Dogon desde 1931 a 1952. Entre 1946 y 1950 los jefes de la tribu Dogon revelaron a Griaule y Dieterlen los secretos más profundos de sus conocimientos de astronomía. Gran parte de esta tradición popular secreta es compleja y oscura, como suele suceder con las antiguas leyendas, pero destacan ciertos hechos específicos, particularmente lo que conciernen a la estrella Sirio, con la que su religión y cultura está profundamente entrelazada. En la información otorgada a los antropólogos franceses, los Dogon hicieron referencia a una pequeña y superdensa compañera de Sirio, hecha de una materia más pesada que ninguna otra de la Tierra, y moviéndose en una órbita elíptica de 50 años alrededor de su estrella padre. La enana blanca compañera de Sirio cuya resolución para su descripción no se llevó a cabo hasta 1862, cuando el óptico americano Alvan Graham Clark la apuntó mientras probaba un nuevo telescopio; la naturaleza superdensa de las enanas blancas no se descubrió hasta los años 20. Pero las tradiciones de Sirio de los Dogon tenían al menos siglos de antigüedad. ¿Cómo podemos encajar las extraordinarias concordancias entre las antiguas leyendas Dogon y los modernos hechos astronómicos?.

La respuesta de Temple, como expuso Erich von Däniken (¡por supuesto!), es que esto fue contado a los Dogon por visitantes extraterrestres. Una leyenda Dogon, similar a otros muchos cuentos de gente primitiva sobre visitantes del cielo, habla de una “arca” descendiendo al suelo entre un gran viento. Robert Temple interpreta esto como el aterrizaje de una nave propulsada por cohetes que traía seres de la estrella Sirio. De acuerdo con la leyenda Dogon, el descenso del arca trajo a la Tierra un ser anfibio, o un grupo de seres, conocidos como los Nommo. “Nommo es el nombre colectivo para el gran héroe de la cultura y fundador de la civilización que vino del sistema de Sirio para asentar una sociedad en la Tierra”, explica Temple en su libro. Los Nommo eran anfibios, presume, ya que el agua los mantendría fríos y absorberían la radiación de onda corta de la cálida estrella Sirio.

La mayor parte del libro de Temple es fiel al establecer que los Dogon comparten raíces comunes con la gente Mediterránea. Esto explica el lugar central ocupado por Sirio en las creencias Dogon, ya que los antiguos egipcios, en particular, estaban muy preocupados por Sirio, basando su calendario en su movimiento anual. ¿Pero existe alguna explicación para la aparente creencia de los Dogon sobre vida en el sistema de Sirio?.

Primero veamos lo que un astrónomo conoce sobre Sirio para ver si al menos teóricamente es plausible que una vida avanzada hubiese llegado a nuestra vecindad. Sirio A, la estrella más brillante del cielo nocturno vista desde la Tierra, tiene una masa de 2,35 veces la masa del Sol. Su compañera la enana blanca, Sirio B, tiene una masa de 0,99 soles. La teoría de la evolución estelar nos dice que la estrella más masiva se consume más rápidamente, por tanto la original Sirio B debe haber sido la más masiva de las dos, antes de consumirse y convertirse en una enana blanca. Probablemente Sirio B derramó algo de su gas sobre Sirio A durante su proceso de envejecimiento, por lo que las masa originales de las dos estrellas serían aproximadamente el inverso de lo que vemos hoy día.

Una estrella con una masa del doble de la del Sol, como probablemente tenía Sirio B, puede vivir durante no más de 1000 millones de años antes de hincharse formando una gigante roja; esto no parece suficiente para desarrollar vida avanzada. Pero tenía vida evolucionada, que habría desaparecido durante la fase de gigante roja de Sirio B, cuando cualquier planeta cercano habría sido chamuscado por el incremento en la salida de energía de la estrella, seguido de un temporal estelar de al menos 100 000 años con chorros de gas de Sirio B a Sirio A. Durante esta transferencia de masa las dos estrellas se habría separado, desestabilizando por lo tanto las órbitas de los planetas del sistema. De acuerdo con las observaciones de Sirio B analizadas por H. L. Shipman de la Universidad de Delaware, Sirio B ha sido una enana blanca que se ha ido enfriando durante al menos 30 millones de años. Sirio B ahora emite débiles rayos X, por lo que la vida en la región de Sirio no sería muy agradable hoy. Pero en cualquier caso, Robert S. Harrington de Observatorio Naval de los Estados Unidos ha mostrado recientemente que las órbitas planetarias en la zona “habitable” alrededor de Sirio, definida como la región en la que el agua podría ser líquida, es inestable. Por tanto es improbable tener hoy seres anfibios viviendo en otros planetas del sistema de Sirio, si en efecto alguno de esos seres vivió alguna vez allí.

Temple ofrece una predicción que permite una comprobación de su teoría. En su libro dice: “¿Qué pasaría si esto se comprueba mediante detección en nuestros radiotelescopios de comunicaciones de radio locales?”. Para ayudarme en mi investigación sobre el misterio de Sirio, pedí a los radioastrónomos Paul Feldman en el observatorio de radio de Algonquin, Canadá, y Robert S. Dixon del observatorio de radio de la Universidad de Ohio State, que están llevando a cabo búsquedas de señales extraterrestres, que escuchasen a Sirio. Normalmente no le habrían prestado atención a la estrella, debido a la extremadamente escasa posibilidad de contener vida. En abril de 1977 ambos radioastrónomos escucharon a Sirio en diferentes longitudes de onda, sin detectar ninguna señal artificial.

Con esta información en mente, vamos a echar un vistazo más escéptico a la leyenda de los Dogon. Inmediatamente encontramos una sorpresa: los Dogon mantienen que Sirio tiene dos compañeras, no una. Estas compañeras tienen atributos masculinos y femeninos, respectivamente. Parece que no se interpretan literalmente como estrellas, sino como símbolos de fertilidad. En ningún lugar se muestra esto mejor que en un diagrama de arena Dogon del sistema completo de Sirio, mostrada en la imagen de este artículo tomada de un artículo de Griaule y Dieterlen. Su descripción, dada en el pie de foto a partir de información de Griaule y Dieterlen, es claramente simbólica; Temple escoge interpretarla literalmente. En las páginas 23 y 25 de su libro da su propia versión modificada de este diagrama, conservando el símbolo de Sirio, una de las posiciones de Sirio B, y el óvalo que lo rodea; todo lo demás es omitido. Entonces interpreta que el óvalo de alrededor viene a representar “el huevo del mundo”, como la órbita elíptica de Sirio B alrededor de Sirio A, incluso aunque el símbolo equiparado con Sirio B está dibujado comos en el interior del óvalo, no sobre él. Esta es la base de Temple para decir que los Dogon “conocían” la órbita elíptica de Sirio B sobre Sirio A.

También se suponía que los Dogon conocían que Sirio B orbitaba cada 50 años. ¿Pero qué decían en realidad?. Griaule y Dieterlen lo expresan de la forma siguiente: “El periodo de la órbita se cuenta el doble, esto es, cien años, ya que los Siguis se unen en pares de “gemelos”, para insistir en el principio básico de la duplicidad”. La ceremonia Sigui se refiere a su ceremonia de la renovación del mundo que se celebra cada 60 años (no 50). Y la “duplicidad” se refiere aquí al importante concepto Dogon que explica por qué creen que Sirio debe tener dos compañeros.

¿Hay alguna prueba astronómica de que Sirio tenga más de una estrella compañera? Algunos astrónomos en los años 20 y 30 pensaron que habían vislumbrado un tercer miembro del sistema de Sirio, pero nuevas y más precisas observaciones realizadas en 1973 por Irving W. Lindenblad del Observatorio Naval de los Estados Unidos en Washington, D.C., demostraron que no había evidencias de una compañera cercana a Sirio A o Sirio B.

Toda la leyenda Dogon de Sirio y sus compañeras está plagada de ambigüedades, contradicciones y descarados errores, al menos su intentamos interpretarlos literalmente. Pero, ¿podemos hacer la afirmación de los Dogon de que Sirio B es la estrella más pesada y pequeña, formada por un pesado material conocido como sagala?. Sirio B era ciertamente la estrella más pequeña y pesada conocida en los años 20, cuando la naturaleza superdensa de las enanas blancas comenzaba a entenderse; el material del que están hechas las enanas blancas está en efecto comprimido más densamente que el metal. Ahora, sin embargo, se conocen cientos de enanas blancas, sin mencionar las estrellas de neutrones, que son mucho más pequeñas y densas. Cualquier hombre del espacio que nos visitara ciertamente habría conocidos estas, así como los agujeros negros.

Dibujo de arena de los Dogon del sistema de Sirio completo, tras Marcel Griaule y Germaine Dieterlen. A, Sirio; B, po tolo, el objeto equiparado con Sirio B, mostrado en dos posiciones; C, emme ya, el sol de la mujer, equiparado con Sirio C; D, los Nommo; E, el Yourougou, una figura mítica masculina destinada a perseguir a su gemelo femenino; F, la estrella de la mujer, un satélite de emma ya; G, el signo de la mujer; H, el sexo de la mujer, representado por una forma de matriz. Todo el sistema está encerrado por un óvalo, que representa el huevo del mundo.

Quizá se perdonaría a Temple su creencia de que los Dogon habían sido visitados por hombres de Sirio si su leyenda lo afirmase específicamente. ¡Pero no lo hace!. En ningún lugar de las 290 páginas de su libro Temple ofrece una afirmación específica de los Dogon para sostener su alegato de los antiguos astronautas. Lo mejor lo hace en la página 217, donde informa que los Dogon dicen: “Po tolo [Sirio B] y Sirio estaba en una ocasión donde el Sol está ahora“. De esta ambigua afirmación, Temple comenta: “Esta parece una buena forma de describir como llegaron a nuestro Sistema Solar del sistema de Sirio, y dejaron aquellas estrellas por nuestra estrella, el Sol”. Pero esto no puede conciliar el hecho de que todo el “misterio” de Sirio está basado en la propia hipótesis injustificada de Temple.

Las partes del conocimiento Dogon a pesar de que son antiguos y profundos, especialmente la historia de Nommo y el concepto de “gemelismo”, son las partes que guardan menos relación que con los hechos reales sobre Sirio. Las partes que tienen al menos un parecido superficial con los hechos astronómicos son en su mayor parte adornos añadidos durante este siglo. De hecho, en vista de la fijación de los Dogon con Sirio seguramente sería más sorprendente si no hubiesen injertado en sus leyendas algunos nuevos conceptos astronómicos obtenidos de los europeos, tomando lo que encajaba e ignorando el resto.

Carl Sagan ha subrayado lo fácilmente que la información obtenida de los Occidentales puede ser absorbida en la cultura nativa. Cuenta el caso real del físico Carleton Gajdusek en Nueva Guinea, donde lo llevó un colega científico que había encontrado que algunos nativos locales creían que cierta enfermedad se transmitía en la forma de un espíritu invisible que entraba por la piel del paciente. El informador nativo había esbozado con un palo en la arena un círculo fuera el cual, explicó, estaba la oscuridad, y que dentro del mismo estaba la luz. Dentro del círculo el informador dibujó una especie de garabato para representar la apariencia de este espíritu malévolo invisible. ¿Cómo tenían los nativos este sorprendente conocimiento de la transmisión de enfermedades por microbios?. Años antes, Gajdusek mismo había mostrado a los nativos la apariencia de un germen causante de enfermedades a través de su microscopio, y el dibujo de la arena era simplemente el recuerdo de los nativos de los rasgos más destacados.

Es demasiado fácil para los Occidentales pensar que las tribus africanas están aisladas, incultas e ignorantes. Pero los Dogon no están aislados. Viven cerca de una ruta comercial terrestre, y también cerca de las orillas del Río Níger, un importante canal de comercio. Un número de viajeros podría haber llegado entre ellos, o los hombres de la tribu Dogon podrían haber viajado por la costa, donde habrían encontrado marineros informados astronómicamente. Los Dogon han tenido contactos con los europeos desde al menos finales del siglo XIX.

No son incultos ni ignorantes. Peter y Roland Pesch del Observatorio Warner y Swasey en Ohio han apuntado que ha habido escuelas francesas en el área de los Dogon desde 1907. Los hombres de la tribu Dogon que deseaban educarse han sido capaces de hacerlo en ciudades cercanas. Allí había misioneros que naturalmente estarían interesados en las leyendas de los nativos. Misioneros de White Fathers contactaron con los Dogon en los años 20. Es tentador especular que ciertos detalles de los más específicos sobre Sirio B fueron añadidos en la ya existente leyenda de Sirio durante esta época, debido a que fue en los años 20 cuando los astrónomos descubrieron la verdadera naturaleza de Sirio B como una estrella diminuta y superdensa, y las enanas blancas estaban teniendo el mismo tipo de publicidad que los agujeros negros tienen hoy. Desgraciadamente, no existe mención alguna en los resúmenes de los informes de las actividades de los misioneros de que discutieran sobre Sirio con los Dogon; si se publicasen más notas, podríamos arrojar más luz sobre los orígenes y antigüedad de los mitos Dogon.

El caso es que hay una serie de canales a través de los que los Dogon podrían haber recibido conocimiento de Occidente mucho antes de la visita de Griaule y Dieterlen. Tal vez nunca seamos capaces de reconstruir la ruta exacta por la que los Dogon recibieron su conocimiento actual, pero más allá de la confusión una cosa está clara: no se lo contaron seres de la estrella Sirio.


Nota del Editor: Ver el ensayo de Asimov, “La Compañera Oscura”, en su Quasar, Quasar Burning Bright (Doubleday, 1978), en el cual dice que está avergonzado por su estupidez al no especificar que su comentario fue hecho solo “para deshacerme del él [Temple] y ser educado”, no para ser citado. “Te aseguro que no me pillarán otra vez de esta forma”. – K.F.

Referencias

· Harrington, R. S. 1977. Astronomical Journal, 82: 753.

· Lindenblad, I. W. 1973. Astronomical Journal, 78: 205.

· Pesch, P. and R. Pesch 1977. The Observatory, 97: 26.

· Ridpath, Ian 1978. Messages from the Stars. New York: Harper & Row.

· Shipman, H. L. 1976. Astrophysical Journal, 206: L67.

Autor: Ian Ridpath