Se descubre un nuevo tipo de galaxia activa

Un equipo internacional de astrónomos usando el satélite Swift de la NASA y el observatorio japonés/estadounidense de rayos-X Suzaku han descubierto un nuevo tipo de núcleo galáctico activo (AGN).

Hasta ahora se pensaba que los astrónomos ya habían descubierto todas las clases diferentes de AGN — núcleos extraordinariamente energéticos de galaxias alimentadas por la acreción de agujeros negros supermasivos. Los AGN tales como quásars, blázars, y galaxias de Seyfert están entre los objetos más luminosos de nuestro universo, a menudo arrojando la energía de miles de millones de estrellas en una región no más grande que nuestro Sistema Solar.

En el nuevo tipo de AGN descubierto, el disco y toro de alrededor del agujero negro están tan profundamente oscurecidos por el gas y polvo que ninguna luz visible escapa, haciéndolos muy difíciles de detectar. Esta ilustración muestra la escena desde una perspectiva más distante que la otra imagen. Crédito: Aurore Simonnet, Universidad Estatal de Sonoma.

Pero usando Swift y Suzaku, el equipo ha descubierto que una clase relativamente común de AGN ha escapado a la detección…hasta ahora. Estos objetos están tan densamente rodeados de gas y polvo que virtualmente no se filtra ninguna luz.

“Este es un descubrimiento importante debido a que nos ayudará a comprender mejor por qué algunos agujeros negros supermasivos brillan y otros no”, dice el astrónomos y miembro del equipo Jack Tueller del Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland.

Las pruebas para este nuevo tipo de AGN comenzaron a surgir a lo largo de los últimos dos años. Usando el Telescopio de Alerta de Explosiones de Swift (BAT), un equipo liderado por Tueller ha encontrado varios cientos de AGNs relativamente cercanos que no se detectaron previamente debido a que su luz visible y ultravioleta estaba atenuada por el gas y el polvo. El BAT fue capaz de detectar rayos-X de alta energía de los AGNs cubiertos debido a que, al contrario que la luz visible, los rayos-X de alta energía pueden perforar la gruesa capa de gas y polvo.

Para continuar la investigación sobre el descubrimiento, Yoshihiro Ueda de la Universidad de Kyoto, Japón, Tueller, y un equipo de astrónomos japoneses y estadounidenses apuntaron a dos estos AGNs con Suzaku. Esperaban determinar si estos AGNtan oscurecidos eran básicamente el mismo tipo de objeto que otros AGNs, o si eran fundamentalmente distintos. Los AGNs residen en las galaxias ESO 005-G004 y ESO 297-G018, la cuales están a unos 80 millones y 350 millones de años luz de la Tierra respectivamente.

Suzaku cubre un mayor rango de energías de rayos-X que BAT, por tanto los astrónomos esperaban que Suzaku viese a lo largo de una franja más amplia del espectro de rayos-X. Pero a pesar de la alta sensibilidad de Suzaku, detectó muy pocos rayos-X de baja o media energía de estos dos AGNs, lo cual explica por qué anteriores investigaciones de rayos-X en AGN los habían pasado por alto.

Esta ilustración muestra las distintas características de un núcleo galáctico activo (AGN), y cómo nuestro ángulo de visión determina qué tipo de AGN observamos. LA luminosidad extrema de un AGN está potenciada por un agujero negro supermasivo en el centro. Algunos AGN tienen chorros, mientras que otros no. Crédito: Aurore Simonnet, Universidad Estatal de Sonoma.

De acuerdo con los modelos más populares, los AGNs estásn rodeados por un anillo en forma de rosquilla de material, que parcialmente oscurece nuestra visión del agujero negro. Nuestro ángulo de visión con respecto a la rosquilla determina qué tipo de objeto vemos. Pero el miembro del equipo Richard Mushotzky, también en NASA Goddard, cree que estos AGN recientemente descubiertos están completamente rodeados de una capa de material que los oscurece. “Podemos ver luz visible de otros tipos de AGN debido a que hay luz dispersada”, dice Mushotzky. “Pero en estas dos galaxias, toda la luz procedente del núcleo está totalmente bloqueada”.

Otra posibilidad es que estos AGN tengan poco gas en su vecindad. En otro AGN, el gas dispersa la luz en otras longitudes de onda, lo cual hace al AGN visible incluso si están rodeados de este material oscurecedor.

“Nuestros resultados implican que debe haber un gran número de AGNs oscurecidos aún en el universo local”, dice Ueda.

De hecho, estos objetos podrían comprender alrededor del 20 por ciento de las fuentes puntuales que forman el fondo de rayos-X, un resplandor de radiación de rayos-X que impregna nuestro universo. El Observatorio de rayos-X Chandra de la NASA ha encontrado que este fondo está en realidad producido por un descomunal número de AGNs, pero Chandra fue incapaz de identificar la naturaleza de todas las fuentes.

Al pasar por alto esta nueva clase, las investigaciones previas de AGN estaban fuertemente sesgadas, y por tanto daban una descripción incompleta de cómo los agujeros negros supermasivos y las galaxias que los alojan han evolucionado a lo largo de la historia cósmica. “Creemos que estos agujeros negros han desempeñado un papel crucial en el control la formación de galaxias, y controlan el flujo de materia en los cúmulos”, dice Tueller. “No podemos comprender el universo sin comprender los agujeros negros gigantes y qué hacen. Para completar nuestra comprensión debemos tener una muestra sin sesgo”.

El artículo del descubrimiento aparecerá en el ejemplar del 1 de agosto de Astrophysical Journal Letters.

Puede encontrarse más información sobre Swift en http://swift.gsfc.nasa.gov, y sobre Suzaku en http://suzaku.gsfc.nasa.gov.


Autor: Robert Naeye
Fecha Original: 30 de julio de 2007
Enlace Original

La gran ciencia necesita innovaciones en el vacío

La tecnología del vacío será crucial para el éxito de muchos experimentos grandes en el futuro. Joe Herbert esboza algunos retos comunes a los que se enfrentan los científicos.

La siguiente generación de experimentos grandes de ciencia, tales como el Gran Colisionador de Hadrones del CERN (LHC) y el Reactor Experimental Termonuclear Internacional (ITER), dependerán de sistemas de vacío que colocan la tecnología de hoy al límite en términos de volumen y capacidad de bombeo. Otros, tales como el Láser Europeo de rayos-X de Electrones Libres (XFEL), requerirá unas condiciones de vacío extremadamente limpias, mientras que la Antena Espacial de Interferómetro Láser (LISA) involucrará el lanzamiento de sistemas de vacío al espacio.

Túnel del LHC

El reto principal para los científicos del vacío que trabajan en tales experimentos es cómo proporcionar un entorno de vacío adecuado a un coste razonable. Cómo se logra esto depende de cada proyecto. Este suplemento se centra en los retos específicos asociados con cada uno de estos cuatro proyectos.

Aunque estos experimentos son todos muy distintos, tienen un conjunto similar de retos para los científicos del vacío. Esto incluye comprender los requisitos de vacío de los experimentos y cómo afectará su diseño mecánico al sistema de vacío; trabajar con las distintas incertidumbres de los parámetros operacionales del equipo de vacío; fabricar y procesar los componentes de vacío; y encontrar gente lo bastante capaz para construir y operar el sistema.

Muchos de los primeros retos surgen debido a los diseñadores del experimento – los físicos que finalmente usarán la instalación como herramienta de investigación – que pueden no saber lo que se requiere para sus sistemas de vacío. Los investigadores tienden a solicitar el mejor vacío posible, incluso aunque puede que no sea necesario. Una sobreespecificación lleva a un gasto innecesario, el cual puede evitarse si los científicos de vacío tienen un buen conocimiento inicial de cómo se verá influenciado el experimento por las condiciones de vacío. Incluso si los requisitos de vacío están bien definidos, puede ser muy difícil calcular con algún grado de precisión la presión que puede esperarse en las posiciones importantes de un gran sistema de vacío. Deben tenerse en cuenta muchas incertidumbres e incluso un mínimo cambio en el diseño puede hacer una gran diferencia en las condiciones de vacío. Como resultado un diseño pasa a menudo por distintas iteraciones antes de que se logre un vacío satisfactorio.

Los científicos de vacío deben también comprender las limitaciones y demandas que se impondrán al sistema de vacío por el diseño físico del experimento. Por ejemplo, los materiales exóticos pueden elegirse por sus propiedades mecánicas, térmicas o eléctricas, incluso aunque las características de vacío del material no sean bien conocidas. Medir las propiedades térmicas de un escape de gas de tales materiales y encontrar, procesar y limpiar recipientes para reducir las fugas a un nivel satisfactorio puede llevar una buena cantidad de tiempo. Las fugas de gas son un reto significativo para los que construyen el ITER, por ejemplo. Los sistemas de vacío para este proyecto deben manejar cargas de gas de muchos miles de componentes que se fabrican a partir de materiales especializados que tienen que arreglárselas en el duro entorno del interior de un dispositivo de fusión.

Los aceleradores de partículas, como el LHC y el XFEL, normalmente se alojan en túneles donde hay poco espacio para bombas de vacío. Además, la enormes longitudes de muchos aceleradores modernos (casi 27 km en el caso del LHC) pueden imponer severas restricciones a las velocidades de bombeo. En el LHC este problema se alivió mediante un recubrimiento NEG (non evaporable getter), que convirtió los muros de las cámaras de vacío en bombas.

Otro reto es el equipo de vacío en sí mismo, el rendimiento del cual a menudo no está bien definido. Por ejemplo, las velocidades de bombeo de las bombas UHV pueden no conocerse para unas pocas especies de gases. Para complicar aún más las cosas, bombas similares pueden lograr distintas velocidades, dependiendo de cuánto se ha usado una bomba concreta en el pasado. Los estándares de vacío pueden también tener un efecto principal sobre el vacío – especialmente a muy bajas presiones – y su estabilidad a menudo deja bastante que desear. Puede ser que los requisitos especiales de una gran instalación no encajen con el equipo comercial y los nuevos sistemas que deben desarrollarse. Esto habitualmente implica extender la tecnología existente en lugar de tener que desarrollar algo desde cero.

Una vez que el diseño se ha especificado, los componentes deben ser fabricados y preparados, a menudo usando materiales y métodos que rozan el límite, o incluso van más allá de las capacidades de la industria del vacío. La garantía de calidad es un reto básico, y el proyecto a menudo tiene que proporcionar los protocolos, personal y equipamiento necesarios. No es necesario decir que los proyectos grandes requieren una gran cantidad de detalles en el diseño, fabricación, y capacidad de procesado, además de mantener un registro detallado. El reto final es el de encontrar gente con la suficiente experiencia y formación que entienda verdaderamente el vacío. No es un arte oscuro, pero tampoco una ciencia exacta.

Descarga una versión digital completa del suplemento Vacuum Challenges and Solutions (Soluciones y Retos del Vacío) aquí (PDF, 5MB).


Autor: Joe Herbert
Fecha Original: 30 de julio de 2007
Enlace Original

La nueva aproximación a SETI

Hasta dónde llega la prevalencia de la vida y la inteligencia a lo largo de la galaxia, el hecho es que aún no tenemos idea. Todas nuestras estimaciones y proyecciones continúan estando basadas en un único conjunto de datos, la vida alrededor de nosotros en la Tierra. Están aquellos, como Peter Ward y Donald Brownlee, que personalmente creen ver pruebas de que la vida compleja puede ser bastante rara, incluso si la vida unicelular se convierte el algo rutinario. Hay otros con un punto de vista distinto. Para dar un ejemplo específico, las catástrofes cósmicas rutinarias destruirán, según se afirma, las opciones de que surja la vida compleja salvo en los casos más inusuales. Ya ha sucedido una de tales catástrofes, al final del Cretácico, ¡y fue la principal razón de que se desarrollase vida inteligente de alto nivel en la Tierra! Todas nuestras hipótesis actuales sobre la probabilidad de vida e inteligencia extraterrestre no son nada más que opiniones basadas en deducciones y un solo punto de datos. Lo que debemos hacer es seguir buscando evidencias fuertes, tanto localmente (dentro del Sistema Solar) como a distancias interestelares. Ni el optimismo ni el pesimismo ayudan cuando están basados en la ignorancia.

En contraposición al hecho de que SETI no ha recibido hasta ahora ninguna señal positiva hay un número de desarrollos entusiastas en astronomía y astrobiología. Estos incluyen la detección, desde mediados de los 90, de más de 150 planetas extrasolares, y cada vez más signos dentro de nuestro Sistema Solar de que las condiciones que se creen necesarias para el desarrollo de la vida tal y como la conocemos (agua, componentes orgánicos y una fuente de energía adecuada) pueden surgir en múltiples mundos alrededor de una única estrella. La astrobiología está en ascenso. Marte, Europa, y Titán encabezan una corta lista de lugares en nuestra vecindad donde los científicos no se sorprenderían de encontrar vida microbiana. Estando detectando moléculas cada vez más complejas en el espacio interestelar como prueba de que la vida puede ser capaz de sobrevivir a los viajes entre mundos a bordo de meteoritos. Como explico en mi libro Life Everywhere (Vida por todos sitios) (Basic Books, 2001), la vida terrestre, desde el inicio – no sólo los últimos pocos cientos de millones de años – ha demostrado propensión a hacerse cada vez más compleja y muestra los rudimentos de un comportamiento inteligente.

Este auge de la astrobiología y la astronomía exoplanetaria ha ofrecido a los investigadores de SETI una nueva aproximación que es Instituto SETI, en particular, ha abrazado. Es decir, permite que el intento de contactar con otras inteligencias se haga de abajo a arriba en lugar de arriba a abajo. En la próxima década, instrumentos cada vez más sensibles y potentes, basados en la interferometría, nos permitirán detectar mundos similares a la Tierra que orbiten estrellas similares al Sol en un radio de unos cientos años luz. Estos instrumentos y sus sucesores nos permitirán analizar la luz procedente de estas “Tierras alienígenas” para buscar firmas biogénicas, tales como el oxígeno y la clorofila. Si tenemos éxito en demostrar más allá de toda duda razonable que ciertos planetas conocidos están relacionados con la vida, entonces podremos comenzar a estudiar esos mundos más de cerca para ver qué cantidad de su vida nativa ha evolucionado. ¿Hay signos de contaminación industrial en la atmósfera o rastros de emisiones electromagnéticas producidas artificialmente? Cuando alcancemos esta etapa de nuestras investigaciones, la astrobiología y SETI unirán sus fuerzas en una tarea para determinar si la inteligencia superior está presente.

Personalmente, creo que hay una mínima posibilidad de que en algún momento cercano contactemos con otra raza en nuestra galaxia aproximadamente con el mismo nivel tecnológico que nosotros. Sospecho que hay una ventana tecnológica de unos 500 años más allá de la cual seríamos ciegos de forma efectiva para otras especies. La galaxia podría estar repleta de inteligencias avanzadas que son invisibles para nosotros como los satélites de telecomunicaciones lo están para los nativos de las selvas. Además, nuestros ancianos galácticos, lejos de tener algún deseo de comunicarse con nosotros, probablemente estarían interesados en nosotros sólo como especimenes antropológicos o biológicos. También pueden tener la sabiduría de apreciar que cualquier interferencia suya en nuestros temas potencialmente podría destruir nuestra cultura, de la misma forma en que los Occidentales hemos dañado a las razas de la Tierra menos avanzadas tecnológicamente con quienes hicimos el primer contacto.


Autor: David Darling
Fecha Original: Mayo de 2006
Enlace Original

Lentes perfectas podrían invertir la fuerza de Casimir

La normalmente atractiva fuerza de Casimir entre dos superficies puede hacerse repulsiva si una lente “perfecta” con un índice de refracción negativo se incrusta entre la superficies, de acuerdo con cálculos realizados por físicos en el Reino Unido. Ulf Leonhardt y Thomas Philbin de la Universidad de St Andrews creen que la fuerza repulsiva podría ser lo bastante fuerte para hacer levitar un espejo pequeño. El efecto repulsivo – que aún tiene que observarse de forma experimental – podría también ayudar a minimizar la fricción en máquinas micrométricas provocada por la fuerza de Casimir. (New Journal of Physics to be published).

Seguir Leyendo…

Las mayores colisiones cósmicas tienen lugar más rápido de lo esperado

Se han encontrado dos cúmulos galácticos en colisión a unas velocidades que anteriormente se pensaba que eran imposibles.

Los astrónomos estiman que la colisión del cúmulo galáctico conocido como Abell 576 involucra a dos cúmulos que contienen cientos de galaxias chocando entre sí a unos 3300 km/s..

Imagen de rayos-X de Chandra decon contornos perfilados de burbujas eyectadas en nuestra dirección. El sistema de Abell 576 en realidad consta de dos cúmulos galácticos que han sido capturados por XMM durante el proceso de fusión entre sí. Crédito: Universidad de Michigan (R. Dupke)

El hallazgo, que se detallará en el próximo ejemplar de Astrophysical Journal, apoya estudios anteriores que sugieren que los cúmulos galácticos pueden colisiones más rápido de lo que se creía anteriormente.

“Ahora hay un creciente número de pruebas que apoyan que este tipo de colisiones a altas velocidades son posibles”, dijo el líder del estudio Renato Dupke de la Universidad de Michigan.

Tales colisiones habían sido observadas con anterioridad, pero la última es inusual por la posición aventajada de observación desde detrás de uno de los cúmulos. Otra colisión bien conocida que involucra al Cúmulo Bala tiene lugar en el plano del cielo, por lo que desde nuestro punto de vista parece que los cúmulos están chocando frontalmente.

La diferencia entres estos dos puntos de vista es comparable a ver a dos coches chocando en una pantalla de televisión o verlos desde dentro de uno de los coches.

Usando los observatorios XMM-Newton de la Agencia Espacial Europea y el Chandra de rayos-X de la NASA, los investigadores han observado burbujas de gas eyectadas desde los núcleos de los cúmulos, pero las cuales, finalmente, caerán y se fundirán entre sí.

Aunque las galaxias individuales chocan entre sí con bastante frecuencia, los astrónomos estiman que sólo uno entre mil o uno entre cien cúmulos galácticos están involucrados en una colisión. La cantidad de energía generada por una única colisión principal se piensa que puede ser la segunda, sólo tras el Big Bang, el evento que los científicos creen que dio origen al universo.

Identificar sistemas en colisión es crucial para comprender la composición y funcionamiento del universo. Los científicos han citado pruebas de colisiones de cúmulos como algunas de las mejores disponibles sobre que existen la materia oscura y la energía oscura. Además, si no se reconocen, las colisiones podrían llevar a una subestimación de los cúmulos galácticos tanto como en un 20% debido a las grandes cantidades de gas eyectado durante una colisión.

Los científicos dependen de la masa de distintas galaxias para estimar los parámetros cosmológicos que describen la expansión del universo.

Los astrónomos esperan que los dos Goliats de Abell 576 finalmente se unirán en un único cúmulo galáctico gargantuánico.


Enlaces Relacionados:
La búsqueda de la quinta fuerza se centra en el Cúmulo Bala

Autor: Ker Than
Fecha Original: 18 de julio de 2007
Enlace Original

Chorros de líquido que rebotan

Físicos de los Estados Unidos han publicado unas sorprendentes fotografías de chorros de líquidos rebotando sobre la superficie de una bañera. Los chorros, que a veces recuerdan a una serpiente ondeante, fueron creados vertiendo una corriente de aceite en una bañera rotatoria del mismo fluido. Los investigadores creen que el fenómeno podría ayudar a mejorar un número de procesos industriales desde el moldeado de materiales fundidos a los fluidos aéreos (arXiv: 0707.1721v1).

Chorro rebotando

Las fotografías fueron tomadas por Matthew Thrasher y sus colegas de la Universidad de Texas en Austin, que construyeron una bañera rotante de aceite en la cual se vertió una corriente de aceite bajo la atenta mirada de una video cámara. Las fotografías revelan que cuando el chorro golpea la superficie de la bañera, se desliza sobre la superficie en una fina capa de aire. Además, la fuerza del impacto crea una hendidura en forma de cuenco en la superficie del líquido que actúa como una rampa, lanzando al chorro de nuevo en el aire (ver figura “Chorro rebotando”). El chorro entonces forma un arco sobre la superficie y se zambulle de nuevo en el líquido, a veces emergiendo en un segundo arco.

El rebote fue observado en un distinto número de aceites de silicio con viscosidades entre 56 y 560 veces la del agua. El arco se hizo más pequeño cuando la bañera rotaba más rápidamente hasta que el chorro no abandonaba la superficie sino que removía su superficie (ver figura “Removiendo”)

Removiendo

Thrasher dijo a Physics Web que un requisito crucial para el rebote es que la capa de aire que soporta al chorro no debe romperse en burbujas de aire, lo que interrumpiría el chorro. Añade que una comprensión de porqué algunos líquidos rebotan mientras que otros hacen burbujas podría mejorar el proceso de moldeado del metal – en el que el material fundido se vierte en un molde y se debe evitar la formación de burbujas para que no debiliten el metal sólido. En cambio, los chorros que se zambullen se usan a menudo para introducir burbujas de aire en los líquidos – un ejemplo común son las burbujas que se forman tras abrir un grifo. Además Thrasher cree que los diseñadores de sistemas de líquidos aéreos deberían comprender cómo evitar el rebote de los fluidos.

Thrasher llegó a la idea para el experimento cuando estaba echando aceite de un contenedor en otro y notó que el chorro de aceite que vertía a veces rebotaba sobre la superficie del contenedor. En su artículo, los investigadores sugieren varios experimentos simples para observar chorros que rebotan en clase o incluso en casa.


Autor: Hamish Johnston
Fecha Original: 19 de julio de 2007
Enlace Original

La luna de Plutón es una máquina de hielo

Géiseres medio derretidos sobre Caronte, la luna de Plutón, cubren aparentemente el pequeño mundo con diminutos cristales, haciendo del mismo el equivalente del Sistema Solar a una máquina de hielo.

Una máquina de hielo muy, muy lenta.

Concepción artística de Caronte con Plutón de fondo. Las columnas y puntos brillantes descritos en Caronte se piensa que son debidos a las erupciones de agua mezclada con amoniaco desde las profundidades de la superficie de la luna. Crédito: Software Bisque, Mark C. Petersen, Loch Ness Productions, Sky-Skan, Inc.

El agua está escurriéndose al mismo ritmo de un glaciar, dicen los investigadores, pavimentando a Caronte con una fina capa de un milímetro de profundidad de hielo cada 100 000 años.

El hallazgo que se anunció hoy y se detalló en el ejemplar del 10 de julio de Astrophysical Journal, apunta a que el agua helada de Caronte tiene implicaciones sobre otros objetos del Cinturón de Kuiper – un tipo de objetos relativamente pequeños y rocosos situados más allá de la órbita de Neptuno.

No existen imágenes de los géiseres o del hielo. En lugar de esto, los astrónomos supieron de los depósitos de hielo tras descubrir las huellas espectrales de los hidratos de amoniaco y cristales de agua en la luz procedente de la luna. Los hallazgos sugieren que el agua líquida mezclada con amoniaco de las profundidades de Caronte se está filtrando a través de grietas hacia la glacial superficie dela luna

Los investigadores descartaron otros posibles mecanismos para la formación del hielo y concluyeron que debía estar producido por el criovulcanismo – la erupción de líquidos desde el interior de la luna.

Un interior líquido

Si el hielo de Caronte fuese “hielo primordial”, restos del nacimiento del Sistema Solar, habría perdido la estructura cristalina que los astrónomos observan ahora, debido al bombardeo de rayos cósmicos y radiación ultravioleta procedente del Sol. Y si el hielo ha sido provocado por impactos de meteoritos que agitaron la superficie de la luna, se habría observado un conjunto distinto de marcas químicas.

“Nuestros espectros apuntan de forma consistente al criovulcanismo, que trae agua líquida a la superficie y la congela en cristales de hielo”, dijo el líder del estudio Jason Cook de la Universidad Estatal de Arizona (ASU). “Esto implica que el interior de Caronte posee agua líquida”.

El criovulcanismo también tiene lugar en otras lunas del Sistema Solar, incluyendo a Encelado, la luna de Saturno y Europa, el satélite de Júpiter. Sin embargo, ambas lunas están exprimidas por las mareas que provocan los fuertes tirones gravitatorios de sus planetas gigantes, lo que fuerza al agua a fluir por sus grietas.

Los investigadores sospechan que algo distinto está sucediendo con Caronte, que no sufre ese tirón gravitatorio de Plutón.

En lugar de esto, el calor procedente de los materiales radiactivos en el interior de Caronte podrían estar creando una piscina de agua fundida bajo la superficie de la luna que está mezclada con amoniaco. “Cuando parte del agua subsuperficial se enfría y se aproxima al punto de congelación, se expande en las grietas de la capa de hielo superior”, explicó Cook.

Cuando el agua líquida alcanza la superficie, inmediatamente se congela y “nieva” de vuelta a la superficie de la luna, creando manchas de hielo brillante que son visibles en el infrarrojo.

Amoniaco anticongelante

El amoniaco funciona como un anticongelante y evita que el agua se vuelva sólida. “Como los anticongelantes que usamos en la Tierra, baja el punto de congelación del agua”, dijo el miembro del equipo del estudio Steven Desch, también de la ASU.

Estudios recientes sugieren que en Encelado, las fuerzas de marea provocan que las capas de hielo gigantes se doblan y chirrían unas contra otras a lo largo de enormes líneas de falla llamadas “rayas de tigre”.

Cook y su equipo piensan que algo similar está sucediendo en Caronte, cuya superficie está casi completamente cubierta por agua helada.

“La prueba real vendrá con la sonda de la NASA de espacio profundo New Horizons, que llegará a este sistema en 2015 y enviará imágenes que pueden verificar lo que hemos visto”, dijo Cook.

Los nuevos hallazgos sugieren que los hidratos de amoniaco, y por tanto el agua líquida, podrían existir en otros KBOs (Objetos del Cinturón de Kuiper). “Creo que tienen que estar allí fuera”, dijo Cook.

La investigación fue llevada a cabo usando el Telescopio Frederick C. Gillett Gemini North en Hawai.


Autor: Plantilla de redactores de SPACE.com
Fecha Original: 17 de julio de 2007
Enlace Original

Llevando el orden al caos

Un investigador de la Universidad de Baylor ha creado la primera observación experimental del caos molecular, proporcionando pruebas a una suposición ampliamente aceptada, pero aún no probada, y que es efectivamente precisa.

El caos molecular es la suposición de que las velocidades de las partículas en colisión no están correlacionadas y son independientes de la posición. Un ejemplo del caos molecular está en el aire de cualquier sala. Aunque los átomos de nitrógeno y oxígeno están volando con una velocidad cuadrada media debido a la temperatura de la sala, no están relacionados, por tanto el aire no vuela hacia una dirección de la sala sin alguna clase de cambio de presión externo, como ala apertura de una ventana. La suposición del caos molecular, que es parte de la teoría cinética de gases, se considera ampliamente como algo cierto debido a que todo lo que surge y sigue esta suposición funciona muy bien. Sin embargo, ha sido casi imposible probar esta suposición, hasta ahora.

“Fue muy excitante cuando tropezamos por primera vez con la observación”, dijo el Dr. Jeffrey Olafsen, profesor asociado de física en Baylor y principal investigador del proyecto. “Las observaciones anteriores se habían realizado con simulaciones por ordenador, pero esta es la primera vez que se ha medido en un sistema experimental”.

Olafsen, en colaboración con el Dr. G. William Baxter, profesor asociado de física en la Universidad Estatal de Pennsylvania – Erie, construyeron dos “gases”, o capas, de cojinetes de bolas. En la capa donde se mantenía el caos molecular, los investigadores midieron las estadísticas de Maxwell Boltzmann, como aquellas que predicen la velocidad cuadrada media de las partículas en el aire de la sala. En la capa donde falló la suposición de caos molecular, las estadísticas no obedecieron a las de Maxwell Boltzmann. Tal vez la parte más interesante, dijeron los investigadores, es que los dos “gases” estuvieron en contacto entre sí mientras demostraban simultáneamente su comportamiento respectivo.

“Las dos capas pueden verse como dos gases en contacto térmico simultáneo, y aún así, uno de los gases mostró caos molecular mientras que el otro no”, dijo Olafsen. “Esto significa que los detalles de cómo la energía se inyecta y distribuye entre los gases son importantes para comprender cuándo demostrará un sistema caos molecular”.

Olafsen dijo que los resultados también son beneficiosos para construir una termodinámica fundamental para sistemas dirigidos lejos del equilibrio.

Aquí puedes encontrar un video del experimento.
El artículo original publicado está disponible aquí.


Autor: Matt Pene
Fecha Original: 24 de julio de 2007
Enlace Original

El tiempo puede que no exista

Por no mencionar la cuestión de qué dirección sigue…

Nadie sigue el rastro del tiempo mejor que Ferenc Krausz. En su laboratorio en el Instituto Max Planck de Óptica Cuántica Garching, Alemania, ha cronometrado los intervalos de tiempo más cortos jamás observados. Krausz usó pulsos láser ultravioleta para rastrear los irracionalmente breves saltos cuánticos de los electrones dentro de los átomos. Los eventos que investigó tardaron unos 100 attosegundos, o 100 trillonésimas de segundo. Para verlo con un poco de perspectiva, 100 attosegundos es a un segundo lo que un segundo a 300 millones de años.

Pero incluso los trabajos de Krausz están lejos de la frontera del tiempo. Hay un dominio temporal llamado escala de Planck, donde incluso los attosegundos parecen eones. Esto marca el límite de la física conocida, una región donde las distancias e intervalos son tan cortos que los mismos conceptos de espacio y tiempo comienzan a colapsar. El tiempo de Planck — la unidad más pequeña de tiempo que tiene sentido a nivel físico — es 10-43 segundos, menos de una billonésima de billonésima de un attosegundo. ¿Más allá qué hay? El tiempo desconocido. Al menos por ahora.

Los esfuerzos por comprender el tiempo por debajo de la escala de Planck han llevado coyunturas extremadamente extrañas de la física. El problema, resumiendo, es que el tiempo puede no existir al nivel más fundamental de la realidad física. Si esto es así, entonces, ¿qué es el tiempo? ¿Y por qué es tan obvia y tiránicamente omnipresente en nuestra propia experiencia? “El significado del tiempo se ha convertido en un algo terriblemente problemático en la física contemporánea”, dice Simon Saunders, un filósofo de la física en la Universidad de Oxford. “La situación es tan incómoda que lo mejor que puede uno hacer, de lejos, es declararse agnóstico”.

El problema con el tiempo comenzó hace un siglo, cuando las Teorías de la Relatividad Especial y General de Einstein derrumbaron la idea del tiempo como una constante universal. Una consecuencia es que pasado, presente y futuro no son absolutos. Las Teorías de Einstein también abrieron una grieta en la física debido a que las reglas de la relatividad general (que describen la gravedad y la estructura a gran escala del cosmos) parecen incompatibles con las de la física cuántica (que gobierna el dominio de lo diminuto). Unas cuatro décadas más tarde, el renombrado físico John Wheeler, entonces en Princeton, y el posteriormente Bryce DeWitt, entonces en la Universidad de Carolina del Norte, desarrollaron una extraordinaria ecuación que proporciona un posible marco de trabajo para unificar la relatividad y la mecánica cuántica. Pero la ecuación de Wheeler-DeWitt siempre ha sido controvertida, en parte debido a que añade otro, si cabe, giro aún más desconcertante a nuestra comprensión del tiempo.

“Uno se encuentra con que el tiempo simplemente desaparece en la ecuación de Wheeler-DeWitt”, dice Carlo Rovelli, físico de la Universidad del Mediterráneo en Marsella, Francia. “Es un tema que ha desconcertado a muchos teóricos. Puede que la mejor forma de pensar en la realidad cuántica sea abandonando la noción de tiempo — que la descripción fundamental del universo debe ser atemporal”.

Nadie ha tenido éxito en el uso de la ecuación de Wheeler-DeWitt para integrar la teoría cuántica con la relatividad general. No obstante, una minoría considerable de físicos, Rovelli inclusive, creen que alguna fusión exitosa de las dos grandes piezas maestras de la física del siglo XX inevitablemente describirán un universo en el que, finalmente, no hay tiempo.

La posibilidad de que puede no existir el tiempo es conocida entre los físicos como “el problema del tiempo”. Puede ser el mayor, pero está lejos de ser el único acertijo temporal. El aspirante para la segunda plaza es este extraño hecho: Las leyes dela física no explican por qué el tiempo siempre apunta hacia el futuro. Todas las leyes – ya sean las de Newton, Einstein, o las estrafalarias reglas cuánticas — funcionarían igual de bien si el tiempo corriese hacia atrás. Hasta donde podemos decir, si bien, el tiempo en un proceso de único sentido; nunca se invierte, incluso aunque ninguna ley se lo impide.

“Es bastante misterioso por qué tenemos una flecha del tiempo tan obvia”, dice Seth Lloyd, ingeniero de mecánica cuántica en el MIT. (Cuando le preguntamos qué es el tiempo, contesta, “No lo sé. ¿Hemos terminado?”) “La explicación habitual de esto es que para especificar lo que sucede a un sistema, no sólo tienes que especificar las leyes físicas, sino también alguna condición inicial o final”.

La madre de todas las condiciones iniciales, dice Lloyd, fue el Big Bang. Los físicos creen que el universo comenzó como una extremadamente compacta y simple bola de energía. Aunque las leyes de la física mismas no proporcionan una flecha del tiempo, la expansión actual del universo sí lo hace. Dado que el universo se expande, se hace más complejo y desordenado. El desorden creciente — lo que los físicos llaman un aumento de la entropía — está dirigido por la expansión del universo, lo cual puede ser el origen de lo que pensamos que es el incesante avance del tiempo.

El tiempo, desde este punto de vista, no es algo que exista fuera del universo. No hay un reloj haciendo tic-tac fuera del cosmos. La mayoría de nosotros tendemos a pensar en el tiempo de la forma que lo hizo Newton: “El tiempo absoluto, verdadero y matemático, por sí mismo y por su propia naturaleza, fluye de igual forma, sin importar nada externo”. Pero como demostró Einstein, el tiempo es parte del tejido del universo. Contrariamente a lo que creía Newton, nuestros relojes comunes no miden algo independiente al universo. De hecho, dice Lloyd, los relojes no miden el tiempo en absoluto.

“Recientemente fui al Instituto Nacional de Estándares y Tecnología en Boulder”, dice Lloyd. (NIST es el laboratorio del gobierno que alberga el reloj atómico que estandariza la hora para la nación). “Dije algo como, ‘Vuestros relojes miden el tiempo con mucha precisión’. Ellos me dijeron, ‘Nuestros relojes no miden tiempo’. Pensé: Guau, eso es algo muy humilde por parte de estos chicos. Pero dijeron, ‘No hay ningún tiempo definido que nuestros relojes puedan medir’. Lo cual es cierto. Ellos definen los estándares del tiempo para el mundo: El tiempo está definido por el número de tics de sus relojes”.

Rovelli, el defensor de un universo sin tiempo, dice que los guardianes del tiempo de NIST tienen razón. Además, su punto de vista es muy consistente con la ecuación de Wheeler-DeWitt. “En realidad nunca podemos ver el tiempo”, dice. “Sólo vemos relojes. Si dices que este objeto se mueve, lo que en realidad significa es que este objeto estaba aquí cuando la manecilla de tu reloj estaba aquí, etc. Decimos que medimos el tiempo con relojes, pero sólo vemos las manecillas de los relojes, no el tiempo en sí mismo. Y las manecillas de un reloj son una variable física como cualquier otra. Por lo que en cierto sentido hacemos trampa debido a que lo que realmente observamos son variables físicas como una función de otra variable física, pero que representamos como si todo evolucionara con el tiempo.

“Lo que pasa con la ecuación de Wheeler-DeWitt es que tenemos que dejar de jugar a esto. En lugar de introducir estas variable ficticia — el tiempo, que en sí mismo no es observable — deberíamos simplemente describir cómo se relacionan las variables entre sí. La pregunta es, ¿el tiempo es una propiedad de la realidad o sólo una apariencia macroscópica de las cosas? Yo diría que es sólo un efecto macroscópico. Es algo que surge sólo para las cosas grandes”.

Por “cosas grandes”, Rovelli indica cualquier cosa que exista muy por encima de la misteriosa escala de Planck. Dado que por ahora no hay una teoría física que describa completamente cómo es el universo por debajo de la escala de Planck. Una posibilidad es que si los físicos consiguen alguna vez una teoría unificada de la cuántica y la relatividad general, el espacio y el tiempo se describirán mediante alguna versión modificada de la mecánica cuántica. En tal teoría, el espacio sería no sería suave y continuo. En lugar de eso, constaría de fragmentos discretos — quanta, en el argot de la física — así como la luz está compuesta de haces de energía individuales llamados fotones. Estos serían los ladrillos fundamentales del espacio y el tiempo. No es fácil imaginar que el espacio y el tiempo estén hechos de algo. ¿Dónde existirían los componentes del espacio y tiempo, sino en el espacio y el tiempo?

Como explica Rovelli, en la mecánica cuántica todas las partículas de materia y energía pueden describirse como ondas. Y las ondas tienen una propiedad inusual: Un número infinito de ellas pueden existir en la misma localización. Si se demuestra algún día que el espacio y el tiempo constan de quanta, los quanta podrían existir apilados en un único punto sin dimensión. “El espacio y el tiempo en cierto sentido se funden en este escenario”, dice Rovelli. “No habrá más espacio. Sólo untos tipos de quanta viviendo unos sobre otros sin verse inmersos en el espacio”.

Rovelli ha estado trabajando con uno de los matemáticos más importantes del mundo, Alain Connes de la Facultad de Francia en París, sobre esta idea. Juntos han desarrollado un marco de trabajo para demostrar cómo lo que experimentamos como tiempo podría surgir a partir de una realidad más fundamental sin tiempo. Como la describe Rovelli, “El tiempo puede ser un concepto aproximado que surge a grandes escalas — un poco como el concepto de “superficie del agua”, que tiene sentido a nivel macroscópico pero que pierde un sentido preciso al nivel de los átomos”.

Dándose cuenta de que esta explicación puede hacer más profundo el misterio del tiempo, Rovelli dice que gran parte del conocimiento que tomamos como bueno fue considerado una vez como igualmente perplejo. “Me doy cuenta de que esta descripción no es intuitiva. Pero de esto es de lo que trata la física fundamental: encontrar nuevas formas de pensamiento sobre el mundo, proponerlas y ver si funcionan. Creo que cuando Galileo dijo que la Tierra giraba alocadamente, era algo completamente incomprensible de la misma forma. El espacio para Copérnico no era el mismo espacio que para Newton, y el de Newton no era el mismo que el de Einstein. Siempre aprendemos un poco más”.

Einstein, por ejemplo, encontró consuelo en su sentido revolucionario del tiempo. En marzo de 1955, cuando su amigo de toda la vida Michele Besso falleció, escribió una carta de consuelo a la familia de Besso: “Ahora él ha partido de este extraño mundo un poco antes que yo. Esto no significa nada. La gente como nosotros, que creen en la física, saben que la distinción entre el pasado, el presente y el futuro es sólo una ilusión obstinadamente persistente”.

Rovelli siente que hay otro gran avance temporal a la vuelta de la esquina. “El artículo de 1905 de Einstein llegó y cambió repentinamente el pensamiento de la gente sobre el espacio-tiempo. Estamos de nuevo en medio de algo similar”, dijo. Cuando el polvo se asiente, el tiempo – sea lo que sea eso – podría volverse incluso más extraño e ilusorio de lo que hasta Einstein pudo imaginar.


Gracias a Mezvan por proporcionar este enlace.

Autor: Tim Folger
Fecha Original: 12 de junio de 2007
Enlace Original

Pirámides, piramitos y piramidiotas

¿Qué es una pirámide? ¿Es un poliedro cuya base es un polígono cuyos lados son triángulos que tienen un vértice común? Bueno, sí, es eso, pero es mucho más que eso. La pirámide, que en su manifestación megalítica desempeñó un papel muy importante en las historias de dos de las primeras civilizaciones, ha suscitado más especulaciones y fantasías que cualquier otra forma sólida geométrica. Cubos y dodecaedros nunca han tenido la cobertura mediática de la pirámide.

Antes de investigar algunos de los más fantásticos mitos que se han asociado a las pirámides, deberíamos revisar algunos de los hechos que, para una mente inquisitiva, son más fascinantes que las fantasías.

Las pirámides de Egipto

El encabezado de esta sección es el título de un libro ampliamente reconocido como el trabajo definitivo sobre el tema. Escrito por I.E.S. Edwards, conservador de las antigüedades egipcias del Museo Británico desde 1955-72, este libro presenta los hechos de la forma más legible y es la referencia de la información arqueológica de este artículo.

La historia de civilización de las Dinastías Egipcias abarca más de 3000 años, de los cuales la Era de las Pirámides cuenta menos de 500, aunque esta forma de construcción continuó, de una forma muy rebajada, durante 500 más. Hay más de 80 pirámides conocidas en Egipto, algunas de las cuales se encuentran tan en ruinas que parecen ser sólo montones de escombros.

No es sorprendente que mucha gente haya ejercitado su imaginación y especulado sobre los propósitos de estas masivas estructuras de piedra y sobre los métodos que usaron para su construcción. Aunque es mucho lo que se desconoce sobre las pirámides egipcias hay pocas dudas sobre que fueron construidas de acuerdo con los ritos funerarios de la religión egipcia y que los métodos de construcción usados estaban muy posiblemente dentro de los límites de la tecnología de la época.

La religión egipcia estaba firmemente basada en la existencia de una vida después de la muerte, la cual dependía para su aplazamiento de la protección de los restos mortales de los antiguos ciudadanos. En los tiempos de la predinastía, la gente importante era enterrada bajo un montículo de tierra, la forma de los cuales parece haber ganado algún significado religioso. Durante la Primera y Segunda Dinastías este montículo se elaboró más y se convirtió en una estructura rectangular, de ladrillo de barro decorado, llamado mastaba. Como es natural, la mastaba del Faraón era la más imponente, aunque se han encontrado buenos ejemplos en las de nobles y oficiales.

En la Tercera Dinastía, alrededor del 2680 A.c, el faraón de esa época, Zoser, fue afortunado al tener como su Ministro a Imhotep, a quien se acredita como el constructor de la primera pirámide (e, incidentalmente, la primera gran construcción de piedra del mundo). Imhotep fue deificado más tarde por los egipcios, posiblemente el primer registro de alguien que “subió de rango”.

Es tentador especular que Imhotep se dijo un día a sí mismo “Si pongo una mastaba sobre otra y de nuevo otra encima de aquella, hasta que llegue a seis, entonces mi faraón será mucho más importante que su viejo padre”, pero las excavaciones de la Pirámide Escalonada de Zoser revela que tuvieron lugar muchos cambios en el diseño de la estructura durante su construcción.

Primero, se construyó una inusual mastaba cuadrada con el poco usado material de piedra. Entonces se le fueron haciendo añadidos, en varias etapas, hasta que se convirtió en rectangular, construyendo entonces hacia arriba para convertirse en una pirámide de cuatro pisos, extendiendo más tarde dos lados y subiendo para convertirse en una pirámide de seis pisos, que fue su forma final. Todo esto indica que no hubo una repentina llegada de nuevas ideas de “alguna parte” que convirtiesen súbitamente a los egipcios “primitivos” en brillantes ingenieros y picapedreros, una teoría muy querida por los especuladores más irracionales en el tema egipcio. Está claro que Imhotep era un hombre inusualmente inteligente pero está claro igualmente que sus ideas no surgieron de fuentes misteriosas. Su curva de aprendizaje está inscrita en piedra.

Desde la primera pirámide escalonada, podemos rastrear el desarrollo de esta forma de arquitectura a través de la primera pirámide auténtica, hasta el apogeo de la construcción de pirámides, la Gran Pirámide de Khufu en Giza. Esta es sobre la que se han construido todas las fantasías y, ciertamente, es una imponente pieza de ingeniería. El primer hecho notable sobre la Gran Pirámide es que el tiempo que pasó entre la invención de la arquitectura de pirámides por Imhotep y la construcción de la misma, la mayor y mejor de todas, fue sólo de poco más de un siglo.

La Gran Pirámide es única en muchas formas. Cuando se construyó, era el edificio más pesado (alrededor de 6 millones de toneladas) jamás construido. Aún lo es. Consta de aproximadamente 2,3 millones de bloques de piedra, con un peso medio de 2,5 toneladas. Su base tiene 227 metros cuadrados, con una precisión de unos 20cm en cada lado. Su altura original era de 150 metros, aunque los 15 metros superiores han desaparecido. Está alineada con precisión a los cuatro puntos cardinales, con su lado menos preciso, el este, divergiendo sólo 5′ 30” del verdadero norte-sur, lo cual, para una civilización que no tenía brújulas, no está mal. Su base cubre 13,1 acres, sus lados forman un ángulo con el terreno de 51º 52′ y se construyó usando una tecnología no más sofisticada que la palanca, los rodillos, el plano inclinado, herramientas de piedra y cobre, mentes inteligentes y trabajo duro.

Deberíamos aclarar algunos conceptos equivocados ampliamente propagados por la labor de autores deliberadamente ignorantes tales como Erich von Daniken, quien seguramente ostenta el título de ser la persona con más errores sobre más temas que cualquier otra en la Tierra.

Los egipcios no eran gente primitiva en absoluto. Eran tan inteligentes y sofisticados como lo somos hoy, y, aunque su tecnología era simple, era adecuada para la tarea y eran expertos en su aplicación.

Los egipcios no usaron esclavos para construir las pirámides sino ciudadanos a los que se pagaba con comida por su trabajo (incluso hay pruebas de que los egipcios inventaron la huelga para un mejor salario). Sabemos que el trabajo experto sobre las pirámides fue llevado a cabo por un equipo de artesanos a jornada completa, y podemos suponer que gran parte del trabajo pesado fue realizado por “trabajadores ocasionales” sin experiencia, probablemente por granjeros locales que no tenían nada que hacer mientras sus tierras se inundaban por las crecidas anuales del Nilo.

Los egipcios movieron grandes bloques de piedra en trineos de madera tirados por grupos de hombres con cuerdas. Von Daniken nos habría hecho creer que los egipcios no tenían cuerdas y que tenían poco suministro de madera debido a que “los árboles no crecen en abundancia en el Nilo”. Ambas afirmaciones son mentira. Se han hallado muchas cuerdas en tumbas egipcias, y los egipcios usaron grandes cantidades de madera, gran parte de la cual adquirían en tratos comerciales con países vecinos, y se han encontrado muchos ejemplos de esto.

Los egipcios no llevaban a cabo sacrificios humanos en la época dinástica (aunque hay algunas pruebas de que sí lo hicieron los de la época pre-dinástica) y no hay pruebas de que se encerrasen a humanos vivos en las pirámides con su Faraón muerto. Esto último es casi con total seguridad una invención de Hollywood.

La momificación fue usada con el propósito de preservar los restos de los egipcios para la otra vida y no, como diría von Daniken, para la resurrección por los antiguos astronautas que regresan. La técnica de la momificación está disponible en un detalle considerable, a partir de los textos existentes. Los órganos internos eran sacados y almacenados separados del cuerpo, y el cuerpo era tratado con varias sales y resinas y envuelto en lino.

Todo esto puede haber sido contraproducente, ya que algunas momias antiguas de los primeros egipcios, meramente enterrados sin tratamiento, han sobrevivido mejor que aquellas de los Faraones. Las pruebas sugieren que la desecación causada por el internamiento en la tierra seca es mucho mejor conservante que cualquiera de los tratamientos dados a los cadáveres faraónicos.

Lo que realmente señala la mentira de von Daniken, sin embargo, es el hecho de que el cerebro era sacado por partes, a través de la nariz, y no se conservaba. Los egipcios creían que el corazón era la sede del alma, y que el cerebro no tenía una importancia particular. En el caso de von Daniken, esto bien podría ser cierto.

Motivación

Miraremos más allá de algunas fantasías que se han construido más tarde alrededor de la Gran Pirámide, primero vamos a considerar “¿por qué construir una pirámide?”.

La respuesta es que no lo sabemos. Hay muchas hipótesis lógicas (y muchas más ilógicas) pero no hay duda de que el propósito tuvo naturaleza religiosa. Puede ser que las pirámides se viesen como “escaleras hacia el cielo” para que los Faraones muertos ascendiesen a su lugar por derecho junto al Dios Sol.

No hay pruebas directas de que las pirámides fueran el lugar de enterramiento real de los reyes, ya que no se han encontrado nunca restos faraónicos dentro o bajo una pirámide. Las pirámides pueden haberse construido como homenajes y no como tumbas, aunque, en ausencia de pruebas directas, el último propósito parece más probable.

Una hipótesis, propuesta por el físico germano-británico Kurt Mendelssohn, propone que la existencia de las pirámides era secundaria al hecho de su construcción. Mendelssohn propone que los gobernadores del recientemente unificado reino de Egipto necesitaban algún trabajo de importancia nacional para soldar a los distintos grupos regionales en un estado cohesivo y centralizado.

La teoría de Mendelssohn, propuesta en su libro “The Riddle of the Pyramids (El Enigma de las Pirámides)”, argumenta este caso muy bien y, sea cierto o no, es ciertamente lógico y explica algunos de los misterios que rodean a estas gigantescas estructuras. Esta hipótesis cae dentro de los parámetros de una especulación razonable, ya que hace muchas otras asociaciones con un periodo de la historia el cual, aunque mejor documentada que muchas otras de las épocas antiguas, está lejos de ser comprendida en profundidad.

Lo que los textos supervivientes nos dicen sobre los antiguos egipcios varía considerablemente sobre la mitología popular que los rodea. Eran gente inteligente y práctica, no dados a un excesivo misticismo lo que es un error generado por el hecho de que la mayor parte de la literatura superviviente se preocupa de la muerte, lo cual se explica por el hecho de que sus tumbas sobrevivieron al milenio en mucha mejor forma de lo que lo hicieron en las viviendas comunes.

Aunque existen pruebas claras de que los egipcios tenían suficientes conocimientos astronómicos para ser capaces de desarrollar un calendario preciso, y por tanto ser capaces de predecir los eventos anuales más importantes, las crecidas del Nilo, no hay nada que sugiera que desarrollasen la astrología, un hecho que debería hacerlos queridos para todos los escépticos.

En general, los egipcios han llegado hasta nosotros como una gente notablemente simpática, con una pizca de crueldad y brutalidad que caracteriza a muchas de las civilizaciones antiguas, y no pocas de las modernas.

No sabemos por qué las pirámides se convirtieron en una estructura tan importante para los egipcios, pero puede haber una pista en el puro pragmatismo de la forma. Una vez se ha tomado la decisión de construir a escala monumental, la pirámide tiene sentido para gente que no ha desarrollado arcos o columnas independientes. Una vez construyes una pirámide, suponiendo que lo haces adecuadamente, ésta tiende a mantenerse como está. Mantenerse es más simple que caer para una pirámide bien construida. (No es el caso para todas las formas, como algunos fornidos escépticos que atendieron a la cena de la convención anual pueden atestiguar.)

Deberíamos señalar también la afirmación que se hace comúnmente por aquellos que no saben nada sobre historia y cultura egipcia y que buscan fama y fortuna escribiendo libros que están firmemente enraizados en la ignorancia. Esta afirmación es que “sería imposible para nosotros hoy construir la Gran Pirámide”.

Esto es tanto un completo sinsentido como probablemente cierto – sinsentido porque las razones citadas recaen sobre las técnicas que se supone que tenían los antiguos egipcios y que no han vuelto a estar disponibles para la gente moderna, y cierto por una razón completamente distinta y es que sería difícil concebir a un político o director de una compañía convenciendo al electorado o a la junta sobre la conveniencia de gastar una fortuna en una estructura intrínsecamente inútil. (Los cínicos no deberían usar la nueva Casa del Parlamento como refutación de este argumento.) Esta cuestión está señalada en el libro de Ronald Story “Guardians of the Universe? (¿Guardianes del universo?)

Una empresa de construcción japonesa estimó en 1980 que el coste de erigir una réplica de la Gran Pirámide, usando técnicas modernas, tendría un coste de 563 millones de dólares. Si se usaran los métodos de trabajo intensivo de los egipcios, entonces el coste se acercaría a los 18 mil millones de dólares. Sería, efectivamente, un audaz gobierno el que sugiriese construir una pirámide como un remedio para el desempleo.

Sobre las técnicas “perdidas”, hay gran cantidad de pruebas físicas de que los egipcios tallaron las piedras, las transportaron al lugar, usaron rampas para llevarlas a la altura necesaria y moverlas una vez allí. ¿Qué técnicas se han perdido?

Otro misterio que hechiza a los que proponen las explicaciones paranormales es cómo el concepto de construcción piramidal surgió en dos culturas tan separadas con las de Egipto y América Central. La sugerencia es que los egipcios colonizaron América Central y enseñaron a los nativos cómo hacerlo.

Esta sugerencia es difícilmente sostenible cuando tenemos en cuenta unos pocos hechos.

Las pirámides de América Central fueron diseñadas para un propósito totalmente distinto a las de Egipto – ceremonial en lugar de funerario. Todas las pirámides de América Central están en un ángulo mucho menor que las egipcias y fueron diseñadas para que se pudiese escalar tras la construcción a los templos situados en su cima. En el caso de los Aztecas, los sacrificios humanos parecen haber sido una actividad principal en las pirámides, aunque posiblemente este no era el caso en los Mayas.

Los métodos de construcción difieren enormemente de los que usaron los egipcios y, generalmente, las pirámides de América Central no se usaron como monumentos o enterramientos, aunque se ha hallado una que contenía el cuerpo de algunas personas importantes.

El hecho crucial que hace que cualquier intercambio cultural parezca improbable es que las primeras pirámides de México son los llamados Templos del Sol y de la Luna en Teotihuacan, sobre los constructores de las mismas poco se conoce, pero han sido identificados por algunos místicos como las Tribus Perdidas de Israel (¡quién si no!). Estas pirámides son comparables en tamaño a las de Egipto, y datan justo antes del inicio de la época cristiana. Parecería altamente implausible que los egipcios, en las etapas finales de su larga historia, se aventurasen a dar media vuelta al mundo y enseñar a los nativos una tecnología que ellos mismos habían abandonado cerca de dos milenios antes. Es mucho más probable que el significado práctico de la forma piramidal para una construcción grande atrajera a dos culturas distintas, ninguna de las cuales había desarrollado el arco, de forma independiente.

Podemos desechar las afirmaciones pseudocientíficas de astronautas antiguos, viajeros en el tiempo y remanentes de civilizaciones previas avanzadas tecnológicamente como propugnan los seguidores de von Daniken mediante una simple explicación de los hechos que han sido descubiertos por los verdaderos arqueólogos y otros científicos. Tales afirmaciones pueden anotarse a la premeditada ignorancia por parte de los defensores. De mayor interés son algunos de los extraños cultos que leen un significado místico en las medidas de las pirámides, particularmente aquellas de la Gran Pirámide de Khufu.

Piramitos y Piramidiotas

Parecería que una fuerza motriz tras el deseo de mezclar medidas con profecías bíblicas, que llevó a muchos autores británicos del siglo XIX a atribuir una importancia injustificada a la Gran Pirámide, fue la repugnancia por el sistema métrico de medida, introducido tras la Revolución Francesa. Los británicos poco auto-respetados y temerosos de Dios iban a tomar este ejemplo de caída de la pérfida Rana atea. (Los lectores de edad media o avanzada pueden tener cierta simpatía con esta visión.)

Entre los primeros en señalar este problema fue un editor retirado, John Taylor, que creía que las pirámides habían sido construidas por Noé, siguiendo las especificaciones de Dios, y que decidió que 25 pulgadas era el tamaño del codo bíblico.

Taylor fue el primero en darse cuenta de que las dimensiones de la Gran Pirámide sugerían que los egipcios tenían conocimientos de la razón pi (la razón de la circunferencia de la pirámide a su altura da con bastante precisión la razón 1/2pi). Como era conocido que los egipcios no habían desarrollado las matemáticas a nivel teórico hasta ese punto, esto convenció a Taylor de que la Pirámide era de inspiración divina y presentó un auténtico problema para los eruditos más inclinados a la ciencia.

Una posible explicación que se ha adelantado es que, si los egipcios usaron un tambor rodante para medir largas distancias, entonces pi habría sido parte de su cómputo de una forma bastante fortuita y los egipcios habrían descubierto la razón sin ser conscientes del hecho.

Sea cual sea la verdad del tema, Taylor, que fue un partidario de la proposición de que los británicos eran descendientes de las Tribus Perdidas de Israel, estaba convencido de que la Pirámide había sido construida por estos proto-británicos. Obviamente los egipcios no pudieron hacerlo, ya que eran peores que los franceses.

Las ideas de Taylor fueron aceptadas por no menos que el Astrónomo Real de Escocia, Charles Piazzi Smyth. (El verdadero misterio en esta historia es cómo alguien con un segundo nombre que suena tan extranjero pudo ser Astrónomo Real.) Smyth había sido alumno de Sir John Herschell y, como Herschell y Taylor, se opuso al uso del sistema de medida métrico, lo que puede ayudar a la hora de tener en cuenta algunas de las extraordinarias teorías que planteó más tarde.

Al encontrar que una de las piedras de la envoltura de la Gran Pirámide tenía aproximadamente 25 pulgadas, igual al codo de Taylor, Smyth decidió que la pulgada (un vigésimo quinto de codo y aproximadamente la diezmillonésima parte del radio polar de la Tierra) debía haber sido la unidad divina de longitud. Cuando se descubrió que la piedra original estaba un poco por encima de 25 pulgadas (25,025 de hecho), Smyth propuso que la “pulgada Pirámide” de 1,001 era la auténtica unidad divina (la unidad británica presumiblemente terminó por gastarse un poco en el bolsillo de alguno de los de la Tribu Perdida).

Por supuesto esto sirvió como prueba de que el sistema de medida británico estaba inspirado por Dios, lo que era un golpe directo a esos sucios franceses. Smyth usó la pulgada pirámide y otras medidas hechas en la Gran Pirámide para calcular la densidad de la Tierra, su población y, por lo que sabemos, el ganador de la tercera de Ascot.

Es obvio que, dado el número de medidas que se podrían hacer en una descomunal estructura como la Gran Pirámide, y con unas ideas preconcebidas adecuadas, se puede llegar a la respuesta que uno quiera. Esto es lo que hizo Smyth.

Su libro, “Our Inheritance In the Great Pyramid (Nuestra herencia en la Gran Pirámide)”, contiene unas 600 páginas de estos cálculos y predicciones. El gran problema con toda esta teoría es que no se ha encontrado ninguna dimensión real de pulgada pirámide. Esto se puso de manifiesto cuando Smyth, en una visita a Egipto, encontró a un jefe de albañiles en una losa de piedra y le declaró que era el Estándar Divino. La “ciencia” de la Piramidología estaba ya firmemente establecida. Sobrevivió a la revelación de que uno de los seguidores de Smyth había sido capturado intentando convencer al jefe para que la hiciera más precisa y el descubrimiento de que las piedras que recubrían a la Gran Pirámide eran todas de distintos tamaños.

Con el mordisco firmemente entre sus dientes, Smyth y sus muchos seguidores, que incluían a los fundadores de los Testigos de Jehová, usando su Pulgada Pirámide decidieron que varias estructuras internas de la Gran Pirámide eran un registro de la historia pasada del mundo (naturalmente empezando en el 4004 a.C) y eso no era todo. Posteriores medidas demostraron que la historia futura del mundo estaba también contenida en las piedras. El final del mundo se predijo que sucedería en 1874, 1914, 1920 y 1925.

Como sucede con todas estas predicciones erróneas, cuando no tienen lugar revisa los datos para obtener una nueva fecha (ver Nostradamus). Lo que Smyth y sus seguidores estaban haciendo era retorcer los datos para lograr una salida preconcebida, una práctica que aún se usa por muchos seguidores de lo paranormal.

Smyth podía multiplicar cualquier dimensión por un número adecuadamente grande y llegar a una medida significativa, tal como la distancia al Sol derivada a partir de la altura de la Pirámide (481 pies x 1000 millones = 90 millones de millas). No muy preciso, y ciertamente no tan preciso como Dios o un viajero extraterrestre del espacio sabrían, pero ciertamente engañó a los clientes.

Desafortunadamente para Smyth, como primer personaje de fama egipcia, estaba cuidando a una serpiente en su pecho. Sus teorías, durante mucho tiempo gracias a su posición, fueron tratadas con un respeto que obviamente no se merecían. Uno de sus defensores más ardientes fue un ingeniero químico, que junto con su hijo, decidió refinar más las teorías de Smyth con medidas más precisas que necesitaban hacerse en el lugar. Los dos se pusieron a trabajar en el diseño de instrumentos más precisos para hacer las medidas lo más exactas posibles. Como esto llevó mucho tiempo, el ingeniero por fin decidió que era demasiado viejo para viajar a Egipto y su hijo fue solo. Llevó a cabo varias triangulaciones muy precisas del lugar y tuvo éxito al demostrar de forma concluyente que Smyth sólo decía tonterías.

El joven, Williarn Matthew Flinders Petrie, permaneció en Egipto para convertirse en uno de los egiptólogos más grandes de su época y ser considerado por muchos como el padre de la arqueología científica. Era, a propósito, el nieto del gran explorador de la línea costera de Australia, Matthew Flinders.

El hecho de que Smyth estaba equivocado no sirvió para disuadir de creer en sus predicciones y teorías a la gente, que continuó reciclándolas hasta hoy.

El poder de la Pirámide o mucho ruido y pocas nueces

Todo lo siguiente puede explicarse mediante la incapacidad de la gente para aceptar que las civilizaciones antiguas eran capaces de llevar a cabo trabajos importantes de construcción o que estas estructuras monolíticas eran intrínsecamente inútiles.

La siguiente fase en la saga de la piramidiocia deja el mundo de las pirámides tangibles y entra en el dominio de la forma piramidal. Más particularmente, miraremos el efecto de las pirámides en la jerga de la New Age, “energías desconocidas para la ciencia “, o euts como se referirán a ellas por razones tipográficas (por sus siglas en inglés).

Era probablemente inevitable que alguien, en algún momento, diese con la idea que la misma pirámide tenía algo que ver con el proceso de la momificación. Esta idea voló a la vista de las pruebas de cómo se llevó a cabo la momificación, incluyendo los registros dejados por los mismos egipcios, pero está de acuerdo con el pensamiento de aquellos que persisten en ver un problema que no existe.

Martin Gardner, en su libro de entretenimiento “The Magic Numbers of Dr Matrix (Los números mágicos del Dr. Matrix)”, rastrea las primeras referencias a su idea en los primeros años del siglo XX. En esa época un “ocultista francés” como lo describe Gardner descubrió que un gato muerto podía momificarse tras ser colocado en una pirámide modelo. Como pareció que no era un gran reclamo momificar gatos en el siguiente medio siglo, no se realizó más investigación sobre el tema.

Entonces, a finales de los años 50, un checo llamado Drbal afirmó que una hoja de afeitar situada bajo una pirámide de cartón mantenía su borde más afilado de lo que cabría esperar.

Más tarde encontramos a varios actores de cine (que podrían muy bien ser descendientes de las Tribus Perdidas de Israel) afirmando ser capaces de meditar mejor cuando estaban sentados bajo una pirámide. Otros han afirmado que los alimentos almacenados en una pirámide mantienen toda su frescura, los deseos se convierten en realidad si los escribes en un papel y los colocas en una pirámide, las pirámides matan a las bacterias. Esto es un tema extraordinario, si es cierto, pero, ¿cómo es de cierto?

Vamos a tener en cuenta primero a las euts, si obedecen las leyes, y cómo una pirámide puede canalizarlas.

Siempre que se reta a un pseudocientífico o a un paranormalista a explicar algún fenómeno que la ciencia anuncia como altamente improbable, responde con las euts. Aunque no deseemos sugerir que no existen cosas como las euts, no estamos muy animados a creerlos por las afirmaciones que hacen.

Parece que pueden hacer cualquier cosa y no están gobernadas por ninguna regla en absoluto. Los defensores del poder de la pirámide han afirmado que las pirámides pueden mediante su contacto, momificar la carne, mantener la comida en su estado natural y afilar cuchillas de afeitar. Parecería para el observador casual que estas tres cosas acuden a tres aplicaciones distintas de la energía.

Momificar la carne presupone una capacidad de eliminar moléculas de agua; afilar una cuchilla requiere la capacidad de añadir moléculas; y preservar la comida significa mantener el status quo. Dado que el material del que está construida la pirámide no parece afectar a ninguno de estos procesos (están disponibles en cartulina, madera, poliestireno, cobre, policarbonatos, acero y muchos otros materiales) y que parecen no tener control sobre los sistemas, ¿cómo se determina el proceso requerido? ¿Pueden las euts decidir por sí mismas que el objeto de la pirámide es un gato muerto o una cuchilla de afeitar?

Si es así, y parece la única conclusión lógica para estas afirmaciones, entonces parece que estamos tratando con alguna forma de energía sensible. Este es un concepto extraordinario y requeriría pruebas mucho más persuasivas para su existencia que las que ofrecen los defensores. ¿¡Imaginas los problemas a los que se habría enfrentado Einstein si la gravedad pudiese pensar por sí misma!?

Ahora preguntamos, “¿Qué es lo que hay inherente en la pirámide que le permite canalizar esta energía cuando otros sólidos geométricos no lo hacen?” No hemos oído hablar del Poder del Cubo o del Poder de la Esfera (aunque este artículo puede generar tales pensamientos en algunas mentes — ya ha sucedido antes). La respuesta es que no hay nada en la pirámide que debiera darnos una razón para suponer que esta forma mantiene una posición privilegiada en el mundo de los sólidos. Es más probable que los defensores de esta falacia estén seducidos por los misterios de las pirámides egipcias y que como resultado han investido a esta forma con poderes místicos.

No hay razón para creer que las pirámides ejercen algún tipo de influencia sobre la energía, sea conocida o no por la ciencia. Esto, por supuesto, no importaría si hubiese ejemplos de evidencias que “probasen” lo contrario aunque hay muchas referencias en la literatura profesional de tales evidencias es difícil encontrar referencias a alguna prueba llevada a cabo adecuadamente que dan hechos en lugar de opiniones subjetivas. Aquellas pruebas que han sido llevadas a cabo mediante la metodología de doble ciego no agradaron a los defensores del poder de la pirámide.

En una cata de vino francés en la edición de invierno de 1987-88 de The Skeptical Inquirer, el vino almacenado en las pirámides se juzgó que no era distinto en calidad del que no había sido almacenado en ellas.

Los defensores del poder de la pirámide deberían retroceder ante la única regla que se sabe que obedecen las euts. Esta es la ley que afirma que “Ningún suceso paranormal ocurrirá en un lugar que contenga a un escéptico”. Esta ley es más conocida por el título común de “El Escaqueo Psíquico”, la cual explica muchas más cosas que los problemas de las pirámides para realizar su tarea.

Para concluir esta sección sobre el poder piramidal, deberíamos referirnos a la influencia del autor estadounidense y respetado escéptico, Martin Gardner, a nivel de creencia en esta improbable forma de energía. En un artículo satírico de la edición de junio de 1974 de Scientific American, Gardner realizó un número de escandalosas afirmaciones sobre el poder de las pirámides, que estaban siendo promocionadas por su personaje el Dr Matrix. Gardner estaba sorprendido por la cantidad de correo que generó tal artículo, de gente que buscaba más detalles sobre cómo podían ayudarles las pirámides.

Algunas de las irónicas afirmaciones de Gardner aún forman parte de la tradición popular de las pirámides, por lo que no te sorprendas si el poder del cubo o la esfera se convierten en fenómenos New Age en el futuro.

Aunque no hay nada particularmente misterioso en las pirámides, ciertamente han ejercido algún tipo de influencia en la imaginación de la gente durante milenios.

Meramente leyendo sobre cómo la gente de las primeras civilizaciones emprendieron las tareas de construcción y cómo los humanos modernos han arrancado los secretos de las piedras, atraen nuestros instintos románticos. Nos hace darnos cuenta de los extraordinarios logros físicos y mentales de los que es capaz la raza humana y ha sido capaz desde el principio de la historia.

También nos hace darnos cuenta de lo limitada que debe ser la imaginación de aquellos que no pueden sentirse orgullosos de los logros de nuestra especie y que deben inventar superseres a los que acreditar aquello que han hecho los humanos.

Como escépticos, no deberíamos sentirnos ofendidos por gente como Erich von Daniken, Charles Piazzi Smyth y muchos otros. Deberíamos tener compasión por su estrechez de miras y la mezquindad de su espíritu.

[Este artículo apareció por primera vez en The Skeptic 1988 No. 3.
Barry Williams es presidente de Escépticos Australianos y tiene interés desde hace mucho tiempo en la egiptología.]



Autor: Barry Williams
Fecha Original: 13 de julio de 1990
Enlace Original

Se encuentra la verdad sobre las historias de peces monstruosos

Todos los pescadores tienen historias sobre aquel que se marchó, el pez de legendario tamaño que rompió el sedal. Un nuevo estudio sugiere por qué podrían efectivamente ser gigantes y cómo crecieron hasta ser tan enormes.

Resulta que los mismos pescadores pueden ser los responsables de estos monstruos.

Tres percas eurasiáticas (Perca fluviatilis) de una edad aproximadamente igual. Los individuos más grandes son “caníbales gigantes”, lo cual puede suceder si se sobrepescan los adultos. Crédito: P. Bystroem

Si se sobrepesca un lago o estanque, y se captura una gran cantidad de los más grandes, la situación es la oportuna para el desarrollo de los monstruos sobredimensionados, de acuerdo con un nuevo modelo por ordenador.

La investigación sugiere que la pesca de grandes peces acaba con la competencia por la comida para el resto de adultos, permitiendo a éstos atiborrarse con los peces más pequeños e inflarse hasta proporciones gigantescas. El efecto es más fuerte para los peces con tendencia al canibalismo de su propia especia. Una perca eurasiática que crezca en tal situación, por ejemplo, puede llegar a tener un tamaño cuatro veces mayor que un pez adulto de la misma edad en una zona de agua con una pesca menos intensa.

“La desestabilización de una población caníbal pueden inducir en el crecimiento de los “gigantes caníbales”, escriben los científicos en la edición de agosto de American Naturalist. Además, la población se hace menos estable y más susceptible a caer en la extinción, especialmente cuando el ratio de pesca se incrementa. Se encontró que los gigantes no se desarrollan en poblaciones virtuales en las que no hay pesca intensiva.

El efecto también se aplica a las especies de peces que no son caníbales, pero es menos pronunciado y no tiende a empujar a la población hacia la extinción, según sugieren los modelos por ordenador.

Podría ser una lección útil para los granjeros de peces.

El modelo tuvo en cuenta un rango de factores, desde la disponibilidad de alimento a los ratios reproductivos y tiempo de digestión. Cuando los investigadores sobrepescaban peces pequeños, los gigantes caníbales no se producían, pero los peces no caníbales crecían rápidamente y más grandes — una técnica que los granjeros de peces podrían usar para madurar sus especies mercantiles más rápidamente.

El trabajo fue liderado por Tobias van Kooten de la Universidad de Umea, en Umea, Suecia.


Autor: Dave Mosher
Fecha Original: 27 de julio de 2007
Enlace Original

Sorprendente nueva especie de bacterias recolectoras de luz descubiertas en Yellowstone

En los manantiales termales del Parque Nacional de Yellowstone, un equipo de investigadores ha descubierto una nueva bacteria que transforma la luz en energía química. El descubrimiento de la bacteria productora de clorofila, Candidatus Chloracidobacterium (Cab.) thermophilum, se describirá en el ejemplar del 27 de julio de la revista Science en un artículo liderado por Don Bryant, Ernest C. Pollard profesores de biotecnología del Departamento de Bioquímica y Biología Molecular en Penn State, y David M. Ward, profesor de estudios microbianos en el Instituto de Biología Termanl y el Departamento de Recursos de la Tierra y Ciencias Ambientales en la Universidad Estatal de Montana, y colegas.

El Parque Nacional de Yellowstone es conocido como la tierra de las maravillas de los turistas ya que está repleto de animales, extrañas formaciones rocosas, geíseres y coloridos manantiales termales, pero también es una reserva científica que alberga lo que podría ser la mayor diversidad de bacterias termofílica (amantes del calor) del mundo. Los hábitats de Yellowstone han sido explorados desde los años 60 buscando nuevos organismos que pueden tener aplicaciones importantes en la biotecnología, en la limpieza de contaminantes (biorremedios) o en medicina. El equipo de investigación liderado por Bryant y Ward encontró a la nueva bacteria viviendo en el mismo manantial caliente que los microbios más famosos de Yellowstone, los Thermus aquaticus, los cuales revolucionaron la medicina forense y otros campos haciendo de la reacción en cadena de la polimerasa (PCR) un procedimiento de rutina.

Extraordinariamente, el nuevo género y especies Cab. thermophilum también pertenece a un nuevo phylum, las Acidobacteria. El descubrimiento es sólo el tercero en los últimos 100 años en el que un nuevo phylum de bacterias se añade a la lista de aquellos miembros que producen clorofila. Aunque las bacterias productoras de clorofila son tan abundantes que realizan la mitad de la fotosíntesis de la Tierra, sólo cinco de los 25 grupos principales, o phyla, de bacterias eran previamente conocidas por contener miembros con esta habilidad.

“Las alfombras microbianas dan a los manantiales calientes de Yellowstone su característicos colores amarillos, naranjas, rojos, marrones y verdes”, explicó Bryant. “Los microbiólogos están intrigados por los Manatiales Octopus y Mushroom debido a que sus inusuales hábitats albergan una diversidad de microorganismos, pero muchos son imposibles de hacerlos crecer en el laboratorio. La metagenómica nos ha dado una nueva y potente herramienta para hallar estos organismos ocultos y explorar su fisiología, metabolismo y ecología”.

La metagenómica es un medio de estudiar los organismos sin tener que cultivarlos. Las muestras masivas se recogen en el entorno, entonces se aísla el ADN de las células y se secuencia mediante el llamado secuenciado shotgun a gran escala. El análisis de las secuencias de ADN revelan los tipos de genes y organismos presentes en el entorno. El equipo se centró en dos genes: el ARN ribosómico 16S, un componente crucial de la maquinaria usada por todas las células vivas para fabricar proteínas; y el gen para una proteína llamada PscA, que es esencial para convertir la luz en energía química. El ARN ribosómico 16S es distintivo en cada una de las especies.

Según comentó Bryant, “Encontrar dos nuevos genes con un ordenador no es suficiente para justificar el nombramiento de un nuevo organismo. Necesitas probar que esos genes provienen del mismo genoma”. Dado que los dos genes estaban tan cercanos en el genoma, el equipo tuvo éxito al aislarlos en un único fragmento que contenía a ambos. “Tuvimos suerte de que un anterior estudiante graduado en el laboratorio de Ward, Jessica Allewalt, ya había hecho crecer un cultivo de microbios mezclados a partir de las alfombras”, explicó Bryant, “aunque ella no se dio cuenta en ese momento de que la mezcla contenía Cab. thermophilum”.

Cab. thermophilum crece cerca de la superficie de las alfombras junto con las cianobacterias, o algas azul-verdosas,donde hay luz y oxígeno, a una temperatura de entre 50 y 66 grados Centígrados. El organismo fue hallado en tres manantiales calientes – el Manantial Mushroom, el Manantial Octopus y la Piscina Green Finger – en la Meseta de Lower Geyser, no lejos del Old Faithful Geyser.

Inesperadamente, la nueva bacteria tiene unas antenas especiales para cosechar la luz conocidas como clorosomas, que contienen aproximadamente 250 000 clorofilas cada una. No se conoce ningún miembro de este phylum ni ningún microbio aeróbico que hiciese clorosomas antes de este descubrimiento. El equipo encontró que Cab. thermophilum fabrica dos tipos de clorofila que permiten a estas bacterias prosperar en alfombras microbianas y competir por la luz con las cianobacterias.

Este descubrimiento es particularmente importante debido a que los miembros de las Acidobacteria han probado ser muy difíciles de cultivar en laboratorios, lo cual significa que su ecología y fisiología son muy poco entendidas. La mayor parte de las especies de Acidobacteria se han encontrado en suelos pobres o contaminados que son ácidos, con un pH por debajo de tres. Sin embargo, los entornos de Yellowstone son más alcalinos, aproximadamente pH 8,5 (en una escala de 1 a 14). Bryant apuntó que, “Juzgando a partir de sus secuencias de ARN de 16S, los parientes más cercanos a Cab. thermophilum se encontraron alrededor del Manantial Caliente Mammoth en Yellowstone y manantiales calientes del Tibet y Tailandia. Cuando observamos más en detalle, podemos encontrar parientes de Cab. thermophilum en las alfombras microbianas de los lugares termales de todo el mundo”.

“Encontrar un microbio productor de clorofila anteriormente desconocido es el hallazgos de una vida para una persona que ha estudiado la fotosíntesis de las bacterias tanto como yo lo he hecho (35 años)”, dijo Bryant. “¡No estaría tan excitado si hubiese llegado a la alfombra y hubiese sacado una pepita de oro del tamaño de mi puño!” Añade además, “Estoy realmente agradecido a Dave Ward por la posibilidad de trabajar con él y sus estudiantes en el parque y visitar Montana con frecuencia. Nuestra colaboración es un gran ejemplo de cómo la ciencia se convierte en algo realmente excitante cuando científicos de distintas disciplinas interactúan”.

Otros miembros del equipo son: Amaya M. Garcia Costas, actualmente estudiante graduada de Penn State; Julia A. Maresca, antigua estudiante de doctorado en Penn State y actualmente investigadora de posdoctorado en el Instituto Tecnológico de Massachusetts; Aline Gomez Maqueo Chew, antigua estudiante de doctorado en Penn State y actual investigadora de posdoctorado en la Universidad Estatal de Ohio; Christian G. Klatt, estudiante graduado de la Universidad Estatal de Montana University; Mary M. Bateson, directora del laboratorio de la Universidad Estatal de Montana; Luke J. Tallon, anteriormente director del Núcleo de Biotecnología en el Instituto para Investigación Genómica y actualmente director senior de la Dirección de Datos Genómicos y Software en la Universidad de Maryland; Jessica Hostetler, investigadora asociada en el Instituro para Investigación Genómica; William C. Nelson, anterior analista bioinformático en el Instituto para Investigación Genómica y ahora profesor asistente de investigación en la Universidad del Sur de California; y John F. Heidelberg, anterior investigador en el Instituto para Investigación Genómica y ahora profesor asociado en la Universidad del Sur de California.

Este trabajo fue financiado por dos becas de la Fundación Nacional de Ciencia, una de las cuales vino del Fronteras en el Programa de Biología Integrativa, y mediante becas del Departamento de Energía y el Programa de Exobiología de la NASA. El Instituto de Biología Termal de la Universidad Estatal de Montana también proporcionó apoyo para Don Bryant, quien comenzó su trabajo como profesor invitado en la MSU en 2005.


Autor: Barbara Kennedy
Fecha Original: 26 de julio de 2007
Enlace Original

Más apoyo para la teoría cuántica: Los opuestos interfieren

Los científicos han demostrado que incluso aunque dos partículas electrónicas provengan de fuentes completamente diferentes y nunca interactúen entre sí, la acción de una está inextricablemente ligada a la otra, demostrando de nuevo el éxito de la teoría cuántica.

En un experimento clásico de física, los fotones (partículas ligeras), electrones, o cualquier otra partícula cuántica son disparados, uno cada vez, contra una hoja con dos rendijas que se sitúa frente a una placa de registro. Para los fotones, una placa fotográfica revela un patrón oscilatorio (bandas de luz y oscuridad) – una señal de que cada partícula, comportándose como una onda, ha pasado de algún modo a través de ambas rendijas simultáneamente e interfirió, cancelando la luz en algunos lugares y aumentándola en otros.

Si una partícula cuántica individual puede existir en dos lugares a la vez, e interfiere con ellos en patrones predecibles, lo que sucede cuando hay dos partículas cuánticas es que “Pueden interferir entre sí”. El Prof. Mordehai Heiblum del Departamento de Materia Condensada del Instituto Weizmann y su equipo de investigación ha estado experimentando con electrones disparados a través de unos dispositivos semiconductores especiales.

La mecánica cuántica predice que dos electrones pueden, en efecto, causar el mismo tipo de interferencia que un único electrón – con una condición: que los dos sean idénticos hasta el punto de ser indistinguibles. Heiblum y su equipo demostraron que, debido a tal interferencia, estas dos partículas están entrelazadas – las acciones de una están inextricablemente ligadas a las acciones de la otra – incluso aunque vengan de fuentes completamente distintas y nunca interactúen entre sí. Los hallazgos del equipo aparecieron recientemente en la revista Nature.

El Dr. Izhar Neder y Nissim Ofek, junto con el Dr. Yunchul Chung, la Dra. Diana Mahalu y el Dr. Vladimir Umansky, dispararon tales electrones idénticos desde lados opuestos del dispositivo hacia los detectores que estaban colocados en un lateral del dispositivo. En otras palabras, cada par de detectores podría detectar la llegada de dos partículas de una de las dos formas: partícula 1 en el detector 1 y partícula 2 en el detector 2, o, también, partícula 2 en el detector 1 y partícula 1 en el detector 2. Dado que estas dos “elecciones” son indistinguibles, , las “elecciones” interfieren entre sí de la misma forma que una partícula cuántica única interfiere en los dos posibles caminos.

Los científicos han investigado cómo la “elección” de una partícula afecta al camino tomada por la otra, y encontraron una fuerte correlación entre ellas. Estas correlaciones podrían estar afectadas por cambios, por ejemplo, en la longitud del camino tomado por una partícula. Esta es la primera vez que se observa un patrón de interferencia oscilante entre dos partículas idénticas, probando, de nuevo, el éxito de la teoría cuántica.

La investigación del Prof. Mordehai Heiblum estuvo apoyada por el Centro de Investigación Submicrométrica Joseph H. y Belle R. Braun; la Fundación Benéfica de la Familia Wolfson; Hermann Mayer y Dan Mayer; y Mr. Roberto Kaminitz, Sao Paulo, Brasil. El Prof. Heiblum es el titular de la Cátedra de Profesor Alex e Ida Sussman en Electrónica Submicrométrica.


Fecha Original: 26 de julio de 2007
Enlace Original

Chandra captura agujeros negros “piraña”

Estos dos cúmulos galácticos, conocidos como CL 0542-4100 y CL 0848.6+4453, son parte de una muestra usada para contar la fracción de galaxias con agujeros negros de rápido crecimiento, también conocidos como núcleos galácticos activos (AGN). En las imágenes de Chandra de estos dos cúmulos galácticos, el rojo corresponde a los rayos-X de baja energía, el verde a energía intermedia, y el azul a rayos-X de alta energía. En cada uno de estos dos campos, se encontraron cinco AGN, aunque uno de ellos puede no ser miembro del cúmulo. Muchos de los AGN son fuentes azules, como se esperaba, dado que se sabe que los AGN producen muchos rayos-X de alta energía. La emisión difusa es gas caliente del cúmulo, y otras fuentes puntuales en la imagen casi no tienen relación con el cúmulo galáctico.

Los datos mostraron, por primera vez, que las galaxias jóvenes más distantes contenían muchos más AGN que las más antiguas y cercanas. Los cuatro cúmulos galácticos vistos en la muestra distante, incluyendo los dos que se muestran aquí, se ven cuando el universo tenía sólo el 58% de su edad actual. La muestra cercana de cúmulos galácticos, obtenida en un estudio anterior, se ve a un 82% de la actual edad del universo. Se encontró que los cúmulos más distantes contenían unas 20 veces más AGN que las muestras menos distantes. Los cúmulos exteriores de AGN son también más comunes cuando el universo es más joven, pero sólo en factores de dos o tres sobre el mismo intervalos de edad.

La razón para esta diferencia es que al inicio de la historia del universo, estas galaxias contenían mucho más gas para la formación de estrellas y el crecimiento de agujeros negros que los cúmulos de galaxias de hoy. Había tanto combustible en los cúmulos jóvenes que los agujeros negros similares a pirañas fueron capaces de crecer con fuerza mucho antes que sus homólogos en los cúmulos cercanos.


Autor: Jennifer Morcone / Megan Watzke
Fecha Original: 24 de julio de 2007
Enlace Original

Nueva partícula explica el extraño comportamiento de los superconductores de cobre

Las nuevas partículas fundamentales no se encuentran sólo en el Fermilab y otros aceleradores de partículas. También pueden encontrarse ocultos en piezas planas de cerámica, informan los científicos de la Universidad de Illinois.

La nueva partícula recientemente formulada es un bosón con una carga de 2e, pero que no consta de dos electrones, dicen los científicos. La partícula surge de las fuertes interacciones repulsivas entre los electrones, y proporciona otra pieza para el puzzle de la superconductividad a alta temperatura.

Hace veintidós años, se descubrió la superconductividad a alta temperatura en cerámicas de óxido de cobre (cupratos).Las explicaciones existentes sobre superconductividad se han demostrado inadecuadas, debido a que al contrario que los superconductores a baja temperatura, que son metales, los materiales padre a partir de los que surgen los superconductores de alta temperatura son aislantes.

Ahora, una nueva teoría sugiere que algo se ha pasado por alto. “Oculta en los materiales de óxido de cobre hay una nueva partícula, un bosón con una carga de 2e”, dijo Philip Phillips, profesor de física en Illinois.

Sorprendentemente, este bosón no se forma a partir de excitaciones elementales – es decir, electrones e iones. En lugar de esto, la partícula surge como un remanente de las interacciones fuertes entre los electrones en estado normal.

“Las escalas de alta y baja energía están inextricablemente acopladas en los cupratos”, dijo Phillips. “Normalmente, cuando eliminas un único electrón de la mayor parte de los sistemas, se crea un estado vacío. En los cupratos, sin embargo, cuando eliminar un electrón, se crean dos estados vacíos – ambos tienen lugar a baja energía, pero paradójicamente, uno de los estados proviene de la escala de alta energía”.

Se informó de las pruebas experimentales para este fenómeno de “uno a dos” por primera vez en 1990 y se explicó fenomenológicamente por el físico de la Universidad de Groningen George A. Sawatzky (ahora en la Universidad de British Columbia) y sus colegas. Lo que faltaba era una teoría de baja energía que explicó cómo podría un estado de alta energía vivir en baja energía.

Phillips, junto al profesor de física Robert G. Leigh y el estudiante graduado Ting-Pong Choy, han construido tal teoría, y han demostrado que un bosón con carga de 2e hace posible todo esto.

“Cuando este bosón de 2e se une a un hueco, el resultado es un nuevo estado electrónico que tiene una carga de e”, dijo Phillips. “En este caso, el electrón es una combinación de este nuevo estado y el estándar, estado de baja energía. Los electrones no son tan simples como pensamos”.

El nuevo bosón en un ejemplo de un fenómeno emergente – algo que no puede verse en sus constituyentes, pero que está presente cuando los constituyentes interactúan entre sí.

Construyendo una teoría de los cupratos de baja energía, los investigadores han dado un paso adelante en el camino de desvelar los misterios de la superconductividad a alta temperatura.

“Hasta que no comprendamos cómo se comportan estos materiales en su estado normal, no podremos comprender el mecanismo que hay tras la superconductividad a alta temperatura”, dijo Phillips.

Phillips, Leigh y Choy presentaron sus pruebas matemáticas en un reciente artículo publicado en la revista Physical Review Letters. La Fundación Nacional de Ciencia proporcionó parte de los fondos para este trabajo.


Autor: James E. Kloeppel
Fecha Original: 17 de julio de 2007
Enlace Original

El final de todo

Se puede decir que los humanos tenemos una visión a corto plazo de las cosas. Nos preocupamos por el final del verano, el próximo curso escolar, y tal vez, incluso por la jubilación. Pero estas cosas son sólo un parpadeo en términos cósmicos. Vamos a pensar verdaderamente a lo grande, mirando al futuro, y pensando en el futuro que aguarda al universo. Miremos millones, billones e incluso 10100 años en el futuro. Vamos a considerar el final de todo.

El final de la humanidad – 10 000 años

Los humanos modernos tuvieron su origen en África hace unos 200 000 años. Desde entonces hemos ido habitando cada rincón del globo. Pero esto es temporal. La gran mayoría de especies que han vivido alguna vez sobre la Tierra están ahora extintas. Pensar que los humanos podemos evitar el destino de otras criaturas es arrogante. Como para toda la vida en la Tierra, nuestro tiempo es limitado. ¿Cuánto duraremos?

Existe muchos desastres naturales y provocados por el hombre que podrían acabar con nosotros. Desde el impacto de un asteroide a una pandemia global; del calentamiento global a la detonación de una supernova – existen muchas formas de que pueda suceder. Tal vez no veamos envueltos en un evento de extinción masiva, como el que acabó con los dinosaurios hace 65 millones de años, o “la Gran Mortandad”, hace 251 millones de años que mató al 70% de las especies terrestres y al 96% de las marinas.

Tal vez otras especies (ratas o cucarachas inteligentes) evolucionarán y competirán por nuestro nicho. O tal vez diseñaremos nuestros reemplazos robóticos.

Pero las especies pueden durar decenas o cientos de millones de años. Por lo que, ¿cómo se puede predecir cuando llegará nuestra hora?

No hay forma de saberlo, pero hay un cálculo que puede ayudarnos. Es el llamado Argumento del Día del Juicio, desarrollado en 1983 por el astrofísico Brandon Carter. De acuerdo con Carter, si se supone que la mitad de los humanos que alguna vez vivirán en la Tierra, ya han nacido, tienes aproximadamente 60 mil millones de personas. Si se supone que otros 60 mil millones están por nacer, nuestros altos niveles de población sólo nos dejan unos 9000 años o así. O más precisamente, hay un 95% de posibilidades de que la humanidad haya acabado para el año 11 000.

Existen otros cálculos, pero dan cantidades similares, desde unos pocos miles de años a varios millones de años.

Es mucho tiempo, pero no lo bastante para apreciar el futuro que tiene reservado el universo para sí mismo.

El final de la vida – de 500 millones de años a 5 mil millones de años

Damos gracias al Sol, por proporcionarnos energía. Sin ella, no habría vida en la Tierra. Es irónico, entonces, que el Sol sea finalmente el que acabará con toda la vida de la Tierra.

Esto es debido a que el sol está calentándose lentamente.

Uno de los libros más fascinantes sobre este tema es The Life and Death of Planet Earth (Vida y Muerte del Planeta Tierra) de Peter Ward y Donald Brownlee. En su libro, cuentan cómo la generación de energía en el Sol crece lentamente. Tan pronto como dentro de 500 millones de años, las temperaturas en la Tierra subirán hasta el punto de que la mayor parte del mundo será un desierto. Las criaturas más grandes no serán capaces de sobrevivir en ningún lugar salvo en los relativamente fríos polos.

A lo largo del curso de los siguientes miles millones de años, la evolución parecerá invertirse. Los organismos más grandes y menos tolerantes al calor morirán, dejando a los más resistentes insectos y bacterias. Finalmente, habrá tanto calor en la superficie de la Tierra que los océanos hervirán. No habrá ningún lugar donde esconderse de las terribles temperaturas. Sólo los organismos que viven en las profundidades del subsuelo sobrevivirán, como ya han hecho durante miles de millones de años.

El final de la Tierra – 7,5 mil millones de años

Como mencionamos más arriba, existimos por las bendiciones del Sol. Pero cuando nuestra estrella se acerque al final de su vida, nuestro planeta seguirá el mismo camino; de una forma u otra.

En aproximadamente 5 mil millones de años desde ahora, el Sol comenzará la etapa final de su vida, consumiendo el final de su reserva de combustible de hidrógeno. En este punto, la gravedad llevará al Sol al colapso, y sólo una pequeña cantidad de hidrógeno permanecerá en una cubierta enrollada alrededor del núcleo de la estrella. Entonces se expandirá en una estrella roja gigante, consumiendo a cada uno de los planetas interiores: primero Mercurio, luego Venus, y por fin sobrepasando incluso la órbita de la Tierra.

Existe una controversia sobre si el Sol en su fase de gigante roja quemará la Tierra. En algunos escenarios, el cambio en la densidad del Sol cuando se expande provoca que la Tierra se aleje en espiral de Sol, quedando fuera del alcance. En otro escenario, la envoltura externa del Sol cubrirá la Tierra. La fricción adicional frenará la Tierra, provocando que caiga en espiral hacia el Sol.

Sea cual sea el resultado, la Tierra será chamuscada en cenizas, y efectivamente destruida en 5 mil millones de años.

El final del Sol – de 7,5 mil millones de años a 1 billón de años

Cuando el Sol se convierta en una gigante roja, será sólo el principio del fin. Con el final del hidrógeno, el Sol tendrá que empezar a fusionar helio, luego carbono, y finalmente oxígeno. En este punto, nuestro Sol carecerá de la gravedad suficiente para continuar el proceso de fusión. Se apagará, y se despojará de sus capas exteriores para formar una nebulosa planetaria, tal como la nebulosa anillo que podemos ver en el cielo nocturno. Estará entonces condenada a vivir el resto de sus días como una enana blanca.

Retendrá la mayor parte de su masa, pero no tendrá un tamaño mayor que el diámetro de la Tierra. En una ocasión amarillo y caliente por el calor de fusión, el Sol lentamente se enfriará con el tiempo. Finalmente, si temperatura se igualará con la del fondo del universo y se convertirá en una fría enana blanca – un inerte pedazo de materia flotando en la oscuridad del espacio.

Incluso las enanas blancas más viejas siguen radiando a varios miles de grados Kelvin Kelvin, por lo que no ha es o bastante antiguo para que existan las enanas negras… aún. Pero dando al Sol otro billón de años aproximadamente, deberían convertirse finalmente en una enana negra fría.

El final del Sistema Solar

Incluso aunque el Sol los habrá quemado dentro miles de millones de años, los planetas que no se consuman permanecerán. Tal vez incluso la Tierra se unirá a tal grupo. Con certeza Júpiter, Saturno, el resto de planetas exteriores y los objetos del Cinturón de Kuiper permanecerán en órbita durante eones.

Un descubrimiento reciente, publicado en la revista Science, informó que los astrónomos habían descubierto un disco de material metálico de rotación rápida orbitando una enana blanca. Los investigadores construyeron una simulación donde colocaron planetas hipotéticos en órbita alrededor de una estrella moribunda, y encontraron que la muerte de la estrella provoca el caos en la estabilidad del sistema estelar. Los cambios en la masa de la estrella provoca que los planetas colisionen, y reordenen sus órbitas. Algunos caen en espiral hacia su estrella, mientras que otros son expulsados al espacio interestelar.

Una vez que se realizan todas estas interacciones gravitatorias, todo lo que terminaría en nuestro Sistema Solar es la enana blanca remanente de nuestro Sol y el rápido disco rotante de restos planetarios alrededor de él. Todo lo demás se perderá en el espacio interestelar.

El final de la cosmología – 3 billones de años desde ahora

El universo funciona como una máquina del tiempo natural. Dado que la luz se mueve a la velocidad de, bueno, de la luz, podemos observar objetos distantes y ver cómo eran en el pasado. Mira a los últimos rincones del universo visible y verás la luz que se emitió hace miles de millones de años, poco después del Big Bang.

Es útil, pero es un problema. Esta misteriosa fuerza de la energía oscura, que está acelerando la expansión del universo está haciendo que las galaxias más distantes se muevan cada vez más rápido alejándose de nosotros. Finalmente, cruzarán el horizonte de eventos y parecerán estar alejándose de nosotros más rápido que la velocidad de la luz. En este punto, cualquier luz emitida por la galaxia dejará de llegar hasta nosotros. Cualquier galaxia que cruce este horizonte se apagará poco a poco de nuestra visión, hasta que el último fotón nos alcance. Todas las galaxias desaparecerán de nuestra vista para siempre.

De acuerdo con un artículo de investigación de Lawrence M. Krauss y Robert J. Scherrer, los futuros astrónomos que vivan dentro de 3 billones de años sólo verán nuestra galaxia cuando miren al cielo por la noche.

Esta expansión acelerada tiene otra consecuencia también. La radiación del fondo de microondas cósmico, que los astrónomos usan para descubrir pruebas del Big Bang también habrá desaparecido. No sólo eso, sino que la abundancia de compuestos químicos, que encaja precisamente con las cantidades teorizadas para el Big Bang quedarán ocultos por la subsiguiente generación de estrellas.

Y, por tanto, dentro del 3 billones de años, no habrá ningún rastro del Big Bang. Ninguna pista para los futuros cosmólogos de reconocer que el universo en que vivimos empezó en un punto único, y que se ha expandido desde entonces. El universo parecerá estático y sin cambios.

El final de la Vía Láctea

Las galaxias colisionan. Todo lo que tienes que hacer es mirar al espacio con un telescopio y ver el destino que le espera a nuestra galaxia. En todas direcciones podemos ver interacciones entre la gravedad de distintas galaxias. Al principio los encuentros son violentos; la galaxias se desgarran entre sí, quitándose material, y generando descomunales franjas de formación estelar. Los agujeros negros supermasivos latentes en sus centros vuelve a la vida y se convierten en núcleos galácticos activos, tragándose el material recientemente llevado.

Nuestro futuro compañero de fusión viene lanzado hacia nosotros ahora mismo: Andrómeda. En aproximadamente 2 mil millones de años desde ahora, nuestras dos galaxias colisionarán, y se separarán. Entonces empezarán a colisionar una vez tras otra hasta que se conformen en una nueva galaxia mayor: Lactómeda. Los agujeros negros supermasivos se orbitarán entre sí, y finalmente se fusionarán en un agujero negro incluso más masivo.

Nuestra posición en la galaxia cambiará; probablemente seamos empujados a los límites exteriores del halo galáctico – al menos a 100 000 años luz del centro. Dado que el Sol aún durará miles de millones de años, las futuras formas de vida de la Tierra podrían estar en los alrededores para observar el desarrollo de estos eventos.

El proceso de fusión se completará aproximadamente en 7 mil millones de años.

Este no es el final de la galaxia, sin embargo. Seguirá siendo una isla en el espacio, con estrellas orbitando alrededor de un núcleo central. Durante un periodo de tiempo, no obstante, estimado entre 1019 y 1020 años, la galaxia se erosionará, con todas las estrellas escapando al espacio galáctico.

El final de las estrellas – 100 billones de años desde ahora

Podemos observar a la Vía Láctea y ver las estrellas que se forman a nuestro alrededor. Aún existe una gran cantidad de gas y polvo en la Vía Láctea para crear toda una nueva generación de estrellas. Pero cuando miramos a otras galaxias, podemos ver galaxias elípticas más antiguas que ya han usado su gas y polvo libre. En lugar de las brillantes y calientes estrellas que vemos en las regiones de formación estelar, estas viejas galaxias rojas se están enfriando.

Un día no habrá estrellas de nueva formación en absoluto. Y entonces, un día, la última estrella usará su último combustible de hidrógeno, convirtiéndose en una gigante roja y apagándose lentamente en una enana blanca. Incluso las estrellas más tenues, las frías enanas rojas acabarán con su combustible – aunque, eso podría llevarles otros 10 billones de años más o menos. También se convertirán en enanas negras.

Y por tanto, en unos 100 billones de años, cada estrella del universo, grandes y pequeñas, serán enanas negras. Un trozo de materia inerte con la masa de una estrella pero a la temperatura de fondo del universo.

El final de la materia normal – 1030 años

Por tanto tenemos un universo sin estrellas, sólo frías enanas negras. También habrá estrellas de neutrones y agujeros negros como sombras de los que en un tiempo fueron estrellas en el universo. El universo será completamente oscuro.

Un observador futuro notaría algún flash ocasional, cuando algunos objetos interactúan con un agujero negro. Su materia se dispersará en un disco de acreción alrededor del agujero negro. Y, por un breve periodo de tiempo, brillará, emitiendo radiación. Pero entonces también será añadido a la masa del agujero negro. Y todo volverá a ser oscuro de nuevo.

Pedazos de materia y enanas negras binarias se fusionarán entre sí para crear nuevos agujeros negros, y estos agujeros negros serán consumidos por agujeros negros mayores. Podría ser que en el futuro lejano, toda la materia exista en unos pocos agujeros negros verdaderamente masivos.

Pero incluso si la materia escapa a este destino, está finalmente condenada. Algunas teorías físicas predicen que los protones son inestables a lo largo de largo periodos de tiempo. Simplemente no sobrevivirán. Cualquier materia que no fuese consumida por un agujero negro empezaría a decaer. Los protones se convertirán en radiación, dejando una fina neblina de electrones, positrones, neutrinos y radiación dispersa por el espacio.

Los teóricos anticipan que todos los protones del universo decaerán al cabo de 1030 años.

El final de los agujeros negros – 10100 años

Los agujeros negros se pensaba que eran calles de un sólo sentido. La materia entra, pero no vuelve a salir. Pero el famoso astrofísico Stephen Hawking le dio la vuelta a este concepto en su cabeza con su teoría de que los agujeros negros pueden evaporarse. No es mucho, y no es rápido, pero los agujeros negros liberan una diminuta cantidad de radiación de vuelta al espacio.

Conforme se libera esta radiación, el agujero negro verdaderamente pierde masa, evaporándose finalmente por completo. La cantidad de radiación se incrementa conforme el agujero negro pierde masa. Es realmente posible que pudiera generar un estallido final de rayos-X y rayos gamma cuando desaparezca por completo. Los observadores futuros (los que hayan sobrevivido al decaimiento de los protones) podrían ver los falsees ocasionales en un universo que de otro modo sería oscuro.

Y entonces, en unos 10100 años, el último agujero negro se habrá marchado. Todo lo que permanece es la radiación emitida.

El final de Todo – 10100 años y más allá

Cuando el último agujero negro se evapore, todo lo que quedará en el universo serán fotones de radiación, y partículas elementales que escaparon a la captura de los agujeros negros. La temperatura de todo el universo alcanzará una temperatura final apenas por encima del cero absoluto.

La energía oscura puede desempeñar algún papel en el futuro, continuando la expansión del universo, acelerando cada una de estas partículas elementales y fotones dejándolas incomunicadas entre sí. Ninguna gravedad futura los reunirá de nuevo.

Tal vez haya otro Big Bang algún día. Tal vez el universo es cíclico y todo el proceso comience de nuevo.

Tal vez no, y este sombrío futuro de un universo frío y muerto sea todo lo que nos espera. No es divertido, pero es sobrecogedoramente inspirados considerar el largo futuro que tenemos por delante, y nos ayuda a apreciar la vibrante época en la que vivimos hoy.


Autor: Fraser Cain
Fecha Original: 25 de julio de 2007
Enlace Original

Estrella supergigante escupe moléculas necesarias para la vida

Astrónomos de la Universidad de Arizona, que están investigando el entorno rico en oxígeno alrededor de una estrella supergigante con uno de los radiotelescopios más sensibles del mundo, han descubierto unas decenas de moléculas que incluyen compuestos necesarios para la vida.

Chorros de moléculas indicados por flechas azules y rojas, fluyen desde la estrella supergigante VY Canis Majoris fotografiados por el Telescopio Espacial Hubble. La flecha azul (abajo a la derecha) muestra la ligera desviación del chorro desde la dirección hacia nosotros. La cola nebulosa curvada (CNT) y la flecha roja (arriba a la derecha) muestran el abanico de material que fluye alejándose de nosotros y hacia el lado. Las flechas blancas y el círculo transparente muestran el flujo esférico general de materia. (Ilustración: UA Observatorio Steward)

“Creo que nadie habría podido predecir que VY Canis Majoris es una fábrica molecular. Era realmente inesperado”, dijo la Directora del Observatorio de Radio de Arizona (ARO) Lucy Ziurys, profesora de astronomía y de química en la UA. “Todos pensamos que la química interesante en las nubes de alrededor de las estrellas viejas sucedía en capas alrededor de las más cercanas estrellas ricas en carbono”, dijo Ziurys. “Pero cuando empezamos a observar más de cerca por primera vez un objeto rico en oxígeno, empezamos a encontrar todas esas cosas interesantes que se suponía que no debían estar allí”.

VY Canis Majoris, uno de los objetos infrarrojos más luminosos en el cielo, es una estrella vieja a unos 5000 años luz de distancia. Es medio millón de veces más luminosa que el Sol, pero brilla en su mayor parte en el infrarrojo debido a que es una estrella fría. Es verdaderamente “supergigante” — 25 veces más masiva que el Sol y tan enorme que llenaría la órbita de Júpiter. Pero la estrella está perdiendo masa tan rápidamente que en un millón de años – un parpadeo astronómico – desaparecerá. La estrella se ha desprendido ya de una buena parte de su atmósfera, creando a su alrededor una capa que contiene aproximadamente el doble del oxígeno que de carbono.

Ziurys y sus colegas no han llegado a la mitad del camino en su investigación de VY Canis Majoris, pero ya han publicado en la revista Nature (ejemplar del 28 de junio), acerca de sus observaciones de unas decenas de compuestos químicos. Estos incluyen algunas moléculas que los astrónomos nunca han detectado alrededor de estrellas y que son necesarias para la vida.

Entre las moléculas que Ziurys y su equipo informaron en Nature se encuentran la sal común (NaCl); un compuesto llamado nitruro de fósforo (PN), que contiene dos de los cinco ingredientes más necesarios para la vida; moléculas de HNC, que es una variante de la forma de la molécula orgánica, cianido de hidrógeno; y una forma de ión molecular del monóxido de carbono con un protón asociado (HCO+). Los astrónomos han encontrado muy poco fósforo o química de moléculas iónicas en los flujos de salida de las estrellas frías hasta ahora.

“Pensamos que finalmente estas moléculas fluirán de la estrella al medio interestelar, que es el gas difuminado entre las estrellas. Este gas finalmente colapsa en nubes moleculares más densas, y a partir de éstas se forman finalmente los sistemas solares”, dijo Ziurys.

Los cometas y meteoritos aportan unas 40 000 toneladas de polvo interestelar cada año. No seríamos formas de vida basadas en el carbono de lo contrario, apunta Ziurys, debido a que la Tierra joven perdió todo su carbono original en forma de metano atmosférico.

“El origen del material orgánico de la Tierra – los compuestos químicos que nos forman a ti y a mi – probablemente vinieron del espacio interestelar. Por lo que se puede decir que el origen de la vida en realidad comenzó en los compuestos químicos alrededor de objetos como VY Canis Majoris”.

Los astrónomos estudiaron previamente a VY Canis Majoris con telescopios ópticos e infrarrojos. “Pero esto es era como bucear con un cuchillo de carnicero para ver lo que hay allí cuando lo que necesitas es un tenedor de ostras”, dijo Ziurys.

El Telescopio Submilimétrico de 10 metros (SMT) del Observatorio de Radio de Arizona en el Monte Graham, Arizona, sobresale como un “tenedor de ostras” estelar sensible. Cada molécula química posee una frecuencia de radio única. Los astrónomos identifican las firmas únicas de radio de los compuestos químicos en trabajos de laboratorio, permitiéndoles identificar a las moléculas en el espacio.

El equipo de ARO comenzó recientemente a probar un nuevo receptor en colaboración con el Observatorio Nacional de Radio Astronomía. El receptor fue desarrollado como un prototipo para el Gran Conjunto Milimétrico de Atacama, un telescopio en construcción en Chile. El receptor de último tecnología ha dado al SMT 10 veces más sensibilidad en longitudes de onda milimétricas que cualquier otro radio telescopio. El SMT ahora puede detectar emisiones más débiles que una bombilla normal a distancias espaciales en frecuencias muy precisas.

El equipo de la UA ha descubierto que las moléculas no sólo están fluyendo hacia fuera como una esfera de gas alrededor de VY Canis Majoris, sino también está arrojando chorros a través de la envoltura esférica.

“Las señales que recibimos muestran no sólo qué moléculas se ven, sino cómo se mueven las moléculas hacia y alejándose de nosotros”, dijo Stefanie Milam, una reciente doctora graduada en el equipo de ARO.

Las moléculas que fluyen desde VY Canis Majoris trzan vientos complejos en tres flujos de salida: el general, el flujo esférico desde la estrella, un chorro de materia lanzado hacia la Tierra, y otro chorro disparado en un ángulo de 45 grados alejado de la Tierra.

Los astrónomos han visto anteriormente flujos de salida bipolares desde las estrellas, pero no dos sin conexión, asimétricos y aparentemente aleatorios, dijo Ziurys.

Ziurys dijo que cree que los dos chorros aleatorios son la prueba de lo que anteriores astrónomos propusieron que eran “supergránulos” que se forman en estrellas muy masivas, y que se han visto en Betelgeuse. Los supergránulos son descomunales células de gas que se forman en el interior de la estrella, entonces flotan a la superficie y son eyectados fuera de la estrella, donde se enfrían en el espacio y forman moléculas, creando chorros de flujos de salida con ciertas composiciones moleculares.

A finales de los años 60, nadie creía que las moléculas podrían sobrevivir a los hostiles entornos del espacio. Se suponía que la radiación ultravioleta reducía la materia a átomos e iones atómicos. Ahora los científicos concluyen que al menos la mitad del gas en el espacio entre las estrellas en un radio de 33 años luz del interior de la galaxia es molecular, dijo Ziurys. “Nuestros resultados son más pruebas de que vivimos en un universo verdaderamente molecular, en oposición a uno atómico”, dijo Ziurys.

El Observatorio de Radio de Arizona (ARO) dispone y maneja dos radio telescopios en el sur de Arizona: el antiguo Telescopio NRAO de 12 metros (KP12m) situado a 80 kilómetros al suroeste de Tucson en Kitt Peak y el Telescopio Submilimétrico (SMT) situado en el Monte Graham cerca de Safford, Arizona. Los telescopios son manejados las 24 horas del día 10 meses al año para un total de 10 000 horas de observación por año. Unas 1500 horas se dedican a longitudes de onda submilimétricas en el SMT. Las oficinas de ARO están centralmente situadas en el edificio del Observatorio Steward en el campus de la UA en Tucson.


Autor: Lori Stiles
Fecha Original: 23 de julio de 2007
Enlace Original

¿Planetas con cuatro padres?

Spitzer encuentra pruebas de una extraña familia estelar.

¿Cuántas estrellas se necesitan para que “surja” un planeta? En nuestro Sistema Solar, sólo se necesitó una – nuestro Sol. Sin embargo, una nueva investigación del Telescopio Espacial Spitzer de NASA demuestra que los planetas a veces pueden formarse en sistemas de hasta cuatro estrellas.

Concepto artístico del sistema HD 98800 NASA/JPL-Caltech/T. Pyle (SSC-Caltech)

Los astrónomos usaron la visión infrarroja de Spitzer para estudiar un disco de polvo que gira alrededor de una pareja de estrellas en el sistema cuádruple HD 98800. Tales discos se cree que dan lugar a los planetas. En lugar de un disco continuo y suave, el telescopio detectó huecos que podrían estar causados por una relación gravitatoria única entre las cuatro estrellas del sistema. Como alternativa, los huecos podrían indicar planetas que ya han comenzado a formarse, esculpiendo senderos en el polvo.

“Los planetas son como aspiradoras cósmicas. Limpian toda la suciedad en su camino alrededor de la estrella central”, dijo la Dra. Elise Furlan, del Instituto de Astrobiología de la NASA en la Universidad de California en Los Ángeles. Furlan es el autor principal de un artículo que ha sido aceptado para su publicación en la revista The Astrophysical Journal.

HD 98800 tiene unos 10 millones de años de antigüedad, y está localizado a 150 años de luz de distancia en la constelación TW Hydrae.

Antes de que Spitzer fijase su vista en HD 98800, los astrónomos tenían una idea general de la estructura del sistema a partir de observaciones con telescopios terrestres. Sabían que el sistema contenía cuatro estrellas, y que las estrellas están emparejadas en dobletes, o binarias. Las estrellas en el par binario orbitan entre sí, y los dos pares se orbitan el uno al otro como en una coreografía de bailarinas. Uno de los pares estelares, llamado HD 98800B, tiene un disco de polvo alrededor de él, mientras que en otro par no tiene ninguno.

Aunque las cuatro estrellas están unidas gravitatoriamente, la distancia que separa los dos pares de estrellas binarias es de unas 50 unidades astronómicas (UA) – ligeramente mayor que la distancia media entre el Sol y Plutón. Hasta ahora, las limitaciones tecnológicas han dificultado los esfuerzos de los astrónomos por observar más de cerca el disco de polvo alrededor de HD 98800B.

Con Spitzer, los científicos han logrado por fin una visión detallada. Usando el espectrómetro infrarrojo del telescopio, el equipo de Furlan detectaron la presencia de dos cinturones en el disco hechos de grandes granos de polvo. Un cinturón se sitúa aproximadamente a 5,9 UA de la binaria central, HD 98800B, o aproximadamente la distancia del Sol a Júpiter. Este cinturón está probablemente hecho de asteroides o cometas. El otro cinturón se sitúa ente 1,5 y 2 UA, comparable al área donde se sitúan Marte y el cinturón de asteroides, y probablemente consta de granos finos.

“Generalmente, cuando los astrónomos ven huecos como este en un disco, sospechan que un planeta ha limpiado el camino. Sin embargo, dada la presencia de la pareja de estrellas sin disco situadas a 50 UA, las partículas de polvo que migraron hacia el interior están sujetas a fuerzas complejas y variables con el tiempo, por tanto, en este punto, la existencia de un planeta es sólo especulación”, dijo Furlan.

Los astrónomos creen que los planetas se forman como bolas de nieve a lo largo de millones de años, cuando pequeños granos de polvo se unen entre sí para formar cuerpos más grandes. Algunas de estas rocas cósmicas impactan entre sí para formar planetas rocosos, como la Tierra, o los núcleos para los planetas gaseosos gigantes como Júpiter. Las grandes rocas que no forman planetas a menudo se convierten en asteroides o cometas. Cuando estas estructuras rocosas colisionan violentamente, trozos de polvo son liberados al espacio. Los científicos pueden ver estos granos de polvo con los ojos infrarrojos supersensibles de Spitzer.

De acuerdo con Furlan, el polvo generado por la colisión de los objetos rocosos en el cinturón exterior debería finalmente migrar hacia el interior. Sin embargo, en el caso de HD 98800B, las partículas de polvo no rellenan uniformemente el disco interior como se esperaba, debido a planetas o al par estrellas binarias sin disco situadas a 50 UA y que influyen gravitatoriamente en el movimiento de las partículas de polvo.

“Dado que muchas estrellas jóvenes se forman en sistemas múltiples, tenemos que darnos cuenta que la evolución de los discos alrededor de ellos y la formación de sistemas planetarios puede ser un camino más complicado y perturbado que nuestro simple caso del Sistema Solar”, añadió Furlan.

Los planetas en múltiples sistemas estelares también tendrían interesantes puestas de sol. Para más información sobre planetas con dobles y triples puestas de sol, vea la noticia “NASA Telescope Finds Planets Thrive Around Stellar Twins” y “NASA Scientist Finds World With Triple Sunsets“.


Autor: Linda Vu
Fecha Original: 24 de julio de 2007
Enlace Original

¿Hay un segundo agujero negro merodeando en el corazón de la Vía Láctea?

¿Hay un segundo agujero negro merodeando en el corazón de la Vía Láctea? Las pruebas hasta la fecha no son concluyentes, pero los astrónomos dicen que una prueba relativamente simple podría zanjar el tema: observar un par de estrellas que cruzan la galaxia a una velocidad descomunal.

Los astrónomos creen que hay un colosal agujero negro – con un peso de unas 3,6 millones de veces la masa del Sol – en el centro de la Vía Láctea. Pero algunos defienden que hay un segundo agujero negro que pesa entre 1000 y 10 000 Soles.

Diez estrellas “hiperveloces” han sido halladas saliendo disparadas del centro de la Vía Láctea – un nuevo estudio sugiere que, estadísticamente. Uno de estos hallazgos puede ser en realidad una estrella doble (Ilustración: Ruth Bazinet, CfA)

La prueba viene de las observaciones de un cúmulo de jóvenes estrellas situadas sólo a una fracción de año luz del monstruoso agujero negro – donde las fuerzas gravitatorias deberían evitar que se formasen estrellas. El cúmulo podría haberse formado más lejos y luego migrar allí, sin embargo, podría ser que contuviese un agujero negro de peso medio que tirase gravitatoriamente hacia el centro galáctico.

Pero ha sido imposible probar esta sugerencia. Ahora, Lu y sus colegas dicen que el caso podría cerrarse si los astrónomos encuentran un par de las llamadas estrellas “hiperveloces” saliendo de la región de peligro.

Tres son multitud

Diez de estos demonios cósmicos de la velocidad han sido hallados desde diciembre de 2004, cuando se cronometró al primero pasando como un rayo por el espacio a 850 kilómetros por segundo – lo bastante rápido como para finalmente abandonar la galaxia completamente.

Los astrónomos creen que algo muy masivo debe estar acelerando las estrellas y que esta aceleración surge de una interacción entre tres objetos – pero cuales son los tres objetos está aún en debate.

En un escenario, un par de estrellas vagan demasiado cerca de un único agujero negro supermasivo, y una estrella es capturada mientras la otra es disparada hacia fuera a casi 4000 km/seg. En otro escenario, una estrella se aproxima a un par de agujeros negros y es expulsada a alta velocidad.

Ahora, Youjun Lu, astrofísico de la Universidad de California en Santa Cruz, Estados Unidos, y sus colegas dicen que hay una prueba observacional para distinguir entre estos dos mecanismos. Sus cálculos sugieren que hallar un par de estrellas hiperveloces cruzando el espacio a 1000km/seg o más rápidamente sería una “prueba definitiva” de la existencia de dos agujeros negros en la Vía Láctea.

Esfera de influencia

Debido a su órbita de uno alrededor del otro, los dos agujeros negros dispondrían de una esfera de influencia más amplia a su alrededor que un único agujero negro. Por lo que si se les aproximase un par de estrellas que estuviesen lo bastante cercanas entre sí (menos que un tercio de la distancia de la Tierra al Sol), tratarían al par estelar como una estrella única lanzando a la pareja hacia fuera a hipervelocidades.

Esto no sucedería en un único agujero negro, dice Lu. Trataría a las estrellas como individuos distintos en lugar de como una unidad, capturando una estrella y lanzando la otra. “Para un único agujero negro, la probabilidad de eyectar una estrella binaria a hipervelocidad es insignificante”, dijo a New Scientist.

Lu dice que un 10% de las estrellas en la vecindad del Sol tienen una compañera cercana. Por lo que si la proporción se mantiene cerca del centro galáctico, una de cada 10 estrellas hiperveloces que se han encontrado en realidad pueden ser binarias.

Las estrellas están demasiado distantes y son muy tenues para ver si son únicas o dobles. Pero su espectro revelaría si tienen un “bamboleo” debido al tirón gravitatorio de un compañero cercano. El bamboleo variaría con el periodo orbital de las estrellas, lo que se espera que sea entre días o semanas.

Fácil de probar

Warren Brown, astrónomos del Centro Harvard-Smithsoniano para Astrofísica, lideró el equipo que hay encontrado 8 de las 10 estrellas hiperveloces conocidas. Espera reobservar todas ellas durante el otoño y el invierno para buscar una señal en tales escalas de tiempo. “Creo que es una predicción bastante fácil de probar observacionalmente”, contó a New Scientist.

Lu dice que encontrar un segundo agujero negro en el centro de la Vía Láctea no sólo explicaría el misteriosamente joven cúmulo de estrellas encontrado allí sino que también encajaría con la las teorías estándar de cómo crecen las galaxias.

Se piensa que las galaxias crecen a través de fusiones con galaxias menores o cúmulos de estrellas, cada uno de los cuales puede contener su propio agujero negro central masivo. A lo largo del tiempo, los agujeros negros se cree que se van acercando entre sí antes de una fusión final, también. “Por tanto tenemos más de un agujero negro en el centro de la galaxia”, dice Lu.

Brown está de acuerdo en que el agujero negro supermasivo de la Vía Láctea puede haber crecido tragándose otros agujeros negros en el pasado, pero cree que las pruebas apuntan a sólo un agujero negro en el centro hoy día. “Un único agujero negro parece ser el escenario más probable para mí”, dice. “Pero no hay pruebas de que [un segundo agujero negro] no estuviese allí hace 100 millones de años y se fusionase sin que lo veamos ahora”.


Autor: Maggie McKee
Fecha Original: 24 de julio de 2007
Enlace Original

20 de julio de 1969: “Un pequeño paso para el Hombre…”

Con el 50 aniversario del vuelo espacial el próximo 4 de octubre – el día en que la antigua Unión Soviética lazó el Sputnik 1 en órbita – las noticias espaciales han estado echando la vista atrás a los principales hitos de las últimas cinco décadas. Aquí, Clinton Parks destaca la histórica misión lunar de la NASA Apolo XI, que llevó a los primeros humanos a la superficie de la Luna hace hoy 38 años.

Seis años después del asesinato del Presidente John F. Kennedy, la tripulación del Apolo XI aterrizó en la Luna, completando la promesa de poner un estadounidense allí antes del final de la década y que retornase sano y salvo a la Tierra.

Más de 500 millones de personas de todo el mundo observaron como el comandante Neil Armstrong y el piloto del módulo lunar Edwin “Buzz” Aldrin salían del módulo lunar Eagle y daban un paso sobre la superficie de la Luna. En aquellos momentos la frase de Armstrong – “Este es un pequeño paso para el hombre; un salto gigante para la humanidad” – quedó arraigada en la mente estadounidense.

El Apolo XI, con Aldrin, Armstrong y el comandante del módulo de mando Michael Collins a bordo, fue lanzado en un cohete Saturno V el 16 de julio con una multitud de dignatarios y medios de comunicación observando. Setenta y seis horas más tarde del lanzamiento la tripulación estaba en órbita lunar, y 24 horas más tarde, el Eagle se desacopló del módulo de mando Columbia.

Collins permaneció en el Columbia. Preocupado de que el Eagle descendiera en un cráter del tamaño de un campo de fútbol, Armstrong dirigió manualmente el aterrizador y tomó tierra a salvo en otra parte del Mar de la Tranquilidad.

Durante su caminata lunar de 2,5 horas, Aldrin y Armstrong plantaron una bandera estadounidense, ejecutaron pruebas científicas y recolectaron 21,6 kilogramos de rocas y polvo. Portaban equipos de comunicaciones y de soporte vital que pesaban sólo 6,4 kilogramos en la menor gravedad lunar.

La pareja retornó a bordo del Eagle y se reunió con el Columbia tras 22 horas en la Luna.

El Apolo XI amerizó a salvo en el Océano Pacífico el 24 de julio, a 434 kilómetros de distancia de su lugar original de aterrizaje para evitar una tormenta.

Tras pasar el periodo de cuarentena, los astronautas fueron homenajeados con una plétora de desfiles y apariciones personales.

Más allá de los méritos de sus triunfos técnicos, el aterrizaje lunar fue un logro de gestión y logística. Globalmente, el proyecto Apolo fue uno de los esfuerzos más caros de los Estados Unidos con un coste de 25,4 mil millones de dólares. Se puede comparar en el mismo ámbito que el Proyecto Manhattan Project y la excavación para el Canal de Panamá. Pero lo verdaderamente significativo de este primer aterrizaje lunar fue que dio a una nación hundida en mitad de una guerra en el extranjero y con trastornos sociopolíticos en el interior una razón para sentirse orgullosa.

El compromiso de Kennedy con el aterrizaje lunar fue dirigido por el deseo de alterar la percepción de que los Estados Unidos iban a la zaga de la Unión Soviética en la carrera espacial. Pero cambiar tal percepción también comenzó a cambiar la realidad de los Estados Unidos, no sólo como líderes en el espacio, sino en la ciencia en general.


Autor: Clinton Parks
Fecha Original: 20 de julio de 2007
Enlace Original