China apunta hacia el lanzamiento de una sonda lunar este año

China apunta al lanzamiento de su primer orbitador lunar este año, como parte de un plan en tres fases que espera, finalmente, traer muestras de la Luna de vuelta a la Tierra, según afirmaciones a los medios el pasado domingo.

El lanzamiento del Chang’e I, previsto para la segunda mitad de 2007, sería un hito para el programa espacial Chino, según una cita del jefe de la Agencia Espacial China a la agencia de noticias oficial Xinhua.

“El proyecto de la sonda lunar es el tercer hito en la tecnología espacial china tras los proyectos de satélite y naves tripuladas, y un primer paso en la exploración del espacio profundo”, comentó en el informe.

Sun, en una charla en el Universidad de Beijing Jiaotong, dijo que el programa de exploración lunar de China estaba dividido en tres etapas: orbitar la Luna, aterrizar en la superfcicie lunar y volver a la Tierra con muestras.

El orbitador representa la primera fase, con un rover lunar para usarse en la segunda fase programada para aproximadamente 2012, dijo Xinhua.

El plan para la tercera fase es otro rover para aterrizar en la superficie lunar y recolectar muestras antes de volver a la Tierra, dijo Sun, que es el director de la Administración Nacional China del Espacio.

China continuaría la investigación en misiones espaciales tripuladas, incluyendo paseos espaciales y experimentos para unir naves espaciales en marcha, dijo.

“La tecnología espacial refleja la potencia global de una nación y es una faceta importante de la modernización de la defensa nacional”, comentó.



Fecha Original: 20 de mayo de 2007
Enlace Original

Las estrellas bebé se incuban en la Cabeza de Orión

Una nueva imagen del Telescopio Espacial Spitzer de NASA muestras estrellas bebé “incubando” en la cabeza de Orión, la famosa constelación del cazador visible en el hemisferio norte durante las noches de invierno. Los astrónomos sospechan que las ondas de choque de una explosión de 3 millones de años de antigüedad de una estrella masiva habrían iniciado este nacimiento recién hallado.

Esta imagen del Telescopio Espacial Spitzer de la NASA muestra estrellas bebé “incubando” en la cabeza de la constelación de Orión el cazador. Crédito: NASA/JPL-Caltech/ Laboratorio de Astrofísica Espacial y Física Fundamental

La región caracterizada en la imagen de Spitzer es llamada Barnard 30. Se sitúa a unos 1300 años luz de distancia en el lado derecho de la cabeza de Orión, justo al norte de la estrella masiva Lambda Orionis.

“Cuando decidimos estudiar esta región, apenas era conocida, a pesar del hecho de que por sus propiedades es un buen objetivo. Nuestro propósito era llevar a cabo un estudio comprensivo de las propiedades de las distintas regiones”, dijo David Barrado y Navascués, del Laboratorio de Astrofísica Espacial y Física Fundamental en Madrid, España, quien dirige las observaciones del Spitzer.

“Ahora sabemos, gracias a Spitzer, que hay una gran población de estrellas de masa baja y de enanas marrones [o estrellas fallidas]“, añade.

La visiblemente oscura y borrosa nube cósmica se vuelve clara y brillante en la imagen infrarroja de Spitzer. Las moléculas orgánicas llamadas hidrocarburos policíclicos aromáticos pueden verse como briznas verdes. Estas moléculas están formadas por materiales basados en carbono que tuvieron una combustión incompleta. En la Tierra, pueden encontrarse en el hollín de los gases de combustión de los motores de aviones y automóviles. También cubren las parrillas donde se cocina la carne al carbón.

Los tintes naranja-rojizos que se ven en las nubes son partículas de polvo calentadas por las estrellas de nueva formación. Los puntos rojo-rosáceos en la parte alta de la nube son estrellas muy jóvenes embebidas en un capullo de gas y polvo cósmico. Los puntos azules de la imagen son estrellas de fondo de la Vía Láctea que se sitúan en la línea de visión.

Cuando Barrado y Navascués vio por primera vez esta imagen de Barnard 30, quedó tan impresionado que decidió usarla como portada de su próximo libro de texto de astronomía.

“Encuentro que el original en blanco y negro de las imágenes científicas es sobrecogedor, fascinante”, dijo Barrado y Navascués.

“Una vez que vi la imagen en color, estaba claro que tenía que ser la portada del libro. Desde un punto de vista estético, [la imagen] es maravillosa, llama la atención. Desde un punto de vista astronómico, tiene todo lo que desea un astrónomo – estrellas de masas altas y bajas, enanas marrones y nubes de polvo oscuras. Es un regalo de la naturaleza”.

La inspiración para el libro de texto de Barrado y Navascués provino de su blog de referencia de un año de antigüedad, Cuaderno de Bitacora Estelar. El blog es una de las bitácoras de astronomía más leídas en español, con una gran audiencia en Europa, Sudamérica y los Estados Unidos. Decidió convertir su blog en un libro de texto hace unos meses cuando una compañía editorial española se lo propuso.

“Tras dudar y pensar mucho en cómo hacerlo, decidí abordar la tarea”, dijo Barrado y Navascués. “Hasta donde sabemos, es uno de los primeros blogs en convertirse en un libro de texto en español. Es posiblemente el primer blog académico en realizar tal conversión y, seguro, el primero relacionado con la astronomía”.

En cuanto a Barnard 30 y las otras estrellas bebé incubando en la cabeza de Orión, Barrado y Navascués dice que en esta región “no hay dudas de que se convertirá en una de las piedras angulares de la astrofísica estelar y uno de los más relevantes cúmulos estelares jóvenes”.


Autor: Linda Vu
Fecha Original: 17 de Mayo de 2007
Más información en Cuaderno de Bitácora Estelar
Enlace Original

Nuevo proceso genera hidrógeno a partir de aleaciones de aluminio para hacer funcionar motores y células de combustible

Los investigadores muestran el método para producir hidrógeno

Un ingeniero de la Universidad de Purdue ha desarrollado un método que usa una aleación de aluminio para extraer el hidrógeno del agua para hacer funcionar células de combustible o motores de combustión interna, y la técnica podría usarse para reemplazar la gasolina.

El método hace innecesario almacenar o transportar hidrógeno – dos de los mayores retos en la creación de una economía del hidrógeno, dice Jerry Woodall, un distinguido profesor de ingeniería eléctrica y computacional en Purdue que inventó el proceso.

Seguir Leyendo…

Una óptica adaptativa guía el camino hacia los agujeros negros supermasivos

A lo largo de los próximos cientos de millones de años, los dos agujeros negros supermasivos, que están separados unos 3000 años luz de distancia, se dirigirán el uno hacia el otro y se fundirán para formar un sólo agujero negro supermasivo. Esta detección de un agujero negro binario apoya la idea de que los agujeros negros crecen a enormes masas en el centro de las galaxias fusionándose con otros agujeros negros.

Los astrónomos han descubierto la localización exacta y la formación de un par de agujeros negros supermasivos en el centro de la colisión de dos galaxias a más de 300 millones de años luz de distancia.

Usando ópticas adaptativas (AO), que eliminan los efectos de borrosidad debidos a la turbulencia de la atmósfera terrestre, los científicos de Livermore observaron que los dos agujeros negros se formaron en el centro de un disco rotante de estrellas en la galaxia fusionada conocida como NGC 6240 y están rodeados por una nube de cúmulos de estrellas jóvenes.

Los agujeros negros supermasivos contienen de millones a miles de millones la masa del Sol y se cree que hay alguno en el centro de la mayor parte de galaxias, incluyendo nuestra Vía Láctea.

Durante años, los astrónomos han sabido que NGC 6240 albergó al menos un agujero negro supermasivo. Posteriores observaciones del Observatorio de Rayos-X de Chandra de la NASA confirmaron que en realidad había dos agujeros negros supermasivos en el núcleo de NGC 6240. Y la nueva investigación, que aparecerá en la edición del 17 de mayo de Science Express, confirma la localización exacta y entorno de los dos agujeros negros a partir de observaciones del Observatorio W.M. Keck.

“La gente ha observado este par de galaxias en colisión en distintas longitudes de onda y vieron lo que pensaban que eran agujeros negros, pero ha sido muy difícil darle sentido a cómo correspondían entre sí las observaciones a distintas longitudes de onda”, dijo Claire Max, autor principal del artículo. Max es un astrónomo del Instituto para Geofísica y Física Planetaria del Laboratorio Nacional Lawrence Livermore National y miembro de la facultad de la UC Santa Cruz.

“Los resultados de la óptica adaptativa permitieron unirlas todas, por lo que ahora podemos verlo todo de verdad – el polvo caliente en el infrarrojo, las estrellas en el visible e infrarrojo, y los rayos-X y emisiones de radio procedentes de los alrededores de los agujeros negros”.

Las ópticas adaptativas permiten a los astrónomos minimizar los efectos borrosos de la atmósfera de la Tierra, produciendo imágenes con una resolución y detalle sin precedente. El sistema de ópticas adaptativas usa la luz procedente de una estrella relativamente brillante, para medir las distorsiones atmosféricas y corregirlas, pero sólo aproximadamente un 1 por cierto del cielo contiene estrellas lo bastante brillantes como para poder usarlas. Un láser construido por el LLNL ha sido encargado por Keck, en cuyas ópticas adaptativas puede ser usado en casi cualquier parte del cielo produciendo una estrella guía artificial por láser.

Otros investigadores de Livermore incluyen a Willem de Vries de IGPP y UC Davis y la antigua investigadora posdoctoral en LLNL Gabriela Canalizo, quien ahora es miembro de la facultad de la UC Riverside.

La resolución espacial usando las ópticas adaptativas en el telescopio de 10 metros Keck II es una mejora en un factor de 10 sobre lo que se puede hacer con una cámara convencional terrestre.

Las imágenes del Telescopio Espacial Hubble muestran que los agujeros negros están rodeados de manchas de polvo que oscurecen parcialmente la luz visible. Sin embargo, en la luz infrarroja usada en las observaciones de las ópticas adaptativas de Keck, los agujeros negros se ven más distintos y están rodeados por muchos cúmulos de estrellas jóvenes que se formaron en la fusión.

“Con las imágenes en luz infrarroja que obtuvimos de Keck, fuimos capaces de alinear la información de todas las longitudes de onda distintas para determinar qué características de la imagen son de los agujeros negros”, dijo Max, que también trabaja como director en el Centro de Ópticas Adaptativas de la UC Santa Cruz.

Se piensa que las fusiones de galaxias desempeñan un papel importante en la evolución galáctica y pueden ayudar a explicar muchas de sus propiedades. Por ejemplo, los astrónomos han hallado que la masa del agujero negro del centro de la galaxia está fuertemente correlacionado con las propiedades a gran escala de la misma galaxia. La hipótesis de la “coevolución” explica esta correlación como resultado de que tanto la galaxia como el agujero negro crecen incrementalmente en repetidos eventos de fusión a escalas de tiempo cósmicas.

“La influencia gravitatoria del agujero negro está limitada en realidad a una región relativamente pequeña justo alrededor del mismo, por lo que ¿cómo puede afectar al resto de la galaxia? Pero si el agujero negro y la galaxia que lo rodea evolucionan juntos a través de la misma secuencia de eventos de fusión, podría explicar las correlaciones”, dijo Max. “Por esto es por lo que la gente está tan excitada por comprender las fusiones de galaxias, y aquí lo estamos viendo en acción”.

La investigación fue financiada por el Centro de Ópticas Adaptativas de la Fundación Nacional de Ciencia.

Fundado en 1952, el Laboratorio Nacional Lawrence Livermore tiene la misión de asegurar la seguridad nacional y aplicar la ciencia y la tecnología a los temas más importantes de nuestro tiempo. El Laboratorio Nacional Lawrence Livermore está gestionado por la Universidad de California para Administración Nacional de Seguridad Nuclear del Departamento de Energía de los Estados Unidos.


Autor: Anne Stark
Fecha Original: 7 de mayo de 2007
Enlace Original

El agujero negro se encoge en las dimensiones del mundobrana

La gravedad puede ser lo bastante fuerte como para mantener unido nuestro Sistema Solar, pero comparado con las otras tres fuerzas de la naturaleza es ridículamente débil. Los cosmólogos piensan que esta podría ser la causa por la que el universo que vemos a nuestro alrededor está confinado en una “brana” similar a una hoja de papel, con la gravedad – al contrario que el resto de fuerzas – libre para operar en un volumen dimensional mayor. Ahora un físico de los Estados Unidos ha estudiado la edad de un agujero negro para poner un límite al tamaño de estas dimensiones extra en 80 µm, lo que podría explicar por qué aún no las hemos detectado en el laboratorio. (Rev. Lett. 98 181101).

El propósito final de los teóricos es desarrollar una “Teoría del Todo”, la cual describiría todas las fuerzas conocidas de la naturaleza usando el mismo conjunto de ecuaciones. Pero uno de los mayores obstáculos que se encuentran es la gravedad, que es la única fuerza que no se incluye en el Modelo Estándar de física de partículas. Esto se debe en parte a que la gravedad, tal y como se describe en las teorías de Newton y Einstein, es de muchos órdenes de magnitud menor que las otras fuerzas – una curiosa discrepancia conocida como el problema jerárquico.

Algunos cosmólogos han sugerido que el problema jerárquico desaparecería si supusiéramos que las cuatro dimensiones cotidianas de nuestro universo – tres para los movimientos en el espacio y una para el tiempo – forman una única “brana” en un volumen mayor de dimensiones. En este mundobrana, las tres fuerzas descritas por el Modelo Estándar actuarían a lo largo de nuestra brana de una forma normal. La gravedad, sin embargo, sería capaz de dispersarse por todo el volumen, dejándonos observar sólo una fracción de su fuerza atractiva.

En los modelos de mundobrana más populares, las dimensiones extra están distorsionadas de tal forma que ocupan volúmenes de hasta un milímetro de tamaño. Además, para capturar un destello de las mismas se debería buscar desviaciones en la Ley del Cuadrado Inverso gravitatorio de Newton a escalas igualmente pequeñas. En enero de este año Dan Kapner y sus colegas de la Universidad de Washington en los Estados Unidos usaron un experimento de balanza de torsión para probar que la ley se mantiene hasta los 55 µm – lo bastante pequeño como para hacer menos plausible la idea de las dimensiones extra. No obstante, Dimitrios Psaltis de la Universidad de Arizona afirma ahora que ha usado la edad de un agujero negro para poner un nuevo límite teórico al tamaño de las dimensiones extra, lo cual podría explicar por qué no las hemos hallado hasta ahora.

A menudo se espera que los agujeros negros tengan una vida extremadamente larga debido a que su ratio de evaporación es bastante lento. Pero si las dimensiones extra existen entonces parte de esta evaporación podría tener lugar en el volumen del mundobrana, y de esta forma reduciría proporcionalmente el tiempo de vida del agujero negro. Psaltis tomó medidas recientemente de la velocidad y posición en 3D del agujero negro XTEJ118+480 para reconstruir su trayectoria. Ésto, a su vez, le permitió calcular cuando pasó por última vez el plano galáctico, y por tanto la época en la que el agujero negro pudo haberse formado.

Psaltis encontró que XTEJ118+480 debe ser más antiguo que 11 Myr, lo que en términos de mundobrana significa que las dimensiones extra se extenderían en volúmenes no mayores de 80 µm. Aunque esto no es lo bastante pequeño como el límite impuesto por el experimento del equipo de Washington, encoge el área objetivo para futuras pruebas de la ley del cuadrado inverso.

Sin embargo, Ruth Gregory de la Universidad de Durham, que también ha estado investigando los efectos cosmológicos de un mundobrana, dijo a Physics Web que la ecuación usada por Psaltis para calcular el tiempo de vida de un agujero negro no está basada sobre un firme sustrato teórico. “Ciertamente no apostaría por ello”, comentó. “El problema principal es que no sabemos qué apariencia tendría un agujero negro en una brana. Pero es buenos que los experimentalistas hagan observaciones para probar esta teoría”.


Autor: Jon Cartwright
Fecha Original: 14 de mayo de 2007
Enlace Original

Investigadores de la Universidad de California Irvine revelan las primeras imágenes de los cambios del cerebro asociados con la memoria

El estudio también descubre algunas pistas sobre la formación de pérdida de memoria vinculada a desórdenes cognitivos

Investigadores de la Universidad de California en Irvine han desarrollado las primeras imágenes de los cambios físicos en las células del cerebro en las que se piensa que subyace la memoria, un descubrimiento que ya está descubriendo pistas sobre la pérdida de memoria vinculada a desórdenes cognitivos.

Tras tres décadas de trabajo por parte de los neurocientíficos se ha establecido que un efecto fisiológico conocido como potenciación a largo plazo (LTP) codifica a diario formas de memoria. En el número de hoy de Journal of Neuroscience, un equipo de investigación de la UC Irvine liderado por los neurocientíficos Christine M. Gall y Gary Lynch presentan estas imágenes únicas, las cuales muestran que el tamaño y forma de las sinapsis eran modificadas por el LTP.

“El camino ahora está abierto para cartografiar dónde yacen las memorias del cerebro”, dijo Lynch, profesor de psiquiatría y comportamiento humano. “Ver que los cambios físicos relacionados con la memoria cambian la sinapsis significa que podemos al menos usar modelos para comprobar si los efectos de retardo, edad, y distintos desórdenes cognitivos involucran un defecto específico que se sospecha desde hace tiempo en las conexiones entre las neuronas corticales”.

El tejido cerebral recogido de ratas y ratones se mantuvo vivo en un equipo construido especialmente para ello. Los investigadores indujeron LPT mediante estimulación de sinapsis con un ritmo conocido por ser crítico para la formación de memoria. Las muestras cerebrales fueron seleccionadas y tintadas con un anticuerpo que se une a las proteínas activadas involucradas en la LTP y un segundo que etiqueta la sinapsis. Se usaron nuevos métodos microscópicos para visualizar y medir las sinapsis que tenían unidos ambos anticuerpos.

Además de revelar nueva información sobre la formación de la memoria en el cerebro, este estudio y otro publicado el mes pasado en Journal of Neuroscience por investigadores de la UC Irvine han demostrado cómo las deficiencias de LTP acompañan a la pérdida de memoria durante las primeras etapas de la enfermedad de Huntington, una enfermedad neurodegenerativa incurable caracterizada pr perturbaciones en la memoria y el aprendizaje.

Lynch, Gall y sus colegas encontraron que las estructuras LTP que codifican la memoria son defectuosas en los modelos de ratón de la enfermedad de Huntington. Descubrieron que estos defectos sinápticos pueden revertirse completamente a través de un tratamiento con factor de crecimiento cerebral liberado en las sinapsis. Las ampakinas, una nueva clase de drogas desarrolladas por Lynch en la UC Irvine que está actualmente en desarrollo clínico para la enfermedad de Alzheimer y el Desorden de Hiperactividad y Déficit de Atención, incrementan los niveles de este factor de crecimiento y surgen como una terapia potencial para los problemas cognitivos asociados con el Huntington.

Los investigadores están ahora trabajando para ver si tales defectos de LTP están presentes en los modelos de ratón de formas comunes de retraso mental humano.

Gall es un profesor de anatomía y neurobiología. Lulu Y. Chen, Christopher S. Rex, Malcolm S. Casale y Danielle Simmons también participaron en los estudios, que fueron patrocinados por el Instituto Nacional de Salud.


Fecha Original: 16 de mayo de 2007
Enlace Original

Científicos de la NASA desarrollan una técnica pionera para “pesar” agujeros negros

La naturaleza de las fuentes de rayos X ultraluminosos (ULX) siguen siendo controvertidas, pero muchos astrónomos piensan que algunos o la mayoría de estos objetos constan de un agujero negro de masa intermedia que agrega materia de una estrella compañera. Las recientes pruebas sugieren que un ULX en la galaxia NGC 5408 tiene un agujero negro con una masa de unos 2000 soles. Crédito: NASA

Dos astrofísicos del Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland, Nikolai Shaposhnikov y Lev Titarchuk, ha probado con éxito un nuevo método para determinar la masa de los agujeros negros.

Esta elegante técnica, que fue sugerida por primera vez por Titarchuk en 1998, demuestra que el agujero negro del sistema binario conocido como Cygnus X-1 contiene una masa de 8,7 soles, con un margen de error de sólo 0,8 masas solares.

Cygnus X-1 fue el primer candidato convincente a agujero negro que surgió a principios de los años 70. El sistema consta de una estrella azul supergigante y una masiva pero invisible compañera. Las observaciones ópticas del bamboleo de la estrella han sugerido que el objeto invisible es una agujero negro que tiene unas diez veces la masa solar. “Este acuerdo nos da mucha confianza en que nuestro método funciona”, dice Shaposhnikov.

“Nuestro método puede determinar la masa de un agujero negro cuando fallan las técnicas alternativas”, añade Titarchuk, que también es profesor investigador en la Universidad George Mason en Arlington, Virginia, y además trabaja en el Laboratorio de Investigación Naval en Washington. Shaposhnikov trabaja para la Asociación de Universidades para la Investigación Espacial, una parte del Centro de Investigación y Exploración en Ciencias Espacial y Tecnología dentro de NASA Goddard.

Trabajando de forma independiente, Tod Strohmayer y Richard Mushotzky de Goddard y cuatro colegas usaron la técnica de Titarchuk para estimar que una fuente de rayos X ultraluminosos en la pequeña y cercana galaxia NGC 5408 aloja un agujero negro con una masa de unos 2000 soles.

El artista Dana Berry representa un sistema binario similar a Cygnus X-1. Consta de una estrella supergigante azul (derecha) y un agujero negro. El agujero negro está rodeado de un disco de acreción gaseoso que se alimenta de la estrella. Algunos agujeros negros emiten chorros a lo largo de su eje polar como se muestras aquí. Crédito: NASA / Honeywell Max-Q Digital Group / Dana Berry

“Este es uno de los mejores indicadores hasta la fecha de un agujero negro de masa intermedia”, dice Strohmayer. Este tipo de agujero negro rellena un gran hueco entre los agujeros negros como los de Cygnus X-1, que provienen del colapso de estrellas masivas y contienen tal vez de 5 a 20 masas solares, y los monstruosos agujeros negros que contienen millones o incluso miles de millones de masas solares, que merodean en los núcleos de las grandes galaxias.

El método de Titarchuk se aprovecha de la relación entre un agujero negro y el disco de material giratoria que lo rodea, llamado disco de acreción. El gas que orbita en estos discos finalmente cae en el agujero negro. Cuando el ratio de acreción del agujero negro se eleva a un nivel mayor, el material se acumula cerca del agujero negro en una región caliente que Titarchuk compara con un atasco de tráfico. Titarchuk ha demostrado que la distancia de un agujero negro al lugar donde ocurre esta congestión es directamente proporcional a la masa del agujero negro. Cuando más masivo sea el agujero negro, más alejada se encuentra esta congestión del agujero negro y es más largo el periodo orbital.

En su modelo, el gas caliente acumulado en la región del atasco está relacionado con las observaciones de las variaciones en la intensidad de los rayos X que se repiten de forma cercana pero no perfectamente periódica. Estas oscilaciones cuasi-periódicas (QPOs) ase observan en muchos sistemas de agujeros negros. Las QPOs están acompañadas por cambios simples y predecibles en el espectro del sistema cuando el gas que lo rodea se calienta y enfría en respuesta a los cambios en el ratio de la acreción. Observaciones temporales precisas del satélite Explorador Sincrónico de Rayos-X Rossi de NASA (RXTE) han mostrado una estrecha relación entre la frecuencia de las QPOs y el espectro, diciendo a los astrónomos cómo de eficiente es la producción de rayos-X del agujero negro.

Esta imagen del telescopio de 3,6 metros del Observatorio Europeo del Sur muestran emisiones de gas caliente e ionizado en la galaxia NGC 5408. La Fuente de rayos-X Ultraluminosos NGC 5408 X-1 está alineada. Crédito: Roberto Soria / Manfred Pakull / Observatorio Europeo del Sur

Usando el RXTE, Shaposhnikov y Titarchuk han aplicado este método a tres agujeros negros de masa estelar en nuestra galaxia de la Vía Láctea, y demuestran que las masas derivadas de las QPOs coinciden con las medidas de la masa tomadas usando otras técnicas. El artículo que esboza sus resultados está programado para aparecer en el número del 1 de julio de la revista Astrophysical Journal.

Usando el observatorio de rayos-X XMM-Newton de la Agencia Espacial Europea, Strohmayer, Mushotzky, y sus colegas detectaron dos QPOs en NGC 5408 X-1. Este objeto es la fuente de rayos-X más brillante en la irregular galaxia NGC 5408, a 16 millones de años-luz de la Tierra en la constelación de Centauro. Las frecuencias de las QPO, así como la luminosidad y características espectrales de la fuente, implican que está propulsada por un agujero negro de masa intermedia.

“Teníamos otras dos formas de estimar la masa del agujero negro, y los tres métodos concordaron en un factor de dos”, dice Mushotzky. “No tenemos pruebas de que sea un agujero negro de masa intermedia, pero la preponderancia de las evidencias así lo sugiere”.

La existencia de IMBHs permanece en duda debido a que no hay una aceptación del mecanismo por que cual se formarían. Uno de los coautores del estudio, Roberto Soria del Centro Harvard-Smithsonian para Astrofísica en Cambridge, Massachusetts cree que la masa del agujero negro estaría cercana a los 100 soles.


Autor: Bob Naeye
Fecha Original: 9 de mayo de 2007
Enlace Original

¿Un universo bitemporal?

El físico teórico de la Universidad USC Itzhak Bars ha sido pionero en un esfuerzo para discernir cómo una segunda dimensión temporal podía ayudar a los científicos a explicar mejor las leyes de la naturaleza. Crédito de la imagen: Don Milici

Un físico de la Universidad USC explora cómo una segunda dimensión temporal podría unificar las leyes de la física y dar una mejor descripción del mundo natural.

Durante largo tiempo, Itzhak Bars ha estado estudiando el tiempo.

Hace más de una década, el físico del Universidad USC comenzó a considerar el papel que juega el tiempo en las leyes básicas de la física — las ecuaciones que describen la materia, gravedad y otras fuerzas de la naturaleza.

Esas leyes son exquisitamente precisas. Einstein dominó la gravedad con su Teoría de la Relatividad General, y las ecuaciones de la Teoría Cuántica capturan cada matiz de la materia y las otras fuerzas, desde el poder atractivo de los imanes al pegamento subatómico que mantiene unidos los núcleos de los átomos.

Pero las leyes no pueden estar completas. A Teoría de la Gravedad de Einstein y la Teoría Cuántica no encajan. Falta alguna pieza en el puzzle de la realidad física.

Bars piensa que una de las piezas perdidas es una dimensión temporal oculta.

Extravagante no es una palabra lo bastante fuerte para describir esta idea, pero es una idea fuerte sin embargo. Con dos tiempo, piensa Bars, muchos de los misterios de las leyes físicas de hoy desaparecerían.

Por supuesto, no es tan simple como esto. Una dimensión extra del tiempo no es suficiente. Necesitas además una dimensión adicional del espacio.

Suena como un nuevo episodio de “La Dimensión Desconocida”, pero es una idea familiar para la mayoría de los físicos. De hecho, las dimensiones extra del espacio se han convertido en una forma popular de hacer la gravedad y la Teoría Cuántica más compatibles.

Las dimensiones espaciales extra no son fáciles de imaginar — en la vida cotidiana, nadie nota más de tres dimensiones. Cualquier movimiento que haces puede describirse como la suma de movimientos en tres direcciones — arriba-abajo, atrás adelante y hacia los lados. De forma similar, cualquier localización puede describirse por tres números (sobre la Tierra, latitud, longitud y altura), correspondiente a las tres dimensiones del espacio.

Sin embargo, podrían existir otras dimensiones, si estuviesen curvadas en pequeñas bolas, demasiado pequeñas para notarlas. Si te mueves a lo largo de esas dimensiones, volverás al punto de inicio tan rápido que no te darás cuenta de que te has movido.

“Una dimensión extra del espacio podría en verdad estar allí, sólo que es tan pequeña que no la vemos”, dijo Bars, profesor de física y astronomía.

Algo tan diminuto como una partícula subatómica, en cambio, podría detectar la presencia de dimensiones extra. De hecho, dijo Bars, ciertas propiedades de las partículas básicas de la materia, tales como la carga eléctrica, pueden tener algo que ver en cómo interactúan estas partículas con las diminutas e invisibles dimensiones del espacio.

Con esta visión, el Big Bang que inició el crecimiento del universo bebé hace 14 mil millones de años expandió sólo tres de las dimensiones espaciales, dejando el resto muy pequeñas. Muchos teóricos de hoy creen que 6 o 7 de estas dimensiones invisibles esperan a ser descubiertas.

Sólo unos pocos, en cambio, creen que exista más de una dimensión temporal. Bars hace de pionero en estos esfuerzos por discernir cómo una segunda dimensión temporal podría ayudar a los físicos a explicar mejor la naturaleza.

“Itzhak Bars tiene una larga historia en hallar nuevas simetrías matemáticas que pudiesen ser útiles en física”, dijo Joe Polchinski, físico del Instituto Kavli de Física Teórica en la UC Santa Barbara. “Esta idea bitemporal parece tener algunas propiedades matemáticas interesantes”.

Si Bars está en el camino correcto, algunos de los procesos más básicos de la física requerirán un re-examen. Algo tan simple como el movimiento de las partículas, por ejemplo, podría ser revisado en una nueva forma. En la física clásica (antes de los días de la Teoría Cuántica), una partícula en movimiento se describía completamente por su momento (su masa por su velocidad) y su posición. Pero la física cuántica dice que no se pueden conocer con precisión estas dos propiedades al mismo tiempo.

Bars altera las leyes que describen el movimiento incluso más, postulando que la posición y el momento no son distinguibles en un momento de tiempo dado. Técnicamente, pueden relacionarse mediante una simetría matemáticamente, lo que significa que intercambiar posición por momento mantiene sin cambios la física subyacente (justo igual que un espejo intercambia derecha e izquierda sin cambiar la apariencia de una cara simétrica).

En la física ordinaria, posición y momento difieren debido a que la ecuación para el momento involucra la velocidad. Dado que la velocidad es la distancia dividida por el tiempo, requiere la noción de una dimensión temporal. Si el intercambio de las ecuaciones para posición y momento en realidad no cambia nada, entonces la posición necesita una dimensión del tiempo también.

“Si hago posición y momento indistinguible el uno del otro, entonces algo cambia en la noción del tiempo”, dijo Bars. “Si requiero una simetría como esta, debo tener una dimensión temporal extra”.

Simplemente añadir una dimensión extra de tiempo no solucionado todo, no obstante. Para producir ecuaciones que describen el mundo con precisión, también se necesita una dimensión adicional del espacio, dando un total de cuatro dimensiones espaciales. Las matemáticas con cuatro dimensiones espaciales y dos temporales reproducen las ecuaciones estándar que describen las partículas básicas y fuerzas, un hallazgo descrito parcialmente por Bars el año pasado en la revista Physical Review D y se ha extendido más allá en su trabajo más reciente.

Las matemáticas de Bars sugieren que el mundo familiar de cuatro dimensiones — tres de espacio y uno de tiempo — es meramente una sombra de una realidad dimensional de seis dimensiones. En esta visión el mundo común es un muro bidimensional que muestra sombras de los objetos en una sala de tres dimensiones.

De forma similar, el universo observable del espacio y tiempo común pueden reflejar la física de un espacio mayor con una dimensión extra del tiempo. En la vida corriente nadie nota la segunda dimensión del tiempo, así como nadie ve la tercera dimensión de la sombra de un objeto bidimensional en la sombra de un muro.

Este punto de vista tiene implicaciones para la comprensión de muchos problemas en física. Por una parte, la teoría actual sugiere la existencia de una partícula ligera llamada axión, necesaria para explicar una anomalía en las ecuaciones del modelo estándar de partículas y fuerzas. Si existe, el axión podría formar la misteriosa “materia oscura” que los astrónomos dicen que afecta al movimiento de las galaxias. Pero dos décadas de búsqueda han sido infructuosas en hallar una prueba de que existen los axiones. La física con dos dimensiones temporales elimina la anomalía original sin la necesidad de un axión, según ha demostrado Bars, explicando posiblemente por qué no se ha encontrado.

A un mayor nivel, la física bitemporal puede ayudar en la búsqueda de una fusión de la Teoría cuántica con la Relatividad de Einstein en una sola Teoría Unificada. La aproximación más popular a este problema a día de hoy, la Teoría de Supercuerdas, también invoca dimensiones extra espaciales, pero una única dimensión del tiempo. Muchos creen que una variante de la Teoría de Cuerdas, conocida como Teoría M, será finalmente el vencedor en el juego de la unificación cuántica-relatividad, la Teoría M requiere 10 dimensiones espaciales y una temporal.

Los esfuerzos por formular una versión clara y completa de la Teoría M han sido inútiles hasta ahora. “Nadie nos ha dicho hasta ahora cuál es la forma fundamental de la Teoría M”, dijo Bars. “Sólo tenemos pistas — pero no sabemos qué es”.

Adoptar una aproximación bitemporal más simétrica puede ayudar. Describir las 11 dimensiones de la Teoría M en el lenguaje de la física bitemporal requeriría añadir una dimensión temporal además de otra espacial, dando a la naturaleza 11 dimensiones espaciales y dos temporales. “La versión de la Teoría tendría un total de 13 dimensiones”, dijo Bars.

Para algunas personas esto sería considerado desafortunado. Pero para Bars, es una razón para el optimismo.

“Mi esperanza”, dice, “es que este camino que estoy siguiente me lleve al lugar adecuado”.


Autor: Tom Siegfried
Fecha Original: mayo de 2007
Enlace Original

Hubble encuentra un fantasmal anillo de materia oscura

Esta imagen compuesta del Telescopio Espacial Hubble muestra un “anillo” fantasmal de materia oscura en el cúmulo galáctico Cl 0024+17. La estructura en amillo es evidente en el mapa azul de la distribución de materia oscura del cúmulo. El mapa está sobreimpresionado en la imagen de Hubble del cúmulo. El anillo es una de las pruebas más fuertes hasta la fecha de la existencia de la materia oscura, una sustancia desconocida que impregna el universo. Crédit: NASA, ESA, M.J. Jee y H. Ford (Universidad Johns Hopkins)

La sustancia más común en el universo es la llamada materia oscura. No brilla ni refleja la luz. No podemos verla.

Es una sustancia invisible compuesta de átomos que son muy distintos de los qeu forman la materia normal del universo, como estrellas y galaxias.

De hecho, si golpeas tu coche contra un muro hecho de materia oscura, no romperías un faro o saltaría el airbag. Incluso no sabrías que había sucedido. Pero, ¿qué sucede con la materia oscura durante una colisión?

Los astrónomos, usando el Telescopio Espacial Hubble de la NASA obtuvieron una vista de primera mano de cómo se comporta la materia oscura durante una colisión titánica entre dos cúmulos galácticos. El choque creó una onda de materia oscura, que es similar a una onda formada en un estanque cuando una piedra golpea su superficie

El descubrimiento del anillo está entre las pruebas más contundentes hasta el momento de la existencia de la materia oscura. Los astrónomos han sospechado desde hace tiempo la existencia de la sustancia invisible como fuente adicional de gravedad que mantiene unidos a los cúmulos galácticos. Tales cúmulos se separarían su entre ellos sólo actuase la gravedad de las estrellas visibles. Aunque los astrónomos no saben de qué está hecha la materia oscura, tienen la hipótesis de que es un tipo de partícula elemental que inunda el universo.

La estructura anular es evidente en una imagen compuesta del cúmulo hecha a partir de observaciones del Hubble. El anillo puede verse en el mapa azul de la distribución de materia oscura, que está sobreimpresionado en una imagen del cúmulo.

Este rico cúmulo galáctico, catalogado como Cl 0024+17, está permitiendo a los astrónomos sondear la distribución de la materia oscura en el espacio. Las vetas azules cerca del centro de la imagen son las imágenes difusas de galaxias muy distantes que no son parte del cúmulo. Las galaxias distantes aparecen distorsionadas debido a que su luz es curvada y ampliada por la potente gravedad de Cl 0024+17, un efecto llamado lente gravitatoria. Crédito: NASA, ESA, M.J. Jee y H. Ford (Universidad Johns Hopkins)

Los astrónomos del Hubble dicen que esta es la primera vez que han detectado materia oscura en una estructura única que es diferente del gas y las galaxias del cúmulo. Los investigadores apuntaron al anillo inesperadamente mientras cartografiaban la distribución de materia oscura en el cúmulo galáctico Cl 0024+17 (ZwCl 0024+1652), situado a 5 mil millones de años luz de la Tierra. El anillo mide 2,6 millones de años luz de diámetro.

Aunque los astrónomos no pueden ver la materia oscura, pueden inferir su existencia en los cúmulos galácticos observando cómo su gravedad curva la luz de galaxias de fondo más lejanas, un potente efecto llamado lente gravitatoria. Las vetas azules cerca del centro de otra imagen del Hubble del cúmulo son formas distorsionadas de galaxias más distantes, cuya luz se curva y amplifica por la potente gravedad de Cl 0024+17.

La colisión entre los dos cúmulos galácticos, explican los astrónomos, crea una onda de materia oscura que deja huellas distintivas en las formas de las galaxias de fondo. Es como mirar los guijarros del fondo de un estanque con ondas en su superficie. La forma de los guijarros parece cambiar cuando las ondas pasan por encima. De la misma forma, las galaxias de fondo por detrás del anillo muestran cambios coherentes en sus formas debido a la presencia del denso anillo. Aunque la materia invisible ha sido hallada previamente en otros cúmulos galácticos, los astrónomos dicen que nunca ha sido detectada tan separada del gas caliente y las galaxias que forman los cúmulos galácticos.

Los astrónomos encontraron investigaciones anteriores que sugerían que el cúmulo había colisionado con otro cúmulos hace mil o dos mil millones de años. Entonces crearon simulaciones por ordenador de las colisiones del cúmulo galáctico. Las simulaciones demostraron que cuando los dos cúmulos chocaron entre sí, la materia oscura cayó hacia el centro del cúmulo combinado y luego retrocedió. Cuando la materia oscura se movió hacia fuera, comenzó a decelerarse bajo la tirón gravitatorio y se acumuló como coches agrupados en una autopista.


Fecha Original: 15 de mayo de 2007
Enlace Original

Una mirada de la NASA más cercana al ojo de un huracán revela una nueva fuente de “combustible”

En el ojo de un furioso huracán, el clima es a menudo bastante calmado y soleado. Pero una nueva investigación de la NASA proporciona pistas sobre cómo el aparentemente suave movimiento de aire dentro y alrededor de esta región proporciona energía para mantener en funcionamiento esta central de “energía”.

En el ojo de un furioso huracán, el clima es a menudo bastante calmado y soleado. Pero una nueva investigación de la NASA proporciona pistas sobre cómo el aparentemente suave movimiento de aire dentro y alrededor de esta región proporciona energía para mantener en funcionamiento esta central de “energía”. Por primera vez los investigadores meteorólogos ha ejecutado simulaciones complejas de un huracán en aumento usando una resolución temporal muy fina de 3 minutos. La siguiente película combina estos datos de simulación con datos observacionales obtenidos del espacio e ilustraciones descriptivas que muestran cómo aumenta un huracán. Crédito: NASA GSFC Scientific Visualization Studio. Clic aquí para ver la animación

Usando simulaciones por ordenador y observaciones del Huracán Bonnie de 1998 al sur de Carolina del Norte, los científicos fueron capaces de obtener una vista detallada de un grupo remolinos de aire húmedo y cálido moviéndose desde el ojo de la tormenta hacia el anillo de potentes truenos en la pared del ojo que contribuyen a la intensificación del huracán.

Los hallazgos sugieren que el flujo de las parcelas de aire entre el ojo y el muro – considerado mayormente trivial en el pasado – es un elemento clave en la intensidad del huracán y que tiene que hay más cosas a considerar que el patrón de flujo “entrar-subir-salir”. El patrón clásico dice que cuando las parcelas de aire fluyen “entrando” a la circulación del huracán, se elevan hacia “arriba”, formando nubes de precipitación y transportando aire caliente a la atmósfera superior antes de moverse “fuera” hacia el aire que rodea el entorno.

Las nubes de la tormenta del Huracán Bonnie tomadas desde una altura de 18 kilómetros. La altura de la imagen está exagerada para mayor claridad, los colores corresponden a la precipitación de superficie de azul (ligeras) a rojo (intensas). Crédito: NASA GSFC Scientific Visualization Studio

“Nuestros resultados mejoran la comprensión de los mecanismos que juegan papeles significativos en la intensidad del huracán”, dijo Scott Braun, investigador meteorólogo en el Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland. “El flujo giratorio de parcelas de aire – o vórtices – en el ojo pueden transportar aire muy cálido y húmedo en la pared del ojo que actúa como turbocargador para el motor de calor del huracán”. La investigación aparecerá en el número de junio de 2007 de Journal of the Atmospheric Sciences de la Sociedad Meteorológica Americana.

“Aunque el patrón “entrar-subir-salir” ha sido el paradigma predominante durante las cinco décadas pasadas, al examinar de cerca los huracanes intensos se hace evidente que una segunda familia de parcelas de aire cálido a menudo viajan desde el borde de la pared del ojo hacia el ojo, donde toma humedad de la superficie del océano”, dijo el coautor Michael Montgomery, profesor de meteorología en la Escuela de Posgraduado de la Marina de los Estados Unidos en Monterey, California. “Estas parcelas de aire enriquecidas con humedad vuelven más rápidamente a la pared del ojo principal y colectivamente elevan el contenido de calor de la nube baja de la pared del ojo, de forma similar al incremento del nivel de octanaje en el combustible de un automóvil”.

Los investigadores analizaron miles de partículas virtuales para rastrear el movimiento de aire entre el muro y el ojo del muro, y entre el ojo del muro y su entorno externo. Para descubrir el impacto de estas partículas en la intensidad de la tormenta, usaron una simulación del Huracán Bonnie a partir de un modelo por ordenador y datos recopilados durante el Experimento de Humedad y Convección de la NASA (CAMEX).

Usando los datos de TRMM, se muestra el proceso de combustión del motor del huracán, mostrando cómo se relaciona con la intensificación de la tormenta o su atenuación. Crédito: NASA GSFC Conceptual Imaging Lab

La simulación también ha ayudado a explicar la formación de profundas “torres de calor” observadas en Bonnie y otros muchos huracanes por el satélite de la Misión de Medida de Lluvias Tropicales de la NASA (TRMM). TRMM porta el primer y único radar de precipitación espacial que permite a los investigadores observar a través de las nubes y obtener una vista en 3-D de la estructura de la tormenta. Capturó una torre de calor especialmente profunda en Bonnie cuando la tormenta se intensificó unos días antes de golpear Carolina del Norte.

Las torres de calor son nubes gruesas y profundas que alcanzan la parte superior de la troposfera, la capa inferior de la atmósfera, habitualmente a unos 16 kilómetros de altura en los trópicos. Las corrientes de aire ascendentes dentro de estas “torres” actúan como ascensores rápidos, acelerando el movimiento de energía que impulsa la fuerza del huracán, y son llamadas “de calor” debido a que gran cantidad de calor latente que liberan como vapor de agua se condensa en gotas en las nubes. Las torres de calor profundas en la pared del muro normalmente se asocian a una intensificación de la tormenta.

En investigaciones previas, Braun, Montgomery, y Zhaoxia Pu de la Universidad de Utah en Salt Lake City, encontraron una relación directa entre estas torres de calor profundas y los intensos vórtices en el interior del ojo. “Los vórtices se mostraban especialmente cruciales en proporcionar el foco y estímulo necesario para la formación de una torre de calor y añadir una mejor comprensión de cuándo y dónde se desarrollarán torres de calor en las tormentas”, dijo Braun. El estudio fue publicado en el número especial CAMEX de enero de 2006 de la revista Journal of the Atmospheric Sciences.

Los vórtices se crean en respuesta a los rápidos cambios en la velocidad del viento de la feroz pared del muro al calmado ojo. Cerca de la superficie, el aire gira en una espiral interna que colisiona con estos vórtices para forzar la subida del aire formando corrientes de aire ascendentes. Las corrientes de aire ascendentes fuertes en la pared del ojo llevan mucha más humedad de la normal y ayudan a crear torres de calor.

El estudio actual sugiere que además de proporcionar estímulo, estos vórtices también alimentan el aire de alta energía de la parte baja del ojo en la pared del muro, impulsando la fuerza de las corrientes de aire ascendentes. Esta transferencia de energía permite a la tormenta mantenerse más fuerte de lo esperado, particularmente cuando se encuentra con influencias que la debilitan, incluyendo temperaturas del agua oceánica frías y rachas de viento, el cambio en la dirección y velocidad del viento con la altitud.

“Este descubrimiento puede ayudar a explicar porqué las tormentas fuertes pueden mantenerse intensas durante horas o más aún tras encontrarse con condiciones que normalmente las debilitarían”, dijo Montgomery. “La investigación en marcha nos añadirá una comprensión de la dinámica asociada con la intensidad de las tormentas y de esta forma podemos señalar las variables y procesos que deben representarse en modelos numéricos para mejorar las predicciones de intensidad”.

Cuando el Huracán Bonnie comenzó finalmente a perder fuerza un par de días después de tocar tierra, una significativa cantidad de aire de la pared del ojo fue rastreada – no hacia el ojo – sino a los niveles medios de la atmósfera fuera de la tormenta. Esta flujo fue causado por rachas de viento y por la llegada de aire del entorno más frío y seco a la circulación de Bonnie, actuando como anticombustible para reducir la energía de la tormenta y debilitar sus fuertes vientos.

A pesar de estos y otros avances recientes en la comprensión del funcionamiento interno de los huracanes, predecir su intensidad es aún un reto significativo.

“La mayoría de los modelos por ordenador de los que disponemos hoy para ayudar a las predicciones no pueden tenerse suficientemente en cuenta debido a los procesos extremadamente complejos de los huracanes, y el rendimiento de los modelos depende fuertemente de la información que se le proporciona sobre la estructura de la tormenta”, dijo Braun. “También vemos normalmente sólo pequeñas partes de una tormenta en un momento dado. Debido a esto es importante combinar los datos de experimentos de campo como CAMEX con datos de TRMM y otros satélites. Conforme mejoren las tecnologías de observación y los modelos, mejorarán también las predicciones”.


Autor: Mike Bettwy
Fecha Original: 14 de mayo de 2007
Enlace Original

Estudio rastrea pulsos de CO2 liberados a la atmósfera al final de la última glaciación

Investigadores usando un barco de investigación sofisticado extraen núcleos sedimentarios de las profundidades marinas de los océanos de todo el mundo para cartografiar los pasados cambios climáticos

Investigadores de la Universidad de Colorado en Boulder, usando un barco de investigación sofisticado extrajeron núcleos sedimentarios de los océanos de todo el mundo para cartografiar los cambios climáticos en el pasado.

Un equipo de investigación liderado por laUniversidad de Colorado en Boulder traceando el origen de un gran incremento de dióxido de carbono en la atmósfera de la Tierra al final de la última glaciación han detectado dos antiguas erupciones que se originaron en las zonas más profundas de los océanos.

El nuevo estudio indica que el carbono que se había formado en los océanos a lo largo de milenios fue liberado en dos grandes pulsos, uno hace unos 18 000 años y otro hace unos 13 000, dijeron Thomas Marchitto y Scott Lehman del Instituto de Investigación Alpina y Ártica de la CU en Boulder, quienes lideraron juntos el proyecto. Aunque los científicos sabían desde hace mucho tiempo que se liberaron 600 mil millones de toneladas métricas de carbono a la atmósfera tras la última glaciación, este nuevo estudio es el primero en trazarlo con claridad. El CO2 pasó del fondo de los océanos a la parte superior y luego a la atmósfera, ésto debería ayudar a los científicos a comprender mejor los ciclos naturales del CO2 y los posibles impactos del cambio climático causado por el hombre.

“Esta es una de las pruebas más claras de que la enorme liberación de carbono a la atmósfera durante la última glaciación fue disparada por unos buscos cambios en la circulación de las profundidades oceánicas”, dijo Marchitto. Marchitto y Lehman son miembros del profesorado del Departamento de Ciencias Geológicas de CU-Boulder.

Un artículo sobre el tema apareció en la edición online del 11 de mayo de la revista Science. Los coautores del artículo incluyen a Jacqueline Flueckiger de INSTAAR, Joseph Ortiz de la Universidad de Kent State y Alexander van Geen de Observatorio Terrestre Lamont Doherty de la Universidad de Columbia. El estudio fue financiado por la Fundación Nacional de Ciencia.

Aunque gran parte del CO2 liberado por los océanos tras el final de la última glaciación hace unos 19 000 años fue asimilado por el re-crecimiento de bosques en áreas previamente cubiertas por capas de hielo, permaneció el suficientes en la atmósfera para aumentar significativamente las concentraciones de CO2, dicen los autores. Hoy, los niveles de CO2 son mayores que nunca en los pasados 650 000 años debido al incremento de la quema de combustibles fósiles.

“La época de la principal liberación de CO2 tras la última glaciación corresponde muy cercanamente con cambios en la circulación en las profundidades marinas causadas por la fusión del hielo del Atlántico Norte”, dijo Lehman. “Por lo que nuestro estudio en realidad subraya las preocupaciones actuales sobre la capacidad del océano para asimilar el CO2 de los combustibles fósiles del futuro, debido a que continúa el calentamiento casi con toda seguridad tendrá impacto en el modo y la velocidad de las circulaciones oceánicas”.

El equipo analizó núcleos sedimentarios extraídos del suelo del Océano Pacífico a una profundidad de unos 700 metros de profundidad en la costa de Baja California usando un trazador” isotópico, conocido como carbono 14, para rastrear el escape de carbono de las profundidades marinas hacia la parte superior del océano y hacia la atmósfera durante los últimos 40 000 años. Extraídos de los caparazones de diminutos organismos marinos conocidos como foraminifera – que contienen marcas químicas de agua del mar que data de decenas de miles de años – los isótopos de carbono 14 son los más comúnmente usados en datación por radiocarbono de material orgánico como madera, huesos o caparazones.

Encontraron que la “edad” del carbono 14 del agua de la parte alta del océano era básicamente constante durante los pasados 40 000 años, excepto durante el intervalo posterior a la glaciación más reciente, cuando el CO2 atmosféricos incrementó drásticamente. El estudio demuestra que el añadido a la parte superior del océano y la atmósfera a finales de la última glaciación era “muy viejo”, lo que sugiere que había sido almacenado en las profundidades del océano y aislado de la atmósfera durante miles de años, dijo Marchitto.

“Dado que el carbono 14 sirve como “trazador” y como “reloj”, fuimos capaces de demostrar que la absorción y liberación de CO2 por el océano en el pasado está íntimamente ligado a cómo y cómo de rápido circulaba el océano”, dijo Marchitto.

Los humanos han bombeado una cantidad estimada de 300 mil millones de toneladas de carbono a la atmósfera desde la Revolución Industrial, y los océanos han absorbido casi la mitad del mismo, dijo Lehman.

“Si los océanos no fuesen unos “sumideros” tan enormes para el carbono, el incremento de CO2 atmosférico en las recientes décadas sería considerablemente mayor”, dijo. “Dado que la absorción de CO2 de la superficie de la Tierra está compensándose casi por completo por la tala y quema de bosques, cualquier decremento en la absorción del CO2 de los combustibles fósiles por parte de los océanos podría colocarnos en serios problemas”, dijo Lehman.

“Cuando cambia el sistema de circulación oceánica, esto altera cómo el aguar profunda y rica en carbono sube a la superficie para liberar el carbono a la atmósfera”, dijo el Director Interino del INSTAAR Jim White, científico climático que no estuvo involucrado en el estudio. “Esto es importante no sólo para comprender porqué vinieron y se fueron las glaciaciones en el pasado, sin que es una información crucial para comprender cómo los océanos responden al futuro cambio climático”.

Los estudios de la CU-Boulder y otras instituciones en los últimos años han mostrado una nítida bajada en el hielo del Océano Ártico en las recientes décadas y una pérdida de masa de hielo en Groenlandia, lo cual algunos piensan que podría combinarse para alterar la circulación del Atlántico Norte e interrumpir los patrones de circulación oceánica mundiales.


Fecha Original: 10 de mayo de 2007
Enlace Original

Una misión podría buscar el planeta del Dr. Spock

Arriba a la izquierda: Hecho científico – La misión de búsqueda de planetas SIM PlanetQuest será capaz de detectar planetas habitables alrededor de otras estrellas. Arriba a la derecha: Ciencia ficción – la Entreprise orbitando el planeta Vulcano. (Imágenes de Star Trek por cortesía de STARTREK.COM Copyright 2007 CBS Studios Inc.)

La ciencia ficción puede convertirse pronto en hechos científicos.

Los astrónomos del Laboratorio de Propulsión a Chorro de la NASA recientemente han concluido que la siguiente misión de búsqueda de planetas, SIM PlanetQuest, sería capaz de detectar un planeta similar a la Tierra alrededor de la estrella 40 Eridani, un planeta conocido entre los aficionados a “Star Trek” como “Vulcano”. 40 Eridani, un sistema triple a 16 años luz de la Tierra, incluye una estrella enana amarillo-naranja de tipo K ligeramente más pequeña y fría que nuestro Sol. Se pensaba que Vulcano orbitaba esa estrella enana, llamada 40 Eridani A.

Cuando pensamos en que podríamos ser capaces de detectar Vulcano, la astrónomo Dr. Angelle Tanner de Caltech tenía dos preguntas: ¿Puede formarse un planeta alrededor de 40 Eridani A? ¿Puede SIM detectar tal planeta?

Consultó a un teórico planetario, Dr. Sean Raymond de la Universidad de Colorado en Boulder. “Dado que los tres miembros del sistema triple están tan alejados unos de otros [cientos de unidades astronómicas – la distancia de la Tierra al Sol], no veo razón por la que un planeta de masa similar a la Tierra no fuese capaz de formarse alrededor de la estrella principal, 40 Eridani A”, dijo.

Si existiese vida en el planeta Vulcano, la órbita del planeta caería en un dulce lugar alrededor de la estrella donde el agua líquida pudiese estar presente en su superficie. El agua es un ingrediente esencial para que un organismo vivo crezca y prospere. Para 40 Eridani A, este punto, o “zona habitable”, está a 0,6 unidades astronómicas de la estrella. Eso significa que los Vulcanianos celebrarían su cumpleaños cada seis meses.

El instrumento de SIM PlanetQuest será tan preciso que podría medir el groso de una moneda a una distancia de la Tierra a la Luna. Usando un conjunto de modelos matemáticos basados en las Leyes de Newton, Tanner fue capaz de concluir que SIM sería capaz de determinar definitivamente si hay un planeta de masa similar a la Tierra orbitando la zona habitable alrededor de 40 Eridani A, y podría también determinar su órbita.

Esta es una posibilidad bastante excitante, dado que la misión de Búsqueda de Planetas Terrestres, planeada para su lanzamiento tras el SIM, no sólo sería capaz de tomar rudimentarias “imágenes” del planeta, sino que también podría buscar signos de vida en tal planeta como metano u ozono.

Imagen conceptual comparando la zona habitable de nuestro Sol con la de 40 Eridani.

Cuando se le preguntó qué vida habría en Vulcano, Tanner especuló que los habitantes serían pálidos. “Una estrella enana K emite su luz en longitudes de onda un poco más al rojo que las de nuestro Sol, por lo que sería bastante complicado broncearse allí”, dijo.

Los resultados de las simulaciones de Tanner se enviarán para su publicación en Publications of the Astronomical Society of the Pacific.

Para más información sobre la búsqueda de NASA de nuevos mundos visite el sitio web de PlanetQuest en http://planetquest.jpl.nasa.gov.


Fecha Original: 7 de mayo 2007
Enlace Original

Extraer los pasos de un dinosaurio salvados mediante un láser y un ordenador portátil

Un tenue rastro de dinosaurio desenterrado en una cantera española ha sido preservada digitalmente por expertos de la Universidad de Manchester usando la última tecnología láser.

El emplazamiento de Fumanya, en la región de Bergueda de Cataluña central, es tan delicado que los expertos no pueden acercase físicamente lo bastante a los rastros para examinarlos.

En los años transcurridos desde que se descubrieron las huellas, éstas han estado expuestas a los elementos, y como resultado están severamente desgastadas y se erosionan a gran velocidad.

Para hacer las cosas aún más difíciles, las huellas están impresas en las caras casi verticales de las rocas.

Los paleontólogos temían que los rastros pudiesen perderse para siempre – pero se ha realizado una permanente y detallada grabación usando un equipo de última tecnología.

Usando un sistema de escaneo por láser de alta tecnología llamado RIEGL, los investigadores de la Escuela de la Tierra, Atmósfera y Medio Ambiente han producido un modelo 3D interactivo de una cara de la cantera cubierta de miles de huellas dejadas por dinosaurios a finales del Cretácico, incluyendo saurópodos y posiblemente dinosaurios terópodos predadores.

El sistema portátil, que está alimentado por una batería, funciona por rotación e ignición de rayos láser, los cuales reflejan las caras de la cantera de vuelta al receptor. El dispositivo entonces cruza las referencias de los reflejos con una cámara digital empotrada y un GPS, y envía la información a un ordenador portátil adjunto. Entonces se usa un software para crear un preciso y detallado modelo por ordenador en 3D de la localización.

Esta tecnología ha permitido a los investigadores examinar de cerca y analizar las huellas de cantera española desde muchos ángulos distintos e incluso de dentro hacia fuera.

Esta información es muy importante para los paleontólogos y los expertos en locomoción de dinosaurios, debido a que da una nueva visión sobre la forma en que los dinosaurios se movían y el entorno en el que vivían.

El proyecto en curso – que se realiza en colaboración con la Universidad Autónoma de Barcelona – está liderado por el paleontólogo Dr Phil Manning, quien recibió un fondo de 9000 euros del Consorcio Ruta Minera para patrocinar el escaneador láser.

El modelado por ordenador para el proyecto fue realizado por Dr David Hodgetts, profesor en Modelado de Reservas y Geología del Petróleo.

El estudiante Karl Bates, que está actualmente llevando a cabo una investigación de posgraduado sobre la locomoción de los dinosaurios, trabajó en las huellas de Fumanya para su proyecto de grado.

Karl dijo: “Debido al frágil entorno y la sensibilidad del lugar no podíamos tener un contacto directo y por tanto todas las medidas debían tomarse de forma remota.

El Dr Manning añadió: “El escaneo por láser permite una cartografía digital 3D rápida y de alta resolución para un lugar que de otra forma sería inaccesible. Las rutas generadas por ordenador que hemos creado guardan una importante información sobre la locomoción de los dinosaurios, la cual podrá ser accedida de forma adecuada por primera vez”.

Llevó cuatro días al equipo de la Escuela de la Tierra, Atmósfera y Ciencias Medio Ambientales recopilar la información necesaria para crear un modelo exhaustivo de la cantera, aunque algunos resultados iniciales estaban disponibles en sólo 15 minutos.

La cantera, que está al norte de Barcelona, aún estaba activa hace poco, pero hay planes para hacer de la misma un lugar de interés científico especial.

El Dr Manning fue parte del equipo de la UNESCO que evaluó inicialmente la ruta de localidades en el norte de España, como parte de la aplicación pendiente de un Lugar de Patrimonio Mundial de la Península Ibérica.

Aunque las huellas están impresas en la cara del risco vertical, la superficie sobre la que viajaron los dinosaurios hace millones de años pudo haber sido plana.

La Escuela de Tierra, Atmósfera y Ciencias Medio Ambientales fue el primer departamento académico en el país en adquirir el equipo de escaneo RIEGL.

Sólo otro departamento en el Reino Unido puede presumir de tal equipo.

El equipo normalmente es usado en la exploración petrolera, pero este proyecto es la primera vez que la universidad lo ha usado para crear imágenes de huellas de dinosaurios.

El Dr Manning también ha extendido el uso del escáner para la investigación paleontológica en la Formación de Hell Creek en los Estados Unidos, hogar del famoso Tyrannosaurus Rex.


La Escuela de la Tierra, Atmósfera y Ciencias Medio Ambientales (SEAES) es parte de la Facultad de Ingeniería y Ciencias Físicas. Para más información: http://www.manchester.ac.uk/eps

Para más información sobre la Universidad Autónoma de Barcelona ver: http://www.uab.es

El sistema de escaneo láser portátil RIEGL LMS Z420i fue proporcionado a la Universidad de Manchester por 3D Laser Mapping Ltd. Para más información ver http://www.3dlasermapping.com


Fecha Original:
8 de mayo de 2007
Enlace Original

El ADN enlaza los aborígenes con el vagar africano

Los investigadores han producido una nueva prueba de ADN que confirma casi con certeza la teoría de que todos los humanos modernos tienen un ancestro común.

La investigación genética, producida por un equipo de colaboración liderado por eruditos de las Universidades de Cambridge y de Anglia Ruskin, demuestra que la población aborigen de Australia surgió del mismo pequeño grupo de colonos, junto con sus vecinos de Nueva Guinea.

Esta investigación confirma que la hipótesis “Fuera de África” de que todos los humanos modernos procedemos de un único grupo de Homo Sapiens que emigró desde África hace 2000 generaciones y se dispersó por Eurasia durante miles de años. Estos colones reemplazaron a otros de los primeros humanos (como los Neandertales), en lugar de interreproducirse con ellos.

Los teóricos analizaron el ADN mitocondrial (mtDNA) y el ADN del cromosoma Y de los aborígenes australianos y los melanesios de Nueva Guinea. Estos datos fueron comparados con distintos patrones de ADN asociados con los primeros humanos. La investigación fue un esfuerzo internacional, con investigadores procedentes de Tartu en Estonia, Oxford, y Stanford en California todos contribuyendo con datos clave y su experiencia.

Los resultados muestran que tanto los aborígenes como los melanesios comparten características genéticas que han estado vinculadas al éxodo de los humanos modernos de África hace 50 000 años.

Hasta ahora, una de las principales razones para dudar de la teoría “Fuera de África” era la existencia de una prueba inconsistente en Australia. Los restos de herramientas y esqueletales encontrados allí eran radicalmente distintos de aquellos encontrados en cualquier otra parte de la “autopista costera” – la ruta que tomaron los primeros colonos del Sur de Asia.

Algunos teóricos argumentan que estas discrepancias existen debido a que los primeros colonos se reprodujeron con la población local de Homo Erectus, o debido a que hubo una siguiente y segunda migración desde África. Ambas explicaciones socavarían la teoría de un origen único y común para los humanos de los días modernos.

Pero en la última investigación no se hallaron pruebas de una herencia genética del Homo Erectus, lo que indica que los colonos no se mezclaron con ellos y que esta gente además comparte los mismos ancestros directos que otros grupos eurasiáticos.

El genetista Dr Peter Forster, que lideró la investigación, dijo: “Aunque se ha especulado que las poblaciones de Australia y Nueva Guinea vinieron de los mismos ancestros, el registro fósil difiere tan significativamente que ha sido difícil probarlo. Por primera vez, esta evidencia nos da un vínculo genético que demuestra que los aborígenes australianos y las poblaciones de Nueva Guinea descienden directamente del mismo grupo específico de gente que surgió de la migración africana”.

En la época de la migración, hace 50 000 años, Australia y Nueva Guinea estaban unidas por un puente de tierra y la región sólo estaba separada de la masa principal eurasiática por angostos estrechos como la Línea de Wallace en Indonesia. El puente de tierra se sumergió hace unos 8000 años.

El nuevo estudio también explica porqué los fósiles y registros arqueológicos de Australia son tan distintos de los encontrados en otros sitios incluso aunque el registro genético no muestre pruebas de mestizaje con el Homo Erectus, e indique un único evento de colonización paleolítica.

Los patrones de ADN de las poblaciones australianas y melanesias muestran que la población evolucionó en un aislamiento relativo. Los dos grupos también comparten ciertas características genéticas que no se encuentran más allá de Melanesia. Esto sugeriría que hubo muy poco flujo genético en Australia tras la migración original.

El Dr Toomas Kivisild, del Departamento de Antropología Biológica de la Universidad de Cambridge, quien es coautor del informe, dijo: “La prueba apunta a un aislamiento relativo tras la llegada inicial, lo que significaría que ningún desarrollo significativo en las formas esqueletales y el uso de herramientas fue influenciado por el fuentes externas”.

“Probablemente hubo un menor flujo de genes secundario en Australia cuando el puente de tierra de Nueva Guinea se abrió de nuevo, pero una vez se sumergió la población quedó aparentemente aislada durante miles de años. Las diferencias en los registros arqueológicos son posiblemente el resultado de esto más que de alguna migración secundaria o mestizaje”.

El estudio será publicado en el nuevo número de Proceedings of the National Academy of Sciences.


Fecha Original: 8 de mayo de 2007
Enlace Original

Profesor de la UCF encuentra el planeta extrasolar más caliente medido hasta ahora con 2000 grados

Imagen de NASA/JPL-Caltech. Concepto artístico del planeta más cálido, la fuente de la última investigación del Profesor de la UCF Joseph Harrington.

El Profesor de Física de la Universidad Central de Florida Joseph Harrington y su equipo han medido el planeta más caliente hasta el momento a una temperatura de 2000 grados Celsius.

“HD 149026b es simplemente el planeta más exótico y extravagante”, dijo Harrington. “Es bastante pequeño, verdaderamente denso y ahora sabemos que extremadamente caliente”.

Usando el telescopio espacial infrarrojo Spitzer de NASA, Harrington y su equipo observaron que el diminuto planeta desaparecía tras la estrella y reaparecía. Aunque el planeta no puede verse separado de la estrella, la atenuación de la luz que llega a Spitzer le dijo a los científicos cuanta luz emite el calor del planeta. A partir de esto dedujeron la temperatura en el lado del planeta que mira hacia la estrella. Los hallazgos del equipo serán publicados en la edición online de Nature de hoy.

Descubierto en 2005, HD 149026b es un poco más pequeño que Saturno, haciendo del mismo el planeta extrasolar más pequeño con un tamaño medido. Sin embargo, es más masivo que Saturno, y se sospecha que tenga un núcleo entre 70 y 90 veces más masivo que toda la Tierra. Tiene más elementos pesados (materiales que no son hidrógeno ni helio) de los que hay en todo nuestro Sistema Solar, excluyendo al Sol.

Existen más de 230 planetas extrasolares, pero éste es sólo uno de los cuatro a los que se ha medido su temperatura directamente. Es simple explicar la temperatura de los otros tres planetas. Sin embargo, para llegar a los 2000 grados de HD 149026b, debe absorber esencialmente toda la luz estelar que recibe. Esto significa que la superficie debe ser más negra que el carbón, lo que no tiene precedente en un planeta. El planeta también tendría que re-irradiar toda la energía en el espectro infrarrojo.

“El alto calor haría que el planeta brillase ligeramente, por lo que parecería una brasa en el espacio, absorbiendo toda la luz entrante salvo la que irradia en un rojo mate”, dijo Harrington.

Drake Deming, del Centro de Vuelo Espacial Goddard de NASA en Greenbelt, Maryland, y coautor del artículo de Nature, cree que los teóricos van a tener muchos quebraderos de cabeza con este planeta.

“Este planeta está fuera de la escala de temperatura que esperamos para los planetas, por lo que no sabemos en realidad qué está pasando”, dijo Deming. “Podríamos tener más sorpresas en el futuro”.

El equipo de Harrington en este proyecto también incluye a Statia Luszcz del Centro de Radiofísica e Investigación Espacial de la Universidad de Cornell, quien es un estudiante graduado de la Universidad de California en Berkeley. Sara Seager, teórica en el Departamento de Tierra, Atmósfera y Ciencias Planetarias y Física del Instituto Tecnológico de Massachusetts, y Jeremy Richardson, observador del Laboratorio de Astrofísica steñar y Exoplanetas en NASA Goddard, completando el equipo.

Harrington no es un extraño en el tema de hallazgos significativos. Su investigación se publicó en la revista Science en octubre de 2006 y en Nature en febrero de 2007. En aquellos primeros artículos, el equipo de Harrington usó el Spitzer para hacer las primeras medidas de la variación de temperatura entre el día y la noche en un distinto planeta extrasolar. Esta investigación encontró que un gigante gaseoso similar a Júpiter que orbitaba muy cerca de su estrella estaba tan caliente como el fuego en un lado y potencialmente tan frío como el hielo en el otro, una condiciín que podría mantenerse para HD 149026b.

La publicación de febrero documentó un logro de referencia. En un proyecto liderado por Richardson, el grupo captó la suficiente luz de un exoplaneta para dispersarla en un espectro y hallar las firmas de las moléculas en la atmósfera del planeta – un paso clave hacia ser capaces de detectar vida en mundos alienígenas.

El equipo de Harrington salió bien parado de la dura competición de este año de tiempo de observación de la instalación infrarroja orbital de NASA. Observarán HD 149026b usando todos los instrumentos de Spitzer en el año próximo, para obtener una mejor comprensión de la atmósfera del planeta.

Harrington es profesor en el creciente programa de la UCF de ciencias planetarias.

El Laboratorio de Propulsión a Chorro de NASA en Pasadena, California, derige la misión del Telescopio Espacial Spitzer para el Consejo de la Misión Cienctífica de NASA. Las operaciones científicas se llevan a cabo en el Centro de Ciencia de Spitzer en en Instituto de Tecnología de California. Caltech dirige el JPL para NASA.


Autor: Zenaida Gonzalez Kotala
Fecha Original: 9 de mayo de 2007
Enlace Original

La búsqueda de la quinta fuerza se centra en el Cúmulo Bala

Observando la velocidad de la colisión entre los dos cúmulos galácticos en el Cúmulo Bala, Glennys Farrar y Rachel Rosen de la Universidad de Nueva York en los Estados Unidos creen que podrían ser capaces de ver si la materia oscura interactúa a través de una “quinta fuerza” además de las cuatro que predice nuestro actual Modelo Estándar de la física de partículas. (Imagen cortesía de NASA)

Muchos físicos te dirán felizmente que el universo está principalmente compuesto de una sustancia llamada materia oscura, pero pide una respuesta definitiva o por qué aún no la hemos vislumbrado aún y te encontrarás con una cara pálida. Los investigadores de los Estados Unidos, sin embargo, creen que la respuesta podría encontrarse en los restos de la colisión de dos cúmulos galácticos, donde pueden haber captado un vistazo fugaz de la materia oscura interactuando a través de una “quinta fuerza” de largo alcance. Si existe esta quinta fuerza, el Modelo Estándar de física de partículas actual, que ha estado con nosotros durante casi 30 años, requeriría de una profunda revisión (Phys. Rev. Lett. 98 171302).

De acuerdo con nuestras probadas y comprobadas leyes de la gravedad, las galaxias no tienen suficiente materia visible cercana para mantenerse unidas mientras rotan. Esta es la razón principal por la que los físicos piensan que deben contener un componente extra de “materia oscura”, que tal y como sugiere su nombre se ha mantenido oculta pesar de todos nuestros intentos por observarla directamente. Esto podría ser debido a que las interacciones con la materia común son tan débiles que han pasado por debajo del umbral de detección de todos los experimentos de laboratorio actuales de la Tierra. Por otra parte, podría interactuar a través de alguna fuerza de largo alcance distinta de las cuatro fuerzas que aparecen en el Modelo Estándar establecido, lo que significa que sólo sería revelado indirectamente estudiando grandes objetos tales como las galaxias.

Seguir Leyendo…

Los egipcios, y no los griegos, fueron los verdaderos padres de la medicina

Científicos que han investigado documentos fechados hace 3500 años dicen que han encontrado pruebas de que los orígenes de la medicina moderna recaen sobre el antiguo Egipto y no sobre Hipócrates y los griegos.

El equipo de investigación del Centro KNH para Egiptología Biomédica en la Universidad de Manchester descubrió la prueba en un papiro médico escrito en el 1500 A.C – 1000 años antes de que naciera Hipócrates.

“Los eruditos clásicos siempre han considerado a los griegos, particularmente a Hipócrates, como los padres de la medicina pero nuestros hallazgos sugieren que los antiguos egipcios practicaban una forma creíble de farmacia y medicina mucho antes”, dijo el Dr Jackie Campbell.

“Cuando comparamos los antiguos remedios con los protocolos y estándares modernos de farmacia, encontramos las prescripciones en los antiguos documentos no sólo son comparable con las preparaciones farmacéuticas de hoy, sino que muchos de los remedios tenían un mérito terapéutico”.

Los documentos médicos, los cuales se descubrieron por primera vez a mediados del siglo XIX, demostraron que los antiguos galenos egipcios trataban las heridas con miel, resinas y metales conocidos por ser antimicrobianos.

El equipo también descubrió prescripciones para laxantes de aceite de ricino y coloquíntida (pepino amargo) y laxantes masivos de higos y salvado. Otras referencias muestra que el cólico se trataba con beleño, el cual se usa todavía hoy, y el comino y cilantro eran usados para los gases intestinales.

Posteriores pruebas demostraron que los desórdenes músculo-esqueléticos eran tratados con sustancias que irritan la piel para estimular el flujo sanguíneo y cataplasmas para mantener cálido y aliviar. Usaban apio y azafrán para el reumatismo, que son actualmente temas de investigación farmacéutica, y granadas para erradicar la tenia, un remedio que permaneció en uso clínico hasta hace 50 años.

“Muchos de los antiguos remedios que descubrimos sobrevivieron hasta el siglo XX, e incluso, algunos permanecen hoy en uso, aunque los componentes activos se producen hoy de forma sintética”, dijo el Dr Campbell.

“Otros ingredientes aún perduran y la acacia aún se usa en remedios contra la tos mientras que el aloe forma la base para aliviar y curar las condiciones de la piel”.

El investigador asociado Dr Ryan Metcalfe está desarrollando ahora técnicas genéticas para investigar las plantas medicinales del antiguo Egipto. Ha diseñado su investigación para determinar qué especies modernas están más relacionadas con las antiguas muestras botánicas.

“Esto podría permitirnos determinar un probable punto de origen para la planta además de proporcionar pruebas adicionales para las rutas comerciales, cultivo decidido, centros de comercio o lugares de tratamiento”, dijo el Dr Metcalfe.

“El trabajo está inextricablemente vinculado a los análisis químicos de vanguardia usados por mi colega Judith Seath, que es especialista en aceites esenciales y las resinas usadas por los antiguos egipcios”.

La Profesora Rosalie David, Directora del Centro KNH, dijo: “Estos resultados son muy significativos y demuestran que los antiguos egipcios practicaban una forma creíble de farmacia mucho antes que los griegos”.

“Nuestra investigación continua en la genética, química y base comparativa para comparar las plantas medicinales del antiguo Egipto con las especies modernas y para investigar similitudes entre los remedios tradicionales del Norte de África y los que usaron sus antepasados en el 1500 A.C”.



Fuente Original: Universidad de Manchester
Fecha Original: 9 de mayo de 2007
Enlace Original

Los viejos cohetes llevan bacterias hacia las estrellas

Las fases abandonadas de los cohetes que propulsaron cuatro naves espaciales hacia los límites de nuestro Sistema Solar y más allá probablemente llevan bacterias terrestres hacia la galaxia.
Las cuatro fases superiores de los cohetes “STAR”, también conocidos como motores rápidos son los responsables de arrancar a las Voyager 1, Voyager 2 y Pioneer 10 de los límites del Sistema Solar, así como de enviar la nave New Horizons de la NASA a Plutón. Las fases del cohete están ellas mismas en camino, moviéndose más allá de la influencia del Sol en el espacio interestelar.

Aunque sus papeles fueron vitales para sus respectivas misiones, las fases superiores no tuvieron un trato tan generoso como las naves a las que acompañaban.

“Las fases superiores no requerían de esterilización”, dijo John Rummel, científico senior de astrobiología en la NASA. Sólo había una directiva principal: “Sus requisitos eran no chocar contra ninguno de los planetas de nuestro Sistema Solar”, una precaución necesaria debido a que las fases de los cohetes casi con seguridad harían de anfitriones a bacterias terrestres.

Estas bacterias habrían sido colocadas por las manos y el aliento de los ingenieros que construyeron las fases superiores.

Sobrevivir en el espacio

Los viajeros interestelares microscópicos están ahora en camino hacia el exterior de nuestro Sistema Solar a velocidades de entre 11 y 18 kilómetros por segundo, pero ¿están vivas?

“La supervivencia es más probable que la “prosperidad”’”, dijo Mark Burchell de la Universidad de Kent en el Reino Unido. Las frías temperaturas probablemente sumergirían a los microbios en un estado similar a la hibernación llamado estado de espora.

Hay bacterias que han revivido en la Tierra tras millones de años de letargo y los experimentos que involucran la exposición de bacterias y líquenes al espacio han revelado lo resistentes que son estos simples organismos.

Entonces, ¿cuánto tiempo puede sobrevivir un microbio en el espacio enganchado en un cohete? “Esto aún se está debatiendo”, dijo Burchell. “¿1000 años? ¿100 000 años? No lo sabemos”.

Los cinturones de radiación podrían haber esterilizado las bacterias cuando las fases superiores alcanzaron Júpiter. La fase superior de la Pioneer 10 pasó cerca del planeta gigante y sufrió unos niveles de radiación muchas veces superiores a los que serían letales para los humanos cuando se sumergió en los cinturones de radiación de Júpiter. Pero tal vez algunos hayan sobrevivido.

“Algunas bacterias son bastante más duras que los humanos, por lo que probablemente no haya sido suficiente para acabar con las bacterias protegidas en el interior de la fase superior”, dijo Rummel.

Pocas posibilidades

La fase superior del Voyager 1 ha estad en el espacio durante casi 30 años. Su diminuta carga tiene muchos miles de millones de años de viaje por delante.

En 40 000 años, este caprichoso trozo de metal de 84 kilogramos pasará por la estrella AC+79 3888 a una distancia de 1,64 años luz. AC+79 3888 es una estrella enana y su débil energía es improbable que sirva para revivir a las bacterias durmientes. Debe pasar mucho más tiempo para que las fases superiores encuentren una estrella con un entorno apropiado para los organismos terrestres.

“Salir del Sistema Solar no es en realidad el problema”, dijo Burchell a SPACE.com. “El problema es que entonces entres en otro sistema solar y seas capturado por un planeta. Las opciones de esto son remotamente pequeñas”.

Dada la enorme cantidad de tiempo que queda por delante de estos cuatro cohetes descartados, al menos uno es posible que finalmente encuentre un planeta. Pero incluso si el entorno de este planeta es propicio para la vida, las bacterias no chapotearán suavemente en algún océano exótico. No les espera un aterrizaje suave.

“Llegar a otro sistema solar es una cosa, pero detenerse de una forma no destructiva es otra muy distinta”, dijo Rummel.


Autor: David Powell
Fecha Original: 8 de mayo de 2007
Enlace Original

Chandra ve la supernova más brillante jamás observada

La explosión estelar más brillante jamás registrada puede ser un nuevo tipo de supernova que se ha buscado durante mucho tiempo, de acuerdo de con las observaciones realizadas por el Observatorio de rayos-X Chandra de la NASA y telescopios ópticos terrestres. Este descubrimiento indica que las violentas explosiones de estrellas masivas eran relativamente comunes en los inicios del universo, y que explosiones similares pueden estar listas para estallar en nuestra propia galaxia.

“Esta fue una explosión verdaderamente monstruosa, cien veces más energética que una supernova típica”, dijo Nathan Smith de la Universidad de California en Berkeley, quien lidera un equipo de astrónomos de California y de la Universidad de Texas en Austin. “Esto significa que la estrella que ha explotado podría haber sido tan masiva como puede llegar a ser una estrella, unas 150 veces más que nuestro Sol. Nunca antes habíamos visto algo así”.

Ilustración artística de la supernova SN 2006gy. Crédito: Ilustración: NASA/CXC/M.Weiss; X-ray: NASA/CXC/UC Berkeley/N.Smith et al.; IR: Lick/UC Berkeley/J.Bloom & C.Hansen

Los astrónomos creen que muchas de las estrellas de primera generación era tan masivas como esta, y que este nuevo tipo de supernova puede por tanto proporcionar un extraño destello de cómo murieron las estrellas. Es algo sin precedente, sin embargo, encontrar una estrella tan masiva y ser testigos de su muerte. El descubrimiento de la supernova, conocida como SN 2006gy, proporciona la prueba de que la muerte de estrellas tan masivas es fundamentalmente distinta de las predicciones teóricas.

“De todas las estrellas en explosión que hemos observado nunca, esta es el rey”, dijo Alex Filippenko, jefe de las observaciones terrestres en el Observatorio Lick en el Monte Hamilton, California, y en el Observatorio Keck en Mauna Kea, Hawaii. “Estábamos atónitos observando el brillo que alcanzaba y el tiempo que duró”.

La observación de Chandra permitió al equipo descartar la explicación alternativa más probable para la supernova: que una enana blanca con una masa ligeramente mayor que el Sol hubiese explotado en un entorno denso rico en hidrógeno. En tal evento, SN 2006gy debería haber sido 1000 veces más brillante en rayos-X de lo que detectó Chandra.

“Esto proporciona una prueba contundente de que SN 2006gy era, de hecho, la muerte de una estrella extremadamente masiva”, dijo Dave Pooley de la Universidad de California en Berkeley, quien lideró las observaciones de Chandra.

La estrella que produjo a SN 2006gy expelió aparentemente una gran cantidad de masa antes de su explosión. Esta gran pérdida de masa es similar a lo que vimos en Eta Carinae, una estrella masiva de nuestra galaxia, levantando sospechas de que Eta Carinae puede estar lista para explotar como una supernova. Aunque SN 2006gy es intrínsecamente la supernova más brillante jamás observada, está en galaxia NGC 1260, a unos 240 millones de años luz de distancia. Sin embargo, Eta Carinae está sólo a 7500 años luz de distancia en nuestra Vía Láctea.

“No sabemos con seguridad si Eta Carinae explotará pronto, pero haremos bien en echarle un ojo por si acaso”, dijo Mario Livio del Instituto del Telescopio Espacial en Baltimore, quien no estaba involucrado en la investigación. “La explosión de Eta Carinae podría ser el mejor espectáculo estelar de la historia de la civilización moderna”.

Las supernovas normalmente suceden cuando una estrella masiva agota su combustible y se colapsa bajo su propia gravedad. En el caso de SN 2006gy, los astrónomos piensan que un efecto muy distinto puede haber disparado la explosión. Bajo ciertas condiciones, el núcleo de una estrella masiva producen tanta radiación gamma que parte de la energía de esta radiación se convierte en pares de partículas y antipartículas. La caída de energía resultante causa el colapso de la estrella bajo su propia gravedad descomunal.

Tras este violento colapso, las reacciones termonucleares desatadas continúan y la estrella explota, lanzando los resto al espacio. Los datos de SN 2006gy sugieren que las espectaculares supernovas de las primeras estrellas – en lugar de colapsar completamente en un agujero negro como se teorizaba previamente – pueden ser más comunes de lo que se pensaba previamente.

“En términos de efectos en los inicios del universo, hay una enorme diferencia entre ambas posibilidades”, dijo Smith. “Uno contamina la galaxia con grandes cantidades de elementos de nueva creación y el otro los bloquea para siempre en un agujero negro”.

Los resultados de Smith y sus colegas aparecerán en The Astrophysical Journal. El Centro de Vuelo Espacial Marshall de la NASA en Huntsville, Alabama, dirige el programa Chandra para el Consejo de Administración de la Misión Científica de la agencia. El Observatorio Astrofísico Smithsoniano controla las operaciones de vuelo y científicas del Centro de rayos-X Chandra en Cambridge, Massachussets. Más información disponible e imágenes disponibles en: http://www.nasa.gov/chandra/


Fecha Original: 07 de mayo de 2007
Enlace Original

Vida y Legado de Carl Sagan como científico, profesor y escéptico

Carl Sagan

En este nuevo recuerdo de Carl Sagan, que murió hace diez años, un renombrado científico planetario y colega (y antiguo estudiante de Sagan) recuerda las inmensas contribuciones de Sagan a la investigación planetaria, la comprensión pública y el movimiento escéptico.

Carl Sagan era el científico más conocido en el pasado siglo XX, sirviéndonos como guía a los planetas durante la época dorada de la exploración del Sistema Solar. Fue un visionario y un comprometido defensor del pensamiento científico racional. Sagan murió el 20 de diciembre de 1996, cuando sólo tenía 62 años, y se le ha echado mucho de menos en la pasada década. Además de mi propio conocimiento y comprensión sobre sus contribuciones científicas y escépticas, he hecho un uso extensivo de dos excelentes biografías narrativas de William Poundstone (1999) y Keay Davidson (1999). Poundstone se centra más en la ciencia de Sagan, Davidson en su historia personal. Ninguno de los dos, sin embargo, enfatiza su papel como escéptico.

Seguir Leyendo…