Los astrónomos definen la masa del antiguo “décimo planeta”

Plutón no puede tomarse un respiro. Fue ignominiosamente rebajado al estatus de “planeta enano” después de que se descubriese un mundo helados mayor en el sistema solar externo. Ahora, las nuevas observaciones han definido la masa del mundo, llamado Eris, revelando que sobrepasa a Plutón por un considerable 27%.

Esta imagen del Observatorio Keck muestra a Eris en el centro y a Disnomia como un pequeño punto en la posición de las 3 (Imagen: Observatorio WM Keck)

Pero Plutón parece tener la mano más alta en un tema – tiene tres lunas, mientras que las observaciones sugieren que Eris sólo tiene una.

Debido a que su diámetro es ligeramente mayor que el de Plutón, Eris fue apodado como el “décimo planeta” cuando se anunció su descubrimiento en 2005. Tras reiniciar el debate sobre la definición de planeta, se convirtió en el “planeta enano” más grande – una nueva categoría de objetos que incluía a Plutón – cuando los astrónomos definieron oficialmente el término en 2006.

Desde que se encontró que Eris tenía una pequeña luna de 1/16 de su tamaño, los astrónomos sabían que podrían observar la órbita de la luna para calcular la masa de Eris, usando una simple ecuación derivada por el astrónomo del siglo XVI Johannes Kepler.

Ahora, los investigadores de Caltech Michael Brown y Emily Schaller han observado la luna, llamada Disnomia, durante siete noches entre 2005 y 2006 usando el Observatorio Keck Observatory en Hawaii, Estados Unidos, y el Telescopio Espacial Hubble. Parece ser una órbita circular de 15 días, lo que sugiere que Eris tiene una masa de 17 trillones de toneladas – lo que la hace un 27% más masivo que Plutón.

Dado que Eris es mayor que Plutón en tamaño – abarcando 2400 km comparado con el diámetro de 2320 km de Plutón – su mayor masa no es especialmente sorprendente. Tampoco es sorprendente su densidad – calculada a partir de su masa y tamaño físico; parece similar a la de Plutón, lo que sugiere que Eris está hecho de hielo y roca.

Retrato de familia

Pero los investigadores dicen que la capacidad de hacer las medidas es un avance clave. “Durante u largo tiempo, Plutón fue el único objeto del Sistema Solar exterior que era lo bastante brillante como para estudiarlo en detalle y era una especie de bola extraña allí fuera”, dijo Brown a New Scientist. “Pero ahora somos capaces de estudiar mucho más de estos nuevos planetas enanos y estamos empezando a ver cómo funciona la familia completa”.

Las observaciones, sin embargo, generaron un nuevo misterio. No revelaron ninguna otra luna junto a Disnomia, la cual se piensa que se ha fusionado a partir de los restos de una antigua colisión en el Sistema Solar externo.

Plutón, por otra parte, tiene tres lunas – una grande llamada Caronte y dos pequeños satélites descubiertos en 2005. Las tres lunas de Plutón caen en una órbita circular y tienen el mismo color, lo que sugiere que se formaron en a partir de una única y violenta explosión que involucró a Plutón y otro gran cuerpo en los inicios del Sistema Solar. También se piensa que una gran colisión habría generado las lunas múltiples que orbitan otro gran cuerpo distante llamado 2003 EL61.

“Esta fue la mayor sorpresa – pasamos varias horas mirando fijamente a Eris con el Telescopio Espacial Hubble pensando que ciertamente veríamos lunas adicionales, pero no apareció nada”, dice Brown. “Aún estamos intentando comprender esto”.

En los próximos meses, Brown observará Eris y Disnomia de nuevo con Hubble, con la esperanza de aprender sobre la composición de Dysnomia. “Nuestra hipótesis es que cualquier cosa hecha a partir de una colisión gigante como se fusionaría a partir del hielo del agua, y debería ser un gigantesco cubo de hielo”, dijo.


Autor: Maggie McKee
Fecha Original: 14 de junio de 2007
Revista de Referencia: Science (vol 316, p 1585)
Enlace Original

Telescopio automático apunta a explosiones a la velocidad de la luz

Algunas estrellas moribundas arden sin llamas en la oscuridad mientras que otras se despojan rápidamente de su cobertura de gases calientes. Pero algunas terminan con un estallido, propulsando sus restos a través del cosmos a más de un 99,9997 por ciento de la velocidad de la luz – el límite de velocidad máxima del universo.

Ilustración de la explosión inicial en la muerte de una estrella masiva. Los astrónomos creen que eventos increíblemente grandes de este tipo almacenan bastante energía para crear estallidos de rayos gamma — y acelerar la materia a un 99,9997 por ciento de la velocidad de la luz. Crédito: NASA/GSFC/Dana Bery

Usando un telescopio robótico en el Observatorio de La Silla de la Organización Espacial Europea en Chile, llamado Telescopio de Montura de Ojo Rápido (REM), los astrónomos han medido por primera vez las velocidades, anteriormente teóricas, de las explosiones conocidas como estallidos de rayos gamma.

“Esto es muy excitante”,dijo Stan Woosley, astrónomo y astrofísico de la Universidad de California que no estuvo involucrado en la investigación. Woosley dijo que la energía hallada en las explosiones “pone a prueba los modelos” imponiendo cómo de rápido puede ir la materia.

Los hallazgos están detallados en el último número de la revista Astronomy & Astrophysics.

Observaciones rápidas

Las explosiones duran apenas de unos segundos a varios minutos y su intensa energía está en longitudes de onda tan cortas que no podemos verlas, por lo que un método sincronización y registro automático es crítico para poder captar una.

Emilio Molinari, astrónomo en el Observatorio Astronómico Brera en Italia y coautor del estudio, dijo que la observación fue posible gracias a las rápidas observaciones automáticas de las principales catástrofes galácticas.

“Ahora podemos estudiar con gran detalle los primeros momentos que siguen a estas catástrofes cósmicas”, dijo Molinari.

En dos eventos distintos, el 18 de abril y el 7 de junio del año pasado, el satélite Swift de la NASA detectó una brillante explosión de rayos gamma y lo notificó inmediatamente al pequeño telescopio REM. Sólo 40 segundos tras cada explosión, el observador robótico giró y apuntó sus lentes hacia el evento. Aunque las explosiones iniciales fueron en un principio invisibles, la intensa energía calentó el gas cercano el cual podía verse en la luz infrarroja cercana del telescopio.

Velocidad Warp

Estudiando el cambio de brillo de ambos estallidos, los astrónomos midieron a qué velocidad se movía la incontrolada materia de los estallidos. Los astrofísicos usaron un sistema especial para fijar la velocidad de la materia, llamado factor de Lorentz – cuanto mayor es el número, más cercano está a la velocidad de la luz.

En el caso de ambos estallidos, el factor de Lorentz fue de 400 – una observación sin precedentes hasta el momento.

Stefano Covino, otro coautor del estudio y astrónomo del Observatorio Astronómico Brera, dijo que la velocidad no era la única cifra impresionante.

“Aunque las partículas individuales pueden acelerarse a velocidades aún mayores, los casos presentes son el equivalente a 200 veces la masa de la Tierra adquiriendo esta increíble velocidad”, dijo Covino.

“Con toda certeza no te gustaría estar en su camino”, dijo Susanna Vergani, otro miembro del equipo.

Ahora que el equipo ha realizado estas sorprendentes observaciones, están intentando explicarlas de alguna forma. “La siguiente pregunta es qué tipo de “motor” puede acelerar la materia a estas enormes velocidades”, dijo Covino.


Autor: Dave Mosher
Fecha Original: 13 de junio de 2007
Enlace Original

Teoría Física explica patrones humanos

Ingenieros y sociólogos colaboran en una Teoría de la Dinámica Social
¿Por qué las vías del tren parecen un río? ¿Por qué las calles de la antigua Roma parecen una hoja? Ya sea porque su forma esté determinada por interacciones entre sus moléculas o por elecciones hechas por individuos humanos, todos estos sistemas de flujo están gobernados por un principio nuevo relativamente simple de la termodinámica.

”La sociedad, con todas sus capas y características de organización, es un sistema de flujo”, dicen los coeditores Adrian Bejan y Gilbert Merkx de la Universidad de Duke. Consecuentemente, estos patrones de repetición no son accidentales. “Las coincidencias que tienen lugar hasta el infinito son pistas claras de que está en juego un fenómeno universal”.

Esta es la premisa de una ambiciosa nueva colección de ensayos bajo el epígrafe “Teoría Constructal de la Dinámica Social”, publicado el 13 de junio por Springer Science+Business Media.

Descrita por primera vez hace una década por Bejan, profesor de ingeniería mecánica en Duke, la Teoría Constructal explicación aparentemente simple de por qué esos patrones en ramas ocurren con tanta frecuencia: para que un sistema de flujo persista en el tiempo, su configuración debe cambiar de tal forma que proporcione un acceso más fácil a sus corrientes. En resumen, si algo fluye, se ramificará en una patrón bastante predecible para reducir imperfecciones como la fricción, o en este caso, empujando a los peatones a tomar otro camino. “Los sistemas naturales siempre se moverá hacia el acceso más rápido o el flujo más simples”, dijo Bejan.

Vemos el patrón ramificado resultante a todas las escalas, desde los alvéolos pulmonares, a las rutas que toman los animales para ir a un abrevadero, a las corrientes en el delta de un gran río. Cada una de estas estructuras ha sido perfeccionada por el tiempo para manejar el flujo tan eficientemente como sea posible. Los científicos sociales que están aplicando la teoría a sus campos, de pronto ven patrones constructales por todos sitios, desde los patrones de migración humana a cuenco de rigatoni hirviendo.

“Lo nuevo de esta Teoría Constructal es que une la geometría con la dinámica de tal forma que la geometría no se supone por adelantado sino que es el resultado de una tendencia en el tiempo”, escribe A. Hector Reis de la Universidad de Évora en Portugal en su capítulo sobre “flujos de gente”.

Para los peatones que salen de un estadio de fútbol o para los aviones que cruzan el cuelo, hay formas predecibles de hacer que estos flujos sociales sean más eficientes, dijo el coautor del libro, el sociólogo Gilbert Merkx, vicerrector de Duke para asuntos internacionales. La Teoría Constructal encaja bien con la Teoría de Red de la sociología y ayuda a explicar por qué los patrones grandes persisten incluso donde hay libre albedrío e inconsciencia.

Aunque originalmente enmarcado como una forma de mejorar los intercambiadores de calor electrónicos que se tomó prestada de la naturaleza, la idea de Bejan se ha extendido a muchos otros dominios. Por ejemplo, Bejan está actualmente empezando a trabajar en cómo sería la Teoría Constructal aplicada a la carrera, vuelo y nado de los animales y la distribución del tamaño de las ciudades – una pocas grandes, muchas pequeñas – por todo el mundo.

La discusión de la aplicación de la Teoría Constructal a las ciencias sociales creció de un encuentro casual entre Bejan y Merkx en el comedor de la facultad.

“A lo largo de la conversación, dije “entonces, Adrian, ¿qué es lo que haces?””, recuerda Merkx. “Y cuando me lo describió, me di cuenta de que la Teoría Constructal sonaba a algo que había observado en las ciencias sociales”.

Comenzaron a colaborar y conseguir fondos para dos conferencias internacionales en Duke para explorar las conexiones entre los fenómenos sociales y la Teoría Constructal, de la cual surgió un libro. “Esto derriba el muro entre las ciencias sociales y naturales”, dijo Merkx .

El texto de 355 páginas está formado por 18 ensayos de un grupo internacional de científicos sociales que exploran los cimientos constructales de todo, desde el desarrollo urbano y la segregación racial al desarrollo del lenguaje escrito.


Autor: Karl Leif Bates
Fecha Original: 11 de junio de 2007
Enlace Original

Físicos de Fermilab descubren barión de “triple bola”

La partícula de tres quarks contiene un quark de cada familia

Físicos del experimento DZero en el Laboratorio Acelerador Nacional Fermi del Departamento de Energía han descubierto una nueva partículas pesada, el barión ?b (pronunciado “xi sub b”), con una masa de 5,774 ± 0,019 GeV/c2, aproximadamente seis veces la masa del protón. El recientemente descubierto barión eléctricamente cargado ?b, también conocido como “cascada b”, está hecho de un quark down, uno strange y otro bottom. Es la primera vez que se observa un barión formado por las tres familias de la materia. Este descubrimiento y las medidas de su masa proporcionan una nueva comprensión de cómo actúa la fuerza nuclear fuerte sobre los quarks, los ladrillos básicos de la materia.

El experimento DZero ha informado del descubrimiento del barión cascada b en un artículo enviado a Physical Review Letters el 12 de junio.

“Conocer la masa del barión cascada b da a los científicos la información que necesitaban para desarrollar modelos precisos de cómo los quarks individuales se unen dentro de partículas más grandes tales como protones y neutrones”, dijo el físico Robin Staffin, Profesor Asociado de Física de Alta Energía para la Oficina de Ciencia del Departamento de Energía.

El cascada b se produce por la colisión de un protón-antiprotón de alta energía en el Tevatrón del Fermilab. Un barión es una partículas de materia que está hecha de tres componentes fundamentales llamados quarks. Los bariones más familiares son el protón y el neutrón de los núcleos atómicos, que constan de quarks up y down. Aunque los protones y neutrones forman la gran mayoría de la materia, los bariones compuestos de quarks más pesados, incluyendo el cascada b, fueron abundantes poco después del Big Bang, en el comienzo del universo.

El Modelo Estándar resume de forma elegante los componentes fundamentales de la materia, el cual se adentra en tres familias distintas de quarks y sus partículas hermanas los leptones. La primera familia contiene los quarks up y down. Los quarks más pesados charm y los strange forman la segunda familia, mientras que los top y bottom, los más pesados, la tercera. La fuerza nuclear fuerte une a los quarks en partículas mayores, incluyendo el barión cascada b. El cascada b llena un hueco del Modelo Estándar.

Anteriormente a este descubrimiento, sólo se había informado de pruebas indirectas de cascada b en experimentos en el Gran Colisionador de Electrones-Positrones del Laboratorio CERN cerca de Ginebra, Suiza. Por primera vez, el experimento DZero ha identificado de forma positiva el barión cascada b a partir de sus partículas decaídas hijas en una notablemente completa hazaña de detección. La mayoría de partículas producidas en las colisiones de alta energía son de vida corta y decaen casi instantáneamente en partículas ligeras más estables. Los detectores de partículas tales como el DZero miden estos productos estables decaídos para descubrir las nuevas partículas producidas en la colisión.

Una vez producidas, el cascada b viaja varios milímetros a casi la velocidad de la luz antes de que la acción de la fuerza nuclear débil provoque su desintegración en las partículas bien conocidas de J/? (“jota-psi”) y ?- (“xi menos”). El J/? decae entonces sin demora en un par de muones, partículas comunes que son primos del electrón. El barión ?-, por otra parte, viaja varios centímetros antes de decaer en otra partícula inestable llamada barión ? (“lambda”), junto con otra partícula de vida larga llamada pión. El barión ? también puede viajar varios centímetros antes de decaer finalmente en un protón y un pión. Escudriñando entre los datos de billones de colisiones producidas a lo largo de los últimos cinco años para identificar estos productos finales del decaimiento, los físicos de DZero han detectado 10 eventos candidatos a cascada b. Las posibilidades de que la señal observada sea debida a otra cosa que no sea cascada b se estima en una entre 30 millones.

DZero es un experimento internacional de unos 610 físicos de 88 instituciones en 19 países. Está patrocinado por el Departamento de energía, La Fundación Nacional de Ciencia, y un número de agencias de patrocinio internacional. Fermilab es un laboratorio nacional financiado por la Oficina de Ciencia del Departamento de Energía de los Estados Unidos, manejado bajo contrado por Fermi Research Alliance, LLC.

El artículo sobre el descubrimiento de cascada b está disponible en http://arxiv.org/abs/0706.1690.


Autor: Judy Jackson, Fermilab / Kurt Riesselmann
Fecha Original: 13 de junio de 2007
Enlace Original

Los ladrillos de la vida sobreviven a una explosión de supernova

Los astrónomos sospechan que la Tierra joven fue un lugar muy duro. Las temperaturas eran extremas, y el planeta estaba constantemente bombardeado por escombros cósmicos. Muchos científicos creen que los materiales que dieron origen a la vida, o ladrillos, deben ser muy resistentes para haber sobrevivido a este entorno tan tumultuoso.

Ahora, el Telescopio Espacial Spitzer de la NASA nos ha enseñado que las moléculas orgánicas que se cree que están entre los ladrillos de la vida, llamados hidrocarburos aromáticos policíclicos, pueden sobrevivir al entorno explosivo de una supernova. Las supernovas son muertes violentas de las estrellas más masivas. En su muerte estos objetos expulsan toneladas de ondas energéticas hacia el cosmos, destruyendo gran parte del polvo que las rodea.

Crédito: X-ray: NASA/SAO/CXC; Infrared: NASA/JPL-Caltech/A. Tappe & J. Rho

Esta imagen compuesta del Telescopio Espacial Spitzer de la NASA y el Observatorio de rayos-X Chandra muestran los restos de una de tales explosiones. En esta imagen, la luz infrarroja a 4,5 micras se redirige como azul, 8,0 micras a verde, y 24 micras a rojo. Mientras tanto, la luz de rayos-X de banda ancha se redirige al púrpura. El remanente, llamado N132D, puede verse como esa menuda capa de gas rosa en el centro de la imagen. El color rosáceo revela un choque entre las ondas de choque de alta energía de la explosión y los granos de polvo de su alrededor.

En el fondo, se muestran pequeñas moléculas orgánicas llamadas Hidrocarburos Aromáticos Policíclicos, o PAHs, en tonos de verde. Asimismo, los puntos azules representan las estrellas de la Vía Láctea a lo largo de este línea de visión.

El hecho de que los hidrocarburos aromáticos policíclicos puedan sobrevivir a una supernova indica que son increíblemente resistentes – como cucarachas cósmicas sobreviviendo a un ataque nuclear. Tal dureza podría ser una prueba de que estas moléculas están, efectivamente, entre los ladrillos de la vida.

Achim Tappe del Centro Harvard-Smithsoniano para Astrofísica en Cambridge, Massachusetts, usó el instrumento espectrográfico de Spitzer para detectar abundantes cantidades de hidrocarburos aromáticos policíclicos a lo largo de los restos de supernova N132D. Los restos se localizan a 163 000 años luz de distancia en una galaxia cercana llamada la Gran Nube de Magallanes.

“El hecho es que vemos que los hidrocarburos aromáticos policíclicos sobrevivieron que sobrevivieron a la explosión indican que son resistentes”, dice Tappe.

Estas intrigantes moléculas están compuestas de átomos de carbono e hidrógeno, y se han visto dentro de cometas, alrededor de las regiones de formación estelar y los discos de formación planetaria. Dado que toda la vida de la Tierra está basada en el carbono, los astrónomos sospechan que el carbono original de la Tierra podría haber venido de estas moléculas – posiblemente de comentas que impactaron contra el joven planeta.

Los astrónomos dicen que hay algunas pruebas de que una estrella masiva explotó cerca de nuestro Sistema Solar justo en sus inicios, hace unos 5000 millones de años. Si es así, los hidrocarburos aromáticos policíclicos que sobrevivieran habrían ayudado a sembrar la semilla de la vida en nuestro planeta.

El artículo de Tappe se publicó en el número del 10 de diciembre de 2006 de Astrophysical Journal.



Autor:Linda Vu
Fecha Original: 13 de junio de 2007
Enlace Original Spitzer
Enlace Original JPL

Un video revela que los duendes son más brillantes que Venus

Unos nuevos e impresionantes videos han revelado que los duendes, flashes extremadamente brillantes que se liberan en las capas superiores de la atmósfera – están entre los objetos más brillantes del cielo.

Los duendes se ven a lo largo de todo el mundo: éste fue capturado el 7 de junio de 2001 sobre el campus de la Universidad Nacional de Cheng Kung en Tainan City, Taiwan (Imagen: NASA/ISUAL Project, NCKU/NSPO, Taiwan)

Los duendes tienen lugar sobre las tormentas eléctricas. Comienzan muy por encima de las nubes, en la mesosfera – a unos 75 kilómetros de altura – y pueden tener 50 kilómetros de altura. Pero la luz emitida está en su mayor parte en el espectro infrarrojo y sólo duran unos pocos milisegundos, por lo que obtener unos registros precisos ha sido un gran reto.

El primer video detallado con imágenes fue grabado en 2006 por Steven Cummer de la Universidad de Duke en Durham, Estados Unidos. Sus imágenes demostraron que los duendes están compuestos de columnas de descargas eléctricas llamadas serpentinas.

Precisión incrementada

Cummer fue capaz de ver a los duendes evolucionar mientras los filmaba a 7000 frames por segundo. Esto le permitió decelerar el evento y mantener el detalle.

Ahora, Hans Stenbaek-Nielsen, de la Universidad de Alaska en Fairbanks, Estados Unidos, lo ha decelerado aún más usando una cámara que funciona a 10 000 frames por segundo. Su cámara es también más sensible a la luz, y por tanto, produce imágenes mejores.

Las imágenes muestra que las serpentinas se dibujan mediante puntos muy brillantes – llamados cabezas de serpentina – moviéndose a 30 000 kilómetros por hora – de forma similar a como las luces traseras de un coche a gran velocidad pueden crear trazas de luz roja.

En el video de Nielsen, tomado en Nuevo México en julio de 2005, puedes ver claramente a los duendes evolucionando en un grupo de cabezas de serpentina en dos fases: un grupo de cabezas de serpentina caen unas docenas de kilómetros antes de elevarse.

La cabeza de serpentina que sube se hace más brillante conforme se mueve hacia arriba, dando como resultado el efecto de fuegos artificiales final.

Chispas brillantes

“¿Por qué las cabezas de serpentinas bajan y un milisegundo más tarde comienzan a subir? Este es el misterio”, dice Nielsen. Apunta que no todos los duendes muestran estas cabezas de serpentina que suben, y piensa que la segunda parte del evento sólo sucede durante eventos de muy alta energía.

La mayor sensibilidad de la cámara, que construyeron Nielsen y su colega de Fairbanks Dave Sentman, les permitió determinar el brillo de los duendes con mayor precisión que nunca antes.

“Todo empezó con la gente diciendo “son brillantes pero no tanto””, dice Nielsen. “Luego se hicieron verdaderamente brillantes y ahora son más brillantes que Venus en su máximo esplendor, lo que es realmente notable”.

Ahora quiere encontrar cómo los duendes afectan a la química de la atmósfera y, junto con sus colegas, ha recopilado una lista de 270 reacciones que podrían tener lugar durante el evento de un duende.

“La pregunta es si hay efectos a largo plazo – parece que podría ser”, dice Nielsen, añadiendo que los eventos podrían estar afectando a la cantidad de ozono de la atmósfera.


Autor: Catherine Brahic
Fecha Original: 12 de junio de 2007
Revista de Referencia: Geophysical Research Letters (DOI: doi:10.1029/2007GL029881)
Enlace Original

Misterio resuelto: Marte tuvo grandes océanos

Desde 1991, los científicos planetarios han barajado la idea de que Marte durante una época albergó vastos océanos que cubrieron aproximadamente la tercera parte del planeta. Dos grandes bordes de roca similares a una costa en el hemisferio norte del planeta se pensaba que eran la mejor prueba, pero los expertos argumentaron que eran demasiado “acolinados” para describir los suaves bordes de los antiguos océanos.

Una visión de Marte como podría haber sido hace 2 mil millones de años, con un océano llenando la cuencia que ahora ocupa la región polar norte. Crédito: Taylor Perron/UC Berkeley

Esta visión acaba de cambiar dramáticamente con un simple y sorprendente avance.

Las líneas, en una ocasión planas, fueron desfiguradas por un vuelco masivo en la superficie del planeta, anunciaron hoy los científicos. La curvatura de la roca marciana ha ocultado las pruebas evidentes de los océanos, que en cualquier caso desaparecieron hace al menos 2 mil millones de años.

“Esto confirma verdaderamente que hubo un océano en Marte”, dijo Mark Richards, científico planetario de la Universidad de California en Berkeley y coautor del estudio, que se detalla en el número del 14 de junio de la revista Nature.

Costas gemelas

Las dos principales líneas de costa en Marte, cada una de miles de kilómetros de largo – son los restos del antiguo Océano de Arabia, y la otra del más joven Océano Deuteronilus, dijo el coautor del estudio Taylor Perron de la UC Berkeley.

“El Arabia podría haber contenido dos o tres veces el volumen de agua del hielo que cubre la Antártica”, dijo Perron a SPACE.com.

En algún lugar a lo largo del camino del vuelco unos 50 grados al norte, Marte posiblemente perdió algo de su agua, dejando a la vista la línea de costa del Océano Deuteronilus. “El volumen de agua era demasiado grande para evaporarse en el espacio, por lo que pensamos que aún permanece en alguna reserva subterránea en Marte”, dijo Perron.

El mar restante se habría situado en la misma llanura de tierras bajas del Océano de Arabia, pero casi 40 grados al norte.

Giro inestable

Imagen topográfica de Marte, con las áreas bajas marcadas en azul. Cercando la cuenca están las supuestas líneas costeras formadas por los antiguos océanos, que sugieren que Marte experimentó un vuelco masivo en el pasado. Crédito: Taylor Perron/UC Berkeley

Conforme el planeta gira, los materiales más pesados tienden a desplazarse hacia el ecuador, donde están más estables. La Tierra, también, tienen un bulto en su ecuador. La región volcánica de Tharsis de Marte, una vasta área elevada a lo largo del ecuador de Marte, es la prueba de que funciona.

“Esta es la razón por la que este descubrimiento da un empuje extra”, dijo Perron. Hace más de mil millones de años, explica, sucedió algo en la forma que se distribuían las masas en Marte que causó que la porción desequilibrada se desplazase hacia el ecuador – permitiendo que las vastas costas de los océanos marcianos se curvasen.

“Hemos encontrado pruebas de cómo habría sucedido el desplazamiento del camino, y encaja con la deformación de las líneas costeras”, dijo Perron.

Superficie elástica

Cerca del ecuador, la superficie del planeta permanece en un bulto relativamente aplanado bajo la presión de las fuerzas centrípetas. Pero fuera del ecuador, la roca se comporta elásticamente y a menudo se agrupan, como la superficie de un globo desinflado. Perron y su equipo pensaron que las líneas de costa oceánicas estuvieron en una época cerca del ecuador, pero se curvaron en elevaciones de roca acolinadas conforme se movían hacia el norte del inclinado planeta.

“En planetas como Marte y la Tierra que tienen una corteza externa … ésta se comporta elásticamente, la superficie sólida se deformará”, dijo Richards.

Calculando esta deformación, que tiene lugar de forma predecible, el equipo de investigación planetaria encontró que las crestas habían sido planas en un tiempo, como líneas costeras oceánicas.

“Este es un resultado maravilloso que obtuvo Taylor [Perron]“, dijo Richards. “El mero hecho de que puedas explicar una buena parte de la información sobre las líneas costeras con un modelo tan simple es sorprendente. Es algo que al principio nunca habría adivinado”.

Perron y sus colegas no están seguros de qué provocó el vuelco del planeta, pero piensan que la culpa es de alguna fuerza bajo la superficie. “Podría haber sido un cambio masivo en la distribución del manto”, dijo Perron, “lo que habría causado el desplazamiento del planeta a su posición actual”.


Autor: Dave Mosher
Fecha Original: 13 de junio de 2007
Enlace Original

Un planeta oculto empuja un anillo estelar a dos mil millones de kilómetros del centro

Un extraño anillo de polvo elíptico en una estrella joven, anuncia probablemente la presencia de un planeta del tamaño de Neptuno aún sin descubrir, dice un astrónomo de la Universidad de Rochester en el último número de Monthly Notices of the Royal Astronomical Society.

Imagen del Hubble del anillo de Fomalhaut Agrandar imagen

Las estrellas en sus primeras etapas de vida están rodeadas de nubes de polvo que se dispersan y disipan conforme la estrella alcanza su madurez, convirtiéndose en anillos en sus etapas finales. Una estrella, sin embargo, tiene un anillo de polvo que ha intrigado a los astrónomos durante mucho tiempo debido a que no está centrada en la estrella como es normal. En lugar de esto, el anillo es elíptico, con la estrella madre desplazada en uno de los lados.

“Queremos saber por qué este anillo está desplazado del centro”, dice Alice C. Quillen, Profesora Asociada de Astronomía y autora del estudio. “Se conjetura que pudiese haber un planeta allí, pero nadie sabe dónde podría estar o cómo de grande podría ser. Ahora tenemos una idea muy buena”.

Se han descubierto aproximadamente 250 planetas hasta ahora alrededor de otras estrellas que no son nuestro Sol. La mayoría han sido descubiertos por la forma en que influyen en sus estrellas madre, pero Quillen ha estado trabajando durante años en la comprensión de la delicada interacción entre los discos de polvo estelar y los planetas que les dan forma. Ahora ella es uno de los mayores expertos en predecir el tamaño y posición de los planetas a partir de las características del anilló de polvo de la estrella.

Quillen usó nuevas imágenes del Telescopio Espacial Hubble para observar la estrella, Fomalhaut, y el anillo que la rodea casi de lado y en un mayor detalle que nunca antes. Fomalhaut, a 25 años luz de distancia, es la estrella más brillante del cielo de otoño. Usando un dispositivo llamado coronógrafo que bloquea la estrella de una luz de forma que los objetos tenues cercanos puedan verse, el Hubble reveló que Fomalhaut efectivamente estaban desplazada del centro respecto a su anillo. Las imágenes también fueron lo bastante claras para mostrar que el mismo anillo tenía un borde sorprendentemente definido.

Este límite definido es la pista que estaba buscando Quillen. Desde que averiguase uno de los primeros planetas extrasolares usando el análisis del anillo de polvo en 2002, Quillen ha reforzado mucho sus modelos de interacción anillo-planeta. Tratar el anillo como una estructura hidrodinámica, por ejemplo, es algo necesario para estrellas cuyo polvo es relativamente fino y actúa de forma similar a un fluido — aunque la física de una colisión de polvo se convierte en lo predominante en sistemas de anillos más antiguos donde el polvo ha comenzado a agruparse en cuerpos mayores.

La definición en el límite de Fomalhaut, calculó Quillen, requería que un planeta relativamente pequeño, del tamaño de Neptuno estuviese insertado justo contra el lado interno del anillo, usando su gravedad para lanzar el polvo al área fuera de su órbita.

De acuerdo con los cálculos de Quillen, el anillo es elíptico debido a que la propia órbita del planeta neptuniano alrededor de Fomalhaut es elíptica — una curiosidad en un sistema tan joven. Cuando las estrellas se forman a partir de una gigantesca nube de gas y polvo, el momento angular de la nube se traslada a todos los objetos que forman la nube, incluyendo los nuevos planetas. Aquellos nuevos planetas deberían, inicialmente al menos, orbitar en caminos circulares — no elípticos. El anillo de Fomalhaut está desplazado dos mil millones de kilómetros, más de 15 veces la distancia de la Tierra al Sol, sugiriendo que la órbita del planeta está también tremendamente torcida.

“Algo ha tenido que torcer el planeta, y eso es en lo que estamos trabajando ahora”, dice Quillen. “Podría haber sido una fantástica colisión planetaria inicial que cambió sus órbitas. Estamos trabajando en explicar cuantos planetas más y de qué tamaño se necesitarían para contar con esa órbita elíptica, y para contar por qué no hay polvo dentro del anillo”.

El modelo de Quillen aún permanece como teoría hasta que una nueva generación de telescopios puedan realmente ver los planetas en cuestión de Formalhaut. Estos telescopios estarán equipados con sofisticados coronógrafos que pueden bloquear la luz de Formalhaut lo suficiente para ver el brillo de los planetas a través de la misma.

Esta investigación fue patrocinada por el Instituto Nacional de Ciencias y la NASA.


Autor: Jonathan Sherwood
Fecha Original: 11 de junio de 2007
Enlace Original

Misteriosas señales apuntan a un océano en la subsuperficie de Titán

La detección provisional de ondas de radio de baja frecuencia en la helada luna de Saturno, Titán, podría señalar un océano de agua líquida bajo la superficie, según dice un nuevo estudio. Si es así, serían buenas noticias para la posibilidad de vida bajo la superficie de este extraño mundo.

La sonda Huygens parece haber detectado ondas de radio de baja frecuencia cuando cayó en paracaídas sobre la superficie de Titán en enero de 2005 (Ilustración: ESA/D Ducros)

Se piensa que la corteza de Titán está hecha en su mayor parte de agua helada, en lugar de roca dura gracias a la temperatura de superficie habitual de -178° Celsius. Pero los modelos teóricos del interior de la luna sugieren que el agua rica en amoniaco de las profundidades bajo la superficie podría estar líquida, tal vez formando un océano global.

Ahora, unos científicos liderados por Fernando Simoes del Centro de Estudios Terrestres y Planetarios en Saint Maur, Francia, puede tener la primera prueba observacional de tal océano. Su investigación está basada en una enigmática señal de radio detectada por la sonda Huygens de la Agencia Espacial Europea cuando descendió sobre la superficie de la luna tras ser lanzada desde la nave Cassini en 2005.
La señal de radio fue detectada sólo en una rango de frecuencia muy estrecho alrededor de los 36 Hercios. El equipo de radio de Huygens lo notó justo unas pocas horas más tarde del descenso de la sonda y han estado trabajando en su origen desde entonces.

Efecto eco

En la Tierra, los rayos producen unas señales de radio de similar baja frecuencia. Las ondas de radio rebotan adelante y atrás entre el suelo y las capas superiores de nuestra atmósfera. Este efecto de eco aumenta algunas frecuencias y aniquila otras, dando como resultado unas señales con frecuencias definidas con gran precisión, similares a las que se detectaron en Titán.

El agua helada que forma el exterior de Titán es un mal reflector de ondas de radio, por lo que si la señal viene del efecto eco como en la Tierra, tendría que haber un material más reflectivo bajo la superficie. Un océano de agua líquida bajo la superficie podría hacer esta tarea, dice el equipo.

“No se necesita un océano en la subsuperficie pero se requiere un reflector bajo la superficie”, dijo Simoes a New Scientist. “Si existe tal océano, la interacción sólido-líquido sería un buen reflector”.

Efectos instrumentales

Los investigadores no pueden decir a qué profundidad está el reflector, y están extrañados por algunos aspectos de la señal. Por una parte, no se han detectado rayos en Titán hasta ahora, y la señal es aproximadamente 10 veces más potente que las vistas en la Tierra.

Estos problemas hacen que el equipo sospeche que la señal pueda deberse a una interferencia de otras partes de la sonda, pero los experimentos de laboratorio con copias de los instrumentos han descartado esta posibilidad.

El equipo también ha comprobado su hay partes de los instrumentos de la radio que pudiesen vibrar a 26 Hercios para producir la señal. Hasta ahora no parece ser el caso, aunque aún deben hacer estas pruebas a las bajas temperaturas que prevalecen en Titán.

“En la presente etapa estamos convencidos [de que sea] lo que sea, al menos no es un artefacto obvio”, dice Simoes.

Enterrado en la profundidad

El miembro del equipo científico de Cassini Ralph Lorenz del Laboratorio de Física Aplicada de la Universidad Johns Hopkins en Laurel, Maryland, Estados Unidos, que no participó en el estudio de Simoes, dice que probablemente haya un océano líquido bajo la superficie del planeta.

“Se espera que haya en Titán un océano de agua subsuperficial casi con toda certeza, probablemente con un 10% o más de amoniaco que actúa como anticongelante”, dijo a New Scientist. “Probablemente estaría a unos 50 kilómetros bajo la corteza de hielo”.

Dice que para un océano subsuperficial es posible crear ecos de radio, pero dice que no tiene la suficiente familiaridad con este fenómeno como para saber su lo que vio la Huygens es una prueba lo bastante sólida para tal océano.

Jonathan Lunine de la Universidad de Arizona en Tucson, Estados Unidos, que tampoco participó en el estudio, dijo que es escéptico sobre que las ondas de radio pudiesen penetrar los 50 kilómetros o más necesarios para reflejarse en la superficie del océano y crear la señal que vio la Huygens.

Apretada y estirada

Pero dice que las pruebas de tal océano podrían venir en futuras pasadas de la nave Cassini sobre Titán. El equipo de Cassini intentará usar datos de estas pasadas para medir la forma en que titán se aprieta y estira debido al inconstante tirón gravitatorio de Saturno, lo que podría proporcionar pruebas de un océano, comenta.

“No se espera una conclusión hasta 2009″, comentó a New Scientist. “Pero la conclusión que obtengan podría ser la definitiva”.

La investigación sugiere que la vida puede ser capaz de mantenerse sobre la luna gigante – en 2000, Andrew Fortes del University College en London, Reino Unido, publicó un estudio diciendo que la vida podría sobrevivir en un océano subsuperficial en Titán.


Autor: David Shiga
Fecha Original: 11 de junio de 2007
Enlace Original

La captura y almacenamiento de carbono examinada para combatir el calentamiento global

Aunque la energía solar y los coches híbridos se han convertido en símbolos populares de la tecnología verde, los investigadores de Stanford están explorando otra vía para recortar las emisiones de dióxido de carbono, el principal gas invernadero que causa el calentamiento global.

El proyecto Sleipner A inyecta dióxido de carbono en acuíferos de agua salada en las profundidades bajo el suelo oceánico de la costa noruega. (Crédit: Statoil)

La captura y almacenamiento del carbono, también llamado secuestro de carbono, atrapa el dióxido de carbono después de producirse y lo inyecta bajo el suelo. El gas nunca entra en la atmósfera. La práctica podría transformar a los grados emisores de carbono, tales como las plantas de energía de carbón, en máquinas relativamente limpias con respeto por el calentamiento global.

”La noción es que cuanto antes que nos libremos de los combustibles fósiles, antes seremos capaces de afrontar el problema climático”,dijo Sally Benson, director ejecutivo del Proyecto de Energía y Clima Global (GCEP) y profesora de ingeniería de recursos energéticos. ”Pero la idea de que podemos sacar a los combustibles fósiles de la mezcla rápidamente es muy poco realista. Somos dependientes de los combustibles fósiles, y un buen camino es encontrar formas de usarlo que no creen problemas con el clima”.

La captura de carbono tiene el potencial de reducir más de un 90 por ciento de las emisiones de carbono de una planta de carbón, dijo Lynn Orr, director de GCEP y profesor de ingeniería de recursos energéticos. Las instalaciones estacionarias que queman combustibles fósiles – tales como plantas de energía o fábricas de cemento – serían candidatos a esta tecnología, dijo.

La captura del dióxido de carbono de las fuentes pequeñas y móviles tales como coches, sería más difícil, dijo Orr. Pero las plantas de energía comprenden el 40 por ciento de las emisiones mundiales de los combustibles derivados del carbono, añadió, el potencial de reducción es significativo.

No sólo puede capturarse una gran cantidad de dióxido de carbono, sino que la capacidad de la Tierra para almacenarlo es enorme, comentó.

La estimación de almacenamiento mundial oscila entre los 2 y los 10 billones de toneladas de dióxido de carbono, de acuerdo con el Panel Internacional sobre el Cambio Climático (IPCC) en su informe sobre la captura y almacenamiento de carbono. Las emisiones globales en 2004 totalizaron 27 mil millones de toneladas, de acuerdo con la Administración de Información Energética del Departamento de Energía de los Estados Unidos.

Si todas las emisiones inducidas por los humanos fuesen secuestradas, tendríamos suficiente capacidad para acomodar más de 100 años de emisiones, de acuerdo con Benson, autor principal que coordina el capítulo del IPCC sobre el almacenamiento geológico subterráneo.

Con los combustibles fósiles suponiendo el 85 por ciento de la consumición energética global, y su uso incrementándose rápidamente debido al crecimiento de los países en desarrollo, tales como China e India, la necesidad de encontrar soluciones a las emisiones de carbono se convierte en algo más crucial si cabe, dijo Benson.

Del aire a la Tierra

En el proceso de captura, el dióxido de carbono se extrae de una mezcla de gases residuales. El método más común consiste en enviar los gases de la combustión a través de una malla tridimensional colocada en una chimenea. Conforme pasa el gas, se rocía un disolvente químico, empapando el gas donde se encuentran ambas sustancias. Entonces se extrae el dióxido de carbono del líquido y se comprime, ya listo para su almacenamiento.

Las mejores opciones de almacenamiento recaen en el secuestro geológico – almacenar en viejos campos petrolíferos, reservas de gas natural, acuíferos salinos profundos y lechos de carbón no mineros, a cientos o miles de metros bajo el suelo.

El dióxido de carbono se bombea a través de estos pozos, similares a los usados para extraer el petróleo, y se disuelven o dispersan en esta reserva.

Las localizaciones viables deben tener un estrato de roca sedimentaria, o capa impermeable sobre la reserva en forma de cuenco invertido que atrape el gas y prevenga escapes, dicen los científicos.

Seguridad inteligente

“El objetivo del secuestro de carbono es almacenar de forma permanente el dióxido de carbono”, dijo Benson, “permanente significa, muy, muy largo plazo en periodos de tiempo geológicos”.

La mayor preocupación alrededor del almacenamiento del dióxido de carbono son las posibles filtraciones, dijeron los científicos.

La preocupación más obvia, dijo Benson, es que las filtraciones podrían llevar a más calentamiento global, derribando el principal propósito del almacenamiento.

“La gente piensa que, sería una pena tener que pasar por todos estos problemas”, dijo Tony Kovscek, profesor asociado de ingeniería de recursos energéticos e investigador de un proyecto de GCEP de secuestro de carbono en carbón.

Pero los estudios han demostrado que las filtraciones, si es que suceden, serían insignificantes, dijo Benson. El IPCC informó que la retención del 99 por ciento del dióxido de carbono almacenado permanecería así de forma “muy probable” durante 100 años y “probablemente” durante 1000 años, comentó.

“Si estás en lo cierto, si seleccionas el sitio de forma adecuada y lo monitorizas, puede ser casi permanente”, dijo Benson.

Una de las grandes preocupaciones de los investigadores son los riesgos potenciales del secuestro del carbono para la salud humana, principalmente por asfixia y contaminación de acuíferos.

La amenaza de la asfixia – o sofocación debida al desplazamiento del oxígeno por el dióxido de carbono – es muy baja, dijeron los investigadores, debido a la poca probabilidad de una filtración rápida, lo que tendría que suceder para causar el problema.

Beber agua contaminada, dijo Benson, es el peligro más probable. Por ejemplo, si el dióxido de carbono entra de algún modo en aguas subterráneas, puede incrementar la acidez del agua, filtrando potencialmente compuestos químicos tóxicos, tales como plomo, de las rocas al agua, comentó.

Para tratar estos riesgos, los científicos están estudiando la geología de las reservas para comprender mejor lo que sucede después de inyectar dióxido de carbono bajo la superficie.

“Necesitas seleccionar con cuidado lugares que no filtren, y hacer un buen trabajo de ingeniería en los sistemas de inyección y prestar atención a dónde va realmente el dióxido de carbono”, dijo Orr.

Aunque una profunda comprensión técnica de los riesgos revelará unas mejores prácticas, los científicos también hicieron hincapié en la necesidad de una buena gestión para observar que se siguen los procedimientos adecuados.

Benson apunta a una tecnología familiar como modelo para pensar en ella y atajar el riesgo.

“La gente pregunta a menudo si el almacenamiento geológico es seguro”. Es muy difícil contestar a esta pregunta. Está dirigido hacia la seguridad”, expuso. “Podrías decir que sí o que no, pero estamos dispuestos a hacer cosas para ir en esta dirección”. Tienes fabricantes de vehículos que construyen buenos coches, tenemos profesores de autoescuelas, no permitimos que nuestros niños conduzcan, tenemos leyes contra la bebida en los conductores – implementamos un sistema completo para asegurar que la actividad es segura”.

Política y progreso

Los ingenieros tienen más de tres décadas de experiencia en colocar dióxido de carbono en reservas de petróleo, donde incrementan la producción de petróleo haciendo que éste se expanda y se “disperse” de tal forma que fluya con mayor facilidad, dijo Benson.

“Tal experiencia nos da confianza en que sabemos cómo perforar los pozos, poner el [dióxido de carbono] dentro y decir algo sobre lo que sucederá cuando baje allí”, dijo Orr.

Actualmente hay tres proyectos a escala industrial que bombean millones de toneladas de dióxido de carbono en el subsuelo cada año. Dos de ellos representan los primeros esfuerzos de almacenar en acuíferos salinos profundos.

Un equipo de Stanford ha comenzado a investigar el almacenamiento de dióxido de carbono en los lechos carboníferos profundos. En carbón, los enlaces químicos que se forman entre el dióxido de carbono y el carbón, hacen de este método potencialmente más seguro que otros, dicen los investigadores.

Incluso mejor, el proceso puede liberar gas natural que se asiente sobre la superficie del carbón. El gas natural es un combustible fósil relativamente limpio, que puede quemarse en lugar del carbón, dijo Mark Zoback, profesor de geofísica e investigador del proyecto de almacenamiento el carbón.

El proyecto, patrocinado por GCEP y GEOSEQ – una asociación que involucra al Departamento de Energía, varios laboratorios nacionales, grupos del gobierno y socios industriales – está aún en las primeras etapas, dicen los investigadores.

De todos los proyectos, sólo uno está resultando ser beneficioso sin recuperación de petróleo. Sleipner, un proyecto de escala industrial llevado a cabo por la compañía petrolera noruega Statoil, inyecta dióxido de carbono en un acuífero salino profundo bajo el suelo oceánico del Mar del Norte.

Su éxito económico, dicen los científicos, se debe a las altos impuestos del carbón en Noruega, lo que da a las tecnologías verdes ventajas para desanimar las emisiones de carbono.

Los impuestos del carbono se cargan a la compañía por cada tonelada de dióxido de carbono que emite, por lo que ser sucio se convierte en un coste cada vez mayor. Así pues los impuestos animan a las compañías a ser verdes.

Cuando la tecnología limpia es cara – incorporar la captura y almacenamiento de carbono en una planta de energía cuesta de 30 a 70 dólares por tonelada de dióxido de carbono – los impuestos sobre las emisiones igualan el campo de juego haciéndolas viables.

Un marco de trabajo político, por tanto, es esencial para hacer económica la captura y almacenamiento de carbono, dicen los investigadores de Stanford.

“Necesitamos miles de proyectos”, dijo Benson. “Este es el tipo de cosa que sólo pasa si hay políticas globales para afrontar estos temas. Por eso el número es crítico”.

Con el desarrollo adecuado, Benson cree que el secuestro de carbono podría estar maduro par la empresa en los próximos 20 años.

Una familia de soluciones

Los críticos del secuestro de carbono argumentan que la tecnología distraerá la atención de la investigación a largo plazo de opciones energéticas limpias, como las energías renovables. Ero aún, temen que esto prolongue el uso de los combustibles fósiles, si es que pueden usarse de forma más limpia los combustibles fósiles de algunas fuentes estacionarias.

Pero los investigadores enfatizan continuamente que necesitan adoptar otras tecnologías además del secuestro de carbono.

“El secuestro geológico estará dentro de una familia de soluciones para afrontar el problema del gas invernadero”, dijo Zoback.

La energía eficiente y renovable ya son viables hoy y pueden definir el marco de la energía a largo plazo, dijo.

“El secuestro [de dióxido de carbono], por otra parte, es sólo una tecnología puente”, añadió. “Tal ves tengamos otros cien años de uso de combustibles fósiles, y entonces pasemos a cosas mejores y más inteligentes, espero. Si seguimos creando gases invernadero otros cien años, será un verdadero problema, por lo que tenemos que tener en cuenta este punto. Pero, sin duda, nuestra dependencia de los combustibles fósiles no durará para siempre”.


Fecha Original: 12 de junio de 2007
Enlace Original

El goteo en el descubrimiento de planetas se convierte en inundación

Los mundos alienígenas, en un tiempo ocultos a nuestro conocimiento, ahora se descubren en manadas impresionantes a los astrónomos con sus características únicas y números auténticos. Los descubrimientos son tan comunes que ya empieza a dejar de informarse de los mismos fuera de los círculos científicos.

Imagen generada por ordenador que muestra a TrES-3 y su estrella madre, que es ligeramente más pequeña y fría que el Sol. El exoplaneta gaseoso gigante es dos veces más masivo que Júpiter. Crédito: Jeffrey Hall/Observatorio Lowell

Toma el anuncio a finales de mayo de un planeta masivo, apodado TrES-3, que “zumba” alrededor de su estrella sorprendentemente rápido, 31 horas, dando al planeta un año de 1,3 días. Los astrónomos emitieron una nota de prensa, pero podrías no haber oído hablar del mismo debido a que el descubrimiento fue oscurecido por el anuncio de otro planeta y apenas recibió cobertura mediática.

“Ahora es bastante rutinario”, dijo Alan Boss, teórico de formación planetaria en la Institución Carnegie de Washington. “La mayoría de los planetas que encontramos no se estima que valga la pena para una nota de prensa debido a que se convierten en algo del tipo “un planeta más”.

El total de planetas extrasolares confirmados se encuentra en más de 200. Y esta es la punta del iceberg en la búsqueda de planetas. Los astrónomos tienen más herramientas que nunca, y la tecnología está tan avanzada que el descubrimiento de planetas se ha convertido en algo casi mundano.

La regularidad en el descubrimiento de planetas, por suerte, se amortigua por la gran variedad de los mismos descubrimientos, incluyendo los siguientes contrastes: mundos nacientes de sólo un millón de años contra aquellos que tienen miles de millones de años de antigüedad; gigantes gaseosos calientes y helados orbes similares a Neptuno; planetas que orbitan alrededor de sus estrellas madre a velocidades cósmicas y otros que parecen arrastrase al paso de una babosa; y planetas que orbitan estrellas dobles, enanas rojas e incluso las llamadas estrellas fallidas.

Técnica del tránsito

Concepción artística del exoplaneta HD 189733b, que algunos han apodado el planeta “centro de la diana” debido al brillante “punto caliente” mostrado aquí. Crédito: David A. Aguilar/ Centro para Astrofísica

Los astrónomos apuntaron a TrES-3 como parte de la Investigación de Exoplanetas Transatlántica mientras buscaban planetas en tránsito, o aquellos que pasan directamente frente a su estrella madre desde el punto de vista de la Tierra. Se detectó con una red de telescopios en Arizona, California, y las Islas Canarias. Cuando TrES-3 pasó frente a su estrella madre, los telescopios registraron una ligera disminución de la luz estelar , aproximadamente un 2,5 por ciento. Los científicos usaron esta atenuación para estimar la masa del planeta, su tamaño y otras propiedades.

Está situado a 800 años luz de distancia en la constelación de Hércules a unos 10 grados al oeste de Vega, una de las estrellas más brillantes del cielo de verano en el hemisferio norte.

“También es un planeta muy masivo de aproximadamente el doble de la masa de Júpiter, el mayor planeta del Sistema Solar, y es uno de los planetas con el periodo orbital más corto conocido”, dijo el co-descubridor de TrES-3 Georgi Mandushev del Observatorio Lowell en Arizona.

La esfera gigante orbita tan cerca de su estrella madre, unos 50 veces más cerca de lo que está la Tierra del Sol, que los astrónomos estimaron que su temperatura se dispara hasta los 1 500 grados Kelvin.

Bamboleo estelar

Aunque el “método del tránsito” proporciona a los astrónomos la mejor información indirecta sobre un exoplaneta, hasta ahora sólo se han descubierto 20 planetas en tránsito.

Por esto es por lo que los equipos más exitosos (basándonos en el número de planetas descubiertos) han confiado en el llamado “método del bamboleo”, o técnica de radiovelocidad.

“Los equipos de velocidad radial son los más exitosos”, dijo Boss a SPACE.com. “Son víctimas de su propio éxito. Tienen a su disposición cada vez más tiempo de telescopio, dado que pueden probar a los comités de asignación que distribuyen el tiempo que ‘si me das más noches probablemente te encontremos más planetas’”, dijo Boss.

Añadió que, “El cuello de botella principal para encontrar más planetas es simplemente tener más tiempo de telescopio”.

Los primeros y los superlativos

Un planeta descubierto recientemente, HAT-P-1, está mucho más inflado de lo que predicen los teóricos con un radio de 1,38 veces el de Júpiter pero sólo la mitad de su masa. Crédito: David A. Aguilar/ Centro para Astrofísica

Además de encontrar nuevos mundos, el floreciente campo ha conseguido muchos primeros.

En 2001, un equipo liderado por David Charbonneau del Centro Harvard-Smithsoniano para Astrofísica usó el Telescopio Espacial Hubble y el Telescopio Espacial Spitzer de detección infrarroja de la NASA para detectar por primera vez la atmósfera de un planeta extrasolar del tipo Júpiter caliente llamado HD 189733b.

Otro Júpiter caliente, Ípsilon Andrómeda b, reveló por primera vez un exoplaneta con variaciones de temperatura en su superficie: una cara tenía temperaturas que rivalizaban con las profundidades de un volcán mientras que la otra cara se hundía bajo cero.

Los superlativos también abundan, con descubrimientos que consiguieron fama como el más ventoso, más pequeño, más masivo, y la órbita más rápida.

  • El periodo orbital más corto catalogado: HD 41004 B b completa una órbita completa en 1,328 días.
  • La órbita más larga: HD 154345 b necesita 13 100 días para orbitar a su estrella madre.
  • El planeta más ligero: Gliese 581 C pesa sólo cinco veces la masa de la Tierra.

Organizador de planetas

En un esfuerzo por seguir el rastro de la rápidamente incrementada lista de exoplanetas, un grupo de astrónomos publicó un catálogo de exoplanetas cercanos a 652 años luz de la Tierra en un número de 2006 de la revista Astrophysical Journal, aunque se han llevado a cabo actualizaciones, ésta será una necesidad rutinaria básica.

“Sin ninguna duda, el catálogo presentado estará desfasado antes de que se imprima”, dijeron los investigadores en el informe de publicación del catálogo.

Pero con tal muestra de planetas relativamente cercanos, los teóricos ahora tienen la oportunidad de probar sus teorías en el “mundo real”.

“Todo este tema de los planetas extrasolares ha sido una auténtica bendición para los teóricos debido a que hasta ahora sólo tenían un sistema planetario para estudiar, y era el nuestro”, dijo Mandushev en una entrevista telefónica.

Por ejemplo, cuándo un objeto deja de ser un planeta para convertirse en una estrella, un límite que la teoría establece en 15 veces la masa de Júpiter dado que más allá del mismo un objeto puede comenzar a fusionar hidrógeno para alimentar el brillo estelar.

El objetivo real

El objetivo final, dicen muchos cazadores de planetas, es encontrar planetas similares a la Tierra, aquellos planetas con masas similares, composición rocosa y órbita terrestre. Y más allá de encontrar atributos físicos similares a la Tierra estaría el encontrar vida. Hasta ahora, no se han identificado “Tierras”, aunque los observatorios están acercándose gracias a la sensibilidad para detectar objetos pequeños que orbitan lejos de sus estrellas madre, como lo hace nuestro planeta.

“La caza están aún sobre los planetas rocosos similares a la Tierra”, dijo Jason Wright, astrónomo de la Universidad de California en Berkeley, quien fue parte del equipo que compiló el catálogo de exoplanetas.

Los astrónomos han identificado el primer planeta similar a la Tierra que podría tener agua líquida y albergar vida. La “súper-Tierra”, Gliese 581 C, pesa unas cinco veces la masa de la Tierra y también es un planeta rocoso o cubierto completamente por océanos, según especulan los astrónomos.

Los sistemas multiplanetarios también son un objetivo. Hasta ahora se han identificado 25 sistemas multiplanetarios con dos de tales sistemas albergando cuatro planetas.

“Aún no hemos encontrado un clon del Sistema Solar”, dijo Boss. “Pero se han descartado sólo el 10 por ciento de las estrellas. El otro 90 por ciento podría tener análogos exactos del Sistema Solar y no lo sabríamos debido a que no hemos sido capaces de recopilar datos durante el suficiente tiempo para encontrar sus sistemas planetarios”.


Autor: Jeanna Bryner
Fecha Original: 11 de junio de 2007
Enlace Original

La cara oculta podría ser ideal para un radiobservatorio

La idea de construir un observatorio de radio sobre la Luna ha sido apoyada por un informe de alto nivel sobre ciencia lunar. Situado en la cara oculta, sería capaz de mirar hacia las “edades oscuras” del joven universo, y cartografiar los campos magnéticos de planetas alrededor de otras estrellas.

Un conjunto en forma de Y de antenas de radio sobre la Luna investigaría las misteriosas fuentes de rayos cósmicos (Ilustración: J Lazio et al/Laboratorio de Investigación Naval)

La NASA pidió al Consejo de Investigación Nacional de los Estados Unidos (NRC) en 2006 que aconsejase a la agencia sobre los tipos de ciencia que podrían hacerse desde la Luna, y qué proyectos tendrían mayor prioridad.

El martes, un comité de la NRC encabezado por George Paulikas, antiguo científico de la The Aerospace Corporation en El Segunda, California, Estados Unidos, informó de sus hallazgos. El informe se titula The Scientific Context for the Exploration of the Moon (El contexto científico para la exploración de la Luna).

Una de las ideas astronómicas consideradas como más prometedoras por el comité fue la de un radiobservatorio en la superficie de la Luna. Se envió un artículo con la idea a un grupo de científicos liderado por Joseph Lazio del Laboratorio de Investigación Naval en Washington. DC, Estados Unidos.

Conjunto instantáneo

Ellos piensan chapar antenas metálicas sobre una películas de plástico flexible que pueda ser enrollado para su transporte a la Luna, y, una vez allí, sea desenrollado sobre la superficie como una alfombra, creando un conjunto instantáneo de receptores de radio.

Tal observatorio podría investigar fuentes de frecuencia muy bajas en el rango de 1 a 10 megaherzios, lo que normalmente quedaría oculto por el continuo estruendo de tráfico de radio de la Tierra. La masa de la Luna previene de que estas señales de radio de la Tierra lleguen a la cara oculta.

“La cara oculta de la Luna es uno de los lugares más tranquilos en cuanto a radio en el Sistema Solar, dado que es un lugar que realmente no tiene visión de la Tierra”, dice David Lawrence del Laboratorio Nacional de Los Álamos en Nuevo México, Estados Unidos, miembro del comité del NRC que preparó el informe.

Observando a bajas frecuencias, el observatorio podría cartografiar las estructuras comunes durante el periodo de reionización, una época en que la radiación de las primeras estrellas y galaxias transformó drásticamente el universo, alterando las nubes de hidrógeno omnipresentes para hacerlas transparentes a la radiación.

Hasta ahora ha sido imposible observar directamente nada más que el final de este periodo, pero los científicos desean saber qué sucedió en el universo durante esta época, cuando el patrón de formación de las galaxias podría arrojar luz sobre la naturaleza de la materia y la energía oscura.

Estudiar planetas

Podría ser posible para tal observatorio incluso estudiar planetas que orbitan otras estrellas. La interacción de partículas cargadas como electrones con los campos magnéticos de los planetas extrasolares producirían frecuencias de ondas de radio.

Podrían proporcionar información sobre el interior de los planetas extrasolares, tanto de la estructura internar como de la composición que gobierna la fuerza del campo magnético.

Otro propósito es arrojar algo de luz sobre las misteriosas fuentes de los rayos cósmicos – partículas veloces cargadas que parecen venir de todas las direcciones del cielo. Dondequiera que se aceleren estas partículas, deberían también emitir ondas de radio de baja frecuencia que un observatorio adecuado podría detectar.

El equipo de Lazio ha propuesto un observatorio de radio inicial en la cara visible de la Luna que consista en tres antenas de 500 metros de largo unidas por tiras que formarían una forma de Y. Estaría mayormente limitado a la investigación de explosiones solares, pero también serviría como banco de pruebas para un detector más ambicioso, desperdigado a lo largo de varios kilómetros de la tranquila cara oculta de la Luna.

Más grande es mejor

El observatorio de radio más modesto diseñado es llamado Observatorio de Radio para Salida Científica Lunar (ROLSS). Cada tira sería enrollada en un cilindro de un metro de largo y 25 centímetros de diámetro. Podrían desplegarse por astronautas que vuelvan a la Luna, pero es tan simple que unos robots también podrían hacer este trabajo.

Incluso ROLSS podría ver algunos objetos distantes, pero sólo con una visión difusa. “Para una mejor astrofísica lo que deseas es algo que sea mucho mayor, digamos 10 kilómetros o 100″, dijo el miembro del equipo Robert MacDowall del Cetro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland, Estados Unidos.

El informe del comité arroja dudas sobre la idoneidad de la luna para telescopios que trabajen con luz visible, o longitudes de onda ultravioletas o infrarrojas, en parte debido a que la acumulación de polvo lunar en sus lentes podría interferir con su visión. El polvo no afecta a las ondas de radio de bajas frecuencias, sin embargo.

Otras ideas prometedoras destacadas en el informe incluyen tomar muestras de suelo lunar para buscar pruebas de antiguas llamaradas solares en los isótopos dejados; buscar los resistentes pedazos de roca terrestres, que podrían haber sido lanzados fuera de nuestro planeta como consecuencia del impacto de un meteorito y podrían contener información sobre la historia inicial del planeta; y una amplia variedad de investigaciones geológicas que podrían arrojar luz sobre la formación y evolución de la misma Luna.


Autor: David Shiga
Fecha Original: 8 de junio de 2007
Enlace Original

SETI requiere una reevaluación escéptica

Los primeros esfuerzos de SETI estuvieron marcados por unas estimaciones demasiado optimistas del probable número de civilizaciones extraterrestres en nuestra galaxia. A la luz de los nuevos hallazgos, parece apropiado dejar que descanse esta excesiva euforia y tomar una visión con los pies más sobre la Tierra. La Tierra puede ser mucho más especial, y la inteligencia mucho más rara de lo que pensamos previamente.

La posible existencia de inteligencia extraterrestre (ETI) siempre ha estimulado la imaginación del hombre. Los filósofos griegos especularon sobre ello. Giordano Bruno fue quemado en la hoguera en Roma en el año 1600, principalmente por proponer la posibilidad de que hubiese otros mundos habitados en el universo. Kant y Laplace también estaban convencidos de la multiplicidad de mundos similares al nuestro. A finales del siglo XIX Flammarion encantó a grandes multitudes con sus libros sobre la pluralidad de mundos habitables. Pero todas estas ideas eran principalmente consideraciones filosóficas o puras especulaciones. Fue sólo en la segunda mitad del siglo XX cuando la Búsqueda de Inteligencia Extraterrestre (SETI) comenzó a apuntalar su intento científico. Desde finales de los años 50 distinguidos científicos han dirigido la investigación, intentando recibir señales o mensajes inteligentes desde el espacio a través de radiotelescopios. Cientos de astrónomos aficionados, miembros de la SETI-League en docenas de países, están rastreando el cielo, intentando detectar una prueba de vida inteligente el algún punto de nuestra galaxia. Los pioneros de SETI, como Frank Drake y Carl Sagan, mantuvieron la postura de que la Vía Láctea rebosa con un gran número de civilizaciones avanzadas. Sin embargo, los muchos proyectos de búsqueda hasta la fecha no han tenido éxito, y esta atrevida predicción se mantiene aún sin verificar. La nueva comprensión científica sugiere que necesitamos una aproximación más cautelosa y una revisión de estas consideraciones demasiado optimistas.

El argumento estándar para la existencia de una multiplicidad de vida inteligente es similar a éste: Hay aproximadamente de 200 a 300 mil millones de estrellas en nuestra galaxia y probablemente cientos de millones, tal vez incluso miles de millones de planetas en nuestra galaxia. Muchos de estos planetas estarán probablemente situados en la llamada “zona habitable” en relación con su estrella, disfrutando de unas condiciones tan favorables como las de la Tierra para la evolución de la vida. Las leyes físicas, conocidas por nosotros, se aplican también para el cosmos, y las distantes formaciones estelares están compuestas de los mismos elementos que nuestro Sistema Solar. Por tanto, se supone, muchos deberían tener agua y una atmósfera estable, algo considerado como requisitos básicos para el desarrollo de la vida. Tales planetas deben haber experimentado procesos geológicos y biológicos similares a los de la Tierra, que llevaran al desarrollo de organismos vivos primitivos. Entonces, con el paso del tiempo, siguiendo un curso similar al de la Teoría de la Selección Natural de Darwin, éstos evolucionarían en formas más complejas, algunos de ellos desarrollando finalmente capacidades cognitivas y – como en nuestro caso – una inteligencia superior.

En otras palabras, se sostiene que nuestro Sistema Solar, la Tierra, y su evolución no son casos excepcionales, sino algo común en nuestra galaxia de la Vía Láctea. En consecuencia debe estar poblada por un gran número de civilizaciones extraterrestres, muchas de las cuales son más antiguas y avanzadas que la nuestra.

Teniendo en cuenta el colosal número de estrellas y planetas, parecen ser unas suposiciones justas y legítimas. Parece, efectivamente, improbable que la inteligencia hubiese evolucionado sólo en nuestro planeta. Si muchas de estas civilizaciones son científica y tecnológicamente superiores a nosotros, el contacto con ellas daría a la humanidad un gran impulso en muchas formas.

Estas visiones optimistas están principalmente basadas en la famosa fórmula de Drake N=RfpnefifjfeL. Tiene en cuenta la formación de estrellas en la galaxia, la fracción de estrellas con sistemas planetarios, el número de planetas ecológicamente adecuados para la vida, la fracción de estos planetas en los que evoluciona vida inteligente y aquellos que alcanzan una etapa comunicativa y la cantidad de tiempo de las civilizaciones técnicas. Sobre la base de esta fórmula se estima que hay probablemente un millón de civilizaciones avanzadas en la galaxia. La más cercana estaría a unos 200 o 300 años luz de la Tierra. El astrónomo alemán Sebastian von Hoerner estimó un número entre diez mil y diez millones de tales civilizaciones.

Pero debido a la gran cantidad de nuevos conocimientos y resultados en varios campos científicos, desde la paleontología a la geología pasando por la biología o la astronomía, creo que esta fórmula está incompleta y debe ser revisada. Las primeras estimaciones optimistas no se sostienen por más tiempo. Se requiere una visión más sobria y realista.

De ninguna forma estoy tratando de desacreditar a SETI, la Búsqueda de Inteligencia Extraterrestre es un esfuerzo científico. Pero me parece prudente desmitificar este interesante tema, y reformular sus afirmaciones a un nuevo nivel, libre de las románticas facilidades que la adornan.

Hace años, los admito sin tapujos, yo mismo acogí los alegatos de que la inteligencia es un fenómeno muy común en la galaxia. En libros, artículos y en programas de radio y televisión abogaba por la idea de que nuestro mundo, acosado por los problemas, podría aprender mucho de una civilización más avanzada que la nuestra. Pero, mientras tanto, empecé a convencerme de que una actitud más escéptica haría más justicia en realidad. Probablemente sólo hay un puñado de civilizaciones en la galaxia, si es que hay alguna. Las siguientes consideraciones apoyan esta valoración tan pesimista.

Antes de nada, desde el proyecto OZMA I en 1959 de Frank Drake, se han llevado a cabo un centenar de búsquedas radiomagnéticas y de otros tipos en los Estados Unidos y otros países, y se ha rastreado una parte considerable de nuestro cielo concienzuda y repetidamente, pero permaneció en un decepcionante silencio. En cuarenta y seis años no se recibió ni una sola señal o mensaje artificial de inteligencia del espacio exterior. Algunos especialistas intentar minimizar este resultado negativo, argumentando que sólo se ha cubierto hasta ahora una mínima parte del espectro, y que se requiere más tiempo y de un equipo más sofisticado para llegar a una conclusión definitiva. Los criterios económicos y tecnológicos pueden desbaratar la posibilidad de que las civilizaciones extraterrestres lancen señales al espacio a lo largo de grandes periodos de tiempo, sin saber dónde dirigen sus señales. O, puede que usen métodos de comunicación desconocidos por nosotros. Otra explicación es que las ETI avanzadas pueden no tener interés en contactar con otras inteligencias, especialmente aquellas menos desarrolladas. El argumento del experto en cohetes ruso Konstantin Tsiolkovski se cita a menudo: “La ausencia de evidencia no es evidencia de ausencia”.

Pero ninguno de estos argumentos, que intentan explicar por qué no hemos recibido una señal inteligente del espacio, es convincente. Cierto, futuros proyectos de investigación pueden hacer un negocio redondo y grabar la recepción de una señal de origen artificial verificado. Pero hasta ahora no hay pruebas de tal aparición, la posibilidad de lograr tal éxito debe considerarse como algo remoto. Si cien búsquedas fuesen infructuosas, sería justo deducir que la estimación de millones o muchos miles de ETI es una proposición insostenible. Mientras no se produzca un gran avance, la probabilidad del contacto con ETI es cercana a cero. El argumento de que las civilizaciones extraterrestres avanzadas pueden no estar interesadas en contactar con otras inteligencias es algo, como también demostraré, altamente implausible.

Segundo, como demuestran los resultados de las investigaciones, se deben tener en cuenta muchos más factores y condiciones que los considerados en la fórmula de Drake. El geólogo Peter D. Ward y el astrónomo Donald Brownlee presentan en su libro Rare Earth (Tierra Extraña) una serie de tales aspectos, que vuelven del revés las optimistas estimaciones de ETI.

De acuerdo con su razonamiento, la vieja suposición de que nuestro Sistema Solar y la Tierra son fenómenos bastante comunes en la galaxia necesita de una profunda revisión. Por el contrario, las nuevas pistas sugieren, que somos mucho más especiales de lo que pensamos. La evolución de las formas de vida y finalmente de vida inteligente en la Tierra se debió a un gran número de condiciones y desarrollos muy especiales, muchos de los cuales de naturaleza fortuita. Mencionaré sólo algunos que me parecen especialmente importantes: La edad, tamaño, y composición de nuestro Sol, la situación de la Tierra y el eje de inclinación hacia el Sol, la existencia de agua, una atmósfera rica en oxígeno y temperatura estable durante largos periodos de tiempo – factores considerados esenciales para la evolución de la vida – y el desarrollo de una química basada en el carbono. Además un interior activo y la existencia de placas tectónicas que forman las majestuosas cordilleras montañosas como los Alpes, el Himalaya y los Andes, creando distintas condiciones ecológicas, propicias para la proliferación de una gran variedad de especies. También la existencia de la Luna, Júpiter y Saturno (como escudos para el bombardeo de cometas y meteoritos durante las primeras etapas de la Tierra). También los repetidos cambios climáticos, largas eras glaciales, y especialmente las numerosas y bastante fortuitas catástrofes, que provocaron la extinción de muchas especies, como hace 65 millones de años, que llevó a la desaparición de los dinosaurios, pero abrió el camino para formas de vida más diversas y complejas.

Aunque las primeras formas de vida primitivas de la Tierra, las bacterias procariotas, evolucionaron rápidamente, sólo unos 500 millones de años tras el enfriamiento de la corteza terrestre y el final del denso bombardeo de meteoritos y cometas, fueron las únicas formas de vida durante los primeros dos mil millones de años de los cuatro mil seiscientos millones de la historia de la Tierra. Los mamíferos – incluyendo simios y hombres – evolucionaron mucho más tarde, sólo tras la extinción de los dinosaurios hace 65 millones de años. El primer ser humanoide, el Procónsul, surgió en el periodo del Mioceno, sólo hace unos 18 millones de años. El Australopithecus, nuestro antecesor, data sólo de hace 5 o 6 millones de años. En otras palabras, llevó casi 4 mil millones de años, o más del 96% de la edad de la Tierra, evolucionar la inteligencia – muchísimo tiempo, incluso para el reloj cósmico.

En este aspecto deberíamos apuntar la advertencia del distinguido biólogo Ernst Mayr, que subrayó la enorme complejidad del ADN y el ARN humano y sus funciones para la producción de proteínas, los ladrillos de la vida. Estimó que la probabilidad de que pudiese haberse dado un desarrollo biológico similar en alguna parte del universo era nula.

El resultado de estas consideraciones es el siguiente: Debido a las condiciones tan especiales de la geología, biología, y otras condiciones que propiciaron la evolución de la vida y la inteligencia en la Tierra, los desarrollos similares en nuestra galaxia son probablemente muy raros. Las primitivas formas de vida, concluyen Ward y Brownlee, pueden existir en planetas de otros sistemas estelares, pero la vida inteligente, como la nuestra, es probablemente muy rara, si es que existe.

La tercera es la llamada “Paradoja de Fermi”, otra poderosa razón que sugiere una evaluación escéptica de la multiplicidad de inteligencias en la galaxia. El físico italiano Enrico Fermi planteó la molesta cuestión, “Si hay allí fuera tantas ETI con un alto grado de desarrollo, como afirman los especialistas en SETI, ¿por qué no nos han contactado?” Ya expresé grandes dudas sobre algunas de las explicaciones dadas a esta paradoja. Aquí necesito centrarme en dos más. La primera se refiere a la supuesta falta de interés de los alienígenas avanzados en establecer contacto con otros seres inteligentes. Este argumento me parece especialmente poco fidedigno. Citaré un libro noruego, que explica por qué los vikingos llevaron a cabo peligrosos viajes a costas lejanas en botes precarios. “Una razón”, dice, “es la fama, otra la curiosidad, y la tercera, ¡el conseguirlo!” Si los vikingos, llevados por el deseo de descubrir lo desconocido, llegaron a América hace mil años con una primitiva tecnología, si nuestra joven civilización tecnológica y científica, busca vida primitiva en otros planetas y lunas del Sistema Solar, es increíble que las inteligencias desarrolladas extraterrestres superiores no se hayan visto espoleadas de la misma forma por estos intereses y anhelos. Uno de los rasgos fundamentales de inteligencia es la insaciable curiosidad intelectual y la necesidad de penetrar en lo desconocido. Las mayores civilizaciones, nuestros pares al respecto, deben estar imbuidos del mismo espíritu de osadía y escrutinio, debido a que si no lo tuviese, no podrían haber logrado sus estándares avanzados.

Un segundo argumento propuesto a menudo es que las distancias entre estrellas son demasiado grandes para el viaje interestelar. Pero esta explicación también se apoya sobre suelo poco firme. Incluso nuestra civilización tecnológica y científicamente adolescente está explorando el espacio y enviando sondas – las naves Voyager – que algún día alcanzarán otros sistemas estelares. Estamos aún lejos de conseguir velocidades cercanas a las de la luz, necesarias para el viaje interestelar. Pero algunos científicos predicen que en 200 o 300 años, tal vez incluso antes, seremos capaces de manejar velocidades bajas de “c”, y una vez que lo alcancemos nuestra civilización enviará expediciones exploratorias tripuladas a las estrellas más cercanas. Las naves automáticas no tripuladas pueden ser el intento inicial. Pero estoy convencido de que nada impedirá el deseo del hombre de ver otros mundos con sus propios ojos, tocar el suelo y realizar investigaciones que las sondas no tripuladas no serían capaces de hacer. Evidentemente, civilizaciones por delante de nosotros decenas de miles o millones de años habrán alcanzado velocidades cercanas a c, y serán capaces de explorar una parte considerable de la galaxia. Las civilizaciones ETI avanzadas se embarcarían en tales exploraciones no sólo por la curiosidad científica, sino por su propio interés, por ejemplo para expandirse y encontrar nuevos hábitats para su creciente población, o debido a la necesidad de abandonar su planeta debido a peligros que provengan de su estrella, y también porque con la ayuda de otras civilizaciones podrían enfrentar estos peligros que acechan en el universo, de forma más exitosa que ellos solos. La Paradoja de Fermi debería además ponernos en guardia, y fomentar un sano escepticismo. La carencia de interés en encontrarse con una civilización como la nuestra es la razón menos plausible de por qué no hemos tenido noticias de las ETI.

Un pequeño experimento mental ilustra este punto. Carl Sagan sostuvo una vez que alienígenas inteligentes visitarían la Tierra al menos una vez cada mil años. Pero tales visitas no han tenido lugar. Incluso extendiendo este periodo a un millón de años, no pinta mejor. Supongamos que una nave extraterrestre aterrizó en la Tierra en algún momento durante la época de los dinosaurios, que duró unos 140 millones de años. Es lógico suponer que los alienígenas habrían retornado a intervalos razonables para estudiar nuestro mundo y a estos fascinantes animales, pero también para encontrar si alguno de ellos había evolucionado la capacidad de razonar, matemáticas superiores, y construido una civilización. Habría razones para muchas conjeturas. De acuerdo con los paleontólogos, resalta Drake, el dinosaurio sauronithoides estaba dotado de tal potencial. Era un dinosaurio que recuerda a un pájaro por su tamaño y peso, que poseía una masa cerebral bastante por encima de la media, y, especula Drake, si hubiese sobrevivido otros diez o veinte millones de años, podría haber evolucionado en los primeros seres inteligentes de la Tierra. Pero esto no sucedió, debido a que los dinosaurios se extinguieron en una catástrofe cósmica. Cuando el Homo Australopithecus, más tarde el Homo Faber y Habilis,y finalmente el Homo Sapiens evolucionaron, ¿no deberían haber provocado un mayor interés por parte de los visitantes extraterrestres? Pero no se han registrado visitas. Sólo unos pocos informes mitológicos, indocumentados y altamente sospechosos de supuestas visitas alienígenas. Sería justo suponer, que si los alienígenas avanzados han visitado la Tierra durante los pasados 200 millones de años o, al menos, durante los pasados 16 millones de años, deberían haber dejado alguna marca perdurable, indestructible y reconocible, probablemente en la Luna. Pero nada de esto ha sido detectado. ¿La explicación más probable? ¡No tuvieron lugar tales visitas! No hay civilizaciones avanzadas extraterrestres en nuestras vecindades. Si existen, ya habrían contestado a nuestras señales de televisión – que alcanzan unos 60 años luz en el espacio – otra razón que invalida la afirmación de que nuestra galaxia está rebosante de inteligencia.

Otro argumento que apoya el punto de vista escéptico es el hecho de que ninguno de los planetas detectados alrededor de otras estrellas está cerca de tener unas condiciones aptas para crear y sostener la vida. Desde que el grupo suizo de Michel Mayor descubrió el primer planeta fuera de nuestro sistema solar alrededor de la estrella 51 Pegasi hace diez años, se han identificado otros 130 planetas en una distancia de 200 años luz. Los resultados de la investigación demuestran que la mayoría son de composición gaseosa, de muchas veces el tamaño de Júpiter, demasiado cerca de sus estrellas, muy calientes y con órbitas circulares extremadamente rápidas. Hasta ahora, ninguno presenta las condiciones favorables para el desarrollo incluso de las formas más primitivas de vida, por no hablar de especies más complejas. De nuevo podemos argumentar que sólo hemos investigado en una muy diminuta fracción de los planetas y que futuras investigaciones podrían dar un con un candidato adecuado. Esto podría ser, y ciertamente le daría la bienvenida. Pero hasta ahora las pruebas han fallado al alimentar estas optimistas expectativas. Las condiciones de nuestro universo no son tan favorables para la evolución de la vida como le gusta pensar a los optimistas.

Incluso si el agua o los fósiles de microorganismos se encontrasen bajo la superficie de Marte, la importancia de tales hallazgos para la teoría de la multiplicidad de mundos habitados sería insignificante. Algunos astrónomos piensan que Titán, la famosa luna de Saturno, puede tener un océano, posiblemente de metano. Pueden existir formas de vida primitiva en él, pero aún está por ver. Incluso si es así, el camino evolutivo de tales formas primitivas a vida compleja como los seres humanos – tal como hemos visto – es largo, tachonado con una única secuencia de casualidades y catástrofes.

No estoy afirmando que somos probablemente la única especie inteligente en nuestra galaxia. Tampoco sugiero que las actividades SETI sean una pérdida de tiempo y dinero. Aunque, hasta ahora, han fallado en conseguir alguna prueba de la existencia de ETI, enriquecen el conocimiento humano del cosmos de muchas formas. Ayudaron a desarrollar sofisticadas técnicas de búsqueda, y contribuyeron decisivamente a la percepción del destino cósmico de la humanidad. Carl Sagan y Frank Drake, los dos pioneros más distinguidos de SETI, hicieron un trabajo vanguardista. El que sus esfuerzos y los de otros expertos dedicados a SETI en nombre de esta gran causa estén teñidos con una pizca de expectativas demasiado optimistas es comprensible y profundamente humano.

Sin embargo, en el interés de la ciencia y el sensato escepticismo, creo que es hora de tomar en cuenta los nuevos hallazgos y pistas, para apaciguar la excesiva euforia de SETI y adoptar una postura más pragmática y cercana a la realidad, compatible con los hechos. Deberíamos admitir tranquilamente que las primeras estimaciones – que debe haber un millón, o cientos de miles, o incluso diez mil civilizaciones extraterrestres avanzadas en nuestra galaxia – no se sostiene por más tiempo. Podría no haber cien, ni tan siquiera diez de tales civilizaciones. Las estimaciones optimistas estaban cargadas de demasiadas valoraciones especulativas e imponderables. Lo que se requieres es contactar con una inteligencia extraterrestre, obteniendo una irrefutable y minuciosamente verificada prueba, ya sea a través de ondas electromagnéticas u ópticas o a través de contacto físico, que no somos la única especia inteligente en el cosmos. Tal vez una nave alienígena, atraída por nuestras señales, decidirá visitarnos algún día, tal y como supongo en mi novela Contact: Are We Ready For It? (Contacto: ¿Estamos preparados para él?) Sería el primero en reaccionar ante tal evento con gran alegría y satisfacción. El conocimiento de que no estamos solos en el vasto dominio del cosmos, y que será posible establecer un fructífero diálogo con otros, posiblemente más avanzado, seres inteligentes marcaría el evento más importante de la historia de la humanidad. Abriría la puerta a unas fantásticas perspectivas.

Pero, hasta ahora, las actividades SETI no justifican esta esperanza. Recomiendan una visión más realista y sobria. Teniendo en cuenta los resultados negativos de la búsqueda, la creación de las excesivas expectativas es sólo darle alas a los detractores – por ejemplo, miembros del Congreso que cuestionan el prestigio científico de SETI, imputando que se hace demasiadas ilusiones, y negándole apoyo financiero. Esta aproximación absolutamente negativa a SETI es ciertamente equivocada, dado que contrariamente a los engaños OVNI, SETI (como enfatizó recientemente en un número de esta revista el científico espacial de UCLA Mark Moldwin [2004]) está basado en premisas y consideraciones científicamente sólidas. Pero las exageradas estimaciones que yerran al conformar la realidad, tal y como se ven hoy, tienden a que el tiro salga por la culata y crear un sentimiento de decepción y un alejamiento de este fascinante esfuerzo científico. El sueño de la humanidad de encontrar hermanos en el espacio puede completarse. Si no es así, el hombre no debería lamentarse por su originalidad. Esta circunstancia debería aumentar nuestra gratitud por la existencia y el sentido de responsabilidad por ser su máxima expresión.


Referencias
1. Davies, Paul. 1992. The Mind of God. New York: Simon and Schuster.
2. Drake, Frank, and Dava Sobel. 1992. Is Anyone Out There? New York: Delacourt Press.
3. Moldwin, Mark. 2004.Why SETI is science and UFOlogy is not. Skeptical Inquirer 28(6).
4. Greene, Brian. 1999. The Elegant Universe. New York: W.W. Norton.
5. Sagan, Carl. 1973. Communication with Extraterrestrial Intelligence. Massachusetts: MIT Press.
6. Schenkel, Peter. 1999. Contact: Are We Ready For It? London: Minerva Press.
7. Ward, Peter D., and Donald Brownlee. 2000. Rare Earth. New York: Copernicus

Autor: Peter Schenkel
Fecha Original: mayo de 2006
Enlace Original

La Unión Europea apremia para tener el Sistema Galileo en órbita

Cuando los gobernantes de la Unión Europea consideraron cómo poner en órbita el sistema de navegación por satélite Galileo plagado de problemas, un funcionario de la UE que se encontraba allí hizo un aviso simple – hazlo rápido, o los chinos te robarán el espectáculo.

El primer hombre en el espacio que no era de la Unión Soviética ni de los Estados Unidos, el miembro del Parlamento Europeo por parte de la República Checa Vladimir Remek, advirtió sobre un tropiezo de proporciones cósmicas – y una oportunidad de negocio perdida – si el millonario proyecto falla en su despegue.

Los ministros de transporte de la UE discutirán el viernes si lanzan un salvavidas a Galileo cambiando a fondos totalmente públicos el proyecto que ya lleva varios años de retraso respecto a lo programado.

Previsto como un rival para el Sistema de Posicionamiento Global (GPS) de Estados Unidos, Galileo comprendería una red de 30 satélites lanzando señales de radio a dispositivos receptores en tierra, ayudando a los usuarios a precisar su posición.

El proyecto se enfrenta a graves retrasos o su hundimiento, sin embargo, cuando consorcio de ocho compañías de Francia, Alemania, España, Reino Unido e Italia han sido incapaces de llegar a un acuerdo para compartir el trabajo.

La Comisión Europea ha recomendado que Galileo sea retirado de estas compañías, tras sobrepasar la fecha límite de mayo para configurar una entidad legal conjunta que lleve a cabo el proyecto. Ahora se espera que esté activo y funcionando antes de 2012.

“En este punto el retraso aún no es una catástrofe, es sólo una molestia. Puede ocurrir un problema en esta fase de un gran proyecto, no es poco habitual. Pero su continúa el periodo de prolongación, puede ser una gran desgracia para Europa”, dijo Remek, que estuvo en órbita a bordo de una nave soviética en 1978.

China está construyendo su propio sistema de posicionamiento global, el cual proporcionaría las regiones con servicios de navegación y posicionamiento para principios de 2008.

Remek, parlamentario de la UE desde 2004 tras una vida dedicada a los temas del cosmos, advirtió que si la Unión Europea se rezagaba, el mercado global quedaría parcelado y otro sistema de posicionamiento global no sería rentable.

“China es un fenómeno que el mundo no ha comprendido bastante. Si su sistema es tan profesional como el GPS y se hace mucho más barato, no será necesario un sistema europeo y Europa continuará dependiendo de otros”, dijo a The Associated Press.

Galileo – que es interoperable con GPS – daría más del doble de la cobertura actual del GPS, proporcionando navegación a la gente, desde motoristas a pilotos para equipos de rescate de emergencias. Se espera mejorar la cobertura en latitudes altas como el norte de Europa, y las grandes ciudades donde los rascacielos pueden bloquear las señales.

Galileo también será más exacto que GPS, con una precisión de un metro, comparado con los 5 metros de la tecnología GPS. Y al contrario que GPS – que está controlado en última instancia por el ejército de los Estados Unidos – sería un sistema basado en civiles y ejecutado por autoridades civiles sin posibilidad de ser desconectado.

Los fondos públicos fueron originalmente dejados de lado para cubrir alrededor de un tercio de los 4,85 mil millones de dólares de Galileo, con la intención de que el sector privado proporcionase el resto.

El coste podría elevarse si el proyecto sufriese más retrasos, advierte la Comisión Europea.

Pero los gobernantes de la UE deben decidir si van a hacerse cargo de todo el coste completo de construcción del sistema y, más importante, de dónde sacarán el dinero.

Probablemente se tome una decisión final a últimos de este año – posiblemente en una reunión en noviembre – después de que Portugal se haga cargo de la presidencia semestral de la UE que abandona Alemania.

Sólo uno de los 30 satélites planeados para Galileo ha sido lanzado, en diciembre de 2005. El segundo satélite sobrepasó su fecha de lanzamiento en otoño de 2006 tras un cortocircuito durante unas pruebas finales.

En comparación, el sistema GPS dispone sólo de 24 satélites.


Autor: Jan Sliva
Fecha Original: 7 de junio de 2007
Enlace Original

Torre de caida libre de la QUT atrae a la comunidad científica global

”Ted

Científicos de la NASA, Europa y Australia tomarán el camino hacia el campus Carseldine de la Universidad de Tecnología de Queensland cuando la única torre de microgravedad del hemisferio sur esté terminada este año.

La torre de microgravedad permitirá a los científicos estudiar, en un entorno de gravedad reducida, muchos fenómenos diversos en muchos campos, incluyendo nanomateriales, nuevos materiales, seguridad contra incendios, metalurgia, biotecnología y combustión.

El arquitecto de la torre, el Profesor Asociado Ted Steinberg de la Escuela de Ingeniería de Sistemas de la QUT, dijo que cuando esté finalizada, la torre sería una de las únicas tres o cuatro instalaciones de este tipo en el mundo y que pondría a la QUT a la cabeza mundial en la investigación de los efectos de la gravedad en muchas disciplinas de investigación.

“La torre de microgravedad ya ha atraido muchos socios de investigación tanto en la industria como en el gobierno de varios lugares de Europa y los Estados Unidos”, dijo el Profesor Steinberg.

“Unos importantes programas de investigación propuestos relacionados con el apoyo al desarrollo del Vehículo de Exploración Tripulado (CEV) que reemplazará a la Lanzadera Espacial”.

Pintada de verde y con una altura de 30 metros – “la misma altura que los árboles gomeros característicos del campus de la QUT ” – la discreción de la torre oculta su verdadero valor para la investigación, dice.

La torre funciona colocando el material experimental dentro de una “cápsula de caida” que, cuando se deja caer desde lo alto de la torre, permite al experimento estar en caida libre (o gravedad cero) durante dos segundos, tiempo suficiente para que los científicos hagan cruciales observaciones sobre los fenómenos que estudian.

La cápsula de caida se lleva al reposo en un airbag inflado que permite al experimento decelerar y poder usarse para otro lanzamiento Los científicos son capaces de analizar el resultado cuando la caida se completa”, dijo el Profesor Steinberg.

Dijo que la torre de microgravedad sería una alternativa barata y atractiva a los métodos usuales de probar la gravedad cero.

“Hacer este tipo de investigación sin torre de microgravedad a menudo es bastante caro y consume mucho tiempo debido a que los investigadores tienen que enviar sus experimentos al espacio en una lanzadera o usar un avión de cero G, un jet de la NASA que cambia de altitud rápidamente, para eliminar los efectos de la gravedad”, comentó.

“Los investigadores pueden pagar grandes cantidades para realizar un experimento que pese sólo unos pocos kilos en las lanzaderas espaciales mientras que la instalación de la QUT costará mucho menos por lanzamiento. También podemos realizar muchos lanzamientos por día y el sistema experimental puede pesar cientos de kilogramos y ser bastante grande”.

El Profesor Steinberg dijo que las pruebas en gravedad reducida podrían dar a los científicos pistas sobre los fenómenos que no pueden estudiarse en la gravedad normal debido a los efectos de flotabilidad, sedimentación y otras perturbaciones convectivas no presentes en la gravedad.

“Por ejemplo, se ha demostrado que la formación de ciertos nanomateriales de silicio mejoran enormemente si se producen en gravedad reducida, lo que lleva a unos mejores materiales ya que la solidificación de metales en entornos de gravedad reducida produce estructuras más fuertes que los formados en gravedad normal”.


Enlaces Relacionados: La ciencia que no puede hacerse en la Tierra

Autor: Niki Widdowson
Fecha Original: 07 June 2007
Enlace Original

Profesor propone una teoría de física sin partículas

Howard Georgi, físico de la Universidad de Harvard, ha publicado recientemente un artículo de la llamada física de las impartículas, que sugiere la existencia de un “material de impartículas” que no puede tenerse en cuenta para el modelo estándar. Apareciendo en una edición reciente de Physical Review Letters, el artículo dice que este material de impartículas sería muy distinto de cualquier cosa que hayamos visto antes.

Las impartículas, no partículas, pueden encajar en una teoría que tiene la propiedad de invarianza de escala continua, lo que es difícil de visualizar. Un fractal, como esta Curva de Koch, es un ejemplo de invarianza de escala discreta debido a que se ve igual si lo multiplicamos por un número fijo. Crédito: Benoit Mandelbrot, Fractals.

Georgi, un físico de gran renombre ampliamente conocido por se trabajo pionero en áreas como la supersimetría, cromodinámica cuántica, y teorías de la gran unificación, explica que la física de baja energía de invarianza de escala no trivial no puede ser descrita en términos de partículas. En esta investigación inicial de la idea, da un escenario cuantitativo de la producción de materia de impartículas, y predice cómo podría detectarse experimentalmente en el próximo Gran Colisionador de Hadrones (LHC), el acelerador de partículas más potente del mundo que se pondrá en funcionamiento a principios de 2008.

En la teoría de invarianza de escala — donde los objetos no cambian cuando sus cualidades dimensionales son multiplicadas por un parámetro de re-escala — el concepto de partículas no funciona debido a que la mayoría de partículas tiene una masa no cero determinada. En la mecánica cuántica, esto no es un problema dado que el modelo estándar no tiene invarianza de escala. Pero Georgi sugiere que podría haber un sector no descubierto del modelo estándar que es exactamente invariante en escala.

“Me he divertido mucho con esto”, dijo Georgi a PhysOrg.com. “Es un fenómeno que se ha comprendido matemáticamente durante mucho tiempo, en el sentido de que conocemos las teorías que tienen la peculiar propiedad de la invarianza de escala. Es difícil describir esto debido a que es totalmente distinto de lo que solemos usar. Para nosotros hay una gran diferencia entre si medimos masas en gramos o kilogramos. Pero en el mundo de la invarianza de escala, no hay ninguna diferencia”.

Georgi explica que los fotones, que son partículas de luz, tienen la propiedad de invarianza en escala debido a que tienen una masa de cero. Multiplicar todas las energías del fotón por un facto de mil haría que se viese exactamente igual.

“Teóricos inteligentes (como Ken Wilson) demostraron hace mucho que había unas locas posibilidades de no involucrar a partículas con masa cero, pero que aún tengan la propiedad de que las energías puedan multiplicarse por un factor dado para dar una teoría física equivalente”, dijo Georgi. “[Pero] esto es imposible si hay partículas con una masa no cero definida. Esto es por lo que llamo a este material ‘impartículas’”.

Este sector invariante en escala interaccionaría muy débilmente con el resto del modelo estándar, haciendo posible observar pruebas del material de impartículas, si existe. La teoría de las impartículas es una teoría de alta energía que contiene tanto los campos del modelo estándar como los campos “Banks-Zaks” (que son invariantes en escala en un punto infrarrojo). Los dos campos pueden interaccionar a través de las interacciones de las partículas comunes bajo la energía de una máquina o suficientemente grande o a una escala de masa lo bastante pequeña.

“Si toda la materia que es invariante en escala se acopla a toda la materia que no lo es de forma que se haga más y más débil conforme baja la energía, entonces podría ser que, a las energía que podemos comprobar hoy, no veamos en absoluto materia de impartículas”, explicó Georgi. “Podría haber un mundo de invarianza de escala separado y oculto del nuestro a bajas energías debido a que las interacciones con nosotros son muy débiles”.

Estas interacciones de partículas parecerían haber perdido distribuciones de energía y momento. Georgi ha calculado las peculiares distribuciones de pérdida de energía para el decaimiento de un quark “top”, lo que indicaría la producción de un material de impartículas.

“La pregunta más confusa de “¿A qué se parece una materia de impartícula?” es reemplazada por una cuestión más simple: ‘¿Cómo la materia de impartículas comienza a mostrarse conforme incrementamos la energía de los experimentos?’”, dijo.

Explicó que una buena forma de comprender la materia de impartículas es con los neutrinos. Los neutrinos tienen algunas propiedades en común con la materia de impartículas. Por ejemplo, los neutrinos apenas tienen masa y por tanto casi invariantes en escala. Se acoplan muy débilmente a la materia común a bajas energías, y el efecto del acoplamiento se incrementa con la energía.

“Muy a menudo, en un experimento de dispersión, podemos inferir la existencia de neutrinos aumentando la energía y momento de las partículas en colisión y restando el momento y energía de las partículas que podemos ver para obtener la energía y momento de los neutrinos “perdidas” (lo que sólo significa que no los vemos porque escapan a nuestros detectores sin interactuar)”, dijo. “Haciendo la dispersión muchas veces, podemos medir una probabilidad de distribución para el momento y energía perdidos. Y observando la distribución, podemos decir si hay uno, dos o más neutrinos perdidos en el proceso particular que estamos estudiando.

“Un resultado interesante de mi análisis es que tal distribución para un proceso que produce impartículas se vería como la distribución de un número racional de partículas sin masa”, añade. “Esto es extraño, pero se desprende muy sencillamente de la invarianza de escala de las impartículas. Este es el primer atisbo de respuesta a la pregunta de cómo empiezan a mostrarse las impartículas”.

Dado que las señales de la materia de impartículas sería muy distinta, los experimentos del LHC tienen el potencial para verificar inmediatamente la existencia de la materia de impartículas. Georgi dice que, en su opinión, la materia de impartículas sería un descubrimiento más destacado que la supersimetría o las dimensiones extra, ya que ambos sólo apuntan a nuevas partículas. La materia de impartículas, por su parte, sería un concepto completamente distinto.

“Tanto yo como un número de otros investigadores, no intentamos obligar a estas ideas”, dijo Georgi. “Ya han surgido otras extrañas propiedades de las impartículas. Espero que sean más. Es una gran diversión. Por supuesto, sería incluso más divertido si en realidad materia como ésta en el LHC. Pero incluso si no es así, creo que análisis como este son útiles porque nos sacuden de nuestros preconceptos que podrían provocar que nos perdamos parte importante de la física conforme crece la energía de nuestras máquinas”.


Cita: Georgi, Howard. “Unparticle Physics.” Physical Review Letters 98, 221601 (2007).
Autor: Lisa Zyga
Fecha Original: 11 de junio de 2007
Enlace Original

Un paso más cerca de comprender la superconductividad a altas temperaturas

Transportar energía sin ninguna pérdida, viajar en trenes que levitan magnéticamente, realizar imágenes médicas (IRM) con equipos de pequeña escala: todas estas cosas podrían ser ciertas si tuviésemos materiales superconductores que funcionasen a temperatura ambiente. Hoy, investigadores del CNRS han dado otro paso adelante en el camino que lleva a este objetivo final. Han revelado la naturaleza metálica de una clase de material llamado superconductor de alta temperatura. Este resultado, que probablemente se publicará en el número del 31 de mayo de 2007 de la revista Nature, ha sido ansiosamente esperado durante 20 años. Ésto pavimenta el camino hacia la comprensión de este fenómeno y hace posible contemplar su descripción teórica completa.

La superconductividad es un estado de la materia caracterizado por una resistencia eléctrica de cero e impermeabilidad a un campo magnético. Por ejemplo, actualmente se usa en fotografía médica (dispositivos IRM), y podría encontrar aplicaciones espectaculares en el transporte y almacenamiento de energía eléctrica sin pérdida, el desarrollo de sistemas de transporte basados en la levitación magnética, comunicación sin cables e incluso computadores cuánticos. Sin embargo, por ahora, tales aplicaciones están limitadas por el hecho de que la superconductividad sólo se da a temperaturas muy bajas. De hecho, sólo una vez que se desarrolló la forma de conseguir helio líquido, lo que requiere temperaturas de 4,2 kelvins (-269 °C), se pudo descubrir la superconductividad, en 1911 (un descubrimiento que fue galardonado con el Premio Nobel dos años más tarde).

Desde finales de los años 80 (Premio Nobel en 1987), los investigadores han tratado de obtener materiales superconductores de “alta temperatura”: algunos de estos compuestos pueden hacerse superconductores usando simplemente nitrógeno líquido (77 K, o -196 °C). El récord de temperatura crítica (la temperatura de transición de fase bajo la cual se produce la superconductividad) es hoy de 138 K (-135 °C). Esta nueva clase de superconductores, que son más baratos y fáciles de usar, han dado nuevos ímpetus en la carrera por encontrar unas temperaturas críticas incluso más altas, con el objetivo final de obtener materiales superconductores a temperatura ambiente. Sin embargo, hasta ahora los investigadores se han visto frenados por algunas preguntas fundamentales. ¿Qué causa la superconductividad a escalas microscópicas? ¿Cómo se comportan los electrones en dichos materiales?

Experimento de levitación magnética. El coche contiene dos discos hechos de YBa2Cu3O7, un material superconductor de temperatura crítica alta enfriado por nitrógeno líquido. El camino, compuesto de imanes, produce un campo magnético que no pueden penetrar en el coche. Es exactamente como si el campo magnético fuese un corriente de aire extremadamente fuerte que eleva al coche del suelo. Dado que no hay fricción, con un pequeño empujón ponemos al coche en movimiento (indefinidamente) a lo largo de la carretera. © J. Billette – CNRS 2007 (estas imágenes pueden obtenerse en la biblioteca fotográfica de CNRS (photothèque du CNRS, phototheque@cnrs-bellevue.fr)

Los investigadores del Laboratorio Nacional para Campos Magnéticos Pulsantes, trabajando junto a investigadores de Sherbrooke, han observado “oscilaciones cuánticas”, gracias a su experiencia en el trabajo con campos magnéticos intensos. Sometieron sus muestras a campos magnéticos de hasta 62 Teslas (un millón de veces más potente que el campo magnético de la Tierra), a muy baja temperaturas (entre 1,5 K y 4,2 K). El campo magnético destruye el estado de superconductor, y la muestra, ahora en un estado normal, muestra una oscilación de su resistencia eléctrica en función del campo magnético. Tal oscilación es característica de los metales: significa que, en las muestras que se estudiaron, los electrones se comportaban de la misma forma que en los metales corrientes.

Los investigadores fueron capaces de usar este descubrimiento, que ha sido ansiosamente esperado durante 20 años, para mejorar su comprensión de la superconductividad a temperatura crítica alta, lo que hasta ahora había resistido todos lo intentos de moderlala. El descubrimiento ha servido para ordenar muchas teorías que surgieron para explicar el fenómeno, y proporciona una base firme sobre la cual construir una nueva teoría. Hará posible diseñar materiales más eficientes, con temperaturas críticas más cercanas a la temperatura ambiente.


Referencias:
Quantum oscillations and the Fermi surface in an underdoped high-Tc superconductor, Nicolas Doiron-Leyraud, Cyril Proust, David LeBoeuf, Julien Levallois, Jean-Baptiste Bonnemaison, Ruixing Liang, D. A. Bonn, W. N. Hardy, Louis Taillefer, Nature, 31 May 2007, Vol 447, pp 565-568.
Autor: Claire Le Poulennec
Fecha Original: 30 de mayo de 2007
Enlace Original

Los científicos proponen la clase de química que lleva a la vida

Antes de que emergiera la vida en la Tierra, un tipo primitivo de metabolismo o una maquinaria duplicadora similar al ARN debe haber creado el marco adecuado – o eso piensan los expertos. ¿Pero qué precedió a estos pasos previos a la vida?

Un par de científicos de la UCSF ha desarrollado un modelo que explica cómo unos simples procesos físicos y químicos pueden haber tendido hacia la fundación de la vida. Como todos los modelos útiles pueden probarse y describen cómo puede hacerse esto. Su modelo está basado en simples y bien conocidas leyes de la física y la química.

El trabajo aparece en la edición on-line de esta semana en “The Proceedings of the National Academy of Sciences”. (http://www.pnas.org/cgi/content/abstract/0703522104v1)

La idea básica es que los principios simples de las interacciones químicas permiten un tipo de selección natural a microescala: las enzimas pueden cooperar y competir unas con otras en formas simples, llevando a ordenaciones que pueden convertirse en estables, o “cerradas”, dice Ken Dill, doctor, y autor senior del artículo además de profesor de química farmacéutica en la UCSF.

Los científicos comparan estos procesos químicos de “búsqueda, selección y memoria con otro proceso bien estudiado: diferentes rangos de neuronas disparándose en el cerebro llevan a nuevas conexiones entre neuronas y finalmente a madurar el patrón de cableado cerebral. De forma similar, las hormigas sociales primero buscan de forma aleatoria, luego descubren la comida, y finalmente construyen una memoria a corto plazo para toda la colonia usando huellas químicas.

También comparan los pasos químicos con los principios de la evolución de Darwin: la selección aleatoria de los rasgos de diferentes organismos, selección de los rasgos más adaptativos, y luego la herencia de los rasgos mejor adaptados al entorno (y presumiblemente la desaparición de aquellos rasgos menos adaptativos).

Como estos procesos más obvios, las interacciones químicas del modelo involucran competición, cooperación, innovación y preferencia por la consistencia, dicen.

El modelo se centra en las enzimas que funcionan como catalizadores – compuestos que aceleran en gran medida las reacciones sin verse ellas mismas modificadas en el proceso. Los catalizadores son muy comunes en los sistemas vivos así como en los procesos industriales. Muchos investigadores creen que los primeros catalizadores primitivos sobre la Tierra no fueron mucho más complicados que las superficies de arcillas u otros minerales.

En su forma más simple, el modelo demuestra cómo dos catalizadores en una solución, A y B, cada uno catalizando una reacción diferente, podría terminar formando lo que los científicos llaman un complejo, AB. El factor decisivo es el relativo a la concentración delos compañeros deseados. El proceso podría ser algo así: El catalizador A produce un compuesto químico que usa el catalizador B. Ahora, dado que B normalmente busca este compuesto, en algunas ocasiones B se verá atraído hacia A – si el compuesto deseado no está disponible de otra forma en las cercanías. Como resultado, A y B se aproximarán formando un complejo.

La palabra “complejo” es clave dado que muestra cómo simples interacciones químicas, con pocos elementos, y siguiendo las leyes básicas de la química, pueden llevar a una nueva combinación de moléculas de mayor complejidad. El surgimiento de la complejidad – ya sea en sistemas neuronales, sistemas sociales, o la evolución de la vida, o todo el universo – ha sido un gran misterio, principalmente en los esfuerzos de determinar cómo surgió la vida.

Dill llama a estas interacciones químicas “innovación estocástica” – sugiriendo que involucra tanto las interacciones aleatorias (estocásticas) como el surgimiento de nuevas ordenaciones.

“Una pregunta principal sobre el origen de la vida es cómo los compuestos químicos, no cuales no tienen interés por sí mismos, se convierten en “biológicos” – dirigidos en su evolución por la selección natural”, dice. “Este modelo simple demuestra una ruta plausible hacia este tipo de complejidad”. Dill es también profesor de biofísica y decano asociado de investigación en la Escuela de Farmacia de la UCSF. Es profesor afiliado del QB3, el Instituto de California para la Investigación Biomédica Cuantitativa, con sede en la UCSF.

El autor principal del artículo es Justin Bradford, estudiante graduado de la UCSF que trabaja con Dill.

La investigación fue patrocinada por la Fundación Nacional de Ciencia y los Institutos Nacionales de la Salud.

La UCSF es una universidad puntera que ofrece salud a nivel mundial llevando a cabo investigación biomédica, educando a estudiantes graduados en las ciencias de la vida y profesiones sanitarias, y proporcionando cuidados a pacientes complejos.


Autor: Wallace Ravven
Fecha Original: 8 de junio de 2007
Enlace Original

Mini cosechadores de calor podrían ser una nueva fuente de energía

Las nuevas formas de convertir el calor en ondas sonoras – y después en electricidad – pueden ser el siguiente paso hacia una nueva fuente práctica de energía alternativa.

Los científicos han sabido durante décadas que pueden convertir el calor en sonido usando dispositivos simples dispositivos llamados motores de calor acústicos. Pero esta semana un equipo de investigadores de la Universidad de Utah planean demostrar que han tenido éxito al miniaturizar y optimizar los dispositivos que convertirían el sonido en electricidad útil.

Si es cierto, el avance podría abrir las puertas a las plantas de energía, coches y ordenadores supereficientes, así como una nueva generación de células solares.

Los motores de calor acústico normalmente usan placas de cobre para conducir el calor a un material de alta área superficial como la lana de vidrio, que más tarde calienta el aire a su alrededor. El movimiento del aire caliente genera una onda sonora de única frecuencia, como una flauta. Y esto, a su vez, hace vibrar un electrodo piezoeléctrico, produciendo un voltaje.

Alta eficiencia

La mayoría de motores son grandes o poco eficientes, por tanto, haciéndolo inadecuados para interconectarlos con ordenadores u otras aplicaciones pequeñas.

Para mejorar estas perspectivas, Orest Symko y su equipo construyeron motores más pequeños de entre 11 a 18 centímetros de largo. Con un 40% de eficiencia, los motores rivalizan con los motores diesel y gasolina en conversión de energía.

El descubrimiento del equipo también ha hecho arquear las cejas a más de uno, sin embargo. “Me doy cuenta de que todo lo que tenga que ver con la energía hoy día es verdaderamente importante”, dice Scott Backhaus, que estudia la termoacústica en el Laboratorio Nacional de Los Alamos. “Pero estamos trabajando en algunas aplicaciones para motores diesel, y puedo decirte que no estamos obteniendo una eficiencia cercana al 40%. Soy escéptico”.

Motores diminutos

Los investigadores de Utah también han construido los motores de calor acústico más pequeños conocidos, los cuales con 1,8 milímetros de largo podrían producir 1 Vatio de electricidad por centímetro cúbico cuando se acoplan entre sí. Symko especula que los conjuntos podrían usarse como “células” en un nuevo tipo de panel solar.

Planea probar los dispositivos en el próximo año para producir electricidad a partir del calor residual en una instalación de un radar militar.

“Parece muy prometedor, pero en este punto aún queda mucho trabajo por hacer. Aún estamos trabajando en un conjunto”, dice, añadiendo que espera que la producción en masa de los motores en miniatura comiencen en el próximo año.

Si todo va bien, podría instalarse en plantas de energía de gas natural o de carbón poco tiempo después. El equipo presentará su investigación el viernes en la reunión anual del viernes de la Sociedad Acústica Americana en Salt Lake City, Utah.


Autor: Michael Reilly
Fecha Original: 6 de junio de 2007
Enlace Original

Una estrella aburrida puede significar un planeta con más vida

”MOST”

La luz “aburrida” de una estrella enana roja como Gliese 581 significa mejores posibilidades para la vida extraterrestre en sistemas planetarios, de acuerdo con el astrónomo de la Universidad de British Columbia, Jaymie Matthews.

Aproximadamente a 20,5 años luz de la Tierra, Gliese 581 apareció en todas las portadas en abril de 2007 cuando unos científicos europeos descubrieron un planeta, llamado Gliese 581c. Apodado “superTierra”, el planeta orbita a Gliese 581 y podría tener agua – y por tanto ser capaz de dar soporte a la vida.

“El sistema de Gliese 581 es el primero descubierto –más allá de nuestra propia Tierra – que podría ser un planeta con vida”, dijo Matthews.

Usando el telescopio espacial del tamaño de una maleta de la Agencia Espacial Canadiense, MOST (Microvariability and Oscillations of Stars – Microvariabilidad y Oscilaciones Estelares), Matthews puso a Gliese 581 en un seguimiento de seis semanas tras su descubrimiento en abril. Presentará sus hallazgos hoy en la reunión anual de la Sociedad Astronómica Canadiense en Kingston, Ontario.

Matthews y su equipo buscaron los ligeros descensos en la luz de la estrella cuando la órbita del planeta pasaba entre la estrella y la Tierra, dando como resultado un “mini-eclipse” cada 13 días. LA profundidad de los descensos ayudaría a los investigadores a determinar el tamaño del planeta Gliese 581c, mientras el comportamiento de la luz estelar en otros momentos ayudaría a los astrónomos a calibrar la idoneidad de Gliese 581 como “estrella hogar”, una estrella capaz de mantener vida en los planetas a su alrededor.

“Gliese 581 parece notablemente estable durante las seis semanas que la hemos monitorizado con MOST”, dijo Matthews. “El brillo de la estrella cambió sólo unas pocas décimas de porcentaje en ese tiempo. Este nivel de estabilidad significa que proporciona una fuente estable de luz – y por tanto calor – a la superficie del planeta Gliese 581c.

“El clima no debería ser una salvaje montaña rusa que haría difícil el afianzamiento de la vida”, dijo Matthews. “También sugiere que la estrella es bastante vieja, y fija en sus formas, y que los planetas alrededor de la misma tienen probablemente alrededor de varios miles de millones de años”.

A la vida en la Tierra le llevó aproximadamente 3,5 mil millones de años alcanzar el nivel de complejidad que llamamos humano, dijo Matthews. “Por tanto si Gliese 581 ha estado allí aproximadamente ese tiempo, es más esperanzador que ningún otro planeta para las posibilidades de vida compleja”.

Con misiones espaciales como MOST, la satélite francés COROT, que se unió a MOST en órbita a finales del pasado diciembre, y la misión estadounidense Kepler preparada para su lanzamiento en noviembre de 2008, Matthews predice que en los próximos meses y años aparecerán otros mundos “Terrestres”.

“Algunos de ellos tendrán órbitas que producirán alineamientos planetarios”, dijo Matthews. “No del tipo que pone nerviosa a la gente que lee horóscopos sino del tipo que excita a los astrónomos debido a que les permitirán comprobar sus modelos de mundos alienígenas – mundos que podrían ser hogares de nuestros vecinos en la ciudad galáctica, la Vía Láctea”.

MOST es una misión de la Agencia Espacial Canadiense, operada en conjunto por Dynacon Inc., El Instituto de Estudios Aeroespaciales de la Universidad de Toronto y la Universidad de British Columbia, con la ayuda de la Universidad de Viena. Para más información, visite www.astro.ubc.ca/MOST.


Enlaces Relacionados:
Encontrado el primer planeta similar a la Tierra habitable fuera del Sistema Solar
Lo siguiente es buscar vida

Autor: Brian Lin
Fecha Original: 8 de junio de 2007
Enlace Original