XO-3b: ¿Planeta supergigante o un oasis en el “desierto de enanas marrones”?

Esta imagen es de un planeta similar, XO-1b.

Astrónomos profesionales y aficionados encuentran uno de los planetas más extraños de los que se tiene conocimiento

El último hallazgo de un equipo internacional de astrónomos cazadores de planetas profesionales y aficionados es uno de los planetas extrasolares más extraños de los que se han catalogado – un colosal orbe de más de 13 veces la masa de Júpiter que orbita su estrella en menos de cuatro días.

Los investigadores del Proyecto XO con sede en los Estados Unidos hicieron público el descubrimiento del planeta XO-3b, en la reunión de la Sociedad Astronómica Americana en Honolulu. Christopher Johns-Krull, astrónomo de la Universidad de Rice y presentador de los resultados del equipo, dijo, “Este es un planeta realmente extravagante. También es particularmente apropiado anunciar aquí este descubrimiento, dado que el núcleo del Proyecto XO son dos pequeños telescopios que operan aquí, en Hawaii”.

“De los más de 200 exoplanetas encontrados hasta ahora, XO-3b es una rareza en varios aspectos”, dijo el director del Proyecto XO Peter McCullough, astrónomo en el Instituto de Ciencia del Telescopio Espacial en Baltimore. “Es el planeta de mayor tamaño y más masivo encontrado hasta ahora en una órbita tan cercana, y dada la proximidad de la órbita a la estrella, quedamos sorprendidos de que la órbita no fuese circular sino significativamente elíptica”.

Dadas todas sus excentricidades, XO-3b probablemente esté llamando la atención de los astrónomos que estudian la formación planetaria, dijo McCullough.

“Estamos intrigados de que su masa esté en el límite entre los planetas y las enanas marrones”, dijo Johns-Krull. “Aún hay un animado debate entre los astrónomos sobre cómo clasificar las enanas marrones”. Cualquier masa estelar que sea lo bastante grande como para fusionar hidrógeno – cualquier cosa mayor que unas 80 veces la masa de Júpiter — es una estrella. Las enanas marrones son objetos masivos que se quedaron cortas al ser estrellas.

“La controversia está en el final de la escala”, dijo Johns-Krull, profesor asistente de física y astronomía en Rice. “Alguna gente cree que cualquier cosa capaz de fusionar deuterio, lo que en teoría sucede alrededor de las 13 masas de Júpiter, es una enana marrón. Otros dicen que el tema no es la masa, sino si el cuerpo forma su propio sistema planetario o es parte de uno”.

En virtud de su masa, cualquier planeta lo bastante grande para competir con el estatus de enana marrón debería ser encontrado fácilmente por los cazadores de planetas. Esto se debe a que los astrónomos en realidad no buscan planetas cuando rastrean el cielo; generalmente buscan estrellas con un bamboleo debido al tirón gravitatorio de los planetas que orbitan a su alrededor. Cuanto más grande es el planeta, mayor tirón gravitatorio crea, por lo que los cazadores de planetas que usaban este método de “velocidad radial”esperaban encontrar gran cantidad de enanas marrones cuando empezaron a rastrear el cielo buscando estrellas bamboleantes hace una década. Esto no ocurrió, y la escasez de objetos supergrandes se ha conocido en este campo como el “desierto de las enanas marrones”.

Lo que también hace de XO-3b algo intrigante es el hecho de que es un “planeta en tránsito”, lo que significa que pasa frente a su estrella durante cada órbita. Hasta el momento se han identificado menos de una docena de planetas en tránsito, y XO-3b es el tercero encontrado por el Proyecto XO, que fue específicamente diseñado para buscarlos.

El Proyecto XO se beneficia de su sociedad entre astrónomos profesionales y aficionados. El Proyecto XO comienza su búsqueda con un telescopio situado en la cumbre del Haleakala operado por el Instituto de Astronomía de la Universidad de Hawaii. El telescopio se creó a partir de dos lentes comerciales de cámara de teleobjetivo de 200 milímetros. Usando el telescopio Haleakala, el equipo profesional de XO identificó primero las estrellas candidatas que se debilitaban ligeramente cada cierto tiempo. Los astrónomos aficionados de XO observan esas candidatas durante tiempo y buscan pruebas de que la atenuación es debida a un planeta en tránsito. Una vez que se tienen las pruebas suficientes, el equipo profesional usa telescopios de mayor tamaño – el Telescopio Harlan J. Smith de 2,7 metros y el Telescopio Hobby-Ebberly de 11 metros, ambos en el Observatorio McDonald de la Universidad de Texas en West Texas – para confirmar la presencia de un planeta en tránsito.

“Existen muchos sistemas astrofísicos allí fuera que imitan a los planetas en tránsito”, dijo McCullough. “La única forma de averiguar cuales son planetas reales y cuales no es observar las estrellas con más cuidado. El tiempo de observación de los grandes telescopios es escaso, y aquí es donde entran en juego nuestros socios aficionados, filtrando nuestras largas listas de candidatas a un tamaño más manejable que pueda observarse con grandes telescopios. El Proyecto XO se beneficia enormemente de los claros cielos de Haleakala y la disponibilidad de telescopios como el Hobby-Ebberly, Spitzer, y Hubble y su hábil personal para operarlos. El alcance global y dedicación de nuestros colaboradores aficionados es especialmente digno de mención.

“Me gustaría apuntar que los atletas Olímpicos también son aficionados”, dijo McCullough.

El Proyecto XO está principalmente patrocinado por la NASA y el Fondo Discrecional de la Junta de STScI.


Autor: Jade Boyd
Fecha Original: 30 de mayo de 2007
Enlace Original

Supersólidos: el tema se complica

Los resultados de la dispersión de neutrones han arrojado dudas sobre la existencia de un fantasmal estado de la materia llamado supersólido. La investigación, llevada a cabo por científicos en los Estados Unidos y Reino Unido, encontró que unas muestras de helio ultrafrío no exhibían las marcas de un supersólido – la ocupación de masa del estado base. Esto hace aguas la esperanza de los físicos de que los sólidos – así como los líquidos y gases – pueden también convertirse en un “condensado” cuántico (Phys. Rev. Lett. 98 205301).

La supersolidez se predijo por primera vez en 1969 por los teóricos rusos Alexander Andreev e Ilya Liftshitz. Dijeron que los huecos en la red que normalmente tienen lugar a temperaturas finitas, podrían seguir existiendo a temperaturas cercanas al cero absoluto en elementos con enlaces débiles como el helio, debido a la energía de “punto cero”. Enfriando helio sólido a bajas temperaturas, estos huecos podrían colapsar en el mismo estado base, convirtiéndose en lo que conocemos como un condensado Bose-Einstein (BEC). En este estados supersólido, los huecos se comportarían como una entidad coherente, moviéndose a través del resto del sólido sin esfuerzo como en un superfluido.

Los físicos Moses Chan y Eun-Seong Kim de la Universidad de Pennsylvania State en los Estados Unidos hallaron la primera prueba de supersolidez cuando notaron un pequeño cambio en la inercia rotacional de una muestra de helio-4 puro apoyado en el interior de un oscilador de torsión a una temperatura de 230 mK. Esto, concluyeron, quería decir que un 1% de la muestra se había condensado en un supersólido y había permanecido en reposo en el marco del laboratorio. Desde entonces, sin embargo, distintos grupos han demostrado que el estado supersólido puede eliminarse “templando” la muestra de helio con antelación para eliminar cualquier impureza. Esto llevó a los físicos a suponer que la supersolidez debía estar relacionada con una cantidad finita de desorden.

Sin embargo, unos nuevos resultados obtenidos usando la fuente de neutrones de ISIS en el Laboratorio Rutherford Appleton del Reino Unido parece contradecir los hallazgos de Chan y Kim. Oleg Kirichek de Rutherford y sus colegas del Reino Unido y los Estados Unidos investigaron cómo los neutrones se dispersaban fuera de los átomos y dejaban huecos vacantes en la red dentro del helio-4 sin templar que había sido enfriado a 80 mK. Usando un modelo por ordenador para convertir sus datos en distribución de momento, hallaron que no hay ocupación de masa en el estado base (momento cero) por parte de los átomos o de los sitios vacantes en la red.

De acuerdo con Kirichek, estos resultados demuestran que la teoría de Andreev y Liftshitz no se aplica al helio-4 sólido de “alta calidad”. Sin embargo, no se revela por qué Kim y Chan observaron los efectos de la supersolidez similares a los superfluidos en el experimento de torsión, el cual usaba muestras de helio de la misma calidad. “No creo que sea una respuesta ambigua”, dijo John Goodkind, que fue el primero en empezar a buscar el estado supersólido en los años 80, a Physics Web. “Estamos esperando a que haya más experimentos que clarifiquen la situación”.


Autor: Jon Cartwright
Fecha Original: 30 de mayo de 2007
Enlace Original

El equipo Carnegie informa sobre 18 nuevos exoplanetas y 7 enanas marrones

Concepto artístico del planeta del tamaño de Neptuno GJ436b (derecha) orbitando la estrella enana M, Gliese 436, a una distancia de sólo 5 millones de kilómetros. Con una densidad similar a la de Neptuno, el exoplaneta es un gigante helado y posiblemente tiene un núcleo rocoso y grandes cantidades de agua en el interior que forman hielo bajo una gran presión y temperatura. GJ436b se descubrió en 2004 por el equipo de Búsqueda de Planetas de Carnegie y California, y fue visto por primera vez por el astrónomo belga Michaël Gillon en mayo de 2007 en tránsito sobre su estrella. (Copyright de Ilustraciones Lynnette Cook)

El mayor y más prolífico equipo del mundo de cazadores de planetas anunció el lunes 28 de mayo el descubrimiento de 28 nuevos planetas fuera del Sistema Solar, incrementando el número a 236 exoplanetas conocidos.

El profesor de posdoctorado de la Universidad de California en Berkeley, Jason T. Wright y el recientemente nombrado Doctor John Asher Johnson informaron de los nuevos exoplanetas en una rueda de prensa en la reunión semianual de la Sociedad Astronómica Americana (AAS) en Honolulu. Los hallazgos, también informados en posteriores sesiones del encuentro, son el resultado del trabajo combinado del equipo de Búsqueda de Planetas de Carnegie y California y el equipo de Búsqueda de Planetas Anglo-Australiano.

Los planetas están entre los 37 nuevos objetos – cada uno orbitando una estrella, pero menores que una estrella – descubiertos por los equipos el año pasado. Siete de los 37 están confirmados como enanas marrones, que son estrellas fallidas que, no obstante, son mucho más masivas que el mayor de los planetas del tamaño de Júpiter. Otros dos están en el borde de ser unos enormes gigantes gaseosos o pequeñas enanas marrones.

Wright dijo que los equipos de investigación habían sido mucho más sofisticados en sus análisis del bamboleo estelar provocado por los planetas que las orbitan, permitiéndoles detectar los bamboleos más débiles provocados por planetas más pequeños así como planetas más alejados de sus estrellas madre.

“Hemos sumado el 12 por ciento del total sólo en el año pasado, y estamos muy orgullosos de ello”, dijo Wright sobre los 28 nuevos exoplanetas. “Esto proporciona nuevos sistemas planetarios de los que podemos estudiar sus propiedades como un conjunto”.

El planeta helado gigante GJ436bes como un Neptuno caliente que orbita a Gliese 436 cada 2,6 días. Debido a que vemos su órbita desde un lateral, el planeta transita a menudo a su estrella, como en esta imagen artística.

El equipo de Búsqueda de Planetas de Carnegie y California está encabezado por Geoffrey Marcy, profesor de astronomía en la UC Berkeley; Paul Butler de la Institución Carnegie de Washington; Debra Fischer de La Universidad de San Francisco State; y Steve Vogt, profesor de astronomía en la UC Santa Cruz. El equipo de la Búsqueda de Planetas Anglo-Australiano está encabezado por Chris Tinney de la Universidad de Nueva Gales del Sur y Hugh Jones de la Universidad de Hertfordshire. Ellos y sus colegas Shannon Patel de la UC Santa Cruz y Simon O’Toole del Observatorio Anglo-Australiano han publicado sus resultados de exoplanetas en artículos durante el año pasado, pero la reunión de la AAS es la primera vez en la que los equipos presentaron los hallazgos del año pasado por completo.

Además de informar de los nuevos 37 objetos subestelares, Wright apartó un exoplaneta descubierto por sus equipos hace dos años por ser “extraordinariamente rico”. Orbitando las estrella Gliese 436 (GJ 436), un enana roja M a sólo 30 años luz de la Tierra, había un planeta gigante helado que según calcularon los equipos tenía al menos 22 veces la masa de la Tierra, ligeramente superior a la masa de Neptuno (17 veces la masa de la Tierra). Tras el descubrimiento en 2004 y la publicación de la órbita del exoplaneta a principios de ese año, un astrónomo belga, Michael Gillon de la Universidad de Liege, observó al planeta cruzando frente a su estrella – el primer planeta del tamaño de Saturno observado en tránsito sobre su estrella. Gillon y sus colegas informaron hace dos semanas cómo este planeta en tránsito les permitió calcular la masa con precisión, 22,4 veces la masa terrestre, y calcular el radio y densidad del planeta, el cual resultó ser similar al de Neptuno.

“De la densidad de dos gramos por centímetro cúbico – el doble del agua – el 50 por ciento debe ser roca y el otro 50 agua, con tal vez pequeñas cantidades de hidrógeno y helio”, dijo Marcy. “Por tanto este planeta tiene una estructura interna híbrida entre un Neptuno y una súper-Tierra, con un núcleo rocoso rodeado por una cantidad significativa de agua comprimida en forma sólida a altas presiones y temperaturas”.

Dibujo del interior de una planeta helado gigante similar a GJ436b o Neptuno. (Crédito: Jason Wright/UC Berkeley)

Su corta órbita, 2,6 días alrededor de Gliese 436, significa que el exoplaneta está muy cercano a la estrella – sólo a un tres por ciento de la distancia del Sol a la Tierra – haciendo del mismo un Neptuno caliente, dijo Wright. También tiene una órbita excéntrica, no una órbita circular como la mayoría de los planetas gigantes encontrados orbitando cerca de sus estrellas madre. Esta órbita, de hecho, sugiere que la estrella puede tener otro compañero planetario en una órbita más distante.

“Estoy seguro de que la gente continuará inmediatamente el estudio e intentará medir la composición atmosférica de este planeta”, predice Wright.

También entre los nuevos 20 exoplanetas hay al menos cuatro nuevos sistemas planetarios múltiples, además de tres estrellas que probablemente contienen una enana marrón así como un planeta. Wright dijo que al menos el 30 por ciento de todas las estrellas conocidas con planetas tienen más de uno. Dado que los planetas más pequeños y los planetas exteriores son difíciles de detectar, predice que el porcentaje continuará subiendo conforme mejoren los métodos de detección.

“Estamos apenas llegando al punto donde, si estuviésemos observando nuestro Sistema Solar desde lejos, veríamos Júpiter”, dijo, apuntando que la técnica Doppler usada por el equipo es sensible al bamboleo estelar de un metro por segundo, mucho menor que los 10 metros por segundo a la que estábamos limitados cuando empezados hace 15 años.

Wright sigue el rastro de todos los exoplanetas conocidos por el equipo de Búsqueda de Planetas de Carnegie y California en su sitio Web, http://exoplanets.org, el cual alberga el único catálogo de exoplanetas revisado por pares dentro de una distancia de 200 pársecs (652 años luz) de la Tierra. Esto incluye “todo lo que está lo bastante cerca para ser estudiado y seguido con cámaras”, dijo.

Tres de los planetas recientemente informados están alrededor de grandes estrellas de entre 1,6 y 1,9 veces la masa de nuestro Sol. Johnson se ha centrado en exoplanetas alrededor de estrellas masivas, conocidas como estrellas A y F, las cuales tienen masas entre 1,5 y 2,5 masas solares. Los planetas alrededor de estas estrellas masivas son normalmente muy difíciles debido a que habitualmente rotan muy rápido y tienen atmósferas pulsantes, un rasgo que puede ocultar o simular la señal de un planeta en órbita. Descubrió, no obstante, que las estrellas A “retiradas” más frías – estrellas “subgigantes” que casi han completado la combustión del hidrógeno y se ha estabilizado por un corto periodo de tiempo – están lo bastante tranquilas para que sean detectables los bamboleos producidos por un planeta.

Hasta ahora, Johnson ha rastreado seis exoplanetas descubiertos previamente alrededor de estrellas A retiradas, y combinando este conjunto con los tres nuevos exoplanetas descubiertos, han sido capaces de establecer unas conclusiones preliminares. Por ejemplo, los planetas alrededor de estrellas más masivas parecen estar más alejadas de sus estrellas madre, dijo Johnson.

“Sólo uno de los 9 planetas están a menos de 1 UA (unidad astronómica, o 150 millones de kilómetros), y ninguno a menos de 0,8 UA, de su estrella anfitrión, la cual es una distribución muy distinta alrededor de las estrellas similares al Sol”, dijo, apuntando que muchas estrellas similares al Sol albergan gigantes gaseosos calientes que rotan alrededor de su estrella en periodos de 2 a 100 días. Incluso aunque los planetas de periodo corto son más fáciles de detectar, no se han detectado planetas de este tipo orbitando estrellas A retiradas, cuyos planetas típicos tienen una distancia orbital más o menos igual que la de la Tierra o mayor, con un periodo de órbita de unos pocos años.

Basándose en los resultados de su búsqueda de planetas alrededor de estrellas A retiradas, Johnson ha descubierto que las estrellas masivas es más normal que alojen planetas del tamaño de Júpiter que las estrellas de menor masa. La opción de tener un planeta gaseoso gigante similar a Júpiter orbitando a menos de 2 UA es de un 8,7 por ciento para estrellas entre 1,3 y 2 masas solares, contra un 4 por ciento para las estrellas similares al Sol con masas entre 0,7 y 1,3 masas solares, y un 1,2 por ciento para estrellas M con menos de 0,7 veces la masa solar. Como se esperaría del modelo de acreción del núcleo de la formación planetaria, los planetas más grandes se observan más a menudo alrededor de las estrellas masivas, probablemente debido a que estas estrellas comienzan con más material en sus discos durante el periodo de formación estelar inicial.

Johnson continuará centrándose en las estrellas A retiradas, 450 de las cuales han sido añadidas a la lista de objetivos del equipo. Conforme se descubran más planetas alrededor de subgigantes, debería hacerse más claro su las órbitas grandes son “un resultado de una diferente formación y mecanismos de migración en los discos de las estrellas tipo A, o simplemente una consecuencia del pequeño número de subgigantes masivas estudiadas actualmente”, escribieron él y sus colegas en un artículo enviado en abril a Astrophysical Journal.

El equipo de Búsqueda de Planetas de Carnegie y California usa telescopios del Observatorio Lick de la Universidad de California y el Observatorio W. M. Keck en Hawaii. El equipo de Búsqueda de Planetas Anglo-Australiano usa el Observatorio Anglo-Australiano. Juntos, estos equipos han descubierto más de la mitad de todos los exoplanetas conocidos.

El trabajo está patrocinado por la NASA, la Fundación Nacional de Ciencia, el Observatorio W. M. Keck, la Institución Carnegie de Washington, el Observatorio Anglo-Australiano y los Observatorios de la UC.


Autor: Robert Sanders
Fecha Original: 29 de mayo de 2007
Enlace Original

Posibles sacrificios rituales en el Paleolítico europeo

El enterramiento triple de Dolní Vestonice (Moravia) incluye a tres individuos jóvenes yaciendo en posturas inusuales. El esqueleto central está afectado por una displasia congénita. (Crédito: Bohuslav Klima, National Geographic vol 174, No. 4, Oct. 1988, pag 466.)

Un nuevo y fascinante artículo del número de junio de Current Anthropology explora múltiples tumbas antiguas y muestra la posibilidad de que las congregaciones de cazadores en lo que ahora es Europa hubiesen practicado los sacrificios rituales. Esta práctica – ampliamente conocida en las sociedades estratificadas – apoya los datos que surgen de distintas líneas de investigación sobre que el nivel de complejidad social alcanzado en el pasado lejano por los grupos de cazadores estaba mucho más allá de algunas de las recientes pequeñas bandas de modernos recolectores.

Debido a su número, estado de preservación, riqueza, y variedad de bienes asociados a las tumbas, los enterramientos del Paletolítico Superior (26 000-8 000 A.C) representan una importante fuente de información sobre las creencias ideológicas que podrían haber influido en el comportamiento funerario. En un análisis del registro europeo, Vincenzo Formicola (Universidad de Pisa, Italia) apunta a una alta frecuencia de enterramientos múltiples, lo que se atribuye comúnmente a muertes simultáneas debidas a una enfermedad o desastre natural.

Sin embargo, una mirada a la composición de la tumba revela que algunos de los enterramientos múltiples pueden haber sido selectivos. No sólo los esqueletos de estas tumbas varían en sexo y edad, sino que los lugares más espectaculares también incluyen algunos individuos deformes con una condición patológica que aparentemente sería de nacimiento, por ejemplo, enanismo o curvatura congénita de los huesos.

Estas tumbas múltiples también están ornamentadas con riqueza y en lugares escogidos. Por ejemplo, los restos de un adolescente con enanismo en la Cueva de Romito (Calabria, Italia) yacen junto al esqueleto de una mujer bajo el elaborado grabado de un toro. En el doble enterramiento de Sunghir (Rusia), los esqueletos de un chico y una chica pre-adolescentes están rodeados por objetos de marfil incluyendo unas 5 000 cuentas, cada una de las cuales puede haber llevado su tallado una hora.

“Estos hallazgos apuntan a la posibilidad de que los sacrificios humanos fuesen parte de la actividad ritual de estas poblaciones y proporcionan pistas sobre la complejidad y simbolismo dominantes en las sociedades del Paleolítico Superior así como sobre la percepción de “diversidad” y sus vínculos con las creencias mágico-religiosas”, escribe Formicola. “Estos individuos podrían haber sido temidos, odiados, o reverenciados. . . no sabemos si este adolescente recibió un tratamiento funerario especial a pesar de ser enano o precisamente porque lo era”.


Cita: Vincenzo Formicola, “From the Sunghir Children to the Romito Dwarf: Aspects of the Upper Paleolithic Funerary Landscape.” Current Anthropology 48:3.
Fecha Original: 23 de mayo de 2007
Autor: Suzanne Wu
Enlace Original

Motor de superconducción para incrementar la densidad de energía

La configuración experimental de los científicos: (1) criostato estacionario; (2) motor de inducción; (3) correas; (4) pasador, contactos—(a) cepillo, (b) arandelas. Crédito de la imagen: Ailam, et al. ©IEEE 2007.

El campo de los motores eléctricos ha entrado recientemente en una nueva era. Los motores eléctricos que ves a diario en sitios como lavadoras, muñecos y ventiladores usan los mismos principios básicos que los motores de hace 50 años. Pero con la entrada en uso de los cables superconductores para reemplazar las espirales de cable convencionales, los motores se han hecho más compactos, con mayor eficiencia energética, y menos caros, lo que tendrá ventajas particularmente para las grandes aplicaciones industriales.

Recientemente, los científicos El Hadj Ailam y sus colegas de la Universidad Henri Poincaré en Nancy, Francia y en el Centro de Sistemas de Energía Avanzada en Tallahassee, Florida, han diseñado y probado una máquina giratoria de superconducción basada en una topología poco convencional. Sus resultados, que se publicarán en IEEE Transactions on Applied Superconductivity, muestran una prometedoras oportunidades para el motor.

“Este trabajo tiene dos objetivos”, Ailam, quien actualmente se encuentra en el Centro Universitario Khemis Miliana en Argelia, dijo a PhysOrg.com. “Lo primero es demostrar la viabilidad de un motor eléctrico basado en la densidad del flujo magnético, y lo segundo es demostrar que los superconductores pueden mejorar significativamente los rendimientos de las máquinas eléctricas”.

Construido sobre los diseños de motores de alta temperatura de los últimos años, el motor de Ailam et al. Es un motor de baja temperatura, una máquina de ocho polos con un inductor de superconducción estacionario. Al contrario que las espiras de cobre, las espiras del inductor de niobio-titanio (NbTi) de este diseño no tiene resistencia eléctrica, lo cual es una de las mayores ventajas de los superconductores.

Cuando las dos espiras de NbTi son alimentadas con corrientes en movimiento en direcciones opuestas, estas corrientes crean un campo magnético. Situadas entre las dos espiras, cuatro placas de material superconductor (hechas de YBaCuO, u óxido de cobre, itrio y bario) dan forma y distribuyen las líneas de flujo magnético, las cuales inducen un campo electromagnético alterno basado en la concentración magnética. Un armazón giratorio rodeado de hilos de cobre convierte entonces la energía eléctrica en energía mecánica, que finalmente se transfiere a una aplicación.

En este diseño, todo el inductor es enfriado a 4,2 Kelvin usando helio líquido para conseguir la resistencia eléctrica cero en las espiras. (Los científicos explican que los cables a altas temperaturas también funcionarían en esta configuración.) Como en todos los motores superconductores, el cable superconductor puede transportar cantidades de corriente mucho mayores que un cable de cobre, y por tanto crear unos campos magnéticos mucho más potentes en una menor cantidad de espacio que los motores convencionales.

“Para la mayoría de máquinas superconductoras eléctricas, la estructura es la clásica, y el flujo magnético uno radial”, explicó Ailam. “[Sin embargo,] para nuestra máquina, el flujo magnético inductor es uno axial”.

Para probar el rendimiento del motor, los científicos calcularon el potencial escalar magnético, el cual dice la fuerza del campo magnético en un cierto área, y entonces determinaron la densidad de flujo magnético, que es la cantidad de magnetismo en ese mismo área. Como explicaron los científicos, el valor máximo de la densidad de flujo se encuentra entre dos de las placas, mientras que el valor mínimo está detrás de ellas; una gran diferencia en la densidad del flujo magnético maximiza el rendimiento del motor generando un campo magnético más potente.

El grupo demostró experimentalmente un rendimiento de 118,8 voltios para el motor. Además, calcularon un voltaje teórico generado de 172,5 voltios, y explicaron que la diferencia se debe a un valor incierto para la diferencia en los valores máximos y mínimos de los campos magnéticos alrededor de las placas, el cual no fue medido directamente. Mejorando esta diferencia en la densidad del flujo magnético incrementará, con optimismo, el voltaje del motor.

“Como demostramos en otro artículo, aún en proceso, usando esta estructura con varios cables superconductores de 20 mW, la energía generada decrementa el volumen del inductor en un 20-50 por ciento en comparación con una máquina eléctrica clásica”, dijo Ailam.

En el futuro próximo, el grupo planea diseñar y construir una máquina superconductora de 100 kW usando la misma configuración.

“Las principales ventajas de estos motores son una alta densidad de volumen-energía y una alta densidad de volumen-par de torsión, y menos vibración que los motores convencionales”, dijo Ailam. “Creo que la propulsión marítima puede y la tracción eléctrica en general pueden beneficiarse principalmente de estos motores”.


Cita: Ailam, El Hadj, Netter, Denis, Lévêque, Jean, Douine, Bruno, Masson, Philippe J., and Rezzoug, Abderrezak. “Design and Testing of a Superconducting Rotating Machine.” IEEE Transactions on Applied Superconductivity, Vol. 17, No. 1, March 2007.

Autor: Lisa Zyga
Fecha Original: 24 de mayo de 2007
Enlace Original

Prueba definitiva de un dinosaurio nadador

Esbozo de un terápodo nadando en las costas de lago Cameros del Cretático en España. Dibujo por Guillaume Suan, Universidad de Lyon, Francia

Un extraordinario camino submarino con 12 huellas consecutivas proporciona la prueba más convincente hasta la fecha de que algunos dinosaurios nadaban. El camino de una longitud de 15 metros, situado en el camino de La Virgen del Campo en la Cuenca del Cameros, España, contiene el primer registro largo y continuo de natación por un dinosaurio terápodo no aviar.

Un equipo liderado por Rubén Ezquerra, de la Fundación Patrimonio Paleontológico de La Rioja en La Rioja, España, descubrió las huellas en un área muy conocida por su abundancia de caminos de dinosaurios terrestres que datan de principios del Cretácico hace 125 millones de años. Los hallazgos del equipo se informarán en el número de junio de la revista GEOLOGY, publicada por la Sociedad Geológica de América.

El camino consta de 6 pares asimétricos de 2-3 marcas de arañazos cada uno. Cada conjunto de marcas de arañazos, preservadas por una capa de arenisca, tienen una media de 50 centímetros de longitud y 15 centímetros de ancho. El espacio entre ellas sugiere unos saltos bajo el agua de 243-271 centímetros.

Conjunto de marcas de arañazos del camino nadado por el terápodo. A-D son huellas de garras del lado izquierdo; E-H son huellas de garras del lado derecho. Nota la delicada naturaleza a los arañazos y la marcada asimetría en respuesta a la corriente de agua evidenciada por el movimiento ondulatorio de las marcas; el dinosaurio posiblemente luchaba por mantener un camino recto. Las barras de la escala son de 10 centímetros.

De acuerdo con el coautor Loic Costeur, del Laboratorio de Planetología y Geodinámica de Nantes, de la Universidad de Nantes en Francia, las huellas en forma de S dibujan una imagen de un gran animal flotando arañando con sus garras los sedimentos a medida que nadaba en un río de aproximadamente 3,2 metros. Las marcas onduladas de la superficie indican el lugar donde el dinosaurio nadaba contra la corriente, luchando por mantener un camino recto.

“El dinosaurio nadaba con movimientos alternativos de los miembros inferiores, con un movimiento natatorio pélvico de remo”, dijo Costeur. “Es un estilo de nadar de cámino ampliado con movimientos similares a los que usan hoy los bípedos modernos incluyendo las aves acuáticas”.

La pregunta sobre si los dinosaurios podrían nadar ha sido investigada durante años. Hasta ahora, sin embargo, había muy pocas pruebas concluyentes que documentasen este comportamiento. Algunos descubrimientos iniciales se encontró más tarde que eran producidos por sequedad del terreno o fueron categorizadas como trazas fantasma, posibles trazas sin una ruta preservadas en las capas inferiores de sedimentos.

“El camino de La Virgen del Campo abre la puerta a varias áreas de investigación nuevas”, dijo Costeur. “El nuevo modelado biomecánico incrementará nuestra comprensión de la fisiología y capacidades físicas del dinosaurio, así como nuestra visión de los nichos ecológicos en los que vivía”.


Autor: Loic Costeur
Fecha Original: 24 de mayo de 2007
Enlace Original

Los cosmólogos predicen un universo estático en 3 billones de años

Lawrence Krauss

Cuando desaparezcan de las observaciones las pruebas de un universo en expansión.

Cuando el astrónomo holandés Willem de Sitter propuso un modelo estático del universo a principios del siglo XX, estaba unos 3 billones de años adelantado a su tiempo.

Ahora, los físicos Lawrence Krauss de la Universidad de Case Western Reserve y Robert J. Scherrer de la Universidad de Vanderbilt predicen que dentro de billones de años, la información que actualmente nos permite comprender cómo se expande el universo habrá desaparecido del horizonte visible. Lo que quede será un “universo isla” compuesto por la Vía Láctea y sus cercanos vecinos galácticos del Grupo Local en un abrumador vacío oscuro.

El artículo de los investigadores, “The Return of the Static Universe and the End of Cosmology (El Retorno del Universo Estático y el Final de la Cosmología)”, ha sido premiado en 2007 con uno de los más altos galardones que otorga la Fundación de Investigación Gravitatoria. Será publicado en el ejemplar de octubre de Journal of Relativity and Gravitation.

“Aunque los físicos del futuro sean capaces de deducir que su universo isla no ha sido eterno, es poco probable que deduzcan que el principio involucró al Big Bang”, informan los investigadores.

De acuerdo con Krauss, desde que Edwin Hubble avanzó sus observaciones de un universo en expansión en 1929, los “pilares del Big Bang moderno” se han construido sobre medidas de la radiación del fondo cósmico de microondas a partir de la luminosidad de la formación inicial del universo, el movimiento de las galaxias alejándose del Grupo Local y las pruebas de la abundancia de elementos producidos en el universo primigenio, así como las deducciones teóricas basadas en la Teoría de la Relatividad General de Einstein.

Aunque parece casi una historia de ciencia-ficción, los cosmólogos comienzan a vislumbrar un universo basado en “y si…”. Mucho después de la desaparición del Sistema Solar, tocará a los futuros físicos que surjan en otros planetas de otros sistemas solares el descifrar y aclarar los misterios de los orígenes del sistema desde sus aislados universos dominados por la energía oscura.

Pero la ironía de la presencia de tan abundante energía oscura, según informan los científicos, es que los futuros físicos no tendrán forma de medir su presencia debido al vacío en la dinámica gravitatoria de las galaxias en movimiento.

“Vivimos en un momento especial de la evolución del universo”, afirman los investigadores de forma divertida: “El único momento en el que podemos verificar observacionalmente que vivimos en un momento muy especial de la evolución del universo”.

Los investigadores describen que la cosmología moderna se construye sobre la Teoría de la Relatividad General de Einstein, lo que requiere un universo en expansión o en colapso para una densidad uniforme de materia. No obstante, una región aislada del universo puede existir dentro de un universo, por otra parte, aparentemente estático.

Posteriormente discuten las implicaciones de la detección del fondo cósmico de microondas que proporciona la prueba de imágenes de bebé de los inicios del universo.

La radiación estará “desplazada al rojo” en frecuencias cada vez mayores, y finalmente se harán indetectables desde dentro de nuestra galaxia. Krauss dijo, “literalmente no tendremos forma de detectar esta radiación”.

Los investigadores continuaron su discurso con los primeros elementos que sirven de rastros, el helio y el deuterio, producidos en el Big Bang. Predicen sistemas que nos permitirían detectar el deuterio que será dispersado por todo el universo hasta convertirse en indetectable, mientras que el helio en concentraciones de aproximadamente el 25 por ciento del Big Bang se hará indiscernible cuando las estrellas comiencen a producir mucho más helio en el curso de sus vidas para nublar los orígenes del inicio del universo.

“Finalmente, el universo parecerá estático”, dijo Krauss. “Todas las pruebas de la cosmología moderna habrán desaparecido”.

Krauss cerró con un comentario que sugirió que está implícito en las conclusiones del artículo. “Podemos sentirnos superiores por poder detectar cosas que los que vivan en civilizaciones futuras no sabrán, pero por la misma razón, esto sugiere que nos preguntemos a nosotros sobre qué importantes aspectos del universo nos estamos perdiendo nosotros mismos. De esta forma, nuestros resultados sugieren una especie de “humildad cósmica”.


Autor: Heidi Cool
Fecha Original: 22 de mayo de 2007
Enlace Original

El interferómetro atómico de NIST muestra nuevos trucos cuánticos

Átomos interfiriendo entre sí. Después de que los átomos ultrafríos son manipuladores en superposiciones – cada uno situado en dos lugares simultáneamente — son liberado para permitir la interferencia de cada “doble” del átomo. Son iluminados con luz, lo cual lo ensombrece, revelando un patrón de interferencia característico, con el rojo representando una mayor densidad de átomos. Las variaciones en la densidad están causadas por la alternancia constructiva y destructiva de la interferencia entre las dos “partes” de cada átomo, amplificado por miles de átomos actuando al unísono.
Crédito: NIST

Físicos del Instituto Nacional de Estándares y Tecnología (NIST) han demostrado una nueva forma de hacer que los átomos interfieran con otros, recreando un famoso experimento realizado originalmente con luz aunque también haciendo que los átomos hagan cosas que la luz no puede. Sus experimentos exhiben algunos de los extraordinarios comportamientos que se dan por sentados en el mundo cuántico—átomos actuando como ondas y pareciendo estar en dos lugares a la vez, para empezar — y demuestran una nueva técnica que podría ser útil en la computación cuántica con átomos neutros y posteriores estudios de los movimientos atómicos.

Los experimentos de NIST, descritos en Physical Review Letters*, recrea el experimento histórico de la “doble rendija” en el cual la luz en dirigida a través de dos aperturas separadas y los dos chorros resultantes interfieren uno con otro creando un patrón en rayas. Este experimento es una demostración clásica de que la luz se comporta como una onda, y la técnica general, llamada interferometría, se usa como herramienta de medida en muchos campos. El equipo de NIST usó átomos, los cuales, como la luz, pueden comportarse como partículas u ondas, e hicieron el patrón de interferencia de ondas, o en una curiosa situación, no.

Los interferómetros atómicos se construyeron antes, pero la técnica de NIST introduce algunos giros nuevos. Los investigadores atraparon unos 20 000 átomos de rubidio ultrafrío con unas rejillas ópticas, un entramado de luz formado por tres pares de rayos láser infrarrojos que configuran un conjunto de “pozos” de energía, con la forma de un cartón de huevos, que atrapa los átomos. Los láser están alineados para crear dos entramados horizontales superpuestos como dos mallas filtradoras, una el doble de fina que la otra en una dimensión. Si un átomo se sitúa en cada lugar del entramado más ancho, y se apagan aquellos láser cuando se activa la malla más fina, entonces cada posición se divide en dos pozos, separados por unos 400 nanómetros. Bajo las reglas del mundo cuántico, el átomo no elige entre ambos lugares sino que se supone “superposición”, situándose en ambos lugares a la vez. Las imágenes revelan un patrón de características cuando las dos partes del único átomo superpuesto interfiere con otro. (El efecto es lo bastante fuerte como para fotografiarlo debido a que sucede en miles de átomos simultáneamente — ver imagen.)

Todo cambia cuando se sitúan dos átomos en cada lugar del entramado más ancho, y esos lugares se dividen en dos. El par de átomos originales está ahora en una superposición de tres posibles configuraciones: ambos átomos en un lugar, ambos en el otro, o uno en cada. En los dos casos en los que ambos átomos están en un único sitio, interactúan el uno con el otro, alterando el patrón de interferencia — un efecto que no ocurre con la luz. El desequilibrio entre las tres configuraciones crea un efecto similar al estroboscópico. Dependiendo de cuánto tiempo se mantienen los átomos en la malla antes de ser liberados de la interferencia, el patrón de interferencia parpadea (con rayas) y deja de parpadear (sin rayas). Un similar “colapso y resurgimiento” de un patrón de interferencia se vio en experimentos similares realizados previamente en Alemania, pero tal trabajo no confinó un par de átomos en único par de lugares. Los experimentos de NIST permitieron a los investigadores medir el grado en el que tenían exactamente un átomo o exactamente dos átomos en un sólo sitio, y para hacer de forma controlada que interactuasen dos átomos exactamente. Estas son capacidades importantes para hacer un ordenador cuántico que almacene información en átomos neutros individuales.

Más información sobre computación cuántica con átomos neutros puede hallarse en www.nist.gov/public_affairs/quantum/quantum_info_index.html.

Los autores están afiliados al Instituto de Ensamblaje Cuántico, creado el año pasado por NIST y la Universidad de Maryland. La investigación fue financiada por la Oficina de Tecnología Explosiva, Oficina de Investigación Naval, y la NASA.


* J. Sebby-Strabley, B.L. Brown, M. Anderlini, P.J. Lee, W.D. Phillips, J.V. Porto y P.R. Johnson. 2007. Preparing and probing atomic number states with an atom interferometer. Physical Review Letters 98, 200405 (2007).

Autor: Laura Ost
Fecha Original: 24 de mayo de 2007
Enlace Original

Las sorprendentes realidades de las criaturas míticas

Cuando navegaba por el océano cercano a Haití, Cristóbal Colón informó en 1493 de la visión de tres sirenas. El genovés no quedó impresionado.

Más de cerca, las sirenas del mar no eran “tan hermosas como se las describe”,escribió en su diario, “de alguna forma sus rostros parecían de hombres”.

Muchos científicos creen que Colón vio probablemente un manatí, un animal acuático mamífero que recuerda a un hipopótamo con aletas.

En una nueva exhibición abierta en el Museo Americano de Historia Natural (AMNH) este fin de semana, los asistentes pueden superponer digitalmente la imagen de una sirena sobre la de un manatí y ver cómo Colón y otros incontables marineros pudieron ser engañados.

Titulada Mythic Creatures: Dragons, Unicorns & Mermaids (Criaturas Míticas: Dragones, Unicornios y Sirenas), la exhibición rastrea los posibles orígenes de algunas de las bestias “imaginarias” más famosas del mundo y también sus homólogos menos conocidos.

Naturaleza y mito

“Este museo tiene una larga historia de estudios y presentaciones de grandes historias sobre el mundo natural y la cultura de la humanidad”, dijo la presidenta del AMNH Ellen Futter en la rueda de prensa a principios de semana. “En esta exhibición, extendemos la tradición, mirando la intersección entre la naturaleza y la cultura, aquellos momentos en que la gente vislumbró algo fantástico en la naturaleza”.

La exhibición combina hábilmente naturaleza y mito, paleontología y antropología, y encajar deliciosamente modelos de criaturas míticas con fósiles reales.

Justo en la entrada de la exhibición, los visitantes serán bienvenidos por un dragón europeo verde de 6 metros de altura del tipo que según las leyendas abatió San Jorge. Su homólogo chino, colorido y sinuoso, se suspende del techo en una de las últimas salas de la habitación. En la sección de criaturas míticas acuáticas, los largos tentáculos y la cabeza de un calamar gigante inspirado en el kraken se eleva desde el suelo, dejando la mayor parte de su cuerpo oculto.

Un bestiario imaginario

Criarutas míticas pidió prestados especímenes y artefactos de las colecciones de fósiles, arte y antropológicas del museo AMNH y otros, y examina cómo tales objetos podrían haber dado origen a las fantásticas criaturas a través de la imaginación, especulación o un rotundo engaño.

“Enfrentada a una increíble naturaleza, nuestra imaginación podría crear algo para ser reverenciado, algo maravilloso algo para ser cuidadosamente temido o algo simplemente caprichoso y juguetón, tal vez incluso mágico”, dijo Futter. “Confío en que esta exhibición demostrará algo de todo eso”.

Los visitantes pueden tocar un narval auténtico, el cual fue durante siglos aceptado entre los europeos como una prueba de la existencia del unicornio. O echar un vistazo al cráneo picudo de un dinosaurio protoceratop, uno de los animales fósiles que salpicaban prácticamente hasta nuestra época el Desierto del Gobi, y los cuales podrían haber sido confundidos por los comerciantes con los restos de la mítica criatura del grifo con cabeza y patas delanteras de águila y cuerpo de león.

La exhibición da un argumento convincente de porqué las mismas criaturas aparecieron en las historias de culturas separadas por grandes lapsos de tiempo y distancia. Las sirenas, por ejemplo, nacieron probablemente en las mentes de los solitarios marineros europeos, y cuando sus botes tomaban tierra en alguna parte del mundo, la imagen de una criatura mitad pez mitad mujer se esparció por el mundo, a menudo entremezcladas con las creencias locales.

“Esta es una forma realmente intrigante – la idea de una hermosa mujer que también vive en el agua”, dijo Laurel Kendall, uno de los encargados de antropología del museo a LiveScience. “La gente que tuviese diosas acuáticas, parece que cuando encontraron la imagen de la sirena, hallaron una gran forma de representarla”.

Trivial

Criaturas Míticas introduces al visitante a bestias imaginarias de las que la mayoría de nosotros nunca hemos oido hablar. Está el “Kappa” japonés, una criatura con la cara verde de un mono que tiene un gran apetito con los niños y los cocos. Los Kappas vivían en estanques pero ocasionalmente venían a la tierra. Tenían unas hendiduras en la cabeza en forma de cuencos, donde guardaban una pequeña cantidad de agua del estanque, que era la fuente de su energía. Los viajeros que se encontraban un Kappa durante la noche se les aconsejaba que se inclinaran para saludar, cuando el Kappa se inclinase a su vez, dejaría caer su aguay, una vez sin su poder, correría a refugiarse en su estanque.

Esta exhibición es también una rica fuente para un trivial de criaturas míticas. Los visitantes pueden aprender, por ejemplo, que, de acuerdo con Marco Polo, Genghis Khan poseía la pluma de un ave Roc un pájaro gigante mítico que se dice que cenaba elefantes – pero el traductor de Polo, Sir Henry Yule, sospechó que la pluma no era más que una hoja de palmera.

Y, de acuerdo con la exhibición, no todo el mundo está de acuerdo con Colón en las sirenas. El Capitán John Smith de la famosa Pocahontas informó que una sirena que vio una vez no era “poco atractiva en ningún caso”.

Ya sean feos o maravillosos, los monstruos y bestias que una vez embrujaron las imaginaciones colectivas de nuestros ancestros toman vida de nuevo en Criaturas Míticas.

La exhibición estará abierta al público desde el 26 de mayo al 6 de enero de 2008.


Autor: Ker Than
Fecha Original: 23 de mayo de 2007
Enlace Original

Los eclipses de quásar podrían clarificar el misterio del axión

Malcolm Fairbairn del CERN y sus colegas de Alemania y Rusia afirman que el eclipse del quásar que tiene lugar cada octubre puede proporcionar la oportunidad de buscar las hipotéticas partículas ultraligeras llamadas axiones. (Imagen cortesía de NASA Educación y Alcance Público en la Universidad de Sonoma State – Aurore Simonnet)

Los físicos han desarrollado un experimento que podría clarificar si las partículas hipotéticas ultraligeras llamadas axiones – que algunos afirmaron vislumbrar en el laboratorio el año pasado – existen en realidad. Ésto involucra usar telescopios espaciales para comprobar si los rayos gamma procedentes de un quasar a miles de millones de años luz pueden viajar a través del Sol interactuando con su campo magnético (Phys. Rev. Lett. 98 201801).

Los axiones son partículas ultraligeras que se postularon por primera vez en los años 70 para resolver una discrepancia entre los hallazgos experimentales y la teoría de la fuerza nuclear fuerte. Pero más recientemente, los teóricos han comenzado a preguntarse si los axiones podrían también ser las partículas que conformen la materia oscura – la sustancia que se piensa que forma la mayor parte de la masa de nuestro universo.

Debido a que los axiones interactúan tan débilmente con la materia, la mayoría de experimentos esperan detectarlos explotando el hecho de que los fotones son capaces, en ocasiones, de convertirse en axiones en presencia de un campo magnético, y viceversa. En marzo del pasado año, investigadores del experimento PVLAS en Italia pensaron que habían vislumbrado este proceso de conversión – y por tanto los axiones – por primera vez cuando registraron un ligero cambio en la polarización de un rayo láser cuando pasó por un campo magnético en el vacío.

Si esta interpretación del axión fuese cierta, implicaría que los axiones tienen un acoplamiento demasiado fuerte con la luz como para ser unos candidatos adecuados a la materia oscura. Además, un experimento en el CERN llamado CAST, que ha estado intentando convertir fotones solares en axiones en un imán de prueba de 10 metros de largo, no ha encontrado pruebas del fuerte acoplamiento que implica PVLAS. A la luz de estos resultados contradictorios, se están intentando otros experimentos – el más destacable el de Búsqueda de Partículas Similares a los Axiones (ALPS) en el laboratorio DESY en Hamburgo – para descartar el resultado de PVLAS. Estos experimentos involucran iluminar un muro opaco, y comprobar si algún fotón puede atraversalo al convertirse temporalmente en axiones al pasar por un campo magnético.

De acuerdo con Malcolm Fairbairn del CERN y sus colegas de Alemania y Rusia, no obstante, una versión más simple de tal técnica de “iluminación a través del muro se presenta en cada octubre cuando el Sol pasa entre la Tierra y el quásar distante 3C 279. En esta alineación, el Sol actuaría como el muro, y la fuente de luz sería el quásar. Si los axiones con la fuerza de acoplamiento implicada por PVLAS existen, entonces un pequeño número (2%) de los fotones de rayos gamma del quásar vistos en la superficie del Sol se convertirían en axiones debido a su campo magnético, lo que les permitiría viajar a través del Sol sin obstáculos. Una vez que alcancen el otro lado, los axiones se reconvertirían de nuevo en fotones por el campo magnético. El plan de Fairbairn es buscar estos fotones usando telescopios espaciales de rayos gamma durante las alineaciones de octubre. Si no se detectan rayos gamma, esta sería una prueba convincente de que la interpretación de los axiones de los datos de PVLAS es incorrecta.

Fairbairn ya ha comprobado observaciones existentes de 3C 279 por el experimento EGRET tomadas en 1991 para buscar signos de rayos gamma del quásar, pero encontró que los datos no tenían el suficiente nivel de detalle para decirles nada concreto. Sin embargo, piensa que el experimento GLAST, preparado para lanzarse este diciembre, tendrá la sensibilidad suficiente para dar una conclusión firme. No obstante, puede ser demasiado tarde para él si el experimento ALPS, que está programado para su inicio este verano, retorna antes un resultado nulo.


Autor: Jon Cartwright
Fecha Original: 25 de mayo de 2007
Enlace Original

Cuasicristales: algo entre el orden y el desorden

David Damanik, profesor asociado de matemáticas, ha publicado una prueba clave en el estudio de los cuasicristales.

Un matemático ofrece una nueva prueba sobre unas extrañas propiedades electrónicas.

Profesionalmente hablando, las cosas en el mundo de David Damanik no se alinean – y puede probarlo.

En una nueva investigación que está disponible en línea y en revisión para su publicación en el número de julio de Journal of the American Mathematical Society, Damanik y su colega Serguei Tcheremchantsev ofrecen una prueba clave en el estudio de los cuasicristales, materiales similares a los cristales cuyos átomos no se alinean en una red de filas como los átomos que encontramos en los cristales. El último trabajo de Damanik se centra en un popular modelo que los matemáticos usan para estudiar los cuasicristales. La investigación, que estuvo en proceso durante 10 años, prueba que los cuasicristales del modelo no son conductores eléctricos y arroja algo de luz sobre este rincón poco conocido de la ciencia de los materiales.

“Esta es la primera vez que se ha conseguido, y dado el amplio interés académico en los cuasicristales esperamos que el artículo genere un interés significativo”, dijo Damanik.

Hasta 1982, los cuasicristales no es que no se hubiesen descubierto, es que se creía que eran físicamente imposibles. Comprender el porqué ayuda a comprender cómo se alinean los átomos en un cristal.

En la literatura de principios del siglo XIX, los minerólogos demostraron que todos los cristales – como el diamante o el cuarzo – estaban hechos de un red de una fila de átomos tras otra, repitiéndose cada fila a intervalos regulares. Los matemáticos y Químicos Físicos demostraron más tarde que la estructura periódica de repetición de los cristales no sólo estar en pequeños alineamientos fijos. Esto se reveló de forma elegante en el siglo XX cuando los cristales fueron bombardeados con rayos-X. Los cristales difractaron la luz en patrones de puntos que tenían “simetría rotacional”, lo que significa que se ven exactamente igual cuando se les rota parcialmente. Por ejemplo, un cuadrado tiene una simetría rotacional de cuatro caras debido a que se ve exactamente igual cuatro veces cuando se le da un giro completo.

La cristalografía de rayos-X reforzó lo que los físicos, químicos y matemáticos conocían sobre los cristales; podían producir patrones de puntos con sólo dos, tres, cuatro o seis caras de simetría rotacional. La física de sus entramados no permitía nada más.

Todo esto fue bien hasta 1982, cuando el físico Dan Shechtman hizo un estudio de difracción de rayos-X sobre una nueva aleación que había fabricado en el Instituto Nacional de Estándares y Tecnología. El patrón de puntos parecía como los hechos por cristales, pero tenía una simetría rotacional de cinco caras, como un pentágono –algo que estaba prohibido claramente para una estructura periódica de un cristal.

La aleación – que fue rápidamente llamada cuasicristal – atrajo intensamente el interés científico. Desde entonces se han fabricado docenas de cuasicristales. Aunque ninguna de sus estructuras se ha resuelto aún, científicos y matemáticos como Damanik están entusiasmados con su comprensión.

“Matemáticamente hablando, los cuasicristales caen en un terreno intermedio entre el orden y el desorden”, dijo Damanik. “Durante la última década, ha quedado cada vez más claro que las herramientas matemáticas que la gente ha usado durante décadas para predecir las propiedades electrónicas de los materiales no funcionarán en este terreno intermedio”.

Por ejemplo, la ecuación de Schrödinger, que apareció en 1925, describe cómo se comportan los electrones en cualquier material. Pero durante décadas, los matemáticos han sido capaces de usar sólo uno de los términos de las ecuaciones – el operador de Schrödinger – para descubrir si el material sería un conductor o un aislante. En los últimos cinco años, los matemáticos han probado que este método no funciona en los cuasicristales. El resultado de esto es que es mucho más complejo en realidad resolver las ecuaciones y averiguar el comportamiento de los electrones dentro de un cuasicristal. Se han usado Supercomputadores para resolverlas, pero Damanik dijo que las simulaciones por ordenador no pueden sustituir la prueba matemática.

“Las simulaciones por ordenador han demostrado que los electrones se mueven a través de los cuasicristales – aunque muy lentamente – de una forma notablemente distinta a como se moverían a través de un conductor”, dijo Damanik. “Pero los ordenadores nunca te mostrarán todo el paisaje complejo. Sólo dan una solución aproximada para un tiempo finito. En nuestro artículo hemos probado que los electrones siempre se comportan de esta forma en el modelo de cuasicrital estudiado, no sólo hoy o mañana, sino siempre”.

La investigación de Damanik fue financiada por la Fundación Nacional de Ciencia.


Autor: Jade Boyd
Fecha Original: 23 de mayo de 2007
Enlace Original

El VLT encuentra el objeto galáctico más pequeño con chorros

Chorros saliendo de una enana marrón (Impresión artística)

Se han descubierto chorros de materia alrededor de una “estrella fallida” de muy baja masa, en un proceso que imita al visto en las estrellas jóvenes. Esto sugiere no sólo que estas “enanas marrones” se forman de una forma similar a las estrellas normales sino también que sus flujos de salida se encuentran en objetos tan masivos como de cientos de millones de soles o por debajo del tamaño de Júpiter.

La enana marrón con el nombre 2MASS1207-3932 está llena de sorpresas [1]. Su compañera, una gigante de 5 veces la masa de Júpiter, fue el primer exoplaneta confirmado del que los astrónomos pudieron obtener una imagen, abriendo de esta forma un nuevo campo de investigación – la detección directa de mundos alienígenas. Fue más tarde cuando se encontró que la enana marrón tenía un disco a su alrededor, no muy distinto del de las estrellas jóvenes.

Ahora, los astrónomos usando el Telescopio Muy Grande del ESO (VLT) han encontrado que la joven enana marrón también expulsa chorros, un comportamiento bastante similar al de las estrellas jóvenes.

La masa de la enana marrón es de sólo 24 veces la masa de Júpiter. Por tanto, es de largo el objeto más pequeño conocido con un flujo de salida. “Esto nos lleva a la tentadora posibilidad de que los planetas gigantes jóvenes pudieran también tener flujos de salida asociados”, dice Emma Whelan, autor principal del artículo que informa de los resultados.

Los flujos de salida se descubrieron usando una técnica sorprendente conocida como espectroastrometría, basada en el espectro de alta resolución tomado con el instrumento UVES del VLT. Tal técnica se requiere debido a la dificultad de la tarea. Mientras que en las estrellas jóvenes normales – conocidas como estrellas T-Tauri por ser el prototipo de su clase – los chorros son lo bastante grandes y brillantes como para verse directamente, este no es el caso en las enanas marrones: la longitud de los chorros, recuperada mediante espectroastrometría es de sólo 0,1 arcosegundo, es decir, el tamaño de una moneda de dos euros vista a una distancia de 40 kilómetros.

Los chorros se alargan a una distancia de 1000 millones de kilómetros y el material escapa de la enana marrón a una velocidad de unos pocos kilómetros por segundo.

Los astrónomos tenían que confiar en la potencia del VLT dado que las emisiones observadas son extremadamente tenues y sólo UVES del VLT podría proporcionar tanto la sensibilidad como la resolución espectral requerida.

“Descubrimientos como este dependen exclusivamente de los excelentes telescopios e instrumentos, tales como el VLT”, dice Whelan. “Nuestro resultado también remarca el increíble nivel de calidad que está disponible hoy día a los astrónomos: el primer telescopio construido por Galileo se usaba para observar las lunas de Júpiter. Hoy, los telescopios terrestres de mayor tamaño pueden usarse para ver un objeto del tamaño de Júpiter a una distancia de 200 años luz y ¡ver que tiene chorros! ”

Usando la misma técnica y el mismo telescopio, el equipo había descubierto previamente flujos de salida en otra estrella enana joven. El nuevo descubrimiento establece un récord del objeto de menor masa con chorros que se ha visto [2].

Los flujos de salida están por todas partes en el Universo, ya que se han observado escapando de los núcleos activos de las galaxias – AGNs – pero también emergiendo de las estrellas jóvenes. Las observaciones actuales demuestran que aparecen en objetos de una masa aún menor. El mecanismo de flujo es, por tanto, muy robusto en un enorme rango de masas, desde algunas decenas de millones de masas solares (para los AGNs) hasta unas decenas de la masa de Júpiter (para las enanas marrones).

Más información

Se informó de estos resultado en una Carta al Editor en Astrophysical Journal (vol. 659, p. L45): “Discovery of a Bipolar Outflow from 2MASSW J1207334-393254 a 24 MJup Brown Dwarf”, by E.T. Whelan et al.

El equipo está compuesto por Emma Whelan y Tom Ray (Instituto de Dublín para Estudios Avanzados, Irlanda), Sofia Randich y Ray Jayawardhana (Universidad de Toronto, Canadá), Francesca Bacciotti y Antonella Natta (Observatorio Astrofísico de Arcetri, Italia), Leonardo Testi (ESO), y Subu Mohanty (Harvard-Smithsonian CfA, Estados Unidos).


Información Técnica

La espectroastrometría es simplemente un ajuste Gaussiano del perfil espacial del continuo y las regiones lineales de emisión de un espectro para medir posiciones con gran precisión. De esta forma se recupera la información espacial más allá de las limitaciones de la simple observación. Por ejemplo, la espectroastrometría se ha usado principalmente para investigar la binariedad en fuentes donde la separación binaria es mucho menor de que lo que se ve y para confirmar la actividad de flujos de salida donde la línea de emisión que traza el flujo se salida se origina a una distancia mucho más pequeña de lo que se ve y parece estar confinada en la fuente. El primer paso es medir el centroide continuo, es decir, la posición de origen. El perfil espacial del continuo se extrae en muchas posiciones a lo largo del eje de dispersión. Cada perfil extraido se ajusta con una Gausiana para medir la posición centroide de la emisión del continuo y el resultado es un espectro de posición del continuo. Este mapa de la posición del continuo se corrige fácilmente por la curvatura o inclinación del espectro. Se elimina el continuo siguiente y la posición de una región lineal de emisión pura se mide (de nuevo con un ajuste Gausiano) con respecto a la posición del continuo. La presencia del continuo tenderá a arrastrar la posición de la región lineal de emisión de vuelta hacia la fuente por lo que debe eliminarse. La precisión con la que puede medirse la posición con la espectroastrometría es fuertemente dependiente del ruido de la señal observada y viene dado por sigma = seeing /[2,3548(sqrt{Np})] donde Np es el número de fotones detectados. Por ejemplo para una visión de un arcosegundo y un valor de 10 000, las posiciones pueden recuperarse con una precisión de menos de 5 miliarcosegundos. Las líneas de emisión prohibidas que se encuentran en el espectro de algunas estrellas enanas jóvenes son fuertes indicaciones de actividad de flujo de salida. No obstante, las regiones no se extendieron y por esto no se pudo confirmar que originasen un flujo de salida de forma directa. Usando la espectroastrometría los astrónomos fueron capaces de demostrar que las regiones lineales estaban desplazadas pequeñas cantidades respecto al continuo de la enana marrón (los desplazamiento son relativamente pequeños a la vista) y por tanto efectivamente trazaban un flujo de salida. Por favor ver http://www.nature.com/nature/journal/v435/n7042/suppinfo/nature03598.html para una discusión más en detalle de la técnica de espectroastrometría.

Notas

[1]: Las enanas marrones son objetos cuya masa está por debajo de las estrellas normales – se cree que el límite está en aproximadamente un 8% de la masa del Sol – pero mayores que los planetas. Al contrario que las estrellas normales, las enanas marrones son incapaces de mantener una fusión nuclear estable del hidrógeno.

[2]: La enana marrón 2MASS1207-3932 pertenece al Conjunto TW Hydrae y tiene unos 8 millones de años de antigüedad. Aunque e es relativamente jovene, esto impica que esta enana marrón es uno de los objetos galácticos más antiguos con un chorro descubierto, enfatizando el hecho de que los flujos de salida pueden persistir durante tiempos relativamente largos.

Autor: Emma Whelan
Fecha Original: 23 de mayo de 2007
Enlace Original

Magnetoterapia: Un despilfarro de mil millones de dólares

Magnetoterapia

Casi mil millones de dólares se gastan cada año en “magnetoterapia”, que según se afirma elimina muchos síntomas y enfermedades. Los principios científicos básicos indican que todo este dinero es como tirarlo a la basura.

Aproximadamente hace un año Leonard Finegold de la Universidad de Drexel y yo decidimos entrar en el controvertido campo (juego de palabras no planeado) de la “magnetoterapia”. Como profesor de física, Finegold sabe un poco de imanes y campos magnéticos. Como médico y antiguo presidente de investigaciones, sé un poco sobre terapia e investigación médica. Tal vez un físico y un médico puedan arrojar algo de luz sobre este interesante tema. Sabíamos que los imanes eran vendidos como tratamiento para muchas enfermedades médicas y sabíamos que eran muy populares. Pero nos sorprendimos bastante al saber lo populares que son. En los Estados Unidos, sus ventas anuales se estiman en unos 300 millones de dólares (Brody 2000), y globalmente en más de mil millones de dólares (Weintraub 1999). Puedes hacerte una idea aproximada de la magnitud de la industria de la curación por imanes haciendo una búsqueda por Google con el patrón magnetoterapia. Una búsqueda en enero de 2006 arrojó 459 000 páginas web, muchas de las cuales afirmaban que los imanes tiene un poder curativo casi milagroso. ¿Lo tienen? El Profesor Finegold y yo revisamos la literatura sobre la magnetoterapia y encontramos muy pocas pruebas que la apoyen. Una versión abreviada de nuestra revisión se publicó recientemente en British Medical Journal (Finegold y Flamm 2006). Lo siguiente son algunos comentarios sobre la industria de la curación magnética, una breve sinopsis de nuestro artículo del BMJ, y una visión de la magnetoterapia desde un punto de vista teórico.

Seguir Leyendo…

No inspires profundamente, el oxígeno puro es malo para tu cerebro

Estudio de UCLA revela por qué hay problemas en el cerebro al inhalar oxígeno puro

Es una escena de “Anatomía de Grey”— un paramédico o un doctor coloca una máscara sobre la cara de una persona con problemas de respiración y comienza a dispensar oxígeno puro.

Los avances en la investigación sugieren que inhalar oxígeno directamente puede, en realidad, dañar el cerebro. Por primera vez, una estudio de fotografía cerebral de UCLA revela el porqué. Publicado en la edición del 22 de mayo de la revista Public Library of Science (PLoS) Medicine, los hallazgos se oponen a las guías nacionales de práctica médica y recomiendan una nueva aproximación que añade dióxido de carbono a la mezcla para mantener la función cerebral en los pacientes.

“Durante décadas, la comunidad médica mundial ha defendido el 100 por cien de oxígeno como la llave maestra de la reanimación. Pero nadie ha informado de lo que sucede dentro de nuestro cerebro cuando inhalas oxígeno puro”, dijo Ronald Harper, distinguido profesor de neurobiología en la Escuela de Medicina David Geffen en UCLA. “Lo que hemos descubierto se añade a un convincente cuerpo de pruebas para modificar una práctica estándar en la sanidad de los Estados Unidos”.

El equipo de Harper usó una Cámara de Resonancia Magnética Funcional (IRMf) para tomar imágenes detalladas de lo que sucede en el interior del cerebro humano durante dos escenarios distintos de respiración. La técnica detecta pequeños incrementos en el flujo sanguíneo disparados por la activación de distintas partes del cerebro, provocando que estas regiones brillen o se enciendan en el escáner de color.

Los investigadores escanearon los cerebros de 14 niños sanos, de edades entre 8 y 15 años, y monitorizaron su respiración y pulso cuando inhalaban un 100 % de oxígeno a través de una boquilla durante dos minutos. Tras esperar ocho minutos para que la respiración de los más jóvenes volviese a la normalidad, el equipo añadió un 5 por ciento de dióxido de carbono a la mezcla y repitieron el escáner.

La comparación de ambos escaneos reveló diferencias drásticas.

“Cuando los niños inhalaron oxígeno puro, su respiración se aceleró, dando como resultado una exhalación rápida de dióxido de carbono de sus cuerpos”, dijo el coautor del estudio Paul Macey, investigador asociado de UCLA en neurobiología. “La caída en el dióxido de carbono estrechó los vasos sanguíneos, evitando que el oxígeno alcanzara el tejido cerebral y el corazón”.

Aquí es cuando sucedió algo sorprendente en el escáner IRM. Tres estructuras cerebrales se encendieron de pronto: el hipocampo, que ayuda a controlar la presión sanguínea; el córtex cingular, que regula la percepción del dolor y la presión sanguínea; y la ínsula, que monitoriza la tensión física y emocional.

Toda esta actividad despertó al hipotálamo, que regula el pulso del corazón y el flujo hormonal. La activación del hipotálamo disparó una cascada de reacciones dañinas y la liberación de productos químicos que pueden dañar al cerebro y el corazón.

“Algunas áreas del cerebro respondieron al 100 por cien de oxígeno poniendo al hipotálamo a toda marcha”, explicó Harper. “El hipotálamo reaccionó vertiendo una cantidad masiva de hormonas y neurotransmisores en el torrente sanguíneo. Estos compuestos químicos interfieren con la capacidad del corazón para bombear y entregar oxígeno — el efecto opuesto cuando estás intentando reanimar a alguien”.

Cuando los niños inhalaban dióxido de carbono mezclado con el oxígeno, la actividad hipotálamo se desvanecía del escáner IRM.

“Añadir dióxido de carbono al oxígeno relajó los vasos sanguíneos, permitiendo al oxígeno alcanzar el corazón y el cerebro, calmando el hipotálamo y ralentizando la liberación de compuestos químicos peligrosos”, dijo Macey.

“El oxígeno puro prende la mecha que dispara un incendio de daños en el cuerpo”, dijo Harper. “Pero un poco de dióxido de carbono hace que desaparezca”.

Basándose en sus hallazgos, los investigadores animan con firmeza a los proveedores de cuidados sanitarios a añadir dióxido de carbono en la dispensación de oxígeno, especialmente cuando se reanima a niños o se administra oxígeno durante más de unos pocos minutos. La nueva dirección podría tener implicaciones particulares para los pacientes de accidentes, ataques al corazón, envenenamiento por monóxido de carbono y la terapias de oxígeno de largo plazo.

“Cuando hay dudas en un caso, la aproximación médica actual es incrementar los niveles de oxígeno y esperar a ver si el paciente mejora”, explicó Harper. “Pero nadie ha escaneado nunca el cerebro de un paciente para examinar cómo responde a la terapia de oxígeno”.

Los primeros datos sobre los efectos dañinos del oxígeno en concentraciones altas ya han dado como resultado el cambio de política al otro lado del océano. En lugar de usar oxígeno directo, muchos hospitales europeos ahora reaniman pacientes en salas de aire, que contienen una mezcla de nitrógeno, oxígeno y dióxido de carbono, o con una combinación de oxígeno y dióxido de carbono.

Mary Woo, profesor de la Escuela de Enfermería de UCLA, fue la coautora del estudio, patrocinado por el Instituto Nacional de Salud y Desarrollo Infantil.


Autor: Elaine Schmidt
Fecha Original: 21 de mayo de 2007
Enlace Original

GLAST: El reto de demasiados datos

La comunidad astrofísica espera con entusiasmo el inminente lanzamiento del Telescopio de Rayos-gamma Espacial de Gran Área (GLAST), el último y más potente telescopio de rayos-gamma. Pero interpretar la enorme cantidad de nuevos datos que recopilará GLAST puede ser una prueba difícil.

Hasta ahora los instrumentos existentes han permitido a los astrofísicos detectar unas 300 posibles fuentes de rayos-gamma en el universo, y los científicos han tenido que analizar y clasificar estas fuentes una por una. La sensibilidad mejorada de GLAST, de 30 a 100 veces mayor que sus predecesores, permitirá, potencialmente, al telescopio detectar miles de nuevas fuentes de rayos gamma.

“Tendremos una situación difícil para identificarlos”, dice el Físico de Stanford Olaf Reimer. “No podemos aplicar la aproximación individual a miles de fuentes de ninguna forma. A los investigadores les llevó 20 años identificar a Geminga, el pulsar de rayos-gamma que no emite ondas de radio, pero no podemos pasar de nuevo 20 años con una sola fuente”.

Para tratar los retos científicos que surgirán con GLAST, Reimer y varios colegas organizaron una conferencia llamada “La Aproximación Multimensajera a las Fuentes de Rayos Gamma de Alta Energía”, que tuvo lugar el pasado julio en Barcelona. Esta conferencia fue la tercera de una serie de charlas dedicadas exclusivamente al problema de la identificación de las fuentes de rayos gamma. En un libro que se publicará este junio, basado en la conferencia, Reimer sugiere combinar la técnica de identificación establecida con una aproximación estadística basada en la población.

“La idea es establecer las características de las poblaciones ocultas en los pozos de nuevos datos”, dice Reimer. Entonces, los investigadores podrían proceder a escoger los candidatos más apropiados a nuevas fuentes de rayos gamma entre estas poblaciones.

El problema de identificar las nuevas poblaciones de rayos gamma es que los astrofísicos no conocen el comportamiento de las fuentes. “Sabemos que los núcleos galácticos activos brillan ocasionalmente, los pulsos de un púlsar, las binarias tienen órbitas características… estas son firmas claras”, dice Reimer. “Pero para este nuevo fenómeno galáctico no tenemos ese conocimiento”.

Reimer admite que este nuevo problema científico es duro. “Pero tenemos que abordarlo, porque sólo se puede hacer ciencia si sabes con lo que estás tratando en el cielo”, dice.


Autor: María José Viñas
Fecha: 21 de mayo de 2007
Enlace Original

Investigador de la VCU anuncia una cura para la hepatitis C

”Virus
 

Esta enfermedad es la causa principal de la cirrosis, el cáncer de hígado y la necesidad de trasplantes.

El uso aislado del peginterferón, o en combinación con ribavirín, apunta a una cura para la hepatitis C, la causa principal de cirrosis, cáncer hepático y la necesidad de transplantes de hígado, según dijo hoy un investigador de la Universidad de Virginia Commonwealth.

El Doctor en Medicina Mitchell Shiffman, profesor en la Escuela de Medicina de la VCU, y jefe del departamento de hepatología y director médico del Programa de Transplantes de Hígado en el Centro Médico de la Universidad de Virginia Commonwealth, es uno de los investigadores principales del estudio, que se presentó en la 38ª conferencia anual de la Semana de Enfermedades Digestivas en Washington, D.C. La VCU está entre los aproximadamente 40 lugares a nivel mundial que estudian el interferón pegilado alfa-2a, fabricado por Roche Inc.

Casi todos – el 99 por ciento – de los pacientes con hepatitis C que fueron tratados con éxito sólo con peginterferón, o en combinación con ribavirín, no tuvieron ningún virus detectable durante los siete años posteriores. Los investigadores dicen que estos datos confirman el uso de la palabra “cura” ya que la descripción de un tratamiento de la hepatitis C como tratamiento exitoso es definirlo como aquel que no deja rastros detectable del virus de la hepatitis C en sangre a los seis meses del mismo.

“En la VCU estamos animados por estos datos debido a que es extraño en el tratamiento de las enfermedades virales letales que podamos decir a los pacientes que pueden curarse”, dijo Shiffman. “Hoy en la hepatitis C, somos capaces de ayudar a algunos pacientes a un resultado que les permite de forma efectiva dejar atrás la enfermedad”.

El resultado está basado en un estudio con seguimiento a largo plazo diseñado para determinar si el virus re-emergía en los pacientes que habían logrado éxito en el tratamiento. El estudio revisó 997 pacientes, tanto monoinfectados con el VHC crónico como en los coinfectados con el VHC y el VIH, que lograron una respuesta viral sostenida siguiendo tratamientos tanto con una monoterapia de Pegasys (peginterferón alfa-2a) como con una combinación de Pegasys y ribavirín.

Tras el tratamiento exitoso los investigadores monitorizaron los niveles de suero de VCH una vez al año durante una media de 4,1 años (en un rango de 0,4 a 7 años). De los 997 pacientes, 989 mantuvieron niveles indetectable de VHC. Los otros ocho pacientes dieron positivo para el VCH en una media de dos años tras la finalización del tratamiento. El estudio encontró que estos ocho pacientes no presentaban una consistencia en la edad, género o genotipo de VHC, y aún no se ha determinado si estos pacientes experimentaron una recaída o si fueron infectados de nuevo con el VHC.

La hepatitis C es una enfermedad infecciosa de transmisión sanguínea del hígado y es la principal causa de la cirrosis, el cáncer hepático y la necesidad de transplantes de hígado. De acuerdo con el Centro de Control y Prevención de Enfermedades, se estima que 4,1 millones de estadounidenses han sido infectados con la hepatitis C, y 3,2 millones están infectados de forma crónica. El número de nuevas infecciones anuales bajó de los 240 000 en los años ochenta a 26 000 en 2004, el último año para el que tenemos estadísticas disponibles. El CDC estima que el número de muertes relacionadas con la hepatitis C podría incrementarse a 38 000 anualmente para el año 2010, sobrepasando las muertes anuales por el VIH/SIDA.

La conferencia de la Semana de la Enfermedad Digestiva es la reunión internacional más grande de médicos, investigadores y académicos en los campos de la gastroenterología, hepatología, endoscopia y cirugía gastrointestinal. Patrocinado conjuntamente por la Asociación Americana de Estudios de Enfermedades Hepáticas, el Instituto de la Asociación Gastroenterológica Americana (AGA), la Sociedad Americana para Endoscopia Gastrointestinal y la Sociedad para Cirugía del Tracto Alimentario, tiene lugar entre el 19 y 24 de mayo de 2007, en el Centro de Convenciones de Washington en Washington, D.C. El encuentro exhibe aproximadamente 5000 resúmenes y cientos de lecturas sobre los últimos avances en la investigación gastrointestinal, medicina y tecnología. Para más información visite www.ddw.org.


Autor: Anne Buckley
Fecha Original: 21 de mayo de 2007
Enlace Original

Asombro y escepticismo

Yo era un niño en una época de esperanza. Crecí cuando la expectación por la ciencia era muy alta en los años treinta y cuarenta. Fui a la universidad a principios de los cincuenta y obtuve mi doctorado en 1960. Había un sentimiento de optimismo sobre la ciencia y el futuro. Soñaba con ser capaz de hacer ciencia. Crecí en Brooklyn, Nueva York, y fui un chico de la calle. Vine de un buen núcleo familiar, pero pasé mucho tiempo en las calles, como todos los chicos de entonces. Conocía cada arbusto y cada seto, cada farola y cada porche y cada muro del teatro donde jugar al balonmano chino1. Pero hubo un aspecto de aquel entorno que, por alguna razón, me impactó de forma distinta, y eran las estrellas.

Incluso yendo temprano a la cama en invierno podías ver las estrellas. ¿Qué eran? No eran como los setos, ni siquiera como las farolas; eran distintas. Así que pregunté a mis amigos qué eran. Ellos dijeron, “Son luces en el cielo, chaval”. Yo podía decir que en luces en el cielo, pero eso no era una explicación. Yo quería decir, ¿qué eran? ¿Pequeñas bombillas en largos cables negros, y por eso no se podía ver dónde estaban colgadas? ¿Qué eran?

Seguir Leyendo…

Alarmante aceleración de emisiones de CO2 a nivel mundial

Entre 2000 y 2004, las emisiones mundiales de CO2 se incrementaron a una tasa tres veces superior a la tasa de los años 90 — el ratio se incrementó de un 1,1 % por año durante los años 90 a un 3.1% por año a principios de siglo. La investigación, publicada en la edición anticipada en línea de Proceedings of the National Academy of Sciences* del 21 al 25 de mayo, también ha encontrado la tasa de crecimiento acelerado es mayor debido al incremento de la intensidad de energía de la actividad económica (la energía requerida para producir una unidad de producto doméstico bruto) y la intensidad del carbono del sistema energético (la cantidad de carbono por unidad de energía), acoplado con el incremento de la población y el producto doméstico bruto per-cápita. “Ninguna región está descarbonizando su suministro de energía”, afirma el estudio.

La investigación demuestra que el incremento en la intensidad del carbono y la energía constituyen un revés en la tendencia a largo plazo de dirigirnos hacia una mayor eficiencia de la energía y una intensidades de carbono más reducidas. “A pesar del consenso científico sobre que las emisiones de carbono están afectando al clima mundial, no vemos evidencias de progreso en la gestión de estas emisiones ni en países desarrollados ni en países en desarrollo. En muchas partes del mundo, estamos yendo hacia atrás”, recalca el coautor del estudio Chris Field, director del Departamento de Ecología Global de la Institución Carnegie.

La investigación también muestra que las actuales emisiones globales desde 2000 crecieron más rápido que en el escenario más pesimista de los desarrollados por el Panel Intergubernamental sobre el Cambio Climático (IPCC). “La tendencia que relaciona el crecimiento económico con la energía se dirige hacia la dirección equivocada”, comentó Field.

La aceleración de las emisiones de carbono es mayor en las economías en expansión de los países en desarrollo, particularmente en China, donde el incremento refleja principalmente un crecimiento en el producto doméstico bruto per cápita. El estudio** dividió el mundo en Estados Unidos, Unión Europea, las naciones de la antigua Unión Soviética, China, India, y tres regiones que cubren el resto del mundo.

Entre 2000 y 2004 los países en desarrollo contaron con una gran mayoría del aumento en las emisiones, incluso aunque contribuyeron sólo en el 40% de las emisiones total. En 2004, el 73% del crecimiento en las emisiones globales provino de las economías en desarrollo y de las menos desarrolladas, que comprenden el 80% de toda la población mundial. El mismo año las áreas desarrolladas (incluyendo la antigua Unión Soviética), contribuyeron en un 60% a las emisiones totales. Estos países cuentan con el 77% de las emisiones acumuladas desde el inicio de la revolución industrial.

Entre 1980 y 2004, las emisiones en las áreas desarrolladas (Estados Unidos, Europa, Japón, y otras economías menores) se incrementaron como resultado de un rápido crecimiento en el producto doméstico per cápita, junto con un ligero aumento en la población. Este crecimiento estuvo en parte contrarrestado por un decrecimiento en la cantidad de energía necesaria para crear cada unidad de producto.

El estudio enfatiza que el crecimiento en las emisiones puede estar causado por una variedad de factores y que gestionar las emisiones de una economía creciente requiere un progreso tanto en la intensidad de la energía como en la intensidad del carbono del sistema económico. De acuerdo con Field, “resolver la primera parte del puzzle requiere desplazar la economía más hacia las actividades como la industria de servicios y la tecnología de la información, donde las emisiones pueden ser menores, y enfatizar en la eficiencia energética. Para resolver la segunda se requiere el despliegue de nuevas fuentes de energía sin emisión como la eólica, solar y nuclear”.

El presidente de Carnegie Richard A. Meserve apunta que “los impactos del dióxido de carbono en nuestra atmósfera son el resultado de las emisiones acumulativas. Este estudio es una señal de que se necesita urgentemente una acción global para revertir la tendencia adversa o el reto de responder al cambio climático será más difícil”.


*Los investigadores del estudio son Michael Raupach de la Investigación Atmosférica y Marina de CSIRO en Canberra, Australia; Gregg Marland del Laboratorio Nacional Oak Ridge; Philippe Ciais, Comisario de la Energía Atómica en Gif sur Yvette, Francia; Corinne Le Quére, de la Universidad del Este de Investigación Antártica Anglo-Británica en la Escuela de Ciencias Ambientales de Norwich, Reino Unido; Josep Ganadell de la Investigación Atmosférica y Marina de CSIRO en Canberra, Australia; Gernot Klepper del Instituto Kiel para la Economía Mundial en Kiel, Alemania; Christopher Field del Departamento de Ecología Global de la Institución Carnegie en Stanford, California.

**Los datos provienen de fuentes públicas: la Administración de Información de la Energía y la Información sobre el Dióxido de Carbono y el Centro de Análisis USDOE; la División de Estadística de las Naciones Unidas; y la Perspectiva Económica Mundial del IMF.

Autor:
Chris Field
Fecha Original: 21 de mayo de 2007
Enlace Original

Jet lag: Todo se debe a reacciones químicas celulares

Este gráfico de la estructura en lazo de una proteína vívida con un sol naciente indica el reloj circadiano (ciclo de 24-horas).

Según dicen investigadores de Cornell en una explicación biológica de los relojes circadianos.

Los relojes circadianos regulan el tiempo de las funciones biológicas en casi todos los organismos superiores. Cualquiera que haya volado a través de varias zonas horarias conoce el jet lag que resulta de este trastorno del tiempo.

Ahora, una nueva investigación por parte de científicos de Cornell y Dartmouth explica el mecanismo biológico bajo cómo los relojes circadianos sienten la luz a través de un proceso de transferencia de energía de la luz a reacciones químicas en las células. La investigación se publicará en el número del 18 de mayo de la revista Science.

Los relojes circadianos en las células responden a diferencias de la luz entre la noche y el día y de esta forma permiten a los organismos anticiparse a los cambios del entorno ajustando su metabolismo al ciclo diario. Los relojes desempeñan un papel en muchos procesos: sincronizan el momento en que las plantas con flor abren sus pétalos por la mañana y los cierran por la noche; o ajustan el momento en que los hongos liberan sus esporas para maximizar su éxito reproductivo. En los humanos, los relojes son los responsables de por qué tenemos sueño por la noche y nos despertamos por la mañana, y controlan las principales funciones regulatorias. Las interrupciones en el ritmo circadiano pueden causar jet lag, enfermedades mentales o incluso algunas formas de cáncer.

“Estos relojes están conservados en todos los organismos, y en organismos separados por cientos de millones de años de evolución”, dijo Brian Crane, el autor que dirige el artículo y profesor asociado en el Departamento de Química y Biología Química de Cornell.

El estudio revela cómo un hongo (Neurospora crassa) usa los sensores de luz del reloj circadiano para controlar la producción de carotenoides, que lo protegen de los daños de la radiación solar ultravioleta justo tras la salida del sol. Los investigadores estudiaron una proteína llamada vívida, que contiene un cromóforo – una molécula que absorbe la luz. El cromóforo captura un fotón o partícula de luz, y la energía capturada de la luz dispara una serie de interacciones que finalmente llevan a unos cambios en la conformación de la proteína vívida. Estos cambios estructurales en la superficie de la proteína dan lugar a una cascada de eventos que afectan a la expresión genética, tales como los que activan o desactivan la producción de carotenoides.

Sustituyendo un sólo átomo (azufre por oxígeno) en la superficie de la proteína vívida, los fueron capaces de cortar la cadena de eventos y prevenir los cambios estructurales en la superficie de la proteína, interrumpiendo de esta forma la regulación de la producción de carotenoides.

“Ahora podemos demostrar que este cambio conformacional en la proteína está directamente relacionado con su función en el organismo”, dijo Brian Zoltowski, principal autor del artículo y estudiante graduado en Biología Química en Cornell.
El reloj circadiano permite a los hongos regular y producir carotenoides sólo cuando son necesarios para protegerse de los rayos del sol. Un “interruptor” similar puede ser el responsable de sincronizar el ciclo del sueño en los humanos.

“Estamos interesados en intentar comprender el comportamiento a nivel molecular”, dijo Crane. “Este es un gran ejemplo de Química Biológica, en el que podemos perturbar la química de una única molécula de una forma concreta y en realidad cambiamos el comportamiento de un organismo complejo”.

El estudio fue financiado por los fondos del Instituto Nacional de Salud.


Autor: Krishna Ramanujan
Fecha Original: 18 de mayo de 2007
Enlace Original

Diseccionando el Universo con HARP/ACSIS – Una nueva vista de Orión

Este video lleva al observador a través del cubo de datos y ofrece la sensación de cómo se mueve el gas. A película se inicia con las nubes en la región sur y progresivamente se mueven hacia el norte cuando pasa por los cortes de la longitud de onda. Esto revela un gas en expansión. El gas del sur está moviéndose hacia el observador meintras que el del norte está alejándose del mismo.

El Telescopio James Clerk Maxwell (JCMT) en Mauna Kea, Hawaii tiene una nueva forma de mirar al Universo, gracias a dos instrumentos revolucionarios llamados HARP y ACSIS.

Estos instrumentos operan juntos, y recientemente han diseccionado la Nebulosa de Orión, registrando por primera vez los movimientos internos de los gases de las estrellas en formación.

Orión es una de las constelaciones más famosas y reconocibles en el cielo. En su corazón alberga una vasta nube de polvo y gas, la Nebulosa de Orión, que está pasando por una explosión en la formación de estrellas. Los astrónomos se refieren a esta y otras regiones similares como “guarderías estelares”. En esta nube, el polvo y gas se extienden sobre vastas regiones y ayudan a “alimentar” la formación estelar. La gravedad toma el gas y el polvo de estas nubes y lo comprime en estrellas.

HARP y ACSIS permiten a los astrónomos ver el movimiento de este gas con una claridad y precisión que no estaba disponible anteriormente en estas longitudes de onda. Juntos dan al JCMT la potente capacidad de registrar información en tres dimensiones. Al contrario que los sistemas receptores de la generación anterior, HARP/ACSIS pueden producir imágenes del cielo similares a las de una cámara en miles de longitudes de onda adyacentes al mismo tiempo; formando un conjunto de imagen tridimensional llamado “cubo espectral”. Las dimensiones de las longitudes de onda permiten al telescopio detectar rastros moleculares así como los movimientos del gas.

Estos cortes de longitudes de onda revelan a los astrónomos la composición química de nuestra galaxia y de otras en el Universo. Hay muchas moléculas gaseosas en el espacio que emiten radiación a longitudes de onda en las que se puede ajustar el HARP/ACSIS. El JCMT observa en el rango submilimétrico de las longitudes de onda, longitudes de onda mucho más pequeñas que las típicas de una estación de radio, pero mucho mayores que las ondas luminosas. La emisión natural de polvo y gas que tiene lugar en el material entre estrellas es particularmente efectivo al revelar los procesos de acumulación de material para formar estrellas. Este proceso aún es misterioso en sus detalles, y el sistema receptor de HARP/ACSIS en el JCMT está ajustado exquisitamente para estudiar los constituyentes precisos y los movimientos de polvo y gas cuando colapsa para formar estrellas. Y esto hace de este instrumento la herramienta perfecta para examinar la Nebulosa de Orión.

La información que se registra en la tercera dimensión de “longitud de onda” muestra qué cantidad de moléculas de gas, en este caso monóxido de carbono, están radiando y a qué velocidad se están moviendo. Vemos gas con grandes movimientos tanto hacia nosotros como alejándose a velocidades de aproximadamente 200 km/s. Estos cortes de velocidad pueden combinarse en una película permitiéndonos ver en el centro de la nebulosa caliente, donde tiene lugar la formación estelar más vigorosamente, está forzando la salida del gas en lo que llamamos un “flujo de Champagne”.

El Dr. John Richer del aboratorio Cavendish de la Universidad de Cambridge (Reino Unido) dice: “Ha llevado mucho tiempo llegar hasta este punto – los primeros datos científicos del HARP/ACSIS – pero ha valido la pena la espera. Por primera vez podemos hacer mapas a gran escala del gas caliente en las nubles moleculares y comenzar a entender en detalle los complejos y espectaculares procesos que tienen lugar cuando las estrellas se forman”.

HARP (Heterodyne Array Receiver Programme – Programa de Conjunto de Receptores Heterodinos) es un conjunto de 16 receptores espectrales alineados en una parrilla de 4×4 usando uniones de superconductores como elementos detectores. ACSIS (AutoCorrelation Spectrometer and Imaging System – Sistema de Autocorrelación de Cámara y Espectrómetro) es un sistema de ordenadores y electrónica digital de alta velocidad para el análisis de señales producidas por HARP y otros instrumentos. Consta de más de 1000 circuitos integrados personalizados y 30 microprocesadores para el manejo de grandes cantidades de datos y producir resultados que puedan usar los astrónomos. ACSIS produce datos a una razón 1000 veces más rápida que el viejo sistema del JCMT. Juntos, estos intrumentos han convertido al JCMT en una cámara 3-D de ondas submilimétricas más que en un simple telescopio.

La Dra. Jane Buckle del Laboratorio Cavendish dice: “El encargo de HARP y ACSIS ha necesitado de un duro trabajo y dedicación, en particular por parte del JAC, el Laboratorio Cavendish y el personal del Reino Unido de la ATC, pero las nuevas capacidades espectrales del JCMT hace que este sea un momento excitante para la investigación de la formación de estrellas”.

El Dr. Bill Dent del Centro de Tecnología Astronómica del Reino Unido en Edimburgo dice:” A menudo encontramos nubes de gas de muchos cientos de años luz de tamaño que contienen cientos de estrellas todas formándose simultáneamente. Con este nuevo sistema podemos cartografiar la estructura y medir la velocidad del gas que está formando todas estas nuevas estrellas y, además, hacer un análisis químico, para tal vez buscar regiones ricas en extrañas y exóticas moléculas. Antes de la llegada de HARP/ACSIS, no era posible estudiar y comprender las nubes de esta forma”.

“Es realmente excitante ver como la ciencia mana del instrumento finalmente”, dice el Profesor Richard Hills del Laboratorio Cavendish, Científico del Proyecto para HARP. Y el Dr. Harry Smith, Director del Proyecto HARP, dice: “Fue genial trabajar en lo que resultó ser un instrumentos con unas instalaciones de récord”.

El Dr. John Richer ha usado el JCMT durante 19 años para hacer observaciones espectroscópicas de nubes moleculares. “Suele ser un proceso lento y meticuloso. Ahora con los 16 sensibles detectores de HARP, podemos tomar datos a un ratio mucho mayor y comenzar a dar respuesta a preguntas mucho más ambiciosas sobre la formación de nuevos sistemas estelares.

HARP/ACSIS está revolucionando nuestra visión de la formación estelar en la galaxia”, dice Richer.

El Profesor Gary Davis, Director del JCMT, dice “ACSIS y HARP han sido desarrollados durante los últimos años por una red de laboratorios de instrumentación a lo largo de todo el mundo. Haciendo uso de las últimas tecnologías, hemos introducido una nueva capacidad en la observación a la que no puede equipararse ninguna otra en el mundo.

Los astrónomos ahora serán capaces de estudiar las regiones de formación estelar como Orión con un alcance y detalle sin precedente. Estamos realmente excitados con la ciencia que estos instrumentos harán posible por primera vez”.



Fecha Original: 17 de mayo de 2007
Enlace Original