Nuevos hallazgos expanden nuestro conocimiento de las neuronas

Muchos descubrimientos significativos han enriquecido nuestra exploración y comprensión del cerebro, incluyendo uno de los elementos celulares más activos – las neuronas – desde que se describió el cerebro por primera vez en el año 7000 A.C por eruditos egipcios.

Los científicos conocen la base de cómo los nervios transmiten el potencial de acción, los conceptos de transmisión química y eléctrica, e identifican una variedad de bombas, poros, y proteínas, así como un rango de canales de iones (sodio, potasio y calcio), diseñados para propagar o modular la actividad neuronal.

Ahora, el neurofisiólogo de la ASU Carsten Duch y la estudiante de doctorado Stefanie Ryglewski han descubierto pruebas de que podría existir un sensor de voltaje que active directamente un mecanismo de liberación de calcio intracelular, a través de la proteína G. Se había pensado que las proteínas G eran activadas por receptores acoplados y no por sensores de voltaje. Este nuevo hallazgo puede expandir el conocimiento de los científicos acerca de cómo gestiona múltiples tareas una neurona individual.

En el cerebro humano, con más de 100 mil millones de neuronas empaquetadas en un espacio del tamaño de un melón pequeño, las neuronas individuales son bombardeadas por información de sus vecinas. Cómo gestionan estas entradas para procesarlas e integrarlas – y cómo gestionan apropiadamente sus salidas – es por tanto central para llegar a una comprensión de cómo surge como un todo la actividad cerebral coordinada.

“Piensa en todas las tareas que una neurona tiene que hacer y en todos los tipos distintos de información que está siendo procesada en una célula”, dice Duch, profesor asociado en la Escuela de Ciencias de la Vida. “Creemos que estos sensores añaden otra herramienta a la caja de herramientas de las neuronas para gestionar información”.

En un artículo publicado en la revista Public Library of Science (PLoS) Biology el 6 de Marzo, Duch y Ryglewski esbozan cómo funciona la activación de esta proteína G, de reciente identificación y voltaje dependiente en la langosta Schistocerca gregaria. De acuerdo con Duch, se comprende bastante bien que cuando una célula nerviosa enciende en potencial de acción, los iones de calcio se mueven a través de la membrana usando canales de membrana dependientes del voltaje. Este movimiento, sucesivamente, causa la liberación de las reservas de calcio intracelular y da como resultado la regulación de múltiples procesos celulares, tales como la transcripción genética, la reorganización citoesqueletal o incluso la muerte celular. Sin embargo, hasta el trabajo de Duch en PLoS Biology, se creía que la excitación eléctrica de una neurona inducida por la liberación de calcio de las reservas internas sólo sucedía cuando los iones de calcio se movían a través de la membrana. De hecho, esto demuestra que el calcio intracelular almacenado también puede ser liberado en respuesta a cambios de voltaje, sin movimiento de iones.

¿Cómo de significativo es este hallazgo y hay analogías en otros sistemas de insectos o mamíferos? Duch dice que es demasiado pronto para saberlo, pero que Ryglewski y él están dando los primeros pasos para saberlo. Ryglewski está de visita desde la Universidad Freie de Berlín – donde Duch trabajó antes de unirse al Colegio de Ciencias y Artes Liberales en 2006, y ambos científicos están trabajando en configurar su sistema experimental para la mosca de la fruta, Drosophila.

“Esta investigación sólo nos dice qué está pasando en un sistema de cultivo celular y sobre los mecanismos en células individuales, pero no en sistemas completos”, dice Duch. “El siguiente paso es tomar este descubrimiento y mirar en un sistema que esté genéticamente bien definido, tal como la Drosophila. Pero lo que podemos decir es que dado que grandes porciones de membranas en las neuronas no tiene canales de calcio, un sensor activado solamente activado por cargas eléctricas añade un posibilidad de señalización de calcio no anticipada previamente a la maquinaria de comunicación intracelular de las neuronas”.


Autor: Margaret Coulombe
Fecha Original: 18 de abril de 2007
Enlace Original

Japón lanza su primer orbitador lunar

En esta concepción artística publicada por la Agencia de Exploración Espacial Japonesa (JAXA), aparece satélite principal de SELENE la primera sonda lunar japonesa en camino hacia la órbita. La Agencia Espacial Japonesa anunció en 12 de abril de 2007 que la sonda SELENE, retrasada durante mucho tiempo, se lanzará desde el remoto puerto espacial en el sureste de la isla de Tanegashima para una misión de un año que explore la Luna en el mes de agosto a bordo de un cohete H-2A, el pilar básico del programa espacial de Japón.

Japón está preparado para enviar su primer orbitador lunar este verano, pero explorar la Luna será sólo parte de la misión.

El otro objetivo es ponerse al nivel de China, el nuevo líder en la carrera espacial asiática.

La Agencia Espacial Japonesa JAXA anunció la semana pasada que la sonda retrasada repetidas veces SELENE se lanzará en el mes de agosto a bordo de un cohete H-2A, el pilar básico del programa espacial japonés.

JAXA dice que el proyecto SELENE es la misión lunar más grande desde el programa Apolo de los Estados Unidos. Esto involucra colocar un satélite principal en órbita a una altitud de unos 100 kilómetros y desplegar dos satélites más pequeños en órbitas polares. Los investigadores usarán los datos obtenidos por las sondas para estudiar los orígenes y evolución de la Luna.

“Esta misión implicará observaciones de toda la Luna, no sólo partes de ella”, dijo el portavoz de la JAXA Satoki Kurokawa. “Es un proyecto muy ambicioso”.

La misión es una piedra de toque para el plan de Japón de abordar objetivos espaciales más agresivamente – incluyendo un aterrizaje lunar y, posiblemente, misiones tripuladas en el espacio. Para elevar la conciencia general, JAXA está llevando a cabo la campaña “Un Deseo Sobre la Luna” que permite a la gente enviar mensajes con el orbitador.

Japón se puso al frente de Asia lanzando el primer satélite de la región en 1972. Ahora lucha por mantenerse en la carrera espacial más caldeada desde la competición en la Guerra Fría entre Estados Unidos y la Unión Soviética.

China lanzó su primer vuelo espacial tripulado en 2003. Una segunda misión en 2005 puso a dos astronautas en órbita durante una semana, y un tercer lanzamiento tripulado está previsto para el próximo año. Este año, China también planea lanzar una sonda que orbite la Luna.

A principios de este mes, el país lanzó un cohete Long March 3-A que envió un satélite de navegación en órbita como parte de un esfuerzo por construir un sistema de posicionamiento global. El satélite es el cuarto lanzado por China como parte del sistema de navegación Compass (Brújula), que se espera que esté operativo en 2008.

Japón, mientras tanto, se ha encontrado con un contratiempo tras otro.

-El pasado mes, uno de sus cuatro satélites espía dejó de responder debido a aparentes problemas eléctricos. Los otros tres satélites estaban funcionando normalmente, pero el fallo dejó a esta red de espionaje multimillonaria esperada durante largo tiempo con un gran agujero.

-Una misión a Marte tuvo que ser abandonada hace dos años después de que la sonda se saliera del rumbo.

-En enero, la JAXA se enroló en una misión de aterrizaje lunar. La sonda Lunar-A, programada para su lanzamiento en 1995, planeaba colocar dos sensores sísmicos en la superficie lunar, pero el desarrollo de las sondas de penetración llevó tanto tiempo que la nave nodriza de la misión quedó en mal estado.

-Una misión en curso para traer a la Tierra las primeras muestras de un asteroide puede haberse perdido en el espacio. El mes pasado, la JAXA dijo que la sonda Hayabusa había tenido éxito en el acercamiento a un asteroide y podría haber sido capaz de tomar las muestras, pero admitió que una fuga de combustible en 2005 y los posteriores problemas de comunicación habían puesto en duda su retorno para 2010.

La SELENE, de 269 millones de dólares lleva 4 años de retraso. Japón lanzó una sonda lunar en 1990, pero no orbitó la Luna como se intenta que haga SELENE.

“Tenemos confianza en que tendremos éxito”, dijo Kurokawa de la JAXA. “Seremos muy cuidadosos, como siempre”.

Otras naciones asiáticas se están uniendo a la carrera.

En 2000, Corea del Sur se puso a la vanguardia con una base de lanzamiento de cohetes de 277 millones de dólares. Planean, con ayuda de Rusia, colocar un pequeño satélite en órbita el próximo año.

India espera lanzar su misión lunar Chandrayaan-1 este año o el próximo, aunque su avance tecnológico y su presupuesto espacial de 700 millones de dólares permanecen muy por detrás de sus ambiciones.

China gasta al menos 1,2 mil millones en proyectos espaciales y los Estados Unidos aproximadamente 16 mil millones.


Autor: Eric Talmadge
Fecha Original: 19 de abril de 2007
Enlace Original

Los astrónomos cartografían una zona de peligro planetario

Visión infrarroja de la nebulosa Rosetta, con la zona de peligro destacada. Crédito de la imagen: NASA/JPL-Caltech/Universidad de Arizona

Los astrónomos han establecido el equivalente cósmico a la cinta de color amarillo de “cuidado” alrededor de estrellas súper-calientes, marcando las zonas donde las estrellas más frías están en peligro de que sus planetas en desarrollo sean acribillados.

En un nuevo estudio del Telescopio Espacial Spitzer de NASA, los científicos informan de que se han trazado los primeros mapas de las llamadas “zonas de peligro” planetarias. Estas son áreas donde los vientos y la radiación procedentes de las estrellas calientes pueden viajar hacia otras jóvenes y frías como nuestro Sol y sus materiales de formación planetaria. El resultado demuestra que las estrellas más frías están seguras si permanecen más allá de 1,6 años luz, o casi 16 billones de kilómetros, de cualquier estrella caliente. Pero las estrellas más frías que estén dentro de esta zona es probable que vean evaporados en el espacio sus potenciales planetas.

“Las estrellas cambian de sitio a cada momento, por lo que si una entra en la zona de peligro y permanece demasiado tiempo, probablemente nunca será capaz de formar planetas”, dijo Zoltan Balog de la Universidad de Arizona, Tucson, autor principal del nuevo informe, que aparecerá en 20 de mayo en la revista Astrophysical Journal.

Los hallazgos están ayudando a los astrónomos a señalar los tipos de entornos donde es más posible que se formen los planetas más allá de nuestro Sistema Solar, incluyendo aquellos que pudieran ser hospitalarios para la vida.

Esta animación muestra como funciona el proceso de la “zona de peligro”. Crédito de la imagen: NASA/JPL-Caltech

Los planetas nacen de un disco plano de gas y polvo, llamado disco protoplanetario, que se arremolina alrededor de una joven estrella. Se cree que se agrupan fuera del disco durante millones de años, creciendo de tamaño como conejillos de polvo a medida que barren el polvo de sus cercanías.

Estudios previos revelaron que estos discos protoplanetarios pueden ser destruidos por las estrellas más calientes y masivas del Universo, llamadas estrellas O, durante un periodo de aproximadamente un millón de años. La radiación ultravioleta procedente de una estrella O calienta y evapora el polvo y gas del disco, entonces los vientos de la estrella se llevan lejos este material. El año pasado, Balog y su equipo usaron el Spitzer para capturar una impresionante imagen de este proceso de “fotoevaporación” (http://www.spitzer.caltech.edu/Media/happenings/20061003/).

El nuevo estudio del equipo es la primera investigación sistemática de los discos dentro y alrededor de la zona de peligro, o “radio de explosión” de una estrella O. Usaron los ojos infrarrojos detectores de calor del Spitzer para buscar discos alrededor de 1000 estrellas en la Nebulosa Rosetta, una turbulenta región de formación estelar a 5200 años luz de distancia en la constelación Monoceros (Unicornio). Las estrellas varían entre un décimo y cinco veces la masa del Sol y tienen una antigüedad de entre 2 y 3 millones de años. Todas están cerca de al menos una de las regiones de las estrellas O masivas.

Las observaciones revelaron que, más allá de los 16 billones de kilómetros de una estrella O, aproximadamente el 45 por ciento de las estrellas tenían discos – más o menos la misma cantidad que si estuviesen a salvo en la vecindad libres de estrellas O. Dentro de esta distancia, sólo el 27 por ciento de las estrellas tenían discos observando cada vez menos discos conforme te acercas a la estrella O. En otras palabras, la zona de peligro de una estrella O es una esfera cuyos efectos dañinos son peores en el centro. Como referencia, la estrella más cercana a nuestro sol, una pequeña estrella llamada Próxima Centauri, está a casi 48 billones de kilómetros de distancia.

Además, el nuevo estudio indica que un disco protoplanetario se evaporaría más rápido en el peligroso centro de la zona. Por ejemplo, un disco dos veces más cercano a una estrella O se evaporaría el doble de rápido. “Los límites de la zona de peligro están marcadamente definidos”, dice Balog. “Es relativamente seguro para los discos protoplanetarios externos, mientras que un disco que sea arrastrado junto con su estrella verdaderamente cerca de una estrella O podría desaparecer en un periodo tan corto como cien mil años”.

A pesar de este escenario del juicio final, hay una opción para algunos planetas de sobrevivir a un encuentro cercano con una estrella O. De acuerdo con una teoría alternativa de formación planetaria, algunos gigantes gaseosos como Júpiter podrían formarse en menos de un millón de años. Si tal planeta ya existe alrededor de una estrella joven cuyo disco es eliminado, el gigante gaseoso podría mantenerse mientras que cualquier otro planeta rocoso como la Tierra en crecimiento sería barrido para siempre.

Algunos astrónomos piensan que nuestro Sol nació en una vecindad igualmente violenta repleta de estrellas O antes de migrar a su actual y más espacioso hogar. Si esto fuese así, tuvimos bastante suerte de escapar a un horrendo viaje en alguna zona de peligro, o nuestros planetas, la vida y todo lo que conocemos, no estaría hoy aquí.

Otros autores del artículo incluyen a James Muzerolle, Kate Su, George Rieke y Erick Young de la Universidad de Arizona; y Tom Megeath de la Universidad de Toledo, Ohio.

El Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California, dirige la misión Spitzer para el Consejo de Administración de la Misión Científica de la NASA en Washington. Las operaciones científicas las lleva a cabo el Centro de Ciencia Spitzer en el Instituto de Tecnología de California, también en Pasadena. Caltech dirige el JPL para la NASA. El fotómetro de cámara multibanda de Spitzer, que recopiló los nuevos datos, fue construido por Ball Aerospace Corporation, Boulder, Colorado; la Universidad de Arizona; y Boeing North American, Canoga Park, California. El co-autor Rieke es el investigador principal del instrumento.

Para más información y gráficos, visite http://www.spitzer.caltech.edu/Media y http://www.nasa.gov/spitzer


Autor: Whitney Clavin
Fecha Original: 18 de abril de 2007
Enlace Original

Un dispositivo usa energía solar para convertir dióxido de carbono en combustible

Dispositivo catalizador/semiconductor de división de CO2 en construcción (oblea de fosfato de galio con contactos de metal)

Crédito: Aaron Sathrum, UCSD

Químicos de la Universidad de California, San Diego, han demostrado la viabilidad de explotar la luz solar para transformar un gas invernadero en un producto útil.

Muchas actividades de la Semana de la Tierra atraerán la atención sobre la creciente concentración de dióxido de carbono en la atmósfera y el impacto resultante en el clima global. Ahora Clifford Kubiak, profesor de química y bioquímica, y el estudiante graduado Aaron Sathrum han desarrollado el prototipo de un dispositivo que puede capturar energía del Sol, convertirlo en energía eléctrica y “separar” el dióxido de carbono en monóxido de carbono y oxígeno.

Debido a que su dispositivo aún no está optimizado, aún necesita un aporte de energía externo para que el proceso funcione. No obstante, esperan que sus resultados, que se presentaron el mes pasado en una reunión de la Sociedad Química Americana, atraerá la atención hacia la promesa de esta aproximación.

“Por cada mención de división del CO2, hay más de 100 artículos sobre la división de agua para producir hidrógeno, hasta ahora la división de CO2 gasta más de lo que quieres poner”, explicó Kubiak. “También produce CO, un compuesto químico industrial importante, que normalmente se produce a partir del gas natural. Por tanto, con la división de CO2 puedes ahorrar combustible, producir un compuesto químico útil y reducir el gas invernadero”.

Aunque el monóxido de carbono es venenoso, también se solicita en grandes cantidades. Millones de kilos de CO se usan cada año para fabricar compuestos químicos incluyendo detergentes y plásticos. También puede convertirse en combustible líquido.

“La tecnología para convertir el monóxido de carbono en combustible líquido ha estado rondando mucho tiempo”, dice Kubiak. “Se inventó en Alemania en los años 20. Los Estados Unidos estuvieron muy interesados en esta tecnología durante la crisis energética de los años 70, pero cuando finalizó la crisis la gente perdió interés. Ahora las cosas han completado el círculo debido a que la subida de precio del combustible hace que sea económicamente competitivo convertir el CO en combustible”.

Gráfico que detalla los pasos de la división solar del CO2

El dispositivo diseñado por Kubiak y Sathrum para separar el dióxido de carbono utiliza un semiconductor y dos capas finas de catalizadores. Divide el dióxido de carbono para generar monóxido de carbono y oxígeno en un proceso en tres pasos. El primer paso es capturar los fotones de la energía solar mediante semiconductores. El segundo paso es la conversión de la energía óptica en energía eléctrica por el semiconductor. El tercer paso es el de despliegue de la energía eléctrica a los catalizadores. Los catalizadores convierten el dióxido de carbono en monóxido de carbono en un lado del dispositivo y en oxígeno en el otro lado.

Debido a que los electrones circulan en estas reacciones, se necesita un tipo especial de catalizadores para convertir la energía eléctrica en energía química. Los investigadores del laboratorio de Kubiak han creado una gran molécula con tres átomos de níquel en su corazón que se ha probado como un catalizador efectivo para este proceso.

Elegir el semiconductor adecuado es también crítico para hacer una división práctica del dióxido de carbono según dicen los investigadores. Los semiconductores tienen bandas de energía en las que están confinados los electrones. La luz solar provoca que los electrones salten de una banda a la siguiente creando un potencial de energía eléctrica. La diferencia de energía entre las bandas — la banda prohibida — determina cuanta energía solar será absorbida y cuanta energía eléctrica generada.

Kubiak y Sathrum usaron inicialmente un semiconductor de silicio para probar las cualidades de su dispositivo dado que el silicio estaba bien estudiado. Sin embargo, el silicio absorbe en el rango infrarrojo y los investigadores dicen que es “demasiado débil” para suministrar suficiente energía. La conversión de luz solar por parte del silicio aporta aproximadamente la mitad de la energía necesaria para dividir el dióxido de carbono, y la reacción funciona si los investigadores aportan la otra mitad de la energía necesaria.

Actualmente están desarrollando un dispositivo basado en un semiconductor de fosfato de galio. Tiene una banda prohibida que duplica la del silicio y absorbe más la luz visible que es más energética. Por tanto, predicen que absorberá la cantidad óptima de energía del Sol para llevar a cado la división catalítica del dióxido de carbono.

“Este proyecto junta muchas piezas del puzzle científico”, dice Sathrum. “Se ha hecho parte del trabajo en cada pieza, pero se necesita más ciencia para engranarlo todo junto. Unir todas las piezas es la parte del problema en la que nos estamos centrando”.

La investigación está financiada por el Departamento de Energía.


Autor: Sherry Seethaler
Fecha Original: 17 de abril de 2007
Enlace Original

Escudos para las naves espaciales: ¿Una realidad?

Escudo para nave interestelar

Podría generarse una magnetosfera artificial alrededor de una nave espacial tripulada en camino hacia la Luna o Marte para proteger a sus ocupantes de la radiación potencialmente letal del espacio procedente del Sol. Un anillo superconductor a bordo de tal nave podría producir un campo magnético, o mini-magnetosfera, similar a la de la Tierra, que crearía algo parecido al “deflector o escudo de plasma” de Star Trek.

Durante el año pasado las agencias espaciales de Estados Unidos, Europa, China, Japón y la India, anunciaron su intención de continuar con la exploración humana del Sistema Solar, comenzando con la Luna y tal vez finalmente progresando hacia Marte. Pero el viaje hacia la vecindad inmediata de la Tierra acarrea riesgos significativos para los astronautas, no el menor de ellos es la exposición a intervalos de radiación de alta energía. Ahora un equipo de científicos del Laboratorio Rutherford Appleton está determinado a construir un escudo magnético experimental que protegería a los exploradores en sus viajes entre los planetas. El Dr Ruth Bamford presentará esta idea el miércoles 18 de abril en la Reunión Astronómica Nacional de la Sociedad Astronómica Nacional en Preston.

Los rayos cósmicos y la radiación del Sol pueden causar enfermedades agudas de radiación en los astronautas e incluso la muerte. Entre 1968 y 1973, los astronautas de las naves Apolo que fueron a la Luna estuvieron en el espacio sólo durante unos 10 días de una vez y fue simple suerte que no hubiesen estado en el espacio durante una importante erupción solar que hubiese llenado la nave con radiación letal. En retrospectiva el pequeño paso de Neil Armstrong para un hombre se habría visto de forma muy distinta de haberla tenido.

Seguir Leyendo…

Los matemáticos sugieren que las dimensiones extra serían temporales

La estructura analítica subyacente a la teoría espinorial puede ser representada visualmente. La estructura en una transformación Chi, la cual se mueve entre los tres espacios en las direcciones dadas por las curvaturas de la letra griega Chi mayúscula. Los cuadrados distorsionados representan el operador de onda. El producto de un operador de onda y una transformación Chi, tomada en cualquier orden, es cero. Crédito de la imagen: Erin Sparling.

En un estudio reciente, el matemático George Sparling de la Universidad de Pittsburgh examina una pregunta fundamental sobre la que se ha reflexionado desde la época de Pitágoras, y aún molesta a los científicos de hoy: ¿cuál es la naturaleza del espacio y del tiempo? Tras analizar distintas perspectivas, Sparling ofrece una idea alternativa: el espacio-tiempo podría tener seis dimensiones, con las dos dimensiones extra similares a la temporal.

El artículo de Sparling, que fue publicado en Proceedings of the Royal Society A, establece el trabajo preliminar para esta teoría. Explica cómo las dimensiones espaciales pueden contener signos positivos (por ejemplo, el espacio 3D de Pitágoras se expresa como la suma de los cuadrados de los intervalos en las tres direcciones X, Y y Z). La dimensión temporal de Minkowski, por otra parte, combina las tres dimensiones con el cuadrado del tiempo de desplazamiento, conteniendo un signo global negativo.

“En tres dimensiones, la fórmula se lee s2 = x2 + y2 + z2”, explicó Sparling a PhysOrg.com. “Nuestro espacio-tiempo estándar tiene cuatro dimensiones, pero la fórmula tiene un signo menos crítico: s2 = x2 + y2 + z2 – t2. El lituano Hermann Minkowski inventó esta idea, la cual se publicó justo seis semanas antes de su muerte. En efecto, [Sir Roger] Penrose, por ejemplo, dice que la Relatividad Especial no fue una teoría completa hasta el famoso artículo Raum und Zeit [Espacio y Tiempo] de Minkowski”.

Hasta ahora, explica Sparling, la mayoría de teorías acerca de dimensiones extra han trabajado con estas dimensiones como si fuesen más espaciales que temporales, lo que da como resultado una geometría “hiperbólica” más que “ultra-hiperbólica”. Sin embargo, Sparling apunta que no hay argumentos a priori para una geometría hiperbólica, y que está mirando la posibilidad de una Teoría Espinorial de la Física, donde surjan de forma natural seis dimensiones de espacio-tiempo.

“En las dimensiones general, decimos que el espacio-tiempo es hiperbólico si sólo hay un signo menos en la fórmula para s2,” dice. “Por tanto, por ejemplo, en las diez dimensiones de la Teoría de Supercuerdas, hay nueve dimensiones espaciales con signos positivos y un signo negativo. Sólo en esta situación hay una distinción clara entre el futuro y el pasado”.

“En mi caso, estoy llegando a la conclusión de que las cuatro dimensiones ordinarias del espacio-tiempo se extienden de forma natural en seis dimensiones: el espacio de cuatro dimensiones es hiperbólico como siempre, pero en el espacio que rodea hay un número igual de dimensiones de espacio (3 cada uno) y tiempo, por lo que la fórmula para s2 se leería como s2 = x2 + y2 + z2 – t2 – u2 – v2, donde u y v representan las nuevas variables temporales. Llamo a esta estructura estructura-(3, 3) (los matemáticos la llaman ultra-hiperbólica).”

El espacio-tiempo es espinorial

El símbolo de la trialidad de Cartan enlaza dos espacios de twistores y el espacio-tiempo. Crédito de la imagen: Erin Sparling

La Teoría Espinorial de Sparling está basada en la Relatividad General de Einstein y en el concepto de trialidad de Cartan, que enlaza el espacio-tiempo con dos espacios de twistores. Los espacios de twistores son espacio matemáticos usados para comprender los objetos geométricos en entornos de espacio-tiempo. Sparling explica los espinores de la siguiente forma:

“En física, la idea de espinor proviene del hallazgo de que las líneas espectrales de los átomos parecen comportarse como si el momento angular de las partículas que irradian fotones fuesen unidades semienteras del espín cuantizado (cuyo tamaño está determinado por la constante de Planck). Eso está explicado completamente por la famosa teoría de Dirac del electrón, que le llevó a predecir con éxito la existencia del positrón”.

Algunas partículas espinoriales incluyen al electrón, muón, tau, protón, neutrón, quarks, neutrinos, y todas sus antipartículas, que son llamadas fermiones y tienen espines semienteros. También existen partículas no espinoriales, llamadas bosones, tales como el fotón, gravitón, pión, mesón, bosones W y Z, bosón de Higgs, (si existe) y mucho más, que tienen espín entero, explica Sparling.

“La diferencia clave entre espinores y no espinores es su comportamiento bajo rotaciones: habitualmente, las partículas no espinoriales (de espín entero) retornan a su valor inicial bajo una rotación de 360 grados (o 2?-radianes); sin embargo, los fermiones espinoriales (espín semientero) en realidad cambiar de signo bajo una rotación de 360 grados, necesitando de una rotación de 720 grados para volver a sus valores iniciales. Esto es completamente extraño a nuestra idea simple de cómo funcionan las rotaciones, y aún así es una parte básica de la realidad.

“Considera esta analogía: si tomas una placa y la mantienes horizontalmente sobre una mano mientras la giras bajo tu brazo 360 grados, tu brazo termina en el aire tras una rotación, y necesita otro giro de 360 grados para volver a la posición inicial”, dice.

Los twistores, entonces, son un tipo especial de espinores que fueron introducidos por primera vez por Penrose (Sparling fue estudiante de doctorado de Penrose). En la Teoría de Sparling, los dos espacios de twistores son hexadimensionales, forzando al espacio-tiempo a tener también seis dimensiones, de acuerdo con la trialidad unificada de Cartan. Debido a que la geometría de los espacios de twistores es ultra-hiperbólica, las dimensiones extra son temporales.

“Mi trabajo tiene tres espacios hexadimensionales los cuales a un nivel están en igualdad y están vinculados por una nueva transformación, que llamo transformación Chi”, dice Sparling. “Dos de estos espacios pueden entenderse a nivel de espacio-tiempo como twistores. Entonces al tercer espacio se le puede dar una interpretación de espacio-tiempo, pero sólo si tenemos dos dimensiones extra: por tanto este es el requisito de simetría entre los espacios espinores y el espacio-tiempo que impone que las dimensiones extra están allí”.

Una adaptación armoniosa

Auqnue los conceptos de la teoría de twistores y espinores habían sido investigados previamente como una alternativa al espacio-tiempo, Sparling explica cómo su nueva propuesta es ligeramente distinta debido a que no es un reemplazo completo del espacio-tiempo. En lugar de esto, el principio que guía esta idea es la combinación armónica de las tres entidades, o “trinidad”. Cada parte de la teoría refuerza las otras partes.

“Si se acepta que existen estos tres espacios [es espacio-tiempo y los dos espacios twistores] que son centrales para mi teoría, se busca una teoría que los unifique; esto podría ser la ‘adaptación’”, explica. “Un indicador de que podría ser tal teoría viene de la Teoría de Álgebra de Jordan, la cual unifica de forma natural los tres espacios en un todo de 27 dimensiones, llamado álgebra de Jordan excepcional”. El estudiante de Sparling, Philip Tillman, y los ex-estudiantes Dana Mihai, Devendra Kapadia y Suresh Maran también jugaron un papel significativo relacionado con este trabajo.

“Un segundo indicador de que hay dos descripciones radicalmente distintas de las partículas sin masa, tales como el fotón: el uso estándar del análisis de Fourier en el espacio-tiempo y otros usos de la Teoría de Twistores la Cohomología de haces”, añade. “Los formalismos matemáticos usados en estas dos descripciones diferentes son tan distintos que es simplemente sorprendente que estén describiendo la misma física básica. La adaptación proporcionaría una explicación para esto. Esto entonces unificaría la Teoría de Twistores, la Teoría del Espacio-Tiempo y la Teoría de Cuerdas — es muy provisional, no obstante.

“Un aspecto muy interesante es que Newton luchó con fuerza contra la idea de la trinidad (en un contexto religioso)”, apunta Sparling. “Es irónico que yo estoy apelando a la misma idea en el contexto de gravedad: tal vez Newton vio que el concepto podría usarse en física, pero debido a que no pudo pensar en su uso se rebeló con fuerza contra él (por supuesto, ¡no tengo pruebas de esto!).”

Aunque la teoría no es definitiva, Sparling explica que algunas ideas principales en la física actual jugarían un papel similar (tales como la física de materia condensada, la Teoría de Categorías, geometría no conmutativa, Teoría de Cuerdas, y la estructura de superfluidos). Tales conexiones podrían apuntar también en la dirección de una Teoría Unificada, aunque es especulativa en la actualidad.

“Mi trabajo puede verse como un potente antídoto contra el presente aire de pesimismo alrededor de la física fundamental moderna”, dijo Sparling. “Como es bien conocido, la Teoría de Cuerdas ha sido criticada ampliamente por su falta de poder predictivo. Los teóricos de cuerdas han sido reducidos a una absurda dependencia del principio antrópico, por ejemplo. Aquí hay una predicción clara, que va contra el sentido común, lo que da a los experimentadores un objetivo que buscar: primero encontrar las dimensiones extra, y luego resolver su firma (¡una tarea muy difícil!). Por supuesto podría probarse que estoy equivocado, pero el esfuerzo en decidirlo seguramente merece la pena.

“En realidad, en el área de la filosofía, estoy en oposición a la Teoría de Cuerdas”, dice. “Es una teoría de arriba a abajo: soñemos con algo que funciona en alguna dimensión superior e intentemos encontrar una forma par que encaje con la teoría en dimensiones más bajas. Mi aproximación es de abajo a arriba: toma la teoría tetradimensional que existe seriamente e intenta construirlo a partir de ella. Es muy difícil de hacer. Con algo de suerte mis ideas funcionan. Nota que mi trabajo sólo constituye un posible inicio de una teoría más inclusiva”.

Sparling continúa explorando las ideas de esta teoría espinorial temporal de 6 dimensiones de espacio-tiempo, con el apoyo de un taller en el Instituto BIRS en Banff, Canadá, e ideas de filósofos como Alexander Afriat, Steve Awodey, Jonathan Bain y Rita Marija Malikonyte-Mockus. Predice que las investigaciones experimentales en el futuro cercano — como las del Gran Colisionador de Hadrones — podrían descubrir estas dimensiones extra.


Cita: Sparling, George A. J. “Germ of a synthesis: space-time is spinorial, extra dimensions are time-like.” Proc. R. Soc. A. doi:10.1098/rspa.2007.1839.

Autor: Lisa Zyga
Fecha Original: 17 de abril de 2007
Enlace Original

Cuando el primer pez empezó a morder

Requirió un cambio en su cráneo

Charles Marshall admira el cráneo de un Phonerpeton, una de las primeras criaturas en evolucionar dientes, lo que permitía a los animales capturar presas en tierra. El cráneo tiene unos 275 millones de años. Crédito: Jon Chase/Harvard News Office

Antes de que los peces comenzasen a invadir la tierra, hace unos 365 millones de años, tenían algunos grandes problemas que resolver. Necesitaban crear nuevas formas de moverse, respirar y comer.

Toma el último, por ejemplo. Los peces normalmente fruncen la boca y absorben a sus presas hacia su boca. Pero el aire es 900 veces menos denso que el agua, por lo que los que viven en tierra deben morder a su comida para conseguir el alimento. Los investigadores de la Universidad de Harvard han completado un estudio que da una imagen clara de cómo tuvo lugar este cambio.

“Las criaturas acuáticas desarrollaron las herramientas necesarias para alimentarse en tierra antes de abandonar el agua por completo”, apunta Molly Markey profesora de Ciencias Planetarias y de la Tierra. “Nuestra investigación sugiere que los primero tetrápodos, animales de cuatro patas, mordían a sus presas en aguas poco profundas o en la tierra. Aunque pueden ocasionalmente haber capturado alimento por succión”.

Para convertirse en mordedores, los invasoras tenían que cambiar sus dientes y cráneos, y aprender a caminar. Junto a Charles Marshall, profesor de Biología y de Geología en el Museo de Harvard de Zoología Comparativa, Markey comparó los restos óseos de un pez de 365 millones de años de antigüedad llamado Eusthenopteron, dos antiguos tetrápodos llamados Acanthostega y Phonerpeton, y un pez moderno. El Acanthostega, como la salamadra, pasa gran parte de su vida en el agua, el Phonerpeton vivió en tierra. Tanto el Acanthostega como el Eusthenopteron poseían pulmones y agallas, por lo que podrían respirar aire o agua, como los dipnoi (peces pulmonados) de hoy. Estos tres disponían de dientes afilados, lo que indica que eran predadores que comían carne.

Los estudios realizados por Jenny Clark en la Universidad de Cambridge en Inglaterra demuestran que el Acanthostega tenía patas cortas que salían de sus lados, finalizando en lo que parecerían dedos palmípedos. Tales miembros no serían de mucho apoyo, por tanto es probable que los antiguos tetrápodos se deslizaran o reptaran, más que andar, cuando se aventuraron en la tierra.

Deslizarse y masticar

Una gran pregunta, en primer lugar, es por qué el Acanthrostega y sus parientes abandonaron sus dominios acuáticos. ¿Estarían tratando de huir de depredadores más grandes, o buscaban nuevas presas con las que alimentarse? “Es probable que ambas razones sean ciertas”, dice Markey.

Markey y Marshall compararon los modelos de antiguos tetrápodos y el Eusthenopteron, el pez que se quedó en casa. Publicaron sus hallazgos en la edición on-line del 16 de abril de Proceedings of the National Academy of Sciences.

La comparación encontró que la clave para evolucionar de aspirar a morder recae en la parte alta del cráneo de los animales. La parte alta ósea del cráneo, en lugar de ser sólida, está hecha de gran cantidad de distintas piezas. Markey los compara a las piezas de un puzzle. “Imagina que los huesos del cráneo son piezas del puzzle”, explica. “Los lugares donde se tocan unas con otras se conocen como suturas, y los huesos pueden moverse alrededor de ellas un poco. Las suturas se hacen más anchas o más estrechas dependiendo de los movimientos como el masticado”.

Analizando las suturas de las calaveras de los antiguos tetrápodos y peces, y entonces comparándolas con aquellas de los peces vivos, los investigadores pudieron determinar cómo la parte alta del cráneo se deformó bajo la compresión y tensión de comer. Tales análisis llevaron a la conclusión de que el Eusthenopteron aspiraba y se movía con torpeza, el Acanthostega era mordedor — quizá el primero en el reino animal.

Piénsalo la próxima vez que absorbas espaguetis o mastiques un trozo de pollo.


Autor: William J. Cromie
Fecha Original: 17 de abril de 2007
Enlace Original

¿Descubrió William Herschel los anillos de Urano en el Siglo XVIII?

En un artículo presentado en el Encuentro de Astronomía Nacional en Preston entre el 16 y el 20 de abril, el Dr Stuart Eves de Surrey Satellite Technology Limited retará a la visión ortodoxa sobre que los anillos que rodean al planeta Urano fueron detectados por primera vez durante un experimento de ocultación en 1977. Extraordinariamente, un artículo presentado por la Royal Society en diciembre de 1797 por el Astrónomo Real, Sir William Herschel, (quien había descubierto Urano en 1781), incluye una descripción de un posible anillo alrededor del planeta. El Dr Eves cree que esta es la primera observación de los anillos que no volvieron a ser vistos durante casi más de 200 años.

Incluso Herschel fue incapaz de confirmar sus posibles indicios, y no fueron repetidos por las distintas generaciones de astrónomos que lo siguieron. (Antes de 1977, cuando los astrónomos pensaban que Urano carecía de anillos, las afirmaciones de Herschel se descartaban como “claramente erróneas”. E incluso tras 1977, cuando se estableción finalmente la existencia de los anillos, se sugirió que éstos eran demasiado tenues para haber sido detectados por los telescopios de Herschel, y por tanto su reclamación de haber sido el primero fue ignorada).

Sin embargo, una reciente reevaluación del artículo de Herschel de 1797 por el Dr Stuart Eves de Surrey Satellite Technology Limited, sugiere que la afirmación de Herschel de haber visto uno de los anillos bien podría haber sido correcta.

“Herschel acertó en un montón de cosas”, apunta el Dr Eves, “Tenía un anillo aproximadamente del tamaño correcto relativo al planeta, y también tenía la orientación del anillo en la dirección correcta. Además de esto, describe con precisión la apariencia de los cambios del anillo cuando Urano se mueve alrededor del Sol, e incluso acierta con los colores. El anillo Epsilon de Urano tiene un color rojizo, un hecho que ha sido confirmado recientemente por el telescopio de Keck, y Herschel lo menciona en su artículo”.

Pero si Herschel pudo ver el anillo Epsilon a finales del siglo XVIII, ¿por qué nadie ha seguido con sus observaciones en los siguientes años con un uso mejorado de los telescopios? “Hay varios mecanismos que podría tenerse en cuenta para esto”, sugiere el Dr Eves. “La actual misión Cassini a Saturno no está diciendo que los anillos se oscurecen y se expanden, (se hacen más difusos), con el tiempo. Si los mismos mecanismos operan también en Urano, entonces la apariencia de estos anillos podría haber cambiado notablemente en estos 200 años, haciéndolos mucho más difíciles de detectar.”Las observaciones de Herschel podrían por tanto ser la prueba de que un sistema de anillos planetarios en nuestro Sistema Solar es más dinámico de los que previamente se suponía.


Autor: Dr Stuart Eves
Fecha Original: 16 de abril de 2007
Enlace Original

No hay solución para el cáncer

¿Han evolucionado nuestros genes para volverse contra nosotros?

El cáncer es una consecuencia natural de la evolución humana. Nuestros genes no se han desarrollado para darnos una vida larga y feliz. Están optimizados para autocopiarse en la siguiente generación – sin tener en cuenta nuestros propios deseos. De acuerdo con Jarle Breivik, profesor asociado de la Universidad de Oslo, Noruega, es por tanto poco probable que encontremos una solución final al cáncer.

Investigando en el Instituto de Ciencias Médicas Básicas, Breivik explora la conexión entre el desarrollo del cáncer y la evolución darwiniana. En una reciente entrevista con Scientific American concluye que “el cáncer es una consecuencia fundamental de la forma en que estamos fabricados”.

Tiempo de vida limitado: “Todo el genoma humano está probablemente desarrollado para darnos un tiempo de vida limitado”, dice Breivik.

Somos colonias temporales fabricadas por nuestros genes para propagarse a sí mismos hacia la próxima generación. La solución final al cáncer sería tener que reproducirnos a nosotros mismos de una forma distinta”.

Genes que reparan genes

Como estudiante médico en el Hospital Radium Norwegian, Breivik descubrió un fenómeno curioso. Encontró que las células de cáncer que se desarrollan en el colon superior tienen otro tipo de mutaciones que las que se encuentran en tumores más cercanos al recto. Este hallazgo fue confirmado por otros investigadores y podría ser examinado para mutaciones en unos genes que reparan el ADN. Tales genes han evolucionado para prevenir las mutaciones en otros genes que juegan un papel vital en defender al organismo del cáncer. Pero ¿por qué las células de la región superior del intestino pierden un tipo distinto de mecanismo de reparación que aquellas que están mas abajo?

Breivik estaba determinado a hallar una explicación. Tras varios años de recopilación de datos y modelado teórico, fue capaz de demostrar una conexión entre la pérdida de reparación de ADN y factores ambientales perjudiciales en los intestinos. Curiosamente, no obstante, las células de cáncer parecían haber perdido los mecanismos de reparación que las protegerían de los daños del ADN en su entorno particular. Breivik, de esta forma, propuso la siguiente hipótesis: Aunque la reparación de ADN es favorable para el organismo; podría no ser favorable para una célula individual. La teoría fue desarrollada en distintos artículos científicos, incluyendo una invitación a Comentarios en los Eventos de la Academia Nacional de Ciencias de Estados Unidos, y podría ilustrarse como el efecto de estrategias alternativas en una carrera de coches (figura 1).

El Gran Premio del ciclo celular
(Figura 1)
Los beneficios y costes de la reparación de ADN pueden ilustrarse como estrategias alternativas en un circuito de carreras. El coche verde siempre para a reparar cuando sufre algún problema, mientras que el coche rojo ignora todas las luces de advertencia. El coche verde puede tener una mejor estrategia bajo condiciones normales (A) debido a que siempre tiene un motor en perfectas condiciones, mientras que el coche rojo acumula problemas. Por la misma razón, parece también racional que los entornos duros favorecen la estrategia de reparación del coche verde. Paradójicamente, sin embargo, la respuesta puede ser exactamente la contraria.

Imagina tu cuerpo como una zona de guerra donde el humo del tabaco, una dieta poco sana y excesiva luz solar ataquen los genes con munición pesada (mutagen en la figura B). Los daños aparecen más rápido de lo que pueden repararse, y el coche verde queda atrapado en el taller. Parar para reparar es, por tanto, una estrategia fatal, y es mejor continuar a pesar de acumular problemas. El modelo explica de esta forma por qué los entornos mutagénicos favorecen la aparición de células cancerosas genéticamente inestables en nuestro cuerpo (tomado de Breivik, Proc Natl Acad Sci USA 2001; 98: 5379–81).
Clic aquí para agrandar

“Decidir cuando parar a reparar y cuando continuar es un reto complicado. Hacer las reparaciones asegura un vehículo optimizado, pero también consume valiosos recursos y tiempo. A primera vista, puede parecer obvio que un entorno de más daños requiere más reparaciones. Paradójicamente, sin embargo, el efecto puede ser exactamente el contrario. Imagina que estás en una carrera a través de una zona de guerra con bombardeos constantes. Detenerte a reparar puede ser una estrategia fatal, y es mejor continuar con las ruedas desinfladas y el motor quejándose que parar a reparar”, dice Breivik.

Esta ilustración explica de esta forma por qué las células cancerosas genéticamente inestables se ven favorecidas por los ambientes hostiles —como sucede en los pulmones de un fumador empedernido. El modelo también puede ser descrito de forma matemática y ha sido confirmado experimentalmente en cultivos celulares y modelos animales por grupos de investigación puntera en el campo.

“Las células expuestas a carcinógenos concretos mueren si tienen el mecanismo de reparación adecuado, mientras que las células cancerosas genéticamente inestables continúan creciendo”, explica Breivik.

Evolución interna

Esta investigación demuestra cómo el entorno influye en la selección de los genes dentro del cuerpo y es idéntico a los principios para los que Darwin encontró explicación en el origen de las especies.

“El cuerpo no es un sistema estático. Nuestras células están en un constante estado de desarrollo, y surgen nuevas variantes genéticas cada día. Muchas de estas mutaciones son eliminadas por el sistema inmune pero, antes o después, una célula romperá las defensas y desarrollará un tumor de renegadas de crecimiento salvaje”.

El desarrollo del cáncer es un proceso evolutivo dentro de un organismo multicelular, pero también está relacionado con el proceso general de la evolución a través de las generaciones. La vida comienza cuando los genes de nuestros padres se unen en el cigoto. Estos genes han sido seleccionados a lo largo de millones de generaciones por su capacidad para crear un organismo funcional, pero pocos días después de la fertilización los genes se dividen en dos direcciones distintas. Algunos terminan en células germinales (esperma y óvulos) que traerán a la nueva generación, mientras que el resto termina en células somáticas que crean nuestro cuerpo. Las células somáticas están programadas inicialmente para cooperar, pero cuando crecemos y surgen nuevas mutaciones, el proceso evolutivo favorecerá a las células que rompan la línea y se propaguen libremente por el cuerpo. Por tanto, de acuerdo con Breivik, la división entre las células germinales y las células somáticas representa la explicación darwiniana del cáncer (ver figura 2).

Bombas de relojería

La selección natural favorece a los genes por su capacidad para replicarse en un ambiente dado. A través del curso de la evolución, han desarrollado de este modo mecanismos cada vez más complejos de autorreplicación, primero como organismos unicelulares y más tarde como células que cooperan en complejas colonias.

“A éstas pertenecen los humanos. Somos colonias de células desarrolladas para propagar nuestros genes de una generación a la siguiente. Tan pronto como nuestros niños pueden cuidar de sí mismos, somos irrelevantes para los genes. Puede ser bueno tener cariñosos abuelos, pero docenas de resistentes ancestros no incrementarán una posibilidad genética de supervivencia — al contrario, pueden representar un gasto de valiosos recursos. Todo el genoma humano está por tanto desarrollado posiblemente para darnos un tiempo de vida limitado”, dice Breivik.

El origen del cáncer
(Figura 2)
Los organismos multicelulares, como los humanos, implican una división entre las células somáticas que forman el cuerpo y las células germinales que se envían ala siguiente generación. Los genes que se desarrollado a través de la línea germinal han sido seleccionados por su capacidad para construir organismos funcionales y reproductores. Desviándose al linaje somático, no obstante, los nuevos mutantes son favorecidos por su capacidad de reproducirse en el cuerpo. Las células viejas por tanto proceden implacablemente a romper los mecanismo de regulación del crecimiento, y puede entenderse el cáncer como una consecuencia natural de las dinámicas de la evolución (adaptado de Breivik, Semin Cancer Biol 2005; 15: 51–60). Clic aquí para agrandar

Cree que muchos de nuestros genes están construidos de tal forma que nos protegen del cáncer en la primera parte de nuestras vidas, pero que están programados para la destrucción cuando nos hacemos viejos.

“Vemos que el ADN que repara genes, los cuales nos protegen del cáncer en nuestra juventud, contiene secuencias de ADN inestable que incrementan su probabilidad de colapsar conforme pasa el tiempo. Estas secuencias son bombas de relojería en nuestro genoma y representan una paradoja si consideramos que es lo mejor para el organismo. Si tomamos la perspectiva de nuestros genes, por otra parte, el fenómeno es bastante lógico”, dice Breivik. Actualmente está estudiando los mecanismos moleculares y evolutivos que llevan a tales genes de reparación inestable.

El siguiente paso en la evolución

A pesar de los importantes avances en terapias, todas las estadísticas demuestran que la incidencia del cáncer continúa aumentando.

“Cuando mejor tratamos el cáncer, más ancianos nos volvemos y más cáncer habrá en la población. Además, unas mejores terapias en niños y jóvenes implican que más genes cancerígenos se pasan a la siguiente generación. Por lo que sabemos de dinámicas evolutivas, creo que es imposible encontrar una solución terapéutica al cáncer. El problema básico es que estamos atrapados en un cuerpo que los genes han hecho que sea desechable. Una solución sería algo mucho más radical que un nuevo medicamento”, dice Breivik.

Argumenta que la terapia contra el cáncer es un intento de contrarrestar la decadencia natural del cuerpo. Si pensamos sobre ello, sin embargo, no es verdaderamente por el cuerpo por lo que nos preocupamos. Después de todo, la mayoría de la gente estaría más que feliz de cambiar un órgano defectuoso por uno nuevo.

“Es nuestra mente, nuestros pensamientos y conciencia lo que desesperadamente queremos conservar. Si miramos los desarrollos tecnológicos como un todo, puede ser exactamente lo que esté pasando. La revolución actual en información y biotecnología puede interpretarse como la liberación de la mente de los genes. Es difícil imaginar una alternativa, pero si pudiéramos ver mil años en el futuro, estaría muy sorprendido si la Tierra estuviese dominada por criaturas bípedas con un tiempo de vida limitado”, dice says Jarle Breivik.


Autor: Harald Aas
Fecha Original: 11 de abril de 2007
Enlace Original

Revelados los secretos cuánticos de la fotosíntesis

La luz del Sol absorbida por la bacterioclorofila (verde) en la proteína FMO (gris) genera un movimiento ondulatorio de energía de excitación cuyas propiedades mecánico cuánticas pueden cartografiarse usando un espectroscopio bidimensional. (Imagen cortesía de Greg Engel, Laboratorio Nacional Lawrence Berkeley, División de Biociencias Físicas)

A través de la fotosíntesis, las plantas verdes y las cianobacterias son capaces de transferir la energía de la luz solar a los centros de reacciones moleculares para su conversión en energía química con una eficacia del casi el 100%. La velocidad es la clave – la transferencia de la energía solar tiene lugar de forma casi instantánea por lo que poquísima energía se pierde en forma de calor. Cómo consigue la fotosíntesis esta transferencia de energía casi instantánea ha sido un misterio desde hace tiempo que por fin ha sido resuelto.

Un estudio liderado por investigadores del Departamento de Energía de los Estados Unidos del Laboratorio Nacional Lawrence Berkeley (Berkeley Lab) y la Universidad de California (UC) en Berkeley informa de que la respuesta recae en los efectos mecánico cuánticos. Los resultados del estudio se han presentado en el número del 12 de abril de 2007 de la revista Nature.

“Hemos obtenido la primera prueba directa de que el notable tiempo de vida de la coherencia cuántica electrónica ondulatoria juega un papel importante en los procesos de transferencia de energía durante la fotosíntesis”, dijo Graham Fleming, investigador principal del estudio. “Estas características ondulatorias pueden explicar la eficacia extrema de la transferencia de energía debido a que permite al sistema comprobar todos los potenciales caminos de energía y escoger el más eficiente”.

Fleming es el Subdirector del Berkeley Lab, profesor de química en la UC Berkeley, y un líder mundialmente reconocido en estudios espectroscópicos de los procesos de fotosíntesis. En un artículo titulado, Evidence for wavelike energy transfer through quantum coherence in photosynthetic systems (Pruebas de transferencia de energía ondulatoria a través de la coherencia cuántica en sistemas fotosintéticos), él y sus colaboradores informan de la detección de la señal de un “latido cuántico”, oscilaciones electrónicas coherentes en moléculas aceptadoras y donadoras, generadas por excitaciones energéticas inducidas por la luz, como las ondas que se forman al arrojar una piedra a un estanque.

Las medidas de espectroscopía electrónica realizadas a una escala de tiempo de femtosegundos (la mil billonésima parte de un segundo) mostró estas oscilaciones encontrándose e interfiriendo de forma constructiva, formando movimientos ondulatorios de energía (estados de superposición) que pueden explorar todos los posibles caminos de energía de forma simultánea y reversible, lo que significa que pueden volverse atrás de caminos incorrectos sin penalización. Estos hallazgos contradicen la descripción clásica de los procesos de transferencia de energía fotosintética como aquellos en los que los saltos energéticos de la excitación de las moléculas pigmentadas que capturan la luz para las moléculas de los centros de reacción bajando paso a paso la escala de energía molecular.

“La descripción de salto clásica de los procesos de transferencia de energía es tanto inadecuada como imprecisa”, dijo Fleming. “Nos da una imagen incorrecta de cómo funciona en realidad el proceso, y pierde un aspecto crucial de la razón de esta maravillosa eficiencia”.

Espectroscopía electrónica 2-D desarrollada en el grupo de investigación de Graham Fleming en el Berkeley Lab permite a los científicos seguir el flujo de la energía de excitación inducida por la luz a través de los complejos moleculares con una resolución temporal de femtosegundos. En este espectro electrónico 2-D, la amplitud de la señal del latido cuántico para un excitón está dibujado contra el tiempo de población. La línea negra cubre la amplitud del pico de un excitón. La concordancia de los datos experimentales con la teoría demuestra que es correcta.

Como coautor del artículo de Nature junto a Fleming está Gregory Engel, que fue el primer autor, Tessa Calhoun, Elizabeth Read, Tae-Kyu Ahn, Tomáš Man?al y Yuan-Chung Cheng, todos ellos se coordinaron con la División de Biociencias Físicas del Berkeley Lab y el Departamento de Química dela UC Berkeley durante el tiempo del estudio, además de Robert Blankenship, de la Universidad de Washington en St. Louis.

La técnica fotosintética para transferencia de energía de un sistema molecular a otro debería encontrarse en alguna breve lista de espectaculares éxitos de la Madre Naturaleza. Si pudiésemos aprender lo suficiente para emular este proceso, podríamos ser capaces de crear una versión artificial de la fotosíntesis que nos ayudaría en la explotación efectiva del Sol como una fuente de energía limpia, eficiente, sostenible y sin emisiones de carbono.

Encaminados hacia este fin, Fleming y su grupo de investigación han desarrollado una técnica llamada espectroscopía electrónica bidimensional que les permite seguir el flujo de la excitación inducida por la luz a través de los complejos moleculares con una resolución temporal de femtosegundos. La técnica involucra proyectar en secuencia una muestra de pulsos de luz a partir de tres rayos láser. Un cuarto rayo se usa como oscilador local para amplificar y detectar las señales espectroscópicas resultantes cuando la energía de excitación de las luces del láser es transferida de una molécula a la siguiente. (La energía de excitación cambia la forma en que cada molécula absorbe y emite luz.

Graham Fleming es Subdirecto del Berkeley Lab, Distinguido Profesor Melvin Calvin de Química en la UC Berkeley, y codirector del Instituto California para Investigación Biomédica Cuantitativa (QB3). También es una autoridad en estudios espectroscópicos de fotosíntesis. (Fotografía por Roy Kaltschmidt, Berkeley Lab Creative Services Office.)

Fleming ha comparado la espectroscopía electrónica 2-D a la técnica usada en las primeras radios superheterodinas, cuando una señal entrante de radio de alta frecuencia era convertida por un oscilador a una frecuencia menor para una amplificación más controlable y con una mejor recepción. En el caso de la espectroscopía electrónica 2-D, los científicos pueden rastrear la transferencia de energía entre las moléculas que están acopladas (conectadas) a través de sus estados electrónicos y de vibración en cualquier sistema fotoactivo, de ensamblaje macromolecular o nanostructura.

Fleming y su grupo describieron por primera vez la espectroscopía electrónica 2-D en un artículo de 2005 en Nature, cuando usaron la técnica para observar el acoplamiento electrónico en la proteína que recoge la luz fotosintética Fenna-Matthews-Olson (FMO) , un complejo molecular en las bacterias verdes del azufre.

Engel dijo, “El artículo de 2005 fue la primera aplicación biológica de esta técnica, ahora hemos usado la espectroscopia electrónica 2-D para descubrir un nuevo fenómenos en los sistemas fotosintéticos. Aunque la posibilidad de que la energía fotosintética pudiese involucrar oscilaciones cuánticas se sugirió por primera vez hace más de 70 años, el movimiento ondulatorio de la energía de excitación nunca había sido observado hasta ahora”.

Como en el artículo de 2005, la proteína FMO fue de nuevo el objetivo. FMO está considerado un sistema modelo para el estudio de transferencia de energía fotosintética debido a que consta de sólo siete moléculas de pigmento y su química ha sido bien caracterizada.

“Para observar los latidos cuánticos, tomamos los espectros 2-D en 33 tiempos de población, con rangos entre los 0 y 660 femtosegundos”, dijo Engel. “En estos espectros, el excitón de menor energía (un par agujero-electrón vinculado que se forma cuando un fotón entrante empuja a un electrón fuera de su banda de energía de valencia hacia la banda de conducción) da lugar a un pico diagonal de cerca de 825 nanómetros que oscila claramente. La amplitud asociada al cross-peak también parece oscilar. De forma sorprendente, este latido cuántico duró todos los 660 femtosegundos”.

Engel dijo que la duración de la señal del latido cuántico fue inesperada debido a que la suposición científica general había sudo que las coherencias electrónicas responsables de tal oscilación eran destruidas rápidamente.

Miembros del grupo de investigación de Fleming quienes contribuyeron a este estudio (empezado por la izquierda) Greg Engel (primer autor del artículo de Nature), Tessa Calhoun, Tae-Kyu Ahn, Elizabeth Read y Yuan-Chung Cheng. (Fotografía por Roy Kaltschmidt, Berkeley Lab Creative Services Office.)

“Por esta razón, la transferencia de coherencia electrónica entre excitones durante la relajación habitualmente ha sido ignorada”, dijo Engel. “Al demostrar que los procesos de transferencia de energía involucran coherencia electrónica y que esta coherencia es mucho más fuerte de lo que hubiésemos esperado, hemos demostrado que el proceso puede ser mucho más eficiente de lo que podría explicar una visión clásica. Sin embargo, aún no sabemos el grado de beneficios fotosintéticos de estos efectos cuánticos”.

Engel dijo que uno de los siguientes pasos en el grupo de investigación de Fleming en esta línea será mirar los efectos de los cambios de temperatura en los procesos de transferencia de energía. Los resultados de este último artículo de Nature se obtuvieron de complejos FMO mantenidos a 77 Kelvin. El grupo también observará anchos de banda más amplios de energía usando distintos colores de pulsos de luz para registrar todo lo que tiene lugar, no sólo las transferencias de energía. Finalmente, la idea es conseguir mucho más conocimiento sobre cómo la Naturaleza no sólo transfiere energía de un sistema molecular a otro, sino también cómo convertirlo en formas útiles.

“La Naturaleza ha tenido aproximadamente 2700 millones de años para perfeccionar la fotosíntesis, por lo que hay enormes lecciones que nos quedan por aprender”, dijo Engel. “Los resultados de los que hemos informado en este último artículo, no obstante, al menos nos dan una nueva forma de pensar en el diseño de futuros sistemas fotosintéticos artificiales”.

Esta investigación fue financiada por el Departamento de Energía de los Estados Unidos y por el Instituto Miller para Investigación Básica en Ciencias.

El Berkeley Lab es un laboratorio nacional del Departamento de Energía de los Estados Unidos situado en, California. Lleva a cabo investigaciones científicas desclasificadas y está gestionado por la Universidad de California. Visite nuestro sitio web en www.lbl.gov.


Información adicional

Para más información sobre el artículo de Nature, contacte con Greg Engel en GSEngel@lbl.gov

Para más información sobre la investigación de Graham Fleming, visite su sitio web en: http://www.cchem.berkeley.edu/~grfgrp/

Fecha Original: 12 de abril de 2007
Enlace Original

Gravedad modificada contra energía oscura

Durante muchos años, los científicos se han preguntado por qué el Universo se está expandiendo más rápido de lo que debería. Según el conocimiento convencional de la física, el Universo debería estar expandiéndose a una velocidad más lenta de lo que las observaciones nos demuestran. “Hay dos teorías principales para el porqué de esta expansión tan acelerada”, cuenta Martin Kunz a PhysOrg.com. “Una es la gravedad modificada y la otra es la presencia de energía oscura. Queremos comprender cómo distinguir entre las dos”.

Detectar la diferencia entre la energía oscura y la gravedad modificada proporcionaría a los físicos una mejor comprensión de cómo funciona el Universo. Y detectar la gravedad modificada añadiría un mayor beneficio al contribuir a la comprensión de una de las fuerzas fundamentales del Universo.

Kunz, científico en la Universidad de Ginebra, y su colega Domenico Sapone han publicado una carta en Physical Review Letters tratando las dificultades de distinguir entre la gravedad modificada y la energía oscura. La carta tiene por título “Dark Energy versus Modified Gravity” (Energía Oscura contra Gravedad Modificada).

“Existen problemas teóricos con la energía oscura”, explica Kunz, “y ésto ha llevado a la gente a modificar la Relatividad General de Einstein para obtener una gravedad modificada, la cual, algunos creen, explicaría la expansión del universo”. El problema, dice, viene cuando se intenta observar uno de estos fenómenos. “No podemos observar ni la energía oscura ni la gravedad modificada de forma directa. Sólo podemos observar el comportamiento de las galaxias”.

Kunz apunta que en muchos modelos, se muestra como algo suave, suponiendo que la energía está distribuida a partes iguales y homogéneamente. “Esto no es completamente lo que sucede”, dice Kunz. “Existen pequeñas fluctuaciones. Pero muchas medidas sólo sondean el Universo suave”. Continua: “En este modelo simple, puedes hacer todo como un componente de presión negativa, no hay forma de decidir si es debido a la energía oscura o a la modificación de la gravedad”.

Algunos científicos han observado el crecimiento de la estructura del Universo como una forma de distinguir entre los efectos de la gravedad modificada y los de la energía oscura. Estas son las medidas en las que Kunz y Sapone encuentran falta de términos para detectar las diferencias entre ambos. A través de algunos modelos y ecuaciones propios, ambos han encontrado que las perturbaciones de energía oscura pueden afectar a la distribución de las galaxias de una forma que encaja con los efectos de la gravedad modificada. “A cierto nivel, la energía oscura y la gravedad modificada parecen lo mismo”, explica Kunz.

“La gente esperaba que se pudiera probar que la Relatividad General está equivocada a través del estudio de cómo se forman las estructuras en el Universo”, dice Kunz. “Demostramos que se pueden descartar ciertos modelos de energía oscura, pero no la relatividad general en sí”.

Por tanto, aunque Kunz y Sapone no han logrado demostrar cómo distinguir entre la energía oscura y la gravedad modificada, descubrieron nuevas vías que necesitan ser exploradas en el debate de la gravedad modificada contra la energía oscura. Y descubrieron algo más: “Algo que vimos fue lo verdaderamente esencial que es el estrés anisotrópico”, dice Kunz. “La presencia o ausencia de estrés anisotrópico en el Universo, es más probable en la gravedad modificada”.

Kunz también ve esperanza en aclarar en un futuro este debate. “Durante los próximos años, las medidas precisas de la lente gravitatoria débil se harán posibles, lo que también medirá el estrés anisotrópico. Combinado con la siguiente ronda de medidas de distancia de las supernovas, seremos capaces de obtener unas buenas restricciones”.


Autor: Miranda Marquit
Fecha Original: 12 de abril de 2007
Enlace Original

¿Estaba Einstein en lo cierto? Los científicos proporcionan un primer vistazo público a los resultados de la Gravity Probe B

Durante los tres años pasados un satélite ha orbitado la Tierra recopilando datos para determinar si las dos predicciones de la Teoría de la Relatividad General de Albert Einstein son correctas. Hoy, en la reunión de la Sociedad Americana de Física en Jacksonville, Florida, el Profesor Francis Everitt, profesor de la Universidad de Stanford e investigador principal de la Misión Relativista Gravity Probe B (GP-B), una colaboración de Stanford, NASA y Lockheed Martin, proporcionará un primer vistazo público a los datos que revelarán si la teoría de Einstein ha sido confirmada o no por el laboratorio orbital más sofisticado jamás construido.

“Gravity Probe B ha sido una gran aventura científica para todos nosotros, y estamos agradecidos a la por su largo historial de apoyo”, dijo Everitt. “Mis colegas y yo presentaremos los primeros resultados entre hoy y mañana. Es fascinante ser capaces de ver la curvatura del espacio-tiempo de Einstein en la inclinación de estos giroscopios de la GP-B — más de un millón de veces mejores que los mejores giroscopios de navegación inerciales.”El satélite GP-B fue lanzado en abril de 2004. Recopiló valiosos datos durante un año que el equipo científicos de Stanford de GP-B ha estado estudiando minuciosamente durante los pasados 18 meses.

El satélite fue diseñado como un prístino laboratorio espacial, cuya única tarea era usar sus cuatro giroscopios ultra-precisos para medir directamente los efectos predichos por la Relatividad General. Uno es el efecto geodético – la cantidad por la que la masa de la Tierra curva el espacio-tiempo local en el que reside. El otro efecto, llamado arrastre de marco (frame-dragging), es la cantidad por la cual la rotación la rotación de la Tierra arrastra el espacio-tiempo local que lo rodea con ella. De acuerdo con la Teoría de Einstein, durante el curso de un año, la curvatura geodética del espacio-tiempo local de la Tierra provoca que el eje de giro de cada giroscopio se desplace de su alineamiento inicial en un minúsculo ángulo de 6,606 arco-segundos (0,0018 grados) en el plano de la órbita de la nave. De igual forma, el giro del espacio-tiempo local de la Tierra causa que el eje de giro se desplace un ángulo aún menor de 0,039 arco-segundos (0,000011 grados) — aproximadamente el ancho de un cabello humano visto a 400 metros de distancia — en el plano del Ecuador de la Tierra. Los científicos de la GP-B esperan anunciar los resultados finales del experimento en diciembre de 2007, tras ocho meses de más análisis y refinamientos de datos. Hoy, Everitt y su equipo están listos para compartir lo que han encontrado hasta ahora – esto es, que los datos obtenidos de los giroscopios de la GP-B confirman con claridad las predicciones del efecto geodético con una precisión mejor de un 1 por ciento. Sin embardo, el efecto de arrastre de marcos es 170 veces más pequeño que el efecto geodético, y los científicos de Stanford están aún extrayendo su firma de los datos de la nave. El instrumento de la GP-B tiene suficiente resolución para medir el efecto de arrastre de marcos con precisión, pero el equipo ha descubierto un pequeño par de torsión y efecto sensor que debe ser modelado y eliminado de los resultados con precisión.

“Anticipamos que nos llevará unos ocho meses el análisis detallado de datos para realizar el ajuste completo del instrumento y reducir la incertidumbre de la medida de 0,1 a 0,05 arcosegundos por año lo que ya hemos logrado y para una precisión final esperada mejor de 0,005 arcosegundos por año”, dice William Bencze, Director del Programa GP-B. “Comprender los detalles de estos datos científicos es como una excavación arqueológica: un científico comienza con un bulldozer, sigue con una pala, y finalmente usar palillos de dientes y cepillos de dientes para limpiar el polvo que hay alrededor del tesoro. Ahora estamos distribuyendo los cepillos de dientes”.

Los dos descubrimientos

Se hicieron dos importantes descubrimientos mientras se analizaban los datos de los giroscopios de la nave: 1) el movimiento de “polodia” de los giroscopios cesaba en el tiempo, y 2) los ejes de giro de los giroscopios estaban afectados por el pequeños pares de torsión clásicos. Ambos descubrimientos son síntomas de una causa subyacente: pequeñas parcelas electrostáticas en la superficie del rotor y el aislamiento. Los efectos de estas parcelas en las superficies de metal son bien conocidos en la física, y fueron estudiados con cuidado por el equipo de GP-B durante el diseño del experimento para limitar sus efectos. Aunque previamente se entendía como un fenómeno microscópico de superficie que sería de media cero, los rotores de la GP-B mostraros parcelas de tamaño suficiente para que afectasen de forma medible al giro de los giroscopios.

El movimiento de polodia de los giroscopios es semejante al “bamboleo” común que podemos ver en un mal lanzamiento de fútbol americano, aunque se mostraría de una forma muy distinta en los giroscopios ultraesféricos de GP-B. Aunque se esperaba que este bamboleo mostrase un patrón constante durante la misión, se encontró que cambiaba lentamente debido a una diminuta disipación de energía producida por las interacciones del rotor y el las parcelas electrostáticas del aislamiento. El bamboleo de polodia complica las medidas de los efectos relativistas poniendo una señal de bamboleo que varía con el tiempo en los datos.

Las parcelas electrostáticas también causan pequeños pares de torsión en los giroscopios, particularmente cuando el eje de simetría del vehículo espacial no está alineado con el eje de giro de los giroscopios. El par de torsión causa que el eje de giro de los giroscopios cambie de orientación, y en ciertas circunstancias, este efecto puede parecerse a la señal de la relatividad que mide la GP-B. Afortunadamente, la deriva provocada por estos pares de torsión tienen una relación geométrica precisa con el desalineamiento del giro de los giroscopios / eje de simetría del vehículo y puede ser eliminado de los datos sin afectar directamente a la medida de la relatividad.

Ambos descubrimientos tienen que ser primero investigados, ser modelados con precisión y entonces comprobarlos cuidadosamente contra los datos experimentales antes de que hayan eliminado todas las fuentes de error. Estas investigaciones adicionales han añadido más de un año a los análisis de los datos, y este trabajo está aún en proceso. A fecha de hoy, el equipo ha hecho muy buenos progresos en este tema, de acuerdo con un Comité Asesor Científico independiente, presidido por el físico relativista Clifford Will de la Universidad de Washington en San Louis, Missouri, que ha estado monitorizando cada aspecto de la GP-B durante la última década.

Además de proporcionar este primer vistazo a los resultados experimentales en la reunión de la APS, el equipo de la GP-B ha hecho público un archivo de los datos experimentales sin tratar. Los datos estarán disponibles a través del Centro de Datos Nacional de Ciencias Espaciales en el Centro de Vuelo Espacial Goddard de NASA a principios de junio de 2007.

Ideado por los Profesores de Stanford Leonard Schiff, William Fairbank y Robert Cannon en 1959 y patrocinado por NASA en 1964, GP-B es el programa de investigación de física continuo de mayor tiempo de ejecución de ambos, Stanford y NASA. Aunque el experimento es un concepto simple — usa una estrella, un telescopio y una esfera giratoria — llevó más de cuatro décadas y 760 millones de dólares diseñar y producir toda la tecnología punta necesaria para poner el satélite GP-B en la rampa de lanzamiento, llevar a cabo su “simple” experimento y analizar los datos. El 20 de abril de 2004, GP-B hizo historia con un perfecto lanzamiento de la Base de las Fuerzas Aéreas en Vandenberg California. Tras una inicialización de cuatro meses y un periodo de verificación en órbita, durante el cual los cuatro giroscopios giraros a una velocidad media de 4000 rpm y los ejes de giros de la nave y los giroscopios fueron alineados con la estrella guía, IM Pegasi, el experimento se inició. Durante 50 semanas, de agosto de 2004 a agosto de 2005, la nave transmitió más de un terabyte de datos experimentales al Centro de Operaciones de la Misión GP-B en Stanford. Uno de los satélites más sofisticados jamás construido, la nave GP-B tuvo un rendimiento extraordinario durante este periodo, así como el equipo de Operaciones de la Misión GP-B, teniendo en cuenta a los científicos e ingenieros de Stanford, NASA y Lockheed Martin, dijo el Profesor Emérito de Stanford Bradford Parkinson, co-investigador principal con John Turneaure y Daniel DeBra, también Profesores Eméritos en Stanford. La toma de datos terminó el 29 de septiembre de 2005, cuando el helio de los tanques de la nave finalmente se agotó. En ese momento, el equipo de la GP-B transicionó de las operaciones de la misión al análisis de datos.

A lo largo de sus 47 años de vida, la GP-B ha adelantado las fronteras del conocimiento, proporcionando una base de entrenamiento para 79 estudiantes de doctorado en Stanford ( y 13 estudiantes de otras universidades), 15 másters de grado, cientos de estudios de grado y docenas de estudiantes de instituto que trabajaron en el proyecto. Además de esto, la GP-B generó una docena de nuevas tecnologías, incluyendo unos giroscopios de récord y sistemas de suspensión de giro, el SQUID (Dispositivo de Interferencia Cuántica Superconductor – Superconducting QUantum Interference Device) sistemas de lecturas de giroscopios, telescopios de alineamiento estelar ultraprecisos, tanque criogénicos y tapones porosos, microimpulsores y tecnología libre de arrastre y el sistema de determinación orbital basado en el Sistema de Posicionamiento Global (GPS). Todas estas tecnologías fueron esenciales para llevar a cabo el experimento, pero ninguno existía en 1959 cuando se ideó el experimento. Además, algunas tecnologías que fueron diseñadas en Stanford para su uso en GP-B, como los tapones porosos que controlaban el escape del gas helio del tanque, fueron usados en otros experimentos de la NASA como COBE (el Explorador de Fondo Cósmico, que aquel año ganó el Premio Nobel) WMAP (Sonda de Anisotropía de Microondas Wilkinson) y el Telescopio Espacial Spitzer.

Se espera que se complete el análisis de datos final del experimento en diciembre de este año. Cuando se le preguntó por un comentario final, Francis Everitt dijo: “Sospecha siempre de las noticias que quiere escuchar”.

El Centro de Vuelo Espacial Marshall de la NASA dirige el programa GP-B y contribuye de forma significativa a su desarrollo técnico. El principal contratista de la NASA para la misión, la Universidad de Stanford, ideó el experimento y es responsable de del diseño e integración del instrumental científico, así como de las operaciones de la misión y el análisis de datos. Lockheed Martin, principal su-contrata de Stanford, diseñó, integró y comprobó la nave y construyó algunas de sus componentes principales de carga, incluyendo el tanque y la sonda que alberga el instrumental científico. El Centro Espacial Kennedy de la NASA, Florida, y Boeing Expendable Launch Systems, Huntington Beach, California, fueron responsables del lanzamiento del Delta II.


Autor: Bob Kahn
Fecha Original: 14 de abril de 2007
Enlace Original

Un informe revela las posibles causas de la pérdida de nave en Marte

Tras estudiar Marte cuatro veces como originalmente se planeó, el orbitador de NASA Mars Global Surveyor parece haber sucumbido a un error de la batería causado por una compleja secuencia de eventos que involucran la memoria del ordenador de a bordo y los comandos de superficie.

Las causas se hicieron públicas hoy en un informe preliminar por una junta de revisión interna. La junta estaba formada para buscar más en profundidad por qué la Mars Global Surveyor de NASA se silenció en noviembre de 2006 y recomendar cualquier proceso o procedimiento que pudiese incrementar la seguridad de otras naves.

La última comunicación de la Mars Global Surveyor con la Tierra tuvo lugar el 2 de noviembre de 2006. En 11 horas las agotadas baterías posiblemente dejaron a la nave incapacitada para controlar su orientación.

“La pérdida de la nave fue el resultado de una serie de eventos asociados a un error computacional hecho cinco meses antes del probable fallo de la batería”, dijo la presidenta de la junta Dolly Perkins, subdirector técnico del Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland.

El 2 de noviembre, después de ordenar a la nave que realizase un ajuste de rutina de sus paneles solares, la nave informó de una serie de alarmas, pero indicó que se había estabilizado. Esa fue la última transmisión. Posteriormente, la nave se reorientó a un ángulo que exponía una de las dos baterías que portaba la nave a la luz directa del Sol. Ésto causó un sobrecalentamiento de la batería y finalmente llevó al agotamiento de ambas baterías. La orientación incorrecta de la antena impidió al orbitador informar de su estado, y su respuesta de seguridad programada no incluía asegurarse de que la orientación de la nave fuese térmicamente segura.

La junta concluyó que el equipo de la Mars Global Surveyor siguió los procedimientos establecidos, pero tales procedimientos eran insuficientes para capturar los errores ocurridos. La junta está concluyendo las recomendaciones para aplicar a otras misiones, tales como llevar a cabo revisiones más concienzudas de todos los cambios no rutinarios para almacenar datos antes de que sean cargados y evaluar los modos de contingencia de la nave para los riesgos de sobrecalentamiento.

“Estamos haciendo una revisión final de todas nuestras misiones para asegurarnos de que aplicamos las lecciones que hemos aprendido de la Mars Global Surveyor a todas nuestras misiones en curso”, dijo Fuk Li, director del Programa de Exploración de Marte en el Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California.

La Mars Global Surveyor, lanzada en 1996, operó en Marte durante más tiempo que ninguna otra nave en la historia, y más de cuatro veces el tiempo que se planificó originalmente para la misión. La nave retornó información detallada que ha revisado nuestra comprensión de Marte. Los principales hallazgos incluyen pruebas espectaculares de que el agua aún fluye en pequeños desbordes por las laderas de las colinas, y la identificación de minerales relacionados con el agua que llevaron a la selección de un lugar de aterrizaje para un rover de Marte.

El Laboratorio de Propulsión a Chorro en Pasadena, California, gestiona la Mars Global Surveyor para el Consejo de Administración de la Misión Científica de la NASA en Washington. Lockheed Martin Space Systems en Denver, desarrolló y condujo la nave.

Información sobre la misión Mars Global Surveyor, incluyendo el informe preliminar de la junta de revisión y una lista de importantes descubrimientos de la misión están disponibles en internet en: http://www.nasa.gov/mission_pages/mgs


Fecha Original: 13 de abril de 2007
Enlace Original

Nuevo medicamento para el VIH muestra unos resultados sin precedentes

Estructura del VIH

Una nueva categoría de medicamento ha demostrado prometedores resultados en pacientes de VIH/SIDA que no habían tenido éxito con otros tratamientos, según un estudio que se publicará el sábado.

Especialmente cuando se combina con otras medicinas, el raltegravir – el primero de una nueva clase de medicamentos antivirales llamados inhibidores de la integrasa – ha reducido drásticamente la presencia del virus VIH y aumenta la inmunidad en pacientes de ensayos clínicos, de acuerdo con un estudio en la revista británica The Lancet.

Los inhibidores de la integrasa actúan focalizando e interrumpiendo una enzima que ayuda a la inserción del virus VIH en el genoma celular del anfitrión.

En los ensayos clínicos sobre 178 pacientes con infecciones avanzadas de VIH que han mostrado ser resistentes a los tratamientos estándar, el raltegravir “mostró unos niveles sin precendentes de eficacia virológica”, escribieron los virólogos Pedro Cahn y Omar Sued en un comentario en la misma revista.

El tratamiento “logró una supresión virológica incluso en pacientes con opciones limitadas”, escribieron, prediciendo que el nuevo medicamento “tendría un papel principal en terapias de recate”, el término usado para describir los esfuerzos desesperados por salvar a aquellos con el sistema inmune altamente comprometido.

“Claramente, estamos en una nueva era de la terapia anti-retroviral”, añaden.

Existen tres tipos de enzimas necesarias para que el VIH se replique, llamadas transcriptasa inversa, proteasa e integrasa. Hasta ahora, ningún medicamento había tenido éxito en la inhibición de las enzimas integrasas.

Un equipo de investigadores de los Laboratorios de Investigación Merck en Westpoint, Pennsylvania, liderados por Beatriw Grinsztejn, dividió a 178 pacientes en cuatro grupos durante los ensayos clínicos.

A cada uno de los tres grupos se le dio un dosis distinta de raltegravir, de 200 a 600 miligramos, y el cuarto grupo recibió un placebo. Los cuatro grupos tomaron también un “tratamiento básico”.

Tras 24 semanas, la cantidad de material genético de VIH en la sangre había caido por debajo del umbral medible (50 copias por millilitro) en un 65 por ciento de los pacientes que tomaron raltegravir, casi cinco veces más que el grupo que tomó placebo. Las respuestas del sistema inmune también mejoraron drásticamente.

“Si no aparecen efectos secundarios inesperados a largo plazo o surgen temas de resistencia, el raltegravir jugará un papel principal en las terapias de rescate, en particular en combinación con otras nuevas medicinas”, concluyen Cahn y Sued.


Fecha Original: 13 de abril de 2007
Fuente Original

Chandra ve un extraordinario eclipse de un agujero negro

Las observaciones de Chandra de la galaxia NGC 1365 han capturado un notable eclipse del agujero negro supermasivo que está en su centro. Una densa nube de gas pasó frente al agujero negro, la cual bloqueó los rayos-X de alta energía procedentes del material cercano al agujero negro. Este alineamiento casual permitió a los astrónomos medir el tamaño del disco de material alrededor del agujero negro, una estructura relativamente diminuta a escalas galácticas. La imagen de Chandra contiene una fuente de brillo de rayos-X en el centro, lo cual revela la posición del agujero negro supermasivo. Una visión óptica de la galaxia desde el Telescopio Muy Grande del Observatorio del Espacio Europeo muestra el contexto de los datos de Chandra.

NGC 1365 contiene lo que se conoce como núcleo galáctico activo, o AGN. Los científicos creen que el agujero negro del centro del AGN se alimenta de un chorro continuo de material, presumiblemente en forma de disco.

El material justo antes de caer en el agujero negro debería calentarse a millones de grados, antes de pasar por el horizonte de sucesos, o punto de no retorno. El proceso provoca el disco de gas que rodea el agujero negro central en NGC 1365 que produce copiosos rayos-X, pero la estructura es mucho más pequeña de lo que se puede resolver directamente con un telescopio. Sin embargo, los astrónomos fueron capaces de medir el tamaño del disco observando cuánto tardaba el agujero negro en entrar y salir del eclipse. Esto se reveló durante una serie de observaciones de NGC 1365 obtenidas cada dos días en un periodo de dos semanas durante abril de 2006. Durante cinco de las observaciones, los rayos-X de alta energía la fuente central de rayos-X era visible, pero en la segunda – la correspondiente al eclipse – no lo era.


Fecha Original: 12 de abril de 2007
Fuente Original

Tú estás hecho de espacio-tiempo

Lee Smolin no es un mago. Aunque él y sus colegas han llevado a cabo uno de los trucos más grandes imaginables. Partiendo sólo de la Teoría General de la Relatividad de Einstein han hecho aparecer el Universo. Todo, desde el tejido del espacio-tiempo a la materia que forma varitas y conejos emerge como si saliera de un sombrero vacío.

Es una hazaña impresionante. No sólo nos habla de los orígenes del espacio y la materia, sino que podría ayudarnos a comprender de dónde vienen las leyes del Universo. No es sorprendente que Smolin, que es físico teórico en el Instituto Perimeter en Waterloo, Ontario, esté muy excitado. “He estado saltando alrededor de estas ideas”, comenta.

Esta prometedora aproximación para la compresión del cosmos está basada en una colección de teorías llamadas Gravedad Cuántica de Bucles, un intento de unir la Relatividad General y la Mecánica Cuántica en una única teoría consistente.

Los orígenes de la Gravedad Cuántica de Bucles pueden rastrearse hasta los años 80, cuando Abhay Ashtekar, ahora en la Universidad de Pennsylvania State en University Park, rescribió las ecuaciones de Einstein de la Relatividad General en un marco de trabajo cuántico. Smolin y Carlo Rovelli de la Universidad del Mediterráneo en Marsella, Francia, desarrollaron más tarde las ideas de Ashtekar y descubrieron que en el nuevo marco de trabajo, el espacio no es suave y continuo sino que consta de trozos indivisibles de 10-35 metros de diámetro. La Gravedad Cuántica de Bucles define el espacio-tiempo como una red de enlaces abstractos que conecta estos volúmenes de espacio, más que como nodos enlazados en un mapa de ruta aérea.

Desde el principio, los físicos notaron que estos enlaces podrían curvarse sobre otros para formar estructuras similares a trenzas. Lo curioso de estas trenzas era, sin embargo, que nadie comprendía su significado. “Ya conocíamos las trenzas en 1987″, dice Smolin, “pero no sabíamos si correspondía a algo físico”.

Entra Sundance Bilson-Thompson, un físico de partículas teóricas de la Universidad de Adelaida en el Sur de Australia. Sabía poco sobre la gravedad cuántica cuando, en 2004, comenzó a estudiar un viejo problema de la física de partículas. Bilson-Thompson trataba de comprender la verdadera naturaleza de lo que los físicos piensan que son las partículas elementales – aquellas sin subcomponentes conocidos. Estaba perplejo por la plétora de estas partículas en el modelo estándar, y comenzó a preguntarse cómo serían en realidad las partículas elementales. Como primer paso hacia las respuestas de esta pregunta, desempolvó algunos modelos desarrollados en los años 70 que postulaban la existencia de unas entidades más fundamentales llamadas preones.

Así como los núcleos de los distintos elementos están formados por protones y neutrones, estos modelos basados en preones sugieren que los electrones, quarks, neutrinos y cualquier otra cosa, están hechos de unas partículas hipotéticas más pequeñas que portan la carga eléctrica e interactúan unas con otras. Los modelos finalmente se toparon con problemas, sin embargo, debido a que predecían que los preones tendrían más energía que las partículas de las que se suponían formaban parte. Este error fatal hizo que los modelos se abandonasen, aunque no se olvidasen por completo.

Bilson-Thompson lo abordó de forma distinta. En lugar de pensar en los preones como partículas que se unen como los bloques de Lego, se concentró en cómo interactúan. Después de todo, lo que llamamos propiedades de las partículas en realidad no son más que una abreviatura de la forma en que interactúan con todo lo que les rodea. Quizás pensó que podría trabajar con cómo interactúan los preones y este trabajo nos diría lo que son.

Para hacer esto, Bilson-Thompson abandonó la idea de que los preones son partículas puntuales y teorizó que poseen longitud y anchura, como lazos que de alguna forma podrían interactuar envolviéndose entre ellas. Supuso que estos lazos podrían cruzarse por encima y por debajo para formar una trenza cuando tres preones se uniesen para formar una partícula. Los lazos individuales pueden también girar en sentido horario o antihorario a lo largo de sí mismas. Cada giro, imaginó, dotaría al preón con una carga equivalente a un tercio de la carga del electrón, y el signo de la carga dependía de la dirección del giro.

La trenza más simple posible en el modelo de Bilson-Thompson que parecería un pretzel1 deformado correspondería a un neutrino electrón (ver Gráfico). Si le das la vuelta como en un espejo obtienes su contraparte en antimateria, el antineutrino electrón. Añade tres giros en el sentido horario y tienes algo que se comporta justo como un electrón; tres giros en sentido antihorario y tienes un positrón. El modelo de Bilson-Thompson también produce fotones y bosones W y Z, las partículas que portan las fuerzas electromagnéticas y nuclear débil. De hecho, estos lazos trenzados parecen configurar todo el zoológico de partículas del Modelo Estándar.

Bilson-Thompson publicó su trabajo en internet en 2005 (www.arxiv.org/abs/hep-ph/0503213). A pesar de sus logros, no obstante, aún no sabía qué eran los preones. O de qué estaban hechas en realidad sus trenzas. “Estuve jugando con la idea de que fuesen microagujeros de gusano, que se envolvían unos a otros. O alguna otra distorsión extrema de la estructura del espacio-tiempo”, recuerda.

Fue en este punto cuando Smolin tropezó con el artículo de Bilson-Thompson. “Cuando lo vimos nos pusimos muy nerviosos ya que habíamos estado buscando algo que pudiese explicar el trenzado”, dice Smolin. ¿Eran los dos tipos de trenzas sólo uno y el mismo? ¿Las partículas no son más que trenzas enredadas en el espacio-tiempo?

Smolin invitó a Bilson-Thompson a Waterloo para ayudarlo en su búsqueda. También solicitó la ayuda de Fotini Markopoulou del instituto, que llevaba tiempo sospechando que las trenzas en el espacio podrían ser la fuente de la materia y la energía. Aunque ella también era consciente de que su idea difícilmente encajaba con la Gravedad Cuántica de Bucles. A cada instante, las fluctuaciones cuánticas arrugan la red de los enlaces del espacio-tiempo, apretándolos en un revoltijo de subidas y bajadas. Estas estructuras son tan efímeras que duran aproximadamente 10-44 segundos antes de transformarse en una nueva configuración. “Si la red cambia en todos sitios a cada momento, ¿cómo puede sobrevivir algo?” pregunta Markopoulou. “Incluso a nivel cuántico, sé que un fotón o un electrón viven más de 10-44 segundos”.

Markopoulou ya ha encontrado una respuesta en una variante radical de la Gravedad Cuántica de Bucles que ha estado desarrollando junto a David Kribs, un experto en computación cuántica de la Universidad de Guelph en Ontario. Mientras los ordenadores tradicionales almacenan información en bits que pueden tomar valores de 0 y 1, los ordenadores cuánticos usan “qubits” que, en principio al menos, pueden ser 0 y 1 a la vez, lo que hace de la computación cuántica una potente idea. La delicada dualidad de cada qubit individual lo pone siempre en riesgo de pérdida como resultado de las interacciones con el mundo exterior, pero los cálculos han demostrado que los conjuntos de qubits son mucho más robustos de lo que en principio se esperaba, y que los datos almacenados en ellos pueden sobrevivir a toda clase de perturbaciones.

En la versión de Markopoulou y Kribs de la Gravedad Cuántica de Bucles, consideran que el Universo es un gigantesco computador cuántico, donde cada cuanto de espacio es reemplazado por un bit de información cuántica. Sus cálculos demostraron que la resistencia de los qubits preservaría las trenzas cuánticas en el espacio-tiempo, explicando cómo las partículas pueden tener un tiempo de vida tan largo en medio de la turbulencia cuántica.

Smolin, Markopoulou y Bilson-Thompson ahora han confirmado que las trenzas de este espacio-tiempo pueden producir las partículas más livianas del Modelo Estándar – el electrón, los quarks “up” y “down”, el neutrino electrón y sus pares de antimateria (www.arxiv.org/abs/hep-th/0603022).

Todo desde la nada

Hasta ahora la nueva teoría reproduce sólo unas pocas características del Modelo Estándar, tales como la carga de las partículas y su “orientación”, una cantidad que describe cómo se relaciona el espín mecánico-cuántico de una partícula con su dirección de movimiento en el espacio. Incluso así, Smolin está encantado con el progreso. “Tras 20 años, es maravilloso hacer por fin algunas conexiones con la física de partículas que no hayan sido puestas a mano”, dice.

La correspondencia entre las trenzas y las partículas sugiere que más propiedades podrían estar esperando a ser derivadas de la teoría. El logro más sustancial, dice Smolin, sería calcular las masas las partículas elementales a partir de los primeros principios. Éste es un objetivo descomunalmente ambicioso: predecir las masas de las otras constantes fundamentales de la naturaleza era algo que los teóricos de cuerdas se habían propuesto lograr hace más de 20 años – y aún siguen sin rendirse.

Como en la Teoría de Cuerdas, idear experimentos para comprobar la nueva teoría será también difícil. Éste es un problema que acosa a la Gravedad Cuántica de Bucles en sus pretensiones, debido a que ningún experimento concebible puede probarse en un espacio menor de 10-35 metros.

Irónicamente, el mejor lugar en el que buscar para buscar una prueba experimental podría ser en las mayores escalas del Universo, no en las más pequeñas. “Lo más cerca que está nadie de poder hacer predicciones es en el área de la cosmología”, dice John Baez, matemático y experto en gravedad cuántica en la Universidad de California, Irvine. Markopoulou está ahora tratando de pensar alguna forma de probar el modelo de trenzas usando la radiación fósil dejada por el Big Bang, el llamado Fondo de Microondas Cósmico que impregna el Universo. Los físicos creen que los patrones que vemos hoy en la radiación pueden haberse originado a partir de fluctuaciones cuánticas durante los primeros momentos del Big Bang, cuando toda la materia del Universo estaba compactada en un espacio lo bastante pequeño para que los efectos cuánticos fuesen significativos.

Mientras tanto, la visión de Markopoulou del Universo como un gigantesco ordenador cuántico podría ser algo más que una analogía útil: podría ser cierta, de acuerdo con algunos teóricos. Si es así, hay una asombrosa consecuencia: el espacio mismo podría no existir. Reemplazando los trozos de espacio de la Gravedad Cuántica de Bucles por los qubits, lo que solía ser un marco de referencia – el mismo espacio – se transforma en una red de información. Si la noción de espacio deja de tener sentido a la escala más pequeña, dice Markopoulou, algunas de las consecuencias podrían haber sido aumentadas por la expansión siguiente al Big Bang. “Mi suposición es que la no existencia de espacio tiene efectos medibles, sólo si puedes mirar.” Debido a que es bastante complejo centrar tu mente en lo que significa que no exista espacio, añade.

Efectivamente, muy duro, pero merece la pena el esfuerzo. Si esta versión de la Gravedad Cuántica de Bucles puede reproducir todas las características del Modelo Estándar de la física de partículas y es corroborado por pruebas experimentales, podríamos estar en la mejor idea desde Einstein. “Es una idea maravillosa. Es una idea valiente y extraña”, dice Rovelli. “E incluso podría funcionar”.

Por supuesto, la mayoría de físicos se reservan su opinión. Joe Polchinski, teórico de cuerdas de la Universidad de Stanford en California, cree que Smolin y sus colegas aún tienen un gran trabajo por delante para demostrar que sus trenzas capturan todos los detalles del Modelo Estándar completo. “Ésta es una etapa muy preliminar. Se tiene que trabajar con ello y ver a dónde lleva”, dice Polchinski.

Si la nueva Gravedad Cuántica de Bucles termina este duro trabajo, podría darnos un nuevo sentido de nuestro lugar en el Universo. Si los electrones y quarks – y por tanto los átomos y la gente – son consecuencia de la forma en que el espacio-tiempo se entrelaza entre sí, podríamos no ser nada más que un montón de tozudas rastas en el espacio. Verse implicado de la forma en la que estamos nosotros, podría al menos darnos el confort de saber que finalmente somos verdaderamente uno con el Universo.

Agrandar la gravedad cuántica

Para que la gravedad cuántica tenga éxito como teoría de la gravedad fundamental, debería como mínimo predecir que las manzanas caen sobre la Tierra. En otras palabras, la Ley de la Gravedad de Newton debería emerger de forma natural de ella. Es algo complicado para una teoría que genera el espacio y el tiempo partiendo de cero describir lo que sucede en el mundo a diario, pero Carlo Rovelli de la Universidad del Mediterráneo en Marsella, Francia, y su equipo han tenido éxito en hacer justo esto. “Básicamente hemos calculado la Ley de Newton comenzando en un mundo sin espacio ni tiempo”, comenta (www.arxiv.org/abs/gr-qc/0604044).

La Ley de la Gravedad de Newton describe las fuerzas atractivas entre dos masas separadas por una distancia dada. Sin embargo, no es tan simple medir esta separación cuando el espacio tiene una compleja arquitectura cuántica del tipo que vemos en la Gravedad Cuántica de Bucles, donde no está claro qué significa la distancia. Éste ha sido el mayor obstáculo a la hora de demostrar cómo la Ley de Newton puede emerger de un espacio cuantizado.

El modo simple de medir la longitud en un espacio cuantizado es saltar de un cuanto a otro, contando cuantos pasos ha llevado alcanzar el destino final. De acuerdo con la Gravedad Cuántica de Bucles, el tejido del espacio hierve con fluctuaciones cuánticas, por lo que la distancia entre dos puntos siempre está cambiando, y puede tener varios valores a la vez.

Trabajando con Eugenio Bianchi de la Universidad de Pisa, Leonardo Modesto de la Universidad de Bolonia y Simone Speziale del Instituto Perimeter en Waterloo, Ontario, Rovelli sorteó el problema. El equipo encontró una forma matemática de aislar regiones del espacio lo bastante grandes para medir la separación entre dos puntos. Cuando ampliaron y usaron estas matemáticas para mirar el espacio-tiempo a mayores escalas, encontraron que la Ley de Newton surgía de pronto de su teoría.

El cálculo del equipo de Rovelli no reproduce toda la complejidad de la Relatividad General de Einstein, la cual también describe masas lo bastante grandes para curvar el espacio de forma apreciable. No obstante, sus resultados apuntan en la dirección correcta. Lee Smolin del Instituto Perimenter piensa que este es un paso adelante. “Su trabajo demuestra que la Gravedad Cuántica de Bucles tiene la gravedad dentro de ella”, dice. “No será durante más tiempo un castillo en el aire”.


1: Pretzel es una galletita salada con forma de lazo

Fecha Original: 12 de agosto de 2006 (Del número 2564 de la revista New Scientist, páginas 28-31)
Autor: Davide Castelvecchi y Valerie Jamieson
Enlace Original

NASA demuestra futuros telescopios espaciales que podrían detectar gemelos de la Tierra

Tres planetas simulados – uno tiene el brillo de Júpiter, otro la mitad del brillo de Júpiter y otro es tan tenue como la Tierra – claramente resaltado en esta imagen creada a partir de una secuencia de 480 imágenes capturadas por el Banco de Pruebas de la Cámara de Alto Contraste del JPL. Una técnica de eliminación de movimiento, tomada prestada de la astronomía espacial, sirvió para distinguir los planetas de la luz de fondo. El asterisco marca la localización de la estrella simulada del sistema. Crédito de la Imagen: NASA/JPL-Caltech

Por primera vez, los investigadores de la NASA han demostrado con éxito en laboratorio que un telescopio espacial dotado de una máscara especial y espejos podría capturar una imagen de un planeta similar a la Tierra orbitando una estrella cercana. Este logro marca un espectacular paso adelante para misiones como la Búsqueda de Planetas Terrestres, diseñada para buscar un gemelo de la Tierra que pueda esconder vida.

Intentar fotografiar un exoplaneta – un planeta orbitando una estrella que no sea el Sol – es una tarea desalentadora, debido a que su tenue brillo es fácilmente eclipsado por el intenso resplandor de su mucho más brillante estrella madre. El reto ha sido comparado a observar una luciérnaga cerca de un cañón de luz.

Ahora, dos investigadores del Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California, han demostrado que un simple coronógrafo – un instrumento usado para “enmascarar” el brillo de la estrella – junto con un espejo ajustable, podría permitir al telescopio capturar una imagen de un planeta distante 10 mil millones de veces más tenue que su estrella central.

“Nuestro experimento demuestra que la supresión del brillo de una estrella extremadamente cercana, deja un campo oscuro suficiente como para ver un gemelo de la Tierra. Esto es al menos mil veces mejor de cualquier otra cosa demostrada previamente”, dijo John Trauger, autor principal del artículo que apareció en el número del 12 de abril de Nature. Este artículo describe el sistema, llamado Banco de Pruebas de la Cámara de Alto Contraste, y cómo la técnica podría ser usada con un telescopio espacial para ver exoplanetas. El experimento en el laboratorio usó un láser para simular una estrella, con copias más débiles de la estrella haciendo de “planetas”.

A día de hoy, los científicos han usado distintas técnicas para detectar más de 200 exoplanetas. La mayoría de estos exoplanetas son de 5 a 4000 veces más masivos que la Tierra, y son o demasiado calientes o bolas de gas gigantescas como para considerarlos probables de albergar vida. Hasta ahora, nadie ha conseguido capturar una imagen de un sistema exoplanetario que recuerde a nuestro Sistema Solar. Los científicos están impacientes por echar un vistazo más cercano a los sistemas adyacentes, para buscar y luego caracterizar algún planeta similar a la Tierra – aquellos con el tamaño adecuado, órbita y otros rasgos considerados acogedores para la vida.

En la demostración del laboratorio, el Banco de Pruebas de la Cámara de Alto Contraste superó dos difíciles obstáculos que los telescopios se han encontrado al intentar fotografiar exoplanetas – la difracción y dispersión de la luz.

Cuando la luz de la estrella golpea el borde del espejo primario del telescopio, se perturba ligeramente, produciendo un patrón de anillos o picos alrededor de la fuente principal de luz en la imagen enfocada. Esta luz difractada puede oscurecer por completo cualquier planeta en el campo de visión.

Para resolver este problema, Trauger y sus colegas del JPL diseñaron un par de máscaras para su sistema. La primera, que recuerda un código de barras borroso, bloquea directamente la mayor parte de la luz de la estrella, mientras que la segunda elimina los anillos y picos de la difracción. La combinación crea la suficiente oscuridad para permitir que la luz de algún planeta brille a través de ella.

“Matemáticamente, y de alguna forma mágicamente, este coronógrafo bloquea tanto la estrella central como sus anillos”, dijo Wesley Traub del JPL, coautor del nuevo artículo y científico del proyecto de Búsqueda de Planetas Terrestres.

La luz dispersada presenta el otro obstáculo. Las pequeñas ondulaciones en el espejo del telescopio produce “motas” – tenues copias de la estrella, desplazada a un lado, la cual también puede ocultar planetas. En el Banco de Pruebas de la Cámara de Alto Contraste, un espejo deformable del tamaño de una moneda limita la dispersión de la luz. Con una superficie que puede ser alterada muy ligeramente incluso por accionadores controlados por ordenador, este espejo compensa el efecto de las pequeñas imperfecciones del telescopio y el instrumento.

“Este resultado es importante debido a que apunta hacia el camino de la construcción de un telescopio espacial con la capacidad de detectar y caracterizar planetas similares a la Tierra alrededor de estrellas cercanas”, dijo Traub.

Para los siguientes pasos, Trauger y Traub planean mejorar la supresión de motas en un factor de 10, y extender el método para acomodarlo a muchas longitudes de onda simultáneamente.


Fecha Original: 11 de abril de 2007
Enlace Original

MiniBooNE abre la caja

Los resultados del experimento del Fermilab resuelven la persistente cuestión del neutrino

Señal de neutrino observada por el experimento MiniBooNE

Los científicos del experimento MiniBooNE en el Departamento de Energía del Fermilab hoy (11 de abril) anunciaron sus primeros hallazgos. Los resultados del MiniBooNE resuelven las preguntas surgidas por las observaciones del experimento LSND en los años 90 que parecían contradecir los hallazgos de otros experimentos sobre neutrinos a nivel mundial. Los investigadores del MiniBooNE demostraron concluyentemente que los resultados del LSND no podían deberse a la simple oscilación del neutrino, un fenómeno en el cual un tipo de neutrino se transforma en otro tipo y vuelve al mismo tipo de nuevo.

Este anuncio clarifica de forma significativa la visión general del comportamiento de los neutrinos.

Actualmente, se sabe de la existencia tres tipos o “sabores” de neutrinos: neutrinos electrón, neutrinos muón y neutrinos tau. En los últimos 10 años, varios experimentos han demostrado que los neutrinos pueden oscilar de un sabor a otro y volver al original. Las observaciones realizadas por la colaboración del LSND también sugieren la presencia de oscilación de neutrinos, pero la región de masa de un neutrino es enormemente distinta de otros experimentos. Reconciliar las observaciones del LSND con los resultados de oscilación de otros experimentos con neutrinos habría requerido la presencia de un cuarto tipo de neutrino “estéril”, con propiedades distintas de los tres neutrinos estándar. La existencia de neutrinos estériles arrojaría serias dudas sobre la estructura actual de la física de partículas, conocida como Modelo Estándar de Partículas y Fuerzas. Debido a las tremendas consecuencias de esta interpretación, los hallazgos del LSND gritaron en busca de una verificación independiente.

La colaboración del MiniBooNE descartó la interpretación de oscilación simple del LSND buscando signos de neutrinos muón oscilando en neutrinos electrón en la región indicada por las observaciones del LSND. La colaboración no encontró apariciones de neutrinos electrón como predijo el escenario simple de oscilación de dos neutrinos.

“Fue muy importante verificar o refutar el soprendente resultado del LSND”, dijo Robin Staffin, Director Asociado de Ciencia para Física de Alta Energía. “Nunca supimos lo que la naturaleza había guardado para nosotros. La realización del experimento del MiniBooNE fue importante y se ha completado gracias a un trabajo bien hecho”.

El experimento del MiniBooNE, aprobado en 1998, tomó los datos para los análisis actuales desde 2002 hasta finales de 2005 usando neutrinos muón producidos por el acelerador Booster del Fermilab. El detector del MiniBooNE, situado a unos 500 metros del punto en que se producían los neutrinos muón, buscaba neutrinos electrón creados por los neutrinos muón. El objetivo del experimento era confirmar o refutar las sorprendentes observaciones de la colaboración LSND y de esta forma contestar a la persistente pregunta que ha preocupado a la comunidad de física de neutrinos durante más de una década.

“Nuestros resultados son la culminación de muchos años de análisis minuciosos y muy cuidadosos. Éste fue un esfuerzo de equipo realmente extraordinario”, dijo la co-portavoz del MiniBooNE Janet Conrad de la Universidad de Columbia. “Sabemos que los científicos de todo el mundo han estado esperando ansiosamente nuestros resultados”.

Una mirada más cercana al tanque del MiniBooNE muestra la capa interna de 1280 tubos fotomultiplicadores (PMTs) que detctan los neutrinos producidos por el acelerador Booster del Fermilab. Una segunda capa de 240 PMTs, también en el interior del tanque pero orientados hacia fuera, detecta las señales causadas por las lluvias de rayos cósmicos.

La colaboración MiniBooNE usó una técnica de experimento ciego para asegurar la credibilidad de sus análisis y resultados. Mientras recolectaban los datos de neutrinos, la colaboración del MiniBooNE no se permitía a sí misma acceder a los datos de la región, o “caja”, donde esperarían ver las mismas firmas de oscilaciones que en el LSND. Cuando la colaboración del MiniBooNE abrió la caja y desveló sus datos hace menos de tres semanas, la oscilación indicadora estaba ausente.

“Estamos encantados de ver que el trabajo del equipo del MiniBooNE ha llevado a la resolución de este problema”, dijo Marv Goldberg, Director del Programa de Física de Partículas Elementales en la Fundación Nacional de Ciencia. “Estamos orgullosos de nuestro apoyo en este importante avance en la física de neutrinos y seguimos buscando más resultados desde este equipo de científicos de universidades y del laboratorio nacional”.

Aunque los investigadores del MiniBooNE han descartado decisivamente la interpretación de los resultados del LSND como debidos a la oscilación entre dos tipos de neutrinos, la colaboración tiene más trabajo.

“Hemos estado estudiando la mayor parte de nuestro datos durante varios años”, dijo el físico del Fermilab Steve Brice, coordinador de análisis para el experimento del MiniBooNE, “pero hemos tenido acceso a los datos aislados sólo durante un breve periodo de tiempo. Quedan aún análisis que estamos impacientes por hacer. Incluyen la investigación detallada de datos que observamos a baja energía que no encajan con lo que esperábamos ver, junto con modelos más exóticos de oscilaciones de neutrinos y otra física fascinante”.

En este momento la fuente de la aparente discrepancia a baja energía es desconocida.

“Es genial conocer los resultados del MiniBooNE”, dijo el Director del Fermilab Pier Oddone. “Ésto aclara un misterio pero nos deja con otro misterio que es importante comprender”.

La colaboración del MiniBooNE continuará analizando estos datos.

“Como en muchos experimentos de física de partículas, tenemos resultados que responden a algunas preguntas y que generan otras nuevas”, dijo el co-portavoz del MiniBooNE William Louis, del Laboratorio Nacional de Los Álamos, quien también trabajó en el experimento original del LSND. “Vivimos tiempos interesantes”.

Para sus observaciones, MiniBooNE contó con un detector hecho con un tanque de 945 000 litros lleno de aceite mineral ultrapuro, más claro que el agua de un grifo. Una capa de 1280 tubos fotomultiplicadores sensibles a la luz, montados dentro del tanque, detectan colisiones entre los neutrinos fabricados en el acelerador Booster y el núcleo de carbono de las moléculas de aceite del interior del detector. Desde enero de 2006, el experimento MiniBooNE ha estado recolectando datos usando rayos de antineutrinos en lugar de neutrinos y esperando más resultados de estos nuevos datos.


Fecha Original: 11 de abril de 2007
Fuente Original

Científicos encuentran agua en la atmósfera de un planeta extrasolar

Los científicos han descubierto pruebas de agua en la atmósfera de un planeta fuera de nuestro sistema solar, lo que sugiere que el agua atmosférica podría ser relativamente común en el Universo.

Travis Barman, astrónomo del Observatorio Lowell en Flagstaff, Arizona, y Heather Knutson, estudiante de la Universidad de Harvard, trabajaron con datos y medidas tomadas por el Telescopio Espacial Hubble, y aplicaron nuevos modelos teóricos para demostrar probabilidad de absorción de agua en la atmósfera del planeta extrasolar HD209458b.

Los científicos han anticipado durante años que los exoplanetas mostrarían señales de agua en su atmósfera, incluso aquellos cuya órbita es mucho más cercana a su estrella centra de lo que en nuestro sistema está Mercurio del Sol.

Pero tal proximidad ha hecho difícil la detección de agua, de acuerdo con los astrónomos.

HD209458b, que está a 150 años luz de la Tierra en la constelación de Pegaso, fue el primer exoplaneta en tránsito descubierto – esto es, el primero descubierto al pasar frente a un cuerpo mucho mayor, desde el punto de vista de la Tierra. También es el primer exoplaneta conocido en tener atmósfera.

El pequeño planeta orbita a su estrella cada tres días y medio, y en cada pasada, los científicos pueden evaluar lo que hay en su atmósfera por cómo absorbe la luz de la estrella.

De acuerdo con un resumen de la investigación, la absorción de agua atmosférica en tal exoplaneta lo hace parecer mayor a lo largo de una parte del espectro infrarrojo, comparado con longitudes de onda del espectro visible.

Knutson tomó datos de HD209458b y le aplicó el nuevo modelo teórico de Barman, dando como resultado la identificación de absorción de agua en la atmósfera del planeta.

“Es esperanzador que las predicciones teóricas de agua en planetas extrasolares parezcan estar razonablemente de acuerdo con las observaciones”, dijo Barman en su declaración.

“Ahora sabemos que el vapor de agua existe en la atmósfera de un planeta extrasolar y que hay una buena razón para creer que otros planetas extrasolares también lo contienen”, dijo él.

Su investigación fue apoyada por el programa Orígenes del Sistema Solar de la Administración Nacional de Estados Unidos para Espacio y Aeronáutica, y se espera que sea publicado en Astrophysical Journal.


Fecha Original: 11 de abril de 2007
Enlace Original

¿Explicado el misterio de los brazos espirales?

En esta imagen compuesta de la galaxia espiral M106 (NGC 4258), los datos ópticos del Explorador del Cielo Digitalizado se muestran en amarillo, los datos de radio del Very Large Array aparecen en púrpura, los datos de rayos-X de Chandra están codificados en azul, y los datos infrarrojos obtenidos del Telescopio Espacial Spitzer aparecen en rojo. Los brazos anómalos aparecen como emisiones púrpura y azules. Pulse aquí para agrandar. Crédito: NASA/CXC/Univ. of Maryland/A.S. Wilson et al. Optical: Pal.Obs. DSS; IR: NASA/JPL-Caltech; VLA & NRAO/AUI/NSF

Usando un cuarteto de observatorios espaciales, los astrónomos de la Universidad de Maryland pueden haber desvelado un misterio que lleva rondando 45 años sobre los dos brazos espirales fantasmales en la galaxia M106.

El equipo de Maryland, liderado por Yuxuan Yang, se sirvió de las inigualables capacidades del Observatorio de Rayos-X Chandra de la NASA , el Telescopio Espacial Spitzer de la NASA, el Observatorio de Rayos-X XMM-Newton de la Agencia Espacial Europea, y los datos obtenidos hace casi una década por el Telescopio Espacial Hubble de la NASA.

M106 (también conocida como NGC 4258) es una galaxia espiral a una distancia de 23,5 millones de años luz de distancia en la constelación de Canes Venatici (los lebreles o perros de caza). En imágenes de luz visible, dos prominentes brazos emanan hacia fuera del brillante núcleo y la espiral. Estos brazos están dominados por jóvenes estrellas brillantes, las cuales encienden el gas de los brazos. “Pero en imágenes de radio y de rayos-X, otros dos brazos espirales adicionales dominan la imagen, apareciendo como fantasmas entre los brazos principales”, dice el miembro del equipo Andrew Wilson de la Universidad de Maryland. Estos llamados “brazos anómalos” están compuestos mayormente de gas.

“La naturaleza de estos brazos anómalos ha sido un misterio desde hace mucho tiempo en la astronomía”, dice Yang. “Han sido un misterio desde que se descubrieron a principios de los años 60″.

Analizando los datos del XMM-Newton, Spitzer, y Chandra, Yang, Bo Li, Wilson, y Christopher Reynolds, todos de la Universidad de Maryland en College Park, han confirmado las primeras sospechas de que los brazos fantasma representan regiones de gas que están siendo calentadas violentamente por ondas de choque.

Anteriormente, algunos astrónomos habían sugerido que los brazos anómalos eran chorros de partículas que estaban siendo eyectadas por un agujero negro supermasivo en el núcleo de M106. Pero las observaciones de radio del Conjunto de Línea de Base Muy Larga del Observatorio Astronómico Nacional en Nuevo México, identificó más tarde otro par de chorros originados en el núcleo. “Es altamente improbable que un núcleo galáctico activo pueda tener más de un par de chorros”, dice Yang.

En 2001, Wilson, Yang, y Gerald Cecil, de la Universidad de Carolina del Norte en Chapel Hill, notaron que los dos chorros estaban inclinados 30 grados respecto al disco de la galaxia. Pero si pudiéramos proyectar los chorros sobre el disco, estarían alineados casi perfectamente con los brazos anómalos. Imaginando que este alineamiento no es una casualidad, Wilson, Yang, y Cecil propusieron que los chorros calientan el gas en su línea de viaje formando una cobertura en expansión. Dado que los chorros están cerca del disco de M106, esta cobertura calienta el gas del disco y genera ondas de choque, calentando el gas a millones de grados y causando que irradie de forma muy brillante en rayos-X y otras longitudes de onda.

Para probar esta idea, Yang y sus colegas miraron en el archivo de observaciones espectrales de XMM-Newton. Con la extrema sensibilidad del XMM-Newton, el equipo pudo medir la temperatura del gas en los brazos anómalos y también ver cómo de fuerte eran absorbidos los rayos-X del gas por el material intermedio.

“Una de las predicciones de este escenario es que los brazos anómalos serán empujados gradualmente fuera del plano del disco galáctico por los chorros de gas caliente”, dice Yang. Los espectros del XMM-Newton muestran que los rayos-X son absorbidos con mayor fuerza en la dirección del brazo noroeste más que del brazo sureste. Los resultados sugieren con firmeza que el brazo sureste está en parte en el lado cercano del disco de M106 y que el brazo noroeste está en parte en el lado alejado.

Los científicos apuntan que estas observaciones muestran una clara consistencia con el escenario. La confirmación de esta interpretación ha venido recientemente fruto de las observaciones de archivo del Telescopio Espacial Spitzer de la NASA, cuya visión infrarroja muestra con claridad signos de que las emisiones de rayos-X desde el brazo noroeste están siendo absorbidas por gas caliente y polvo del disco galáctico. Además, la resolución cámara de resolución superior de chandra da claras indicaciones de gas golpeado por interacciones con otros dos chorros.

Junto a la resolución del misterio de los brazos anómalos, estas observaciones permiten al equipo estimar la energía de los chorros y calibrar sus relaciones con el agujero negro central de M106. El artículo del equipo aparecerá en el número del 10 de mayo de la revista Astrophysical Journal.


Fecha Original: 10 de abril de 2007
Fuente Original