Imagen del entrelazamiento cuántico

Un equipo internacional que incluye científicos del Centro de Londres para la Nanotecnología (LCN) publicó hoy sus hallazgos en la revista Proceedings of the National Academy of Sciences demostrando los drásticos efectos de la mecánica cuántica en un imán simple. La importancia del trabajo recae en establecer cómo una herramienta convencional de la ciencia material – un chorro de neutrones producido en aceleradores de partículas y reactores nucleares – puede usarse para producir imágenes de los fantasmales estados entrelazados del mundo cuántico.

Por simplicidad, el equipo se centró en un cuadrado de espines, la diminuta barra magnética asociada con los electrones en los átomos de cobre en el material organometálico estudiado por los investigadores. A la izquierda (c) se muestra una imagen de neutrón calculada para estos espines cuando se comporta como un objeto clásico (a), mientras que a la derecha (d) se muestra la imagen cuando están entrelazados (b). Las imágenes son drásticamente distintas en ambos casos, tomando la forma de un punto casi circular para el caso clásico y una cruz para el estado de entrelazamiento cuántico. Crédito: Centro de Londres para la Nanotecnología

En la nano-escala, el magnetismo surge a partir del comportamiento de los átomos como pequeños imanes llamados ‘espines’. En ferroimanes – el tipo que se pega a las puertas de los frigoríficos – todos estos imanes atómicos apuntan en la misma dirección. En los antiferroimanes, los espines se cree que se alinean espontáneamente a sí mismos de forma opuesta a los espines adyacentes, dejando el material como globalmente neutro a nivel magnético.

La investigación demuestra que esta descripción no es correcta debido a que ignora las incertidumbres de la mecánica cuántica. En particular, reñida con la intuición cotidiana, las leyes físicas de la mecánica cuántica que operan a nano-escala permiten a un espín apuntar simultáneamente arriba y abajo. Al mismo tiempo, dos espines pueden estar unidos de tal forma que es imposible saber la dirección por sí mismo, siempre apuntan en direcciones opuestas – en tal caso están “entrelazados”.

Con su descubrimiento, los investigadores demuestran que los neutrones pueden detectar entrelazamiento, el recurso clave para la computación cuántica.

Uno de los autores principales del trabajo, el Profesor Des McMorrow del LCN, comenta: “Cuando nos embarcamos en este trabajo, creo que sería justo decir que ninguno de nosotros esperaba ver tales efectos gigantescos producidos por el entrelazamiento cuántico en el material que estábamos estudiando. Teníamos la corazonada de que este material podría arrojar algo importante y que hacíamos bien en seguirlo”.

El siguiente paso de los investigadores será buscar las implicaciones en superconductores de alta temperatura, materiales que transportan corrientes eléctricas sin calentamiento y que mantienen notables similitudes con los antiferroimanes aislantes que han estudiado, y el diseño de ordenadores cuánticos.



Fecha Original: 21 de septiembre de 2007
Enlace Original

NASA reinicia una misión para detectar agujeros negros

La NASA ha tomado al decisión de reiniciar una misión astronómica que tendrá mayor capacidad que ningún otro instrumento existente para detectar agujeros negros en nuestro universo local.

El Conjunto Telescópico de Espectroscopía Nuclear, o NuSTAR, está dirigido por el JPL. Expandirá nuestra comprensión sobre los orígenes y destino de las estrellas y galaxias. La NASA había detenido el esfuerzo de estudio de la misión en 2006 debido a recortes en los fondos dentro del Consejo de Misión Científica.

“Estamos entusiasmados con poder reiniciar la misión NuSTAR, la cual esperamos que se lance en 2011″, dijo Alan Stern, administrador asociado del Consejo de Misión Científica en las Oficinas Centrales de la NASA en Washington. “NuSTAR tiene más de 500 veces la sensibilidad de los instrumentos anteriores que detectan agujeros negros. Es una gran oportunidad para nosotros de explorar una importante frontera astronómica. Estamos obteniendo cada vez más de los presupuestos científicos que tenemos, y el reinicio de la altamente valiosa misión NuSTAR es un ejemplo de ello”.

La misión hará de puente entre el lanzamiento de 2009 del Explorador de Investigación Infrarroja de Campo Amplio y el lanzamiento en 2013 del Telescopio Espacial James Webb. La nave cartografiará áreas del cielo a la luz de los rayos-X de alta energía y complementará las misiones astrofísicas que exploran el cosmos en otras regiones del espectro electromagnético.

“NuSTAR realizará observaciones profundas en rayos-X para detectar agujeros negros de todos los tamaños y otros fenómenos exóticos”, dijo Jon Morse, director de la División Astrofísica en las Oficinas Centrales de la NASA. “Realizará ciencia de vanguardia usando tecnologías avanzadas y ayudará a proporcionar un equilibrio entre las misiones grandes y pequeñas en la cartera de astrofísica de la NASA”.

La misión es parte del Programa de Exploración de la NASA. El programa proporciona frecuentes y baratos accesos a misiones espaciales con naves de tamaño medio y pequeño. El Conjunto Telescópico de Espectroscopía Nuclear originalmente fue seleccionado de entre las propuestas enviadas en respuesta a un anuncio de oportunidades en 2003. Fiona Harrison del Instituto Tecnológico de California en Pasadena, es el principal investigador de la misión. JPL es una división de Caltech.

La NASA espera seleccionar tres misiones Exploradoras Pequeñas adicionales para vuelos en la primera mitad de la próxima década gracias a una selección competitiva en las comunidades científicas de astrofísica y heliofísica.

El Centro de Vuelo Espacial Goddard en Greenbelt, Maryland, dirige el Programa Explorador para el Consejo de Misión Científica. Orbital Sciences Corp., en Dulles, Virginia, es el principal socio industrial para la misión.

Para más información sobre la misión NuSTAR, visite http://www.nustar.caltech.edu . Para más información sobre el Programa Explorador de la NASA, visite http://explorers.gsfc.nasa.gov . Para información sobre la NASA y programas de la agencia, visite http://www.nasa.gov .


Autor: Jane Platt / Grey Hautaluoma
Fecha Original: 21 de septiembre de 2007
Enlace Original

Explosión revela diminuta isla magnética

El XMM-Newton de la ESA, ha proporcionado una nueva visión de unos extraños objetos celestes conocidos como magnetares. Gracias al observatorio orbital de rayos-X, los astrónomos han rastreado unas potentes explosiones hasta una región justo debajo de la superficie de un magnetar.

Los magnetares son pequeñas estrellas de neutrones que ocasionalmente sufren explosiones extraordinariamente potentes que brillan como rayos-X a lo largo de la galaxia.

Impresión artística de un magnetar

En 2003, los astrónomos observaron una estrella de neutrones brillando unas 100 veces más fuerte que su débil luminosidad habitual. Este estallido les permitió descubrir XTE J1810-197. Detectar los pulsos de la fuente ayudó a clasificarlo como el primer púlsar de rayos-X anómalo transitorio (AXP). El estallido masivo lo movió al rango de magnetar.

Los magnetares son objetos asombrosos. Cada uno de ellos tiene un núcleo altamente magnético de una estrella que en una ocasión fue al menos ocho veces más masiva que el Sol. Cuando explotó como supernova, el núcleo se comprimió en un objeto altamente compacto, una estrella de neutrones, aproximadamente de 15 kilómetros de diámetro, pero conteniendo mucha más masa que el Sol.

Algunas de estas estrellas de neutrones poseen los campos magnéticos más potentes del universo, llevando a erupciones extremadamente energéticas que envían radiación de alta energía en cascada a lo largo del espacio. Los astrónomos nunca han estado seguros de si las explosiones provienen de la superficie del mismo magnetar, o de las nubes eléctricamente cargadas de partículas atrapadas en el campo magnético de los alrededores.

Ahora, usando los datos de XMM-Newton, Tolga Güver, de la Universidad de Estambul, y sus colegas han analizado el espectro de rayos-X de XTE J1810-197 usando un modelo por ordenador que incorpore las emisiones de la superficie delos magnetares con el siguiente procesado conforme viaja a través del campo magnético del objeto. Esta es la primera vez que ambas regiones del magnetar han sido colocadas en un modelo por ordenador.

XMM-Newton observó a XTE J1810-197 siete veces entre el 9 de agosto de 2003 y el 13 de marzo de 2006 usando la Cámara de Imagen Fotónica Europea de XMM (EPIC) a bordo de XMM. Durante ese tiempo, el objeto disminuyó hasta su brillo normal, y EPIC grabó los cambios en las energías de los rayos-X liberados conforme lo hacía. Estos cambios son particularmente valiosos para los astrónomos debido a que pueden compararse con las predicciones por ordenador.

Güver y sus colegas encontraron que los datos encajaban mejor con un modelo que rastreaba las explosiones hasta justo por debajo de la superficie del magnetar y lo confinaba a un área de aproximadamente 3,5 km de diámetro. Esto es un gran avance debido a que, “Suponiendo que nuestro modelo se confirmase, ahora podemos distinguir entre los fenómenos de superficie y de la magnetosfera”, dice Güver.

Su modelo también les permitió determinar la fuerza del campo magnético del objeto de forma espectroscópica. Es alrededor de 600 billones de veces más potente que el campo magnético de la Tierra. Esperanzadoramente, esta medida es similar a lo que se estimó previamente para este objeto en base a cómo de rápido se está frenando su giro. Esto impulsa la confianza del equipo en que su modelo es correcto.

No obstante, no están siendo complacientes con su trabajo. “Este modelo no será el último sobre los magnetares pero nos da un nuevo punto de vista sobre estos fascinantes objetos”, dice Güver.

Una cosa que aún permanece sin aclarar es la naturaleza de las explosiones. Están posiblemente disparadas magnéticamente pero exactamente cómo, aún es un misterio. El equipo ahora planea usar sus modelos por ordenador para investigar más sobre estos objetos celestiales, usando más datos de XMM-Newton, en su búsqueda de respuestas.


Fecha Original: 20 de septiembre de 2007
Enlace Original

Cómo la industria puede usar tecnologías desarrolladas para el espacio

Los productos derivados de la tecnología espacial, a menudo usados en nuestra vida cotidiana, tendrán un escenario central en la Conferencia de Transferencia de Tecnología Espacial Europea que se celebrará en Munich el 16 y 17 de octubre.

Producción textil monitorizada por un “ojo espacial”

Los usos que actualmente damos a las tecnologías espaciales incluyen sistemas de prueba de impacto innovadores para mejorar la seguridad de los vehículos, sensores microbiológicos para el tratamiento del agua, tanques de hidrógeno de bajo peso para coches más ecológicos, y sistemas para identificar azufre en el combustible y la chatarra. La investigación continúa para ver cómo la tecnología espacial puede aplicarse a robots vanguardistas ultra-ligeros para cirugía, y para producir órganos artificiales y prótesis.
El futuro potencial de las tecnologías espaciales europeas avanzadas será abordado en la Conferencia que tendrá lugar en la MunichExpo, y la cual está co-organizada por la ESA y el Ministerio Bávaro de Economía, Infraestructura, Transporte y Tecnología.

“No siempre es obvio el papel que pueden desempeñar estos productos derivados de tecnologías avanzadas, originalmente desarrollados para programas espaciales. En esta conferencia seremos muy concretos y nos centraremos en las transferencias exitosas de la tecnología espacial que aportan un beneficio económico a la industria espacial y no espacial.

“Tenemos 24 ponentes que revelarán emocionantes nuevas transferencias en cada uno de sus sectores por lo que cada uno podrá ver lo que se ha conseguido cuando se usan las tecnologías espaciales disponibles en la investigación y desarrollo de nuevas aplicaciones y sistemas en campos no espaciales”, dice Frank M. Salzgeber, director de la Oficina para el Programa de Transferencias Tecnológicas de la ESA y uno de los promotores de la conferencia.

Entre los ponentes estará Douglas A. Comstock, Director del Programa de Colaboración para la Innovación de la NASA, quien ilustrará sobre cómo los proyectos de colaboración internacional pueden servir tanto a los programas del espacio como a la transferencia de la tecnología espacial a aplicaciones no espaciales.

El Dr. Peter Hofmann, Director de Desarrollo de Negocio en Kayser-Threde, Alemania, también ilustrará el uso exitoso de la tecnología espacial. Para Kayser-Threde, los productos derivados del espacio dieron como resultado la formación de dos nuevas divisiones: una en el campo de la automoción y otra en el de sistemas de control de procesos. Hoy ambos campos ofrecen unos servicios y productos de mercado bien establecidos. La división de automoción ha ostentado durante muchos años su título de líder de mercado a nivel mundial en sistemas a bordo de adquisición de pruebas de impactos y ahora ofrece instalaciones de impactos completas para mejorar la seguridad en los vehículos.

Un conjunto de 19 compañías de 10 países europeos presentarán transferencias exitosas donde la tecnología espacial ha proporcionado soluciones innovadoras en una variedad de sectores como el de la automoción, medicina, energía, textil, seguridad y robótica.

El Prof. Dr. Ulrich Walter, Presidente de la Cátedra de Astronáutica en la Universidad Técnica de Munich y antiguo astronauta alemán, también dará su experiencia de primera mano de las complejidades de la ingeniería en naves espaciales.

“Cada año en Europa usamos una significativa cantidad de dinero para la investigación y desarrollo de nuevas tecnologías y materiales necesarios para los programas espaciales. Esto proporciona un conjunto increíble de soluciones nuevas e inteligentes disponibles a problemas en la Tierra que mejorarán nuestra vida diaria a todos”, añade Salzgeber.

“Tenemos que formar una red de agentes tecnológicos en Europa para facilitar la transferencia y apoyar a las industrias interesadas y a los empresarios a identificar posibles tecnologías. Además, ayudamos a los empresarios a comenzar son compañías de ideas brillantes para el uso de tecnologías espaciales en nuevas aplicaciones en nuestros tres centros de Incubación de Negocios en Holanda, Alemania e Italia”.


Fecha Original: 19 de septiembre de 2007
Enlace Original

¿Generó el Big Bang billones de agujeros negros?

¿Se generó un vasto número de agujeros negros durante los primeros momentos del universo? Es una idea intrigante, hecha posible por las extremas densidades asociadas con el Big Bang.

Hasta ahora, no teníamos pruebas contundentes de que tales agujeros negros primordiales (PBHs) existieran alguna vez, pero unas nuevas observaciones que están a la vuelta de la esquina podrían cambiar ésto.

Detectarlos sería una tremenda bendición, dado que podrían usarse para estudiar los mismos inicios del universo una mera fracción de segundo después de que comenzara, cuando las condiciones eran tan extremas que nuestras mejores teorías físicas tienen problemas para describirlos. Los agujeros negros primordiales también conforman parte de la invisible sustancia llamada materia oscura que parece formar la mayor parte de la materia del universo.

Existe una variedad de formas en la que los PBHs podrían formarse en el infierno del joven universo. Por ejemplo, las concentraciones de energía asociada con los campos de energía exóticos podría colapsar bajo su propia gravedad – de acuerdo con la relatividad de Einstein, la energía produce gravedad de la misma forma que la materia – para formar agujeros negros. Uno de tales campos de energía se cree que es el responsable de la rápida expansión del inicio del universo, un fenómeno llamado inflación.

Existe una amplia variedad de masas posibles para los PBHs, dependiendo de su escenario de formación. Los menos masivos, con menos de la masa de un cometa, o 1 billón de kilogramos, se evaporaría rápidamente a través de un proceso cuántico conocido como radiación de Hawking.

Detonando agujeros negros

Han existido informes sin confirmar de radiación procedente de PBHs ligeramente más masivos, los últimos rastros de los cuales se estarían evaporando.

Los PBHs más masivos, que podrían nacer con una masa superior a 100 000 veces la masa del Sol, podría sobrevivir para dejar su huella en el Fondo de Microondas Cósmico (CMB), la radiación emitida por la materia caliente aproximadamente 400 000 años tras el Big Bang.

Esto es debido a que los agujeros negros emiten rayos-X conforme tragan materia de sus alrededores, y estos rayos-X pueden escapar de la vecindad de los agujeros negros para romper, o ionizar, átomos de hidrógeno. Esto afectaría sutilmente a cómo la materia se distribuye en regiones de alta y baja densidad – una distribución que se refleja en la radiación del fondo de microondas cósmico.

Este efecto podría explicar una extraña discrepancia entre los resultados de la Sonda de Anisotropía de Microondas Wilkinson (WMAP), que mide el CMB, y los estudios de cómo se compactaron las galaxias.

Ambos entran en desacuerdo en un parámetro llamado sigma8, el cual describe cómo la materia se agrupó en el joven universo. Pero de acuerdo con un reciente estudio liderado por Massimo Ricotti de la Universidad de Maryland en College Park, Estados Unidos, las dos medidas concuerdan si se incluyen los PBHs en los modelos.

Pero el mismo Ricotti dice que es demasiado pronto para afirmar que esta es una prueba de los agujeros negros primordiales. Aún es posible que refinando las medidas se llegue a un acuerdo entre ellas sin necesidad de invocar a estos objetos exóticos, dice.

Las primeras estrellas

El estudio también sugiere que el efecto ionizador de los PBHs habria ayudado a encender la formación de las primeras estrellas del universo. La presencia de electrones libres ayuda a los pares de átomos de hidrógeno a unirse para formar hidrógeno molecular. “Se forma una gran cantidad de hidrógeno molecular – aproximadamente de 10 a 100 veces más de lo que se formaría si no tuviesen agujeros negros primordiales”, dijo Ricotti a New Scientist.

El hidrógeno molecular ayuda a enfriar las nubes de gas emitiendo radiación, lo que permite a las nubes contraerse lo suficiente para condensarse en estrellas. Ricotti dice que el Telescopio Espacial James Webb, que tiene planeado su lanzamiento para 2013, podría ser capaz de detectar este aumento de la formación estelar.

Tal vez lo más intrigante sea que si los agujeros negros primordiales sobreviven en un número lo bastante grande hot día, entonces las nubes de los mismos podrían contar para alguno o incluso todos los misterios de la materia oscura que parece formar la mayor parte de la materia del universo.

El problema principal con esta posibilidad es que no está claro si las condiciones necesarias para formar PBHs en grandes números se dieron alguna vez en nuestro universo.

En el escenario de formación que involucra el campo de inflación, por ejemplo, el número de PBHs formados depende de datos desconocidos como el tamaño de las fluctuaciones en el campo de inflación. “En algunos modelos inflacionarios, se pueden formar una gran cantidad de PBHs; en otros se forman muy pocos”, dice Ricotti. “No es obvio si se formaron en un número suficiente como para ser interesantes”.

Ventana al pasado

Es posible que cantidades inusualmente grandes de ionización en el universo joven – posiblemente debido a los rayos-X emitidos por los PBHs – pudiesen detectarse por el satélite europeo Planck, planificado para su lanzamiento a mediados de 2008, dice el miembro del equipo WMAP, Rachel Bean, de la Universidad de Cornell en Ithaca, Nueva York, Estados Unidos. “Es concebible que tales efectos pudiesen medirse mediante Planck”, dijo a New Scientist.

Si alguna vez aparecen pruebas convincentes de los agujeros negros primordiales, esto daría a los científicos una ventana extremadamente importante al universo en los primeros momentos del universo. “Demostrar que existen incluso muy pocos agujeros negros primordiales nos enseñaría mucho sobre el inicio del universo”, dice Ricotti. “No sabemos mucho sobre esa época”.

La masa de los agujeros negros revelaría la época en la que se formaron, dado que los distintos escenarios de formación tuvieron lugar en distintas épocas y dan distintas masas. Si se formaron al final de la inflación, entonces su existencia revelaría información importante sobre la oscura física de este periodo de rápida expansión.

“Se podrían descartar los modelos de inflación que no producen estos agujeros negros”, dice el físico James Chisholm de la Universidad del Sureste de Utah. “Posiblemente alguien ganaría un premio Nobel”.


Autor: David Shiga
Fecha Original: 19 de septiembre de 2007
Enlace Original

Universidad ayuda a cartografiar el universo

La Universidad de Manchester está desarrollando una tecnología de procesado de datos de alta velocidad que será crucial para el éxito de uno de los proyectos científicos más grandes del Siglo XXI.

El radio telescopio del Conjunto del Kilómetro Cuadrado (SKA) de 1100 millones de libras (1500 millones de euros) será aproximadamente unas 200 veces mayor y 100 000 veces más potente que el famoso radio telescopio Lovell en Jodrell Bank.

El visionario proyecto global permitirá a los astrónomos recopilar información a lo largo de un millón de metros cuadrados – el equivalente a aproximadamente 200 campos de fútbol.

Dará a los astrónomos la capacidad de estudiar los inicios del Universo, probar la Teoría de la Relatividad de Einstein, aprender más sobre las misteriosas energía y materia oscura – e incluso buscar señales de vida alienígena.

La Universidad lidera la implicación del Reino Unido en el desarrollo del SKA a través de un estudio de diseño europeo de 38 millones de euros conocidos como SKADS.

Los ingenieros están trabajando en un sofisticado sistema completamente digital para procesar la información recopilada por el telescopio gigante y que convierta el torrente de datos en un detallado mapa del cielo.

Los investigadores de las Escuelas de Física y Astronomía e Ingeniería Electrónica y Eléctrica están trabajando en la tecnología para un “conjunto de apertura”, el cual estará compuesto por decenas de miles de pequeñas antenas fijas al suelo. El SKA completo consistirá en alrededor de 250 conjuntos de apertura.

Los retardos se usarán para comparar las señales recibidas por cada antena y convertirlas en un único y gran “rayo” – que reproduzca digitalmente lo que sucede actualmente cuando el plato de Lovell apunta en una dirección específica.

Sumando las señales de distintas formas, el conjunto de apertura propuesto apertura propuesta permitirá que se creen muchos “rayos” al mismo tiempo.

Por lo que al contrario que el plato de Lovell, que sólo puede apuntar físicamente en una dirección cada vez, el SKA será capaz de “apuntar” a muchas direcciones distintas al mismo tiempo y cubrir una enorme área del cielo.

Esta nueva aproximación permitirá a muchos astrónomos observar el cielo en distintas direcciones a la vez – sumando a la efectividad del telescopio la inversión financiera.

El grupo de investigación de Microelectrónica y Nanoestructuras en la Escuela de Ingeniería Eléctrica y Electrónica, liderado por el Profesor Mo Missous, está diseñando y fabricando componentes receptores y conversores analógicos-digitales de velocidad ultra-alta usando una tecnología de semiconductores desarrollada internamente.

El grupo de Sistemas de Microondas y Comunicación, liderado por el Profesor Tony Brown, está desarrollando los elementos de la antena de rendimiento muy alto y la capa del conjunto requerida para que el sistema funcione con éxito.

En el desarrollo de los sistemas digitales propuestos, los ingenieros se enfrentan a un enorme reto al desarrollar un sistema que puede manejar simultáneamente datos recuperados por alrededor de 128 000 receptores – dos receptores en cada uno de los 64 000 elementos.

Para ayudar en el proyecto, se ha firmado un Acuerdo Conjunto de Estudio entre la Universidad de Manchester e IBM – una cooperación que dará a la Universidad acceso a los sistemas de procesado en tiempo real más avanzados disponibles.

Los ingenieros actualmente trabajan con los investigadores en el Centro de Investigación Thomas J Watson de IBM en los Estados Unidos para diseñar los sistemas de procesamiento avanzado requeridos por el SKA.

Mirarán en todo el rango de tecnologías de procesado multi-núcleo de alta velocidad de IBM para encontrar la solución que mejor se adecue a sus necesidades.

El Dr. Andrew Faulkner del Observatorio Jodrell Bank de la Universidad, quien es Ingeniero del Proyecto de SKADS, dijo: “Estamos buscando procesar una enorme cantidad de datos a velocidades sorprendentes y entonces unirlo todo para crear un sistema con una capacidad sin precedentes”.

El Prof. Peter Wilkinson de la Escuela de Física y Astronomía y jefe del programa SKADS del Reino Unido añadió: “El SKA está diseñado para ser un instrumento de descubrimiento. Será una descomunal cosechadora de la ciencia fundamental localizando enormes números de galaxias distantes usando las débiles emisiones de radio del gas hidrógeno. Pero este nuevo telescopio será tan grande y operará de formas tan distintas que está llamado a encontrar cosas que ni siquiera podemos prever. Esta es la razón por la que el proyecto SKA es tan emocionante”.

“La participación de IBM Research en el proyecto SKA es muy emocionante y el reto de diseñar sus sistemas de proceso de datos traerá un completo grupo de nuevas ideas a nuestra investigación multi-núcleo”, dijo David Cohn, director de Informática de Negocio de IBM Research.

El Profesor John Perkins, Vicepresidente y Decano de la Facultad de Ingeniería y Ciencias Físicas (EPS) de la Universidad de Manchester, dijo: “El SKA busca convertirse en uno de los grandes proyectos científicos del Siglo XXI y esta emocionante colaboración con IBM sólo puede fortalecer nuestra relación”.

Como parte del proyecto SKADS, se han destinado un total de 10 millones de libras como fondos de desarrollo por parte el Reino Unido, incluyendo 8 millones del Consejo de Instalaciones Tecnológicas y Científicas (anteriormente PPARC).

La Universidad de Manchester ha recibido 3,5 millones de libras para encabezar el esfuerzo en investigación, en una cerrada colaboración con las Universidades de Oxford y Cambridge.


Autor: Alex Waddington
Fecha Original: 19 de septiembre de 2007
Enlace Original

Telescopio de 40 años aún es un explorador galáctico

Los sistemas electrónicos de más de 40 años han sido durante mucho tiempo enviados al basurero. Pero los astrónomos que usan el radio telescopio gigante de 305 metros de Arecibo en Puerto Rico dicen que aún ofrece capacidades únicas, a pesar de un panel de revisión que el año pasado instó a la Fundación Nacional de Ciencia a recortar sus apoyos. El plato de radio – el mayor del mundo – es necesario para probar la relatividad general y las teorías de evolución galáctica, dicen los que lo apoyan.

”Radiotelescopio

“Estamos muy esperanzados en el futuro”, dice Bob Brown, director del Centro Nacional de Astronomía e Ionosfera, el cual opera en Arecibo. Brown habló tras una reciente reunión en Washington, DC, Estados Unidos, discutiendo la astronomía de vanguardia que aún puede hacerse con el observatorio.

Aunque inmóvil, la mayor ventaja de Arecibo es su tamaño – es tres veces más grande que el segundo mayor plato del mundo, el móvil Telescopio Robert C Byrd Green Bank de 100 metros en West Virginia. Su tamaño la hace extremadamente sensible a las ondas de radio en cualquier instante, permitiéndole detectar rápidamente cambios en objetos débiles, o comparar muchos puntos a través del cielo.

Probando a Einstein

Tal sensibilidad aún tiene demanda – los astrónomos envían peticiones para tres o cuatro veces más tiempo de observación del que hay disponible. Cuando el centro de la galaxia entra en su campo de visión, tal demanda llega a nueve veces más del tiempo disponible.

Arecibo es famoso históricamente por el descubrimiento de púlsars. Ahora los astrónomos quieren aprovecharse de su alta sensibilidad para detectar cambios en el sincronismo de los pulsos de estas densas y giratorias estrellas.

Tales observaciones podrían revelar cómo las estrellas están ondulando el tejido del espacio-tiempo a su alrededor emitiendo ondas gravitatorias conforme rotan – proporcionando una prueba de la Teoría de la Relatividad General de Einstein, la cual predice éste fenómeno. “Tal tipo de ciencia es exclusiva de Arecibo”, e importante para la física en general, dice Brown.

La reunión de Washington también discutió planes para cartografiar la distribución del hidrógeno intergaláctico en el cielo. Investigaciones anteriores ya buscaron medir la cantidad de hidrógeno vinculado a las galaxias cercanas, pero el nuevo estudio mirará en áreas donde no hay galaxias presentes.

Caza de asteroides

El objetivo es ver si granes cantidades de gas de hidrógeno sin consolidar son restos primordiales del Big Bang, o fueron arrancados de las galaxias que interactuaban entre sí conforme evolucionaban. La respuesta tendrá un gran impacto sobre la comprensión de los astrónomos de la evolución galáctica, dice Brown.

Arecibo también es crucial para los investigadores de asteroides, como uno de los dos únicos radares planetarios del mundo. Las observaciones de radar son la mejor forma de caracterizar las órbitas de los asteroides que potencialmente podrían golpear la Tierra.

Arecibo puede observar asteroides al doble de distancia que el otro único radas planetario, la antena Goldstone de 70 metros de la NASA en California, Estados Unidos, aunque Goldstone puede observar más cielo debido a que es completamente móvil.


Autor: Jeff Hecht
Fecha Original: 19 de septiembre de 2007
Enlace Original

“Prueba de embarazo” para la vida en Marte lanzada con éxito

Los componentes clave para una nueva aproximación al descubrimiento de vida en Marte fueron lanzados con éxito al espacio el viernes como parte de un experimento en la órbita baja de la Tierra de doce días para asegurar su supervivencia al entorno de radiación espacial — un preludio de futuros viajes a Marte.

La nueva aproximación está basada en una tecnología similar a la que se usa en las pruebas de embarazo. Los llamados inmunoensayos están encuadrados en el experimento “Chip Marcador de Vida” (LMC), el cual tiene el potencial de detectar rastros de niveles de biomarcadores en el entorno marciano. Los biomarcadores son huellas moleculares que indican si la vida está actualmente, o alguna vez estuvo, presente en Marte. El experimento LMC ha sido propuesto por la misión rover ExoMars de la Agencia Espacial Europea, que está planificada para su lanzamiento en 2013. El experimento LMC está en fase de desarrollo y está liderado por un consorcio internacional con investigadores que incluyen a Andrew Steele, miembro de la plantilla del Laboratorio Geofísico de Carnegie en los Estados Unidos, y científicos del Reino Unido, Países Bajos y Alemania.

Para la misión actual, el consorcio desarrolló un componente diminuto, con unas medidas de sólo ( 3,8 cm x 4,1 cm x 1,3 cm) alojando unas 2000 muestras, para probar que los componentes moleculares claves que se usarán en la tecnología LMC pueden sobrevivir a los rigores del espacio.

El experimento se lanzó desde el cosmódromo de Baikonur en Kazajstán como parte de la plataforma experimental BIOPAN-6 de la Agencia Espacial Europea. Los componentes LMC experimentarán tanto ingravidez como el duro entorno de radiación espacial mientras orbite 180 veces a la Tierra a una altitud de 308 km durante la misión de 11,8 días.

La plataforma BIOPAN-6 está montada en el exterior de una nave FOTON rusa no tripulada. Una vez en el espacio la plataforma BIOPAN-6 se abrirá para exponer sus contenidos directamente al entorno espacial, comprobando tanto su resistencia a la radiación espacial como al vacío del espacio, antes de cerrarse y retornar a la Tierra en 25 de septiembre. Los componentes del LMC serán entonces llevados a laboratorio del Reino Unido y Estados Unidos para analizar el efecto del vuelo espacial.

Los miembros principales del consorcio involucrados en la misión actual son la Agencia Espacial Alemana (DLR) (Alemania), la Universidad de Cranfield (Reino Unido), la Institución Carnegie de Washington (Estados Unidos) y la Universidad de Leicester (Reino Unido).

El Dr. Andrew Steele de la Institución Carnegie de Washington (Estados Unidos) y uno de los propulsores iniciales del experimento dijo, “en los Estados Unidos estamos actualmente haciendo volar tecnología y componentes relacionados con el entorno protegido de la Estación Espacial Internacional (EEI) pero esta será la primera vez que este tipo de materiales volarán sin protección en el espacio de forma similar a un vuelo a Marte”.

El Dr. Lutz Richter de DLR (Alemania) y principal investigador del experimento actual dijo, “Este experimento es la culminación de un número de años de duro trabajo y pruebas en tierra para mostrar la viabilidad de la tecnología LMC”.

El Dr. David Cullen, de la Universidad de Cranfield (Reino Unido) y que lidera la aportación científica en el experimento actual dijo, “esta será nuestro primer experimento para demostrar nuestra creencia de que la tecnología de inmunoensayo tendrá un papel en el futuro importante en la exploración espacial y la búsqueda de vida en cualquier punto del Sistema Solar”.

El Dr. Mark Sims de la Universidad de Leicester (Reino Unido) y que dirige el proyecto LMC dijo, “esta misión será una importante piedra de toque en nuestro objetivo final de poner el experimento LMC en la superficie de Marte y usarlo para buscar pruebas de vida”.

Un número de otras personas, organizaciones y compañías han contribuido al experimento y estas incluyen a Haptogen Ltd. (Aberdeen, Reino Unido), Universidad Estatal de Oklahoma (Estados Unidos), LioniX BV (Enschede, Holanda), Universidad Técnica de Munich (Alemania) y el Dr. Jan Toporski, oficialmente de la Universidad Christian Albrechts de Kiel (Alemania).


Fecha Original: 17 de septiembre de 2007
Enlace Original

Saltando en el remolino cuántico

Un físico cuántico de la Universidad de Queensland está aplicando una nueva teoría a un viejo problema.

Dr. Davis

El Dr. Matthew Davis, de la Escuela de Ciencias Físicas de la UQ, está trabajando en un nuevo estado de la materia – condensado Bose-Einstein – para una mayor comprensión de la misma naturaleza del universo.

“La belleza de un condensado Bose-Einstein es que es similar a un láser pero hecho de materia”, dijo el Dr. Davis.

“Es una colección de átomos que son perfectamente coherentes y tienen el potencial de usarse en dispositivos de medida ultrasensibles”.

El Dr. Davis dijo que los BECs se predijeron por primera vez en los años 20 por Einstein, pero no se lograron en laboratorio hasta 1995.

Si interés particular es observar cómo se forman los BECs y especialmente cómo se forman los remolinos cuánticos, llamados vórtices.

“La teoría que he desarrollado explica los experimentos bastante bien, por lo que ahora podemos usarla para investigar otros posibles experimentos computacionalmente, tales como observar corrientes persistentes creadas en condensados Bose-Einstein que son análogas a supercorrientes en superconductores que nunca decaen”, dijo.

“Esperamos que esto responda a grandes preguntas sobre la naturaleza de ciertos tipo de transiciones de fase, y se insertará en experimentos que serán realizados por mis colaboradores en la Universidad de Arizona”, comentó.



Autor: Andrew Dunne
Fecha Original: 18 de septiembre de 2007
Enlace Original

Encontrada la fuente de los puntos calientes de Neptuno

Nuevas medidas revelan que el polo sur de Neptuno es más cálido que en resto del planeta, como se esperaba. Pero aún así es gélido.

El calor relativo de la región polar podría proporcionar una ruta para que el gas metano escape de la profunda atmósfera, explicando los misteriosos puntos calientes de los que se han informado, de acuerdo con el estudio científico.

Los primeros mapas de temperatura de la atmósfera baja del planeta azul, detallados en la revista Astronomy and Astrophysics, sugieren que las temperaturas del polo sur se elevan unos 10 grados Celsius comparados con el resto del planeta, por lo cual la temperatura media son unos gélidos –200 grados C.

“Las temperaturas son tan altas que el gas metano, el cual debería está congelado en la parte superior de la atmósfera de Neptuno (la estratosfera), puede filtrarse a través de esta región”, dijo el autor principal Glenn Orton del Laboratorio de Propulsión a Chorro en California. “Esto resuelve un antiguo problema de identificar la fuente de la abundancia de metano en la alta estratosfera de Neptuno”.

Orton y sus colegas usaron en Telescopio Muy Grande de ESO para cartografiar las variaciones de temperatura.

Situado unas 30 veces más lejos del Sol que la Tierra, Neptuno recibe un 0,1 por ciento de la luz solar que llega a nuestro planeta. Con el tiempo, si embargo, la diminuta cantidad de luz solar afecta significativamente a la atmósfera de Neptuno.

Los climas más cálidos detalladas en el nuevo informe son consistentes con el hecho de que el Hemisferio Sur de Neptuno, debido a la inclinación y órbita del planeta, ha sido bañado durante 40 años con los escasos rayos solares que llegan al lejano planeta de nuestro Sistema Solar.

Un año de Neptuno dura 165 años terrestres, haciendo que los veranos duren 40 años en lugar de unos meses. Ahora que el verano del Hemisferio Sur de Neptuno llega a su fin, Orton y sus colegas predicen que como el polo norte se volverá hacia el Sol, se filtrará abundante metano en el polo de tal forma que se calentará en unos 80 años.

“El polo sur de Neptuno está actualmente inclinado hacia el Sol, así como lo está el polo sur de la Tierra durante el verano del Hemisferio Sur”, dijo Orton. “Pero en Neptuno el verano Antártico dura 40 años en lugar de unos pocos meses, y recibe una gran cantidad de energía solar que con el tiempo puede crear grandes diferencias de temperatura entre las regiones con luz solar continua y aquellas con variaciones de día y noche”.

Aunque no es un constituyente principal de la atmósfera de Neptuno, el metano es el responsable del matiz azul del planeta. Cuando el gas metano de la atmósfera superior absorbe luz roja del Sol, refleja luz azul de vuelta al espacio.


Autor: Jeanna Bryner
Fecha Original: 18 de septiembre de 2007
Enlace Original

¿Puede la Teoría de Cuerdas acomodar la inflación?

La Teoría de Cuerdas tiene problemas al producir la inflación – la rápida expansión del espacio que se cree que tuvo lugar en los inicios del universo – al menos en algunas de las encarnaciones más simples de la teoría, según un nuevo estudio.

El trabajo sugiere que cuadrar la Teoría de Cuerdas con la noción aceptada de inflación será, en el mejor caso, un reto – y algunos incluso dicen que una o ambas teorías tendrán que descartarse.

La Teoría de Cuerdas es el principal aspirante para la “Teoría del Todo”, la cual unificaría todas las fuerzas de la física en un único marco de trabajo. Aunque hay muchas versiones diferentes de la Teoría de Cuerdas, todas postulan que las partículas elementales son en realidad diminutas cuerdas vibrantes, y que el universo contiene dimensiones espaciales extra más allá de las tres que podemos ver.

Ahora un nuevo estudio sugiere que puede ser difícil reconciliar la Teoría de Cuerdas con la teoría ampliamente aceptada de la inflación, la cual explica varias claves de las observaciones cosmológicas – tales como por qué el universo parece tener las mismas propiedades en cualquier dirección que miren los astrónomos.

El estudio fue llevado a cabo por un equipo de investigadores liderados por Mark Hertzberg del MIT en Cambridge, Estados Unidos. El equipo trató de producir inflación en tres versiones de la Teoría de Cuerdas en las cuales las dimensiones extra tienen una forma similar a la de una rosquilla – la posibilidad más simple. Pero hallaron que las condiciones necesarias para la inflación parecen ser imposibles de lograr en estas versiones simples.

Espacio para la duda

Se han propuesto muchos escenarios de inflación en versiones más complejas de la Teoría de Cuerdas. Pero Hertzberg dice que todos ellos dejaron algún espacio para la dudas, dado que no todos los detalles en los que se basa han sido verificados con cálculos completos, aunque se han hecho progresos en esta dirección.

Hace énfasis en que podría ser posible producir inflación de forma robusta en la Teoría de Cuerdas. No quiero salir diciendo, ‘Oh no, no hay inflación en la Teoría de Cuerdas’”, dijo a New Scientist. “Pero dado que no hemos realizado una búsqueda completa involucrando dimensiones extra más complicadas, no lo sabemos”.

Paul Steinhardt de la Universidad de Princeton en Nueva Jersey, Estaos Unidos, quien ayudó a hacer los primeros avances en la Teoría de la Inflación, dice que los hallazgos están de acuerdo con el trabajo que él y otros han hecho usando otras versiones de la Teoría de Cuerdas.

“Creo que el hecho de que sea difícil combinar la inflación con la Teoría de Cuerdas es muy interesante”, dijo a New Scientist. “Podría significar que son completamente incompatibles, lo cual nos forzaría a abandonar al menos una de ellas”.

Energía oscura

No obstante advierte que queda aún una oportunidad para que alguien pueda encontrar una forma robusta de lograr inflación en la Teoría de Cuerdas en el futuro.

Otro pionero de la inflación, Andrei Linde de la Universidad de Stanford en California, Estados Unidos, es más crítico con el trabajo, no obstante.

Dice que los resultados sólo se aplican a una clase de versión de la Teoría de Cuerdas conocida como tipo 2a, las cuales son irrelevantes para el universo real debido a que se han demostrado incompatibles con la energía oscura, la misteriosa fuerza que provoca la expansión acelerada del universo.

“¿Por qué tratarías de describir la inflación con una teoría que no pude describir nuestro universo?”, dice Linde.

Max Tegmark del MIT, miembro del equipo de Hertzberg, rebate que las versiones de las Teorías de Cuerdas de tipo 2a no deberían descartarse aún.

Limitar

Esto es debido a que ni esta ni ningún otro tipo de Teoría de Cuerdas tiene que en cuenta la energía oscura da una descripción perfecta del universo real, argumenta, dado que predicen que el universo debería estar repleto de unas versiones “supersimétricas” de las partículas familiares como los electrones – que no se observan en la realidad.

Los modelos más sofisticados de teorías de tipo 2a pueden ser capaces de dar soporte a la energía oscura, dice.

El teórico de cuerdas Gary Shiu de la Universidad de Wisconsin en Madison, Estados Unidos, dice que el hecho de que no todas las versiones de la Teoría de Cuerdas sean compatibles con la inflación son buenas noticias, dado que ayudará a limitar qué versiones de la teoría deberían ser investigadas con mayor profundidad de todo el vasto número de posibilidades.

“Construir un universo consistente con las observaciones no es algo fácil”, dijo a New Scientist.


Revista de referencia: Physical Review D
Fecha Original: 11 de septiembre de 2007
Autor: David Shiga
Enlace Original

Los perdurables misterios de la Luna

La Luna – vinculada en los mitos con diosas de la brujería y la caza, con dioses de la magia y la sabiduría – es casi tan vieja como la misma Tierra, con sus propios enigmas. A pesar de lo cerca que está la Luna de la Tierra, aún estamos lejos de resolver todos sus misterios – desde cómo nació la Luna a si la vida en la Tierra tiene su pasado y futuro allí.

¿Cómo se creó la Luna?

La mayoría de los científicos creen que la Luna nació de una descomunal colisión – cuando una joven Tierra de apenas 30 millones de años fue golpeada de refilón por un planeta embriónico del tamaño de Marte hace unos 4500 millones de años, con los restos de nuestro planeta y el del impacto finalmente fusionándose en una luna derretida y al rojo vivo.

Curiosamente, aunque los últimos modelos por ordenador sugieren que la mayor parte de la Luna vino del objeto que impactó, las muestras lunares de las misiones Apolo y otras misiones sugieren que la Luna es químicamente muy similar al manto de la Tierra.

“Tal vez esto significa que el cuerpo del impacto, este planeta embriónico, era similar a la Tierra, dejando los mismos materiales que nuestro planeta”, dijo Bernard Foing, científico principal de SMART-1, un satélite de la Agencia Espacial Europea que orbitó la Luna entre 2004 y 2006. El orbitador lunar Kaguya, que se lanzó el 13 de septiembre, y la nave lunar india de 2008 Chandrayaan-1 deberían retornar más detalles sobre la composición de la luna, evolución y , finalmente, su misterioso origen.

¿Agua en la Luna?

El incansable bombardeo sobre la Luna por parte de cometas y asteroides ricos en agua a lo largo de miles de millones de años podría haber dejado agua en la superficie lunar, posiblemente ocultos en las sombras permanentes de los cráteres en los polos de la Luna.

En 1999, el orbitador Lunar Prospector descubrió niveles inusualmente altos de hidrógeno. Esto podría estar vinculado con el agua – que está, después de todo, hecha de hidrógeno y oxígeno — “aunque el hidrógeno del viento solar podría haber quedado atrapado también en los polos”, dijo Foing.

Aunque los telescopios terrestres sugieren que el hielo podría no existir en depósitos gruesos en los cráteres polares lunares, podría quedar hielo en granos mezclados con el polvo. El Orbitador de Reconocimiento Lunar de 2008 de la NASA portará dos sondas que impactarán con la Luna para buscar hielo de agua en su polo sur.

El cataclismo lunar

La Luna fue sacudida por una cadena de devastadores impactos conocidos como Cataclismo Luna o el Último Bombardeo Intenso aproximadamente entre 4200 y 3800 millones de años, que socavó aproximadamente 50 cuencas aún visibles en la superficie lunar. Los astrónomos sospechan que sucedió cuando las órbitas de Júpiter y Saturno se desplazaron, con el tirón gravitatorio de estos planetas gigantes lanzando más asteroides y cometas a los alrededores.

Todos los planetas interiores probablemente fueron golpeados en la misma época también –Foing estimó que la Tierra sufrió 25 o 30 veces más impactos que la Luna. Los científicos no están muy seguros de cuanto tuvo lugar el Último Bombardeo Intenso y cuanto duró, pero aparentemente tuvo lugar alrededor de cuando la vida surgió en la Tierra.

Fijar el momento en que ocurrieron estos impactos podría ayudar a arrojar luz sobre si trajeron la vida primitiva que se había desarrollado en la Tierra — o si plantaron los ingredientes químicos que ayudaron a que la vida emergiera. “Será necesario ir a muchas cuencas de impacto de la Luna para medir muestras y tratar de imaginar cuando se crearon”, dijo Foing.

¿Pistas sobre los orígenes de la Luna?

Millones de toneladas de rocas que chocaron contra la Tierra debido a impactos cósmicos durante los primeros días del planeta pudieron haber aterrizado en la Luna, piedras que podrían tener secretos respecto al secreto de la vida – incluyendo la posibilidad remota de fósiles microbianos.

“Un total de 200 kilogramos de la joven tierra podrían haber caído en cada kilómetro cuadrado de la Luna”, dijo Foing. “Estas rocas podrían ser un objetivo científico muy interesante para expediciones humanas y robóticas, para excavar en su búsqueda”.

¿Futuro en la Luna?

Cuando llegamos al futuro de la vida, “¿seremos capaces de llevar la vida terrestre a la Luna? ¿Podemos expandir la vida fuera de la cuna de la Tierra? Esta es una cuestión que aún no tiene respuesta”, dijo Foing a SPACE.com.

La Luna guarda recursos intrigantes en sus minerales, incluyendo metales y oxígeno, “pero no contiene mucho carbono”, dijo Foing. “Si quieres cultivar plantas allí, necesitarás enriquecer el suelo con carbono, nitrógeno y fósforo”.

Los colonizadores lunares podría usar cualquier agua disponible en la Luna para su supervivencia, pero tal agua podría esconder miles de millones de años de valiosos secretos en torno a los cometas que colisionaron con la Luna, “por lo que mejor estudiarla que bebérsela”, dijo Foing. “Podríamos usar el hidrógeno y oxígeno disponible en la Luna para producir agua artificial”.


Autor: Charles Q. Choi
Fecha Original: 17 de septiembre de 2007
Enlace Original

Molécula de materia-antimateria hace su debut

dipositronioLa primera molécula hecha de pares de materia-antimateria ha sido creada por físicos de los Estados Unidos. Apodada “dipositronio”, contiene dos electrones y dos positrones que están unidos casi de la misma forma que el hidrógeno molecular. Los investigadores afirman que la técnica podría mejorarse para hacer el primer condensado Bose-Einstein de materia-antimateria y finalmente el primer “láser de rayos-gamma de aniquilación”, que podría usarse para estudiar objetos tan pequeños como un núcleo atómico (Nature 449 195).

Seguir Leyendo…

Científicos espaciales y eruditos humanistas para explorar el espacio exterior desde una nueva perspectiva

Las agencias espaciales y los científicos trabajan sin descanso para conseguir que misiones tripuladas a la Luna y más tarde a Marte sean una realidad. Las tecnologías involucradas son inspiradoras, pero ¿qué retos esperan encontrar los historiadores, filósofos o sociólogos en una era de exploración interplanetaria y, tal vez, colonización?

Para descubrirlo, La Fundación de Ciencia Europea (ESF), Agencia Espacial Europea (ESA) y el Instituto Europeo de Política Espacial (ESPI) co-albergarán una conferencia en Viena, el 11 y 12 de octubre de 2007, en la cual eruditos humanistas y científicos espaciales se unirán, por primera vez en Europa, para discutir sobre la presencia de la humanidad en el espacio desde perspectivas no tradicionales. La conferencia Humans in Outer Space – Interdisciplinary Odysseys (Humanos en el espacio exterior – Odiseas interdisciplinarias dará una guía sobre cómo una vez que encontremos la forma de sobrevivir en el espacio exterior afrontemos también de la mejor forma temas que pueden abordarse mejor a la luz de la comprensión moderna de hechos históricos.

Los temas que explorará la conferencia incluyen consecuencias teológicas o filosóficas de contactos con inteligencias alienígenas, el mercado de la exploración espacial, y el marco legal que se necesitará si las naciones que exploran el espacio cooperan pacíficamente.

El evento está siendo organizado en parte por el Comité de Dirección de la ESF presidido por el Profesor Luca Codignola, historiador de la Universidad de Génova. Está particularmente interesado en lo que la historia puede decirnos sobre los retos que puede que afrontemos si los exploradores espaciales hacen un contacto con civilizaciones alienígenas.

“El llamado “Intercambio Colombiano” que tuvo lugar en el año 1492 fue un caso típico de ésto. Cambió la forma Occidental de concebir el mundo; retó enérgicamente a su teología y permitió un flujo libre de bacterias, gérmenes y microbios que casi aniquilan a la población americana”, explicó.

El Profesor Codignola preparó para la próxima conferencia en Viena ayudando a organizar un seminario preliminar que tuvo lugar a principios de este año en Génova. Atendieron al seminario 21 de los principales pensadores de diversas disciplinas humanistas y científicas, 10 de los cuales presentaron artículos cortos.

Gísli Pálsson, por ejemplo, antropólogo de la Universidad de Islandia en Reykjavik, presentó “Lucy in the Sky… Out of Africa, Out of Earth (Lucy en el cielo…fuera de África, fuera de la Tierra”, en el cual repasa si nuestra comprensión de cómo interactúan las culturas humanas puede ayudarnos a imaginar cómo sería el contacto con culturas no humanas.

También asistió al seminario el brillante investigador en historia, Dr. Alfred Crosby, que originó el concepto de “Intercambio Colombiano” en los años 70. Presentó un artículo titulado ‘ The Space-Roving Human Being and His and Her Inhabitants: Micro-Organisms and Extraterrestrial Travel (El ser humano que deambula por el espacio y sus habitante: Micro-organismos y viaje extraterrestre)”.

“La comunidad científica no parece estar verdaderamente preocupada por el hecho de que un número de temas y preocupaciones con las que están tratando, como las consecuencias de encontrarse con patógenos desconocidos, son conocidas y han sido estudiadas desde hace tiempo por historiadores y etnólogos”, comentó el Prof. Codignola.

“Para los eruditos en humanidades, las dificultades técnicas relacionadas con el viaje en el espacio y especialmente su marco de tiempo, normalmente se les escapan. Todos sentíamos que era bastante extraño que dos grupos que raramente, si es que alguna vez, se encontrasen para discutir sobre temas relacionados con el espacio”, añadió.

La próxima conferencia de Viena tendrá seis sesiones sucesivas y 21 ponentes. Las conclusiones para estas sesiones será documentada por la ESF en un artículo titulado Vienna Vision on Humans in Outer Space (Las visiones de Viena sobre los humanos en el espacio exterior). La ESF distribuirá el artículo a todos los interesados en el mundo académico, agencias espaciales, cuerpos gubernamentales como las Naciones Unidas, los medios y políticos involucrados en el espacio y las iniciativas relacionadas con el espacio.

El Prof. Kai-Uwe Schrogl, Secretario General de la ESPI y Presidente de la conferencia, comentó: “El futuro de la humanidad en el espacio exterior requerirá una visión exhaustiva incluyendo el aporte de las humanidades y las ciencias sociales, así como la reflexión de los múltiples aspectos trans-utilitarios que hacen de la exploración espacial una provincia de toda la humanidad”.

Para más información pulsa aquí y aquí


Autor: Monique van Donzel
Fecha Original: 13 de septiembre de 2007
Enlace Original

Las teorías de la conspiración del 11-S desafiadas por una investigación de Cambridge

wtccollapsenx3

Se ha publicado un nuevo análisis matemático del colapso del World Trade Centre por académicos de la Universidad de Cambridge, con resultados que desafían a las teorías de la conspiración alrededor de los ataques del 11 de septiembre.

El nuevo artículo, del Dr. Keith Seffen, usa modelos de la ingeniería establecida para demostrar que, una vez comenzó el colapso de las torres gemelas, estaba destinado a ser rápido y total.

Aunque las causas que iniciaron el colapso de las torres gemelas aún no se comprende completamente, los ingenieros continúan especulando sobre la velocidad y totalidad con la que fueron demolidos durante los fatídicos ataques.

Seguir Leyendo…

This page is wiki editable click here to edit this page.

Materia oscura e inflación – ¿uno y lo mismo?

La misteriosa materia oscura que llena el universo podría estar hecha de las mismas partículas que pusieron el “big” en el big bang – explicando tanto la inflación como la materia oscura de un solo golpe.

Los cosmólogos creen que en sus inicios, el universo pasó por un periodo de expansión, conocido como inflación, justo tras el big bang – aunque no saben qué fue exactamente lo que lo provocó. Ahora, el cosmólogo Andrew Liddle de la Universidad de Sussex, Reino Unido, y sus colegas dicen que una partícula puede ser responsable tanto de la inflación como de la materia oscura que ha intrigado a los astrónomos.

“Tenemos estos dos misterios que en realidad no comprendemos, por lo que pensamos, ¿por qué no unirlos para reducir el problema a la mitad” dijo Liddle a New Scientist. “Es tan simple que al principio nos preocupaba que fuese absurdo”.

La teoría de Liddle depende de la idea sugerida por otro cosmólogo sobre que la inflación está causada por una partícula hipotética, acertadamente llamada inflatón. “El inflatón tiene unas propiedades de presión que no vemos en las partículas cotidianas”, explica Liddle. Por ejemplo, cuando se crearon en los inicios del universo, empujaron el espacio, forzándolo a expandirse.

El pensamiento estándar es que los inflatones habrían decaído en partículas normales justo después de que finalizara la inflación en la primera fracción de segundo tras el big bang, no dejando ninguno hoy día. Sin embargo, Liddle y sus colegas se dieron cuenta que si algunas partículas inflatones sobrevivieron tras la intensa explosión expansiva de la inflación, su masa sería importante para atraer la materia de alrededor.

Colisión y aniquilación

“En las últimas etapas de la inflación y de ahí en adelante, el ratio de expansión se ha decelerado por lo que la masa de las partículas se hace importante, y las partículas se comportan entonces como partículas de materia oscura mostrando atracción gravitatoria”, explica.

El problema llegó al tener que manejar algunos inflatones por aquí todavía. “Es fácil explicar por qué desaparecieron todos, pero ¿por qué la mayoría desaparecieron, y sólo algunos permanecieron?” dice Liddle. Si los inflatones pueden interactuar con partículas normales, incluso muy débilmente, como se supone normalmente, decaerán fácilmente cuando colisionen con otra partícula.

Para sortear ésto, Liddle sugiere que los inflatones sólo decaen cuando colisionan con otros inflatones – aniquilándose ambos miembros del par. Sus cálculos demuestran que aunque la mayoría de inflatones quedarían en efecto aniquilados tras la inflación, unos pocos escaparían, como se requiere.

Hallar pruebas para la teoría será duro, no obstante. Dado que los inflatones de Liddle no interactúan con la materia normal, dice que no pueden mostrarse en las búsquedas directas de materia oscura, como la Búsqueda Criogénica de Materia Oscura en Minnesota, Estados Unidos.

Aunque la mayoría de los cazadores de materia oscura están disgustados por que estas búsquedas no han mostrado aún la esquiva partícula, Liddle dice humorísticamente que le da un “pequeño aplauso” a este fallo. “Por supuesto, si ellos encuentran algo, inmediatamente descartan mi idea”, comenta.

Simple pero importante

Dado que los inflatones están ahora muy dispersos, hay una mínima posibilidad de que vuelvan a entrar en contacto entre sí y se aniquilen hoy, o en el futuro. Pero si lo hacen, crearían una explosión detectable de radiación de alta energía, añade Liddle, quien presentí el trabajo en la conferencia COSMO 07 en la Universidad de Sussex en agosto.

Al cosmólogo David Lyth de la Universidad de Lancaster, Reino unido, le gusta la propuesta. “Es una idea estupenda”, dice. “Liddle tiene una forma de poner el dedo sobre ideas muy simples que podrían resultar ser importantes”

Lev Kofman del Instituto Canadiense de Astrofísica Teórica en Toronto también está de acuerdo con la teoría. “Sería realmente genial si el mismo tipo fuese responsable tanto de la materia oscura como de la inflación”, dice.

Kofman trabajó en una idea similar en el pasado, pero encontró que era difícil explicar cómo sobrevivieron el número correcto de inflatones a la inflación. Está impresionado de que el equipo de Liddle haya intentado resolver esto, pero añade que se necesita más trabajo antes de que los cosmólogos acepten la idea. “Es muy atractiva, pero por así decirlo, no apostaría mi casa sólo con eso”, dice Kofman.


Autor: Zeeya Merali
Fecha Original: 14 de septiembre de 2007
Enlace Original

“Filamentos” fibrosos podrían haber producido las primeras estrellas

La forma en que la estrellas, galaxias y otras estructuras cósmicas se formaron originalmente depende en gran parte de la naturaleza de la materia oscura, según afirman físicos del Reino Unido y Bélgica. Simulando los efectos iniciales de la materia oscura “cálida”, que algunos científicos consideran la forma más probable de materia oscura, los investigadores encontraron que las primeras estrellas habrían sido producidas en enormes “filamentos” de gas denso – yendo de estar forma en contra de la visión convencional de los físicos sobre la formación estelar (Science 317 1527).

Aunque aún sin descubrir, la materia oscura se cree que existe debido a que las galaxias parecen mantenerse unidas gracias a una atracción gravitatoria de mucha más masa de la que podemos ver a través de los telescopios. Las partículas de materia oscura podrían ser “calientes”, lo que significa que son ligeras y rápidas, aunque las simulaciones sugieren que la materia oscura caliente no explicaría cómo las estructuras cósmicas se formaron tras el Big Bang. La mayoría de los físicos creen que las partículas “frías” o de movimiento más lento son más probables dado que hacen un mejor trabajo de recuento en la evolución del universo. Pero la materia oscura fría parece ser extraña con las densidades observadas de ciertas estructuras sub-galácticas.

En los últimos años, sin embargo, algunos investigadores han apuntado la posibilidad de la materia oscura caliente, que aún mantendría la evolución a gran escala del universo y concordaría con las observaciones de estructuras a menor escala. Ahora Liang Gao de la Universidad de Durham y Tom Theuns de la Universidad de Antwerp han realizado simulaciones numéricas en la formación de las primeras estrellas que dan mayor crédito a la materia oscura caliente.

De acuerdo con la teoría de la materia oscura fría, las primeras estrellas se formaron a partir de “minihalos” dentro de descomunales nubes aisladas de gas y materia oscura – al contrario que las estrellas de nuestra época actual, que se formaron en gases moleculares dentro de las galaxias. En la simulación de Gao y Theuns, una partícula genérica de materia oscura caliente cambiaría este marco de tal forma que los minihalos son reemplazados con “filamentos” arrastrados de gas acumulado. Estos filamentos habrían sido masivos – aproximadamente de 9000 años luz de longitud o un cuarto del tamaño de la Vía Láctea.

Los investigadores dicen que los filamentos podrían haber producido un gran número de estrellas de masa baja que podrían existir hoy, y haber colapsado a lo largo del tiempo para ser semillas de los agujeros negros supermasivos que parecen estar en el centro de las mayores galaxias.


Autor: Jon Cartwright
Fecha Original: 13 de septiembre de 2007
Enlace Original

Extrana estrella parásito encontrada

Una estrella giratoria muerta se ha encontrado alimentándose de su estrella compañera, reduciéndola al tamaño de un objeto menor que algunos planetas.

“Esto objeto es meramente el esqueleto de una estrella”, dice el miembro del estudio Craig Markwardt del Centro de Vuelo Espacial Goddard de la NASA en Maryland. “El púlsar se ha comido la envoltura exterior de la estrella, y todo lo que queda es un núcleo rico en helio”.

Los púlsars son los núcleos de estrellas de “neutrones” quemadas que giran cientos de veces por segundo, más rápido que una batidora.

El sistema fue descubierto a principios de junio cuando los satélites Explorador Sincrónico de rayos-X Rossi (RXTE) y Swift de la NASA observaron una explosión de rayos-X y rayos gamma en la dirección del centro de la Vía Láctea en la constelación de Sagitario.

No un planeta

La compañera más pequeña orbita a su parásita compañera a una distancia de sólo 350 000 kilómetros – ligeramente menos que la distancia entre la Tierra y la Luna. Tiene una masa mínima estimada de sólo 7 veces la de Júpiter, pero podría ser mucho mayor. Al contrario que tres objetos del tamaño de la Tierra encontrados alrededor de un púlsar en 1992, los científicos no creen que el nuevo objeto sea un planeta debido a cómo se formó.

“Es fundamentalmente una enana blanca que ha menguado hasta una masa planetaria”, dijo el miembro del estudio Christopher Deloye de la Universidad del Noroeste.

Los científicos creen que hace varios miles de millones de años, el sistema consistía en una estrella muy masiva y una estrella más pequeña de entre 1 y 3 veces la masa de nuestro Sol. La estrella más grande evolucionó rápidamente y estalló como supernova, dejando tras de sí un cadáver estelar giratorio conocido como estrella de neutrones. Mientras tanto, la estrella menor comenzó a evolucionar también, hinchándose finalmente en una gigante roja cuyas capas exteriores encapsularon a la estrella de neutrones.

Ésto provocó que las dos estrellas se acercaran, mientras que simultáneamente expulsaban la envoltura de la gigante roja al espacio.

Supervivencia nuclear

Tras miles de millones de años, quedan pocos restos de la estrella compañera, y no está claro si sobrevivirá. “Será difícil que lo supere, pero es parte de la naturaleza”, dijo el miembro del estudio Hans Krimm, también de NASA Goddard.

Hoy, los dos objetos están tan cerca uno de otro que la potente gravedad de la estrella de neutrones desvía el gas de su compañera para formar un disco giratorio alrededor de sí misma. El disco ocasionalmente vierte grandes cantidades de gas en la estrella de neutrones, creando una explosión como la detectada en junio.

El sistema será detallado en dos estudios cuyo autor es el equipo de Krimm y un equipo liderado por Deepto Chakrabarty del MIT, que llegaron a las mismas conclusiones, y que será publicado en un próximo ejemplar de Astrophysical Journal Letters.

El sistema es sólo el octavo púlsar con un periodo de aproximadamente un milisegundo que se conoce que está tomando masa de su compañera. Sólo otro de estos sistemas tiene una compañera púlsar con una masa menor. La compañera en tal sistema, XTE J1807-294, también tiene una masa mínima de 7 veces la de Júpiter.

“Dado que no conocemos la masa exacta de las compañeras, la nuestra podría ser la menor”, dijo Krimm.


Autor: Ker Than
Fecha Original: 12 de septiembre de 2007
Enlace Original

Esperanza para la Tierra: Planeta sobrevive a la agonía de su estrella

Los astrónomos han observado un planeta que ha sobrevivido al descomunal crecimiento de su estrella madre, proporcionando la primera prueba optimista de la supervivencia a largo plazo de la Tierra.

El descubrimiento, detallado en el ejemplar del 13 de septiembre de la revista Nature, podría motivar a otros científicos a buscar supervivientes de gigantes rojas similares. Esto podría finalmente llevar a la respuesta de una de las preguntas favoritas de los astrónomos: ¿sobrevivirá la Tierra al crecimiento del Sol cuando pase a su fase de gigante roja dentro de unos miles de millones de años?

“El hecho de haber encontrado este planeta demuestra que un planeta con una pequeña distancia orbital puede sobrevivir” a una fase de gigante roja, dice el miembro del estudio Roberto Silvotti del Instituto Nacional de Astrofísica en Nápoles, Italia.

No la típica gigante roja

La estrella madre, V 391 Pegasi, pertenece a un extraño conjunto de gigantes rojas conocidas como sub-enanas de tipo B que han expulsado prematuramente sus capas exteriores de hidrógeno.

En un punto, V 391 Pegasi fue muy parecida a nuestro propio Sol. Como él, evolucionó y se hizo vieja, y su núcleo agotó el hidrógeno. El núcleo de la estrella se contrajo y comenzó a quemar helio en su lugar, mientras que su capa exterior se expandía en un factor de 100. Los científicos piensan que nuestro Sol pasará por la misma expansión cuando agote el hidrógeno dentro de unos 5000 millones de años.

Tras un tiempo, la mayoría de gigantes rojas liberan sus envolturas exteriores para crear nebulosas planetarias, revelando densos cadáveres estelares conocidos como enanas blancas donde suele quedar el núcleo.

Pero por razones que aún no están claras, V 391 Pegasi expulsó su capa exterior pronto, antes de que el núcleo comenzase a fusionar helio, exponiendo una compacta y densa estrella que aún no estaba completamente muerta. Se cree que sólo aproximadamente el 2 por ciento de las estrellas que alcanzan la fase de gigante roja sufren la misma pérdida de masa catastrófica que tuvo V 391 Pegasi.

“Esta es una clase de estrella bastante particular debido a que el 98 por ciento de las estrellas no pierden tanta masa durante su fase de gigante roja, por lo que no se convierten en sub-enanas”, dijo Silvotti a SPACE.com. “Este es un canal evolutivo muy particular”.

Incluso es más inusual, V 391 Pegasi pulsa, brillante y atenuándose durante varios minutos cada vez. Haciendo observaciones precisas del sincronismo de los pulsos durante siete años, el equipo de Silvotti detectó un planeta gaseoso gigante en el sistema que estaba tirando gravitatoriamente desde ambos lados de la estrella visto desde la Tierra.

“Este es el primer planeta encontrado tras la fase de gigante roja de su estrella”, dijo Silvotti.

Salvarse por un pelo

El planeta es aproximadamente de tres veces la masa de Júpiter y su órbita actual está a 1,7 unidades astronómicas (UA) de su estrella, o aproximadamente a 250 millones de kilómetros (un poco más lejos de lo que Marte actualmente orbita a nuestro Sol). Una UA es igual a la distancia entre la Tierra y el Sol. Los científicos creen que durante la fase de gigante roja V 391 Pegasi, sólo 1 UA separaron a la estrella y el planeta.

Es posible que la presencia del planeta tenga algo que ver con la prematura expulsión de V 391 Pegasi de su envoltura, pero necesitaremos más casos para confirmar ésto. “Si encontramos otras estrellas como ésta, que tengan planetas, entonces se podría aseverar que el planeta tiene algo que ver con la pérdida de masa de la estrella”, dijo Jonathan Fortney, astrónomo del Centro de Investigación AMES de la NASA en California quien no estuvo involucrado en el estudio. “Pero no hay acuerdo sobre por qué sucede ésto”.

Dado que se espera que muy pocas gigantes rojas pasen por lo mismo que V 391 Pegasi, el nuevo descubrimiento probablemente no tendría implicaciones directas sobre si la Tierra será engullida o no por nuestro Sol, dijo Silvotti. Casi con certeza los dos planetas más cercanos a nuestro Sol, Mercurio y Venus, finalmente serán evaporados, y Marte no, dijo Silvotti.

“Pero la Tierra está en medio, por tanto no sabemos”, comentó.

Silvotti cree que el nuevo hallazgo espoleará a los científicos a buscar otros planetas que hayan sobrevivido a la fase de gigante roja de su estrella. Tal vez entonces, el destino de la Tierra quede determinado.

“Seguramente este descubrimiento moverá a otras personas a buscar sistemas similares, por lo que en pocos años tendremos unas restricciones más fuertes para los modelos”, dijo Silvotti. “En este punto, será posible hacer modelos relativamente buenos de lo que sucede a los planetas en general en la fase de gigante roja. Por tanto, al final, podríamos saber que sucederá con la Tierra”.



Autor: Ker Than
Fecha Original: 12 de septiembre de 2007
Enlace Original

El entrelazamiento atómico va más lejos

Físicos de los Estados Unidos han logrado entrelazar dos iones atómicos individuales a un metro de separación. Su sistema, que es el primero en usar fotones para entrelazar un par de iones atómicos, podría asfaltar el camino para la construcción práctica de redes de información cuántica. (Nature 449 68).

Al contrario que los bits clásicos de información, que deben tomar el valor 0 o 1, los bits cuánticos o “qubits” pueden suponer una superposición mezclada de los valores 0 y 1. Además, dos qubits pueden entrelazarse de tal forma que los valores de un qubit puedan saberse midiendo los valores de otro. Aunque estas extrañas propiedades han generado un conjunto de aplicaciones tales como la encriptación cuántica, los dispositivos futuros dependerán de la capacidad de entrelazar de forma remota qubits en una red esté separada por grandes distancias.

Idealmente se usarían átomos para almacenar los qubits ya que permanecerían estables a lo largo de grandes periodos de tiempo, mientras que los fotones – que pueden viajar sin perturbaciones a lo largo de grandes distancias – los entrelazarían. Ahora Chris Monroe de la Universidad de Maryland y otros científicos de la Universidad de Michigan han demostrado que los fotones emitidos unos hacia otros desde qubits atómicos separados pueden – tras encontrarse a medio camino – entrelazar los qubits a distancia.

En su experimento, los iones atómicos atrapados a un metro de distancia por campos eléctricos son excitados a un estado de energía más alto usando un pulso de luz láser. Momentos más tarde, cada ión cae de nuevo en un estado distinto de energía mientras emite un fotón de una frecuencia correspondiente que puede mostrar cuál es el nuevo estado. Ambos fotones son capturados por una lente y son guiados uno hacia otro a lo largo de una fibra óptica.

Al final de las fibras los fotones se encuentran con un divisor, y si ambos tienen la misma frecuencia, interfieren. Monroe y sus colaboradores pueden detectar entonces los fotones en las dos salidas del divisor, a partir de lo cual pueden saber cuáles son los estados atómicos. Sin embargo, dado que no pueden saber a qué iones pertenecen estos estados, los iones permanecen en una superposición de las dos posibilidades — en otras palabras, quedan entrelazados.

El equipo de Michigan puede demostrar que este entrelazamiento existe usando otro láser para medir los dos iones, que brillan de forma distinta dependiendo de su estado, buscando signos de correlaciones. A lo largo de muchas ejecuciones del experimento, encontraron que persistían las correlaciones, incluso cuando los iones eran “rotados” para satisfacer todas las condiciones estadísticas. “El entrelazamiento útil de tales estados de la materia nunca se había establecido anteriormente a tales distancias”, dijo Monroe a physicsworld.com.

El sistema puede no tener aplicaciones prácticas por ahora, sin embargo. Las pérdidas en el aparato conspiran para producir una probabilidad de entrelazamiento de aproximadamente 10-9, lo que significa que los investigadores sólo consiguen un entrelazamiento exitoso cada pocos minutos a pesar de repetir el proceso millones de veces por segundo. Además, los fotones cercanos al UV requeridos tienen una alta pérdida en la fibra óptica, lo cual limita el potencial a grandes distancias del sistema. “Estamos buscando la posibilidad de convertir de forma eficiente estos fotones en otras longitudes de onda más amigables — o incluso en longitudes de onda de telecomunicaciones, donde podrían viajar con seguridad muchos kilómetros”, dijo Monroe.



Autor: Jon Cartwright
Fecha Original: 6 de septiembre de 2007
Enlace Original