¿La fuente de la juventud para tu corazón?

Una disminución en la función del corazón relacionada con la edad es un factor de riesgo de enfermedad cardiaca en los ancianos. Aunque muchos factores contribuyen a la disminución progresiva de la función del corazón relacionada con la edad, las alteraciones en los tipos de combustibles que usa el corazón para producir energía también desempeñan un papel importante.

Jason Dyck y su equipo de investigación de la Universidad de Alberta han estado estudiando los tipos de combustibles usados por el corazón en ratones jóvenes y ancianos. El joven corazón sano normalmente usa un equilibrio de grasa y azúcar para generar la energía y permitir al corazón latir y bombear la sangre eficientemente.

Sin embargo, conforme el corazón envejece la capacidad para usar la grasa como una fuente de energía se deteriora. Esto compromete la función del corazón en el anciano. Es interesante que, en la época en que el corazón está usando menos grasa para la energía, Dyck ha demostrado que una proteína que es responsable del transporte de las grasas a las células contráctiles del corazón aumentan realmente.

Basándose en este hallazgo, Dyck propuso que el desajuste entre el consumo de grasa y la grasa usada en el corazón podría conducir a una acumulación de grasa en el corazón dando como resultado una disminución de la función cardiaca en relación con la edad.

Usando un ratón manipulado genéticamente que es deficiente en una proteína responsable del transporte de grasa a las células del corazón, Dyck estudió a estos ratones cuando envejecían. Estos ratones manipulados genéticamente no tenían más remedio que usar el azúcar principalmente como fuente de combustible porque ellos carecen de la proteína que les permite usar la grasa como fuente de combustible primario.

En un emocionante nuevo hallazgo, Dyck demostró que los ratones ancianos modificados genéticamente no acumulaban grasa en sus corazones, como hacían los ratones comunes. Además, Dyck y su equipo demostraron que estos ratones genéticamente alterados representaban a los ratones ancianos comunes en una prueba de rutina, cuando estaban completamente protegidos de la disminución de la función cardiaca relacionada con la edad, y en muchas formas sus corazones parecían y funcionaban como los corazones de unos ratones jóvenes.

Sus hallazgos sugieren que la proteína responsable del transporte de la grasa a las células contráctiles del corazón podría ser una candidata para la inhibición por fármacos y que este fármaco podría proteger el corazón del envejecimiento.

Esta investigación mantiene grandes promesas para los seres humanos. Dyck espera que lleve al desarrollo de medicación que inhiba el consumo de ácidos grasos en el corazón y prevenga y/o invierta los efectos de la edad en el músculo cardíaco.

Este estudio aparece en la edición del 22 de Octubre de Circulation.


Fecha Original: 5 de noviembre de 2007
Enlace Original

La misión espacial Xeus investiga los orígenes del universo

El astrofísico de la Universidad de Leicester, el Profesor Martin Turner, está desempeñando un papel crucial en la investigación de los orígenes del universo con la ayuda de Xeus

El Profesor Martin Turner del Departamento de Física y Astronomía es el Investigador Co-principal de XEUS – un observatorio espacial de rayos-X de próxima generación.

Xeus – Espectroscopía de la Evolución del Universo de rayos-X

XEUS, acrónimo en inglés de Espectroscopía de la Evolución de del Universo de rayos-X, busca estudiar las leyes fundamentales del Universo. Con una sensibilidad sin precedentes al universo de un millón de grados de temperatura, XEUS explorará áreas clave en la astrofísica contemporánea: el crecimiento de agujeros negros supermasivos, la realimentación cósmica y la evolución galáctica, evolución de estructuras a gran escala, gravedad extrema y materia bajo condiciones límite, la dinámica de la evolución de los plasmas cósmicos y la química del cosmos.

El Profesor Turner también es Presidente del Comité de Dirección Internacional de XEUS. Dijo que: “XEUS es un observatorio de rayos-X entre 30 y 50 veces más sensible que XMM-Newton, que se situará a 1,5 millones de kilómetros de la Tierra, más allá de la Luna, en el segundo punto de Lagrange, una situación bastante estable donde los instrumentos pueden observar el universo sin perturbaciones.

“Debido a que es tan grande, el observatorio tiene dos naves. La lente de rayos-X de cinco metros de diámetro está en una, y los instrumentos en otra. As dos naves vuelan juntas, separadas 35 metros, para mantener los instrumentos en el foco de la lente.

“XEUS ha sido seleccionada para su estudio por la ESA como parte del programa de Visión Cósmica. Si los resultados del estudio son satisfactorios se lanzará a bordo de un Ariane 5 desde Kourou en 2018.

“Hemos estado desarrollando la idea de XEUS como un observatorio avanzado de rayos-X durante muchos años. Esta aceptación de la ESA es un gran paso adelante para los astrónomos de rayos-X de todo el mundo”.

“El universo de un millón de grados, donde la gravedad es la principal fuente de energía, es el laboratorio de física más adecuado que tenemos. XEUS nos ayudará a averiguar cosas sobre el comportamiento de la materia bajo condiciones extremas de temperatura, presión y gravedad. También no permitirá estudiar la influencia de los agujeros negros en la formación de las galaxias y estrellas; y finalmente los planetas y nosotros mismos”.

Dijo el Dr. Richard Willingale, de la Universidad de Leicester y presidente del grupo de trabajo del telescopio XEUS.

“XEUS usará nuevas ópticas de silicio ligero para hacer las lentes, el mismo material que forma los chips de silicio; uno de los instrumentos tiene sensores enfriados a una diminuta fracción del cero absoluto para estudiar la física y química de la materia que rodea a los agujeros negros”.

Distintas Agencias Espaciales internacionales han expresado su interés en la cooperación con XEUS y las charlas empezarán a finales de año para asegurar una temprana implicación en el trabajo de estudio.

Todas las misiones candidatas están ahora compitiendo en un ciclo de valoración que terminará a finales de 2011. Antes de terminar el ciclo, habrá una importante selección prevista para 2009. Al final de dicho proceso, se propondrán dos misiones para su implementación por parte del Comité del Programa Científico de la ESA, con lanzamientos planeados para 2017 y 2018 respectivamente.

Las misiones seleccionadas encajan bien en los temas del plan de Visión Cósmica e la ESA 2015-2025. Los temas varían desde las condiciones para la vida y la formación planetaria, a los orígenes y formación del Sistema Solar, las leyes fundamentales de nuestro cosmos y el origen, estructura y evolución del universo.

“La madurez de la mayoría de propuestas recibidas demuestra la excelencia de la comunidad científica en Europa. Esto hizo el trabajo de SSAC muy difícil pero creemos que el conjunto de misiones seleccionadas conformará el futuro de la ciencia espacial europea”, dijo Tilman Spohn, presidente de SSAC (Centro Aeroespacial Alemán en Berlín). “La próxima década será realmente muy excitante para la exploración científica del espacio”.

De acuerdo con el presidente del Grupo de Trabajo de Astronomía (AWG), Tommaso Maccacaro, (INAF – Observatorio Astronómico de Brera) “Los candidatos elegidos para las misiones astronómicas muestran un amplio y prometedor retorno científico y hemos recibido excelentes recomendaciones también de árbitros externos”.

“La viabilidad técnica y el potencial para una colaboración exitosa con otras agencias son dos factores claramente evidentes en las misiones del Sistema Solar que han sido escogidas”, añadió Nick Thomas del Instituto de Física de la Universidad de Berna, presidente del Grupo de Trabajo del Sistema Solar.


Fecha Original: 31 de octubre de 2007
Enlace Original

Encontrado quinto planeta alrededor de una estrella cercana

Un equipo de astrónomos estadounidenses anunciaron hoy (martes, 6 de noviembre) el descubrimiento de un quinto planeta alrededor de la estrella cercana 55 Cancri, haciéndola la única conocida estrella aparte del Sol con cinco planetas.

El descubrimiento llegó tras 19 años de observaciones de 55 Cancri y representa un hito para el equipo de Búsqueda de Planetas de Carnegie y California, que este año celebran el vigésimo aniversario de su primer intento de encontrar planetas extrasolares analizando el bamboleo que causan en su estrella madre.

Concepción artística de la estrella 55 Cancri mostrando el planeta recién descubierto en primer plano – un gigante gaseoso de la mitad de la masa de Saturno – y tres planetas interiores ya conocidos (el planeta más alejado de la estrella no está en el dibujo). Todos los planetas son del tamaño de Neptuno o mayores, al contrario que los planetas internos rocosos del Sistema Solar. Los colores de los planetas en esta ilustración se escogieron para que recordasen a los de nuestro sistema. Los astrónomos no saben cómo serían estos planetas. (NASA/JPL-Caltech)

La larga historia de medidas – más de 300 sólo de 55 Cancri – hicieron posible el descubrimiento de un sistema de cinco planetas, dijo el profesor de astronomía de la UC Geoffrey Marcy, quien junto a Paul Butler, ahora en la Institución Carnegie de Washington, comenzó las observaciones de muchas estrellas cercanas en el Observatorio Lick de la Universidad de California en 1987.

El sistema único de 55 Cancri, situado a 41 años luz de distancia en la dirección de la constelación de Cáncer, es notable también debido a que su configuración de cuatro planetas internos y un planeta gigante exterior recuerda a nuestro Sistema Solar, aunque sin la Tierra ni Marte.

“Este sistema es interesante debido a que hay un planeta gigante a 6 UA y cuatro planetas menores interiores a 0,8 UA, con un gigantesco hueco entre ellos, justo donde esperaríamos encontrar planetas del tamaño de la Tierra”, dijo Marcy.

Una UA, o unidad astronómica, es la distancia media entre la Tierra y el Sol, aproximadamente 150 millones de kilómetros.

De acuerdo con la autora principal Debra Fischer, profesora asistente de astronomía en la Universidad Estatal de San Francisco, el quinto planeta está dentro de la zona habitable del planeta en la que podría existir agua líquida. Aunque el planeta es una bola de gas gigante, el agua líquida podría existir en la superficie de alguna luna u otros planetas rocosas que aún pueden encontrarse en la zona. “Ahora estamos buscando en el hueco entre la órbita de 260 días del nuevo planeta y la órbita de 14 años de otro gigante gaseoso, y si tuvieses que apostar, apuesta porque aún hay más materia orbitando por allí”.

Fischer apuntó que lo que ocupa este hueco tiene que ser otro planeta de alrededor del tamaño de Neptuno o menor, dado que cualquier cosa de mayor tamaño habría desestabilizado las órbitas del resto de planetas. Todos los planetas que orbitan 55 Cancri tienen órbitas estables casi circulares, como los ocho planetas de nuestro Sistema Solar. Júpiter está situado a 5,2 UA del Sol, mientras que Mercurio y Venus están a 0,72 UA. La Tierra y Marte están en el hueco de 1 y 1,5 UA.

“No hemos encontrado un gemelo de nuestro Sistema Solar, dado que los cuatro planetas cercanos a la estrella tienen todos el tamaño de Neptuno o mayor”, dijo Marcy, pero añadió que es optimista en que próximas observaciones revelarán un planeta rocoso en un plazo de cinco años.

El nuevo descubrimiento, usando datos del Observatorio Lick y el Observatorio W. M. Keck en Hawai, ha sido aceptado para su publicación en la revista Astrophysical Journal. Los autores son Fischer, Marcy y sus colegas de la Institución Carnegie, la Universidad Estatal de San Francisco, la UC Santa Cruz, la Universidad Estatal de Tennessee y la UC Berkeley.

Fischer y Marcy también discutieron sus hallazgos durante una teleconferencia con los medios alojada en la NASA.

En 1996, cuando Marcy y Butler encontraron un planeta del tamaño de Júpiter orbitando cerca de 55 Cancri y rotando cada 14,6 días, era sólo la cuarta estrella conocida con un exoplaneta. El segundo planeta descubierto alrededor de la estrella, en 2002, resultó orbitar a una órbita más lejana, tal como hace nuestro propio Júpiter, aunque el planeta tenía cuatro veces el peso de Júpiter. El tercero, también descubierto en 2002, era menor, aproximadamente del tamaño de Saturno, y orbitaba cerca de la estrella con un periodo de 44 días, ligeramente más alejado que el primer planeta. El cuarto planeta, hallado en 2004, estaba tan cercano a la estrella que era infernalmente caliente – un planeta del tamaño de Neptuno (14 veces la masa de la Tierra) con un periodo de 2,8 días descubierto en colaboración con el equipo dirigido por Bárbara McArthur de la Universidad de Texas.

Aunque los astrónomos han encontrado casi 250 exoplanetas, sólo una estrella, mu Ara del cielo del sur, se sabe que tiene cuatro planetas.

El quinto planeta recientemente encontrado alrededor de 55 Cancri es también grande – alrededor de la mitad del tamaño de Saturno, o al menos 45 veces la masa de la Tierra – y orbita a aproximadamente 0,785 UA en un periodo de 260,8 días. Dado que la estrella 55 Cancri es más vieja y tenue que nuestro Sol, la zona habitable, la región en la que las temperaturas planetarias pueden favorecer el agua líquida – está más cerca de la estrella que la zona habitable de nuestro Sol, e incluye al nuevo planeta.

Encontrar múltiples planetas alrededor de una estrella es difícil dado que cada planeta produce su propio bamboleo en la estrella. Marcy compara detectar el bamboleo provocado por varios planetas con obtener una única nota musical de muchas tocadas simultáneamente. Aunque el oído puede hacerlo, a Marcy le llevó más de 10 meses convencerse de que había un quinto bamboleo enterrado en los datos.

La técnica Doppler usada por el equipo de búsqueda ve este bamboleo como un cambio en la velocidad con la que una estrella se mueve hacia o alejándose de nosotros. El equipo de búsqueda puede detectar velocidades del tamaño de 1 metro por segundo, lo que es la velocidad de un paseo.

55 Cancri ha producido “un nido de ratas de datos de velocidad radial”, dijo Fischer. “Probablemente aún no tenemos todos los planetas. Tiramos de un hilo cada vez, desentrelazando todas esas órbitas, y lleva más tiempo y datos de lo que habíamos previsto. Creo que es sorprendente lo que hemos sido capaces de hacer con este sistema”.

Los coautores junto a Fischer, Marcy y Butler son Steven S. Vogt y Greg Laughlin de la UC Santa Cruz; Jason T. Wright, John A. Johnson y Kathryn M. G. Peek de la UC Berkeley; Gregory W. Henry del Centro para la Excelencia en Información de Sistemas de la Universidad Estatal de Tennessee; y David Abouav, Chris McCarthy y Howard Isaacson de la Universidad Estatal de San Francisco.

El trabajo estuvo patrocinado por la Universidad de California, la NASA y la Fundación Nacional de Ciencia.


Autor: Robert Sanders
Fecha Original: 6 de noviembre de 2007
Enlace Original

El lanzamiento de Columbus pone a prueba las leyes espaciales

¿Qué leyes se aplicarán cuando el laboratorio espacial europeo Columbus se una en diciembre a la Estación Espacial Internacional liderada por Estados Unidos? Y qué pasará si astronautas de distintos países se enzarzan en una pelea? Estas fueron dos de las preguntas planteadas en una reunión en Viena el mes pasado para examinar las contribuciones realizadas por las humanidades a la exploración del espacio.

Laboratorio Columbus

Está planeado que Columbus se lance en órbita a bordo de la lanzadera espacial Atlantis de los Estados Unidos el 6 de diciembre. Se convertirá en par de la Estación Espacial Internacional (EEI) y en el módulo más importante proporcionado por la Agencia Espacial Europea (ESA).

La conferencia Humans in Outer Space – Interdisciplinary Odysseys (Humanos en el espacio exterior – Odiseas interdisciplinarias) que tuvo lugar el 11 y 12 de octubre, fue catalogada como “el primer diálogo exhaustivo trans-disciplinario sobre humanos en el espacio exterior”. Reunió a científicos espaciales cara a cara con eruditos de las humanidades incluidos expertos en leyes espaciales. Se organizó de forma conjunta por la Fundación Europea de Ciencia (ESF), la ESA y el Instituto Europeo de Política Espacial (ESPI) con sede en Viena.

La Dra. Ulrike Bohlmann, del departamento legal de la ESA, dijo en la conferencia que las leyes espaciales estaban basadas en el Tratado del Espacio Exterior de 1967 el cual describió como “la Carta Magna del vuelo espacial”. Ha sido ratificado por 98 estados. Siguiendo la tradición de las leyes marítimas, el tratado reconoce que los estados tienen una jurisdicción legal dentro de las naves registradas por ellos.

El Dr. Frans von der Dunk, del Instituto Internacional de las Leyes del Aire y el Espacio de la Universidad de Leiden, dijo que la estación espacial acarrearía nuevos problemas legales cuando se ensamblasen módulos proporcionados por los Estados Unidos, Rusia y Japón además de la ESA.

Los socios rechazaron una propuesta inicial de que las leyes estadounidenses deberían prevalecer en la estación espacial.

“Hubo acuerdo sobre que cada estado registraría sus propios elementos por separado, lo que significa que tienes un trozo de Estados Unidos anexo a un trozo de Europa anexo a un trozo de Japón en el espacio exterior, legalmente hablando”.

Pero esto no solucionaba el problema de Columbus. Como un proyecto colaborativo europeo no podía registrarse a ningún estado dado que no hay una entidad “Europa” que pueda ejercer una jurisdicción legal. Por lo que los socios debían encontrar algunas soluciones novedosas

La primera se encontró en la ley penal – ¿qué sucede si un astronauta se pelea con otro? “Decidieron que si alguien realiza una actividad que pueda considerarse penal, es en primera instancia su propio país el que ejerza dicha jurisdicción”, explicó el Dr. von der Dunk.

Otra solución se encontró en la ley de patentes. Un invento creado en la EEI será patentado por el país que tenga jurisdicción sobre el módulo en el que se realizó el trabajo. Para Columbus el inventor tendrá la opción de patentarlo en Alemania o Italia, los principales contribuyentes al módulo. En la práctica, dados los acuerdos de patentes europeos, no importa mucho en qué país se archive la patente.

Los socios también acordaron una nueva aproximación a la responsabilidad civil. ¿Qué sucede si un astronauta daña el equipo en la parte europea de la estación espacial? “La idea básica es que todos aceptamos nuestros propios riesgos”, dijo el Dr. von der Dunk. “Estamos todos juntos en esto, todos tenemos el mismo propósito de hacer de la EEI un gran éxito y no queremos que tal actitud, tal mentalidad, se vea perturbada por la amenaza de que un socio demande a otro”.

Yendo más allá, ¿qué ley se aplicará si se establecen bases en la Luna o incluso en Marte? El Tratado del Espacio Exterior dice que ninguna nación puede reclamar la Luna. “El espacio exterior, incluyendo la Luna y otros cuerpos celestes, no está sujeto a la apropiación nacional por reclamo de soberanía, a través de uso u ocupación, o por cualquier otro medio”, dijo la Dra. Bohlmann.

Descartó los esquemas de inversión que proponen la venta de derechos de propiedad en otros planetas. “No puedes comprar un trozo de la Luna ni de Marte, no están sujetos a apropiación y no pueden venderse. Obtienes un precioso certificado pero no tienes derechos de propiedad sobre ningún cuerpo celeste. Es como si te estuviesen vendiendo la Torre Eiffel”.

La jurisdicción sobre la Luna no está cubierta por los tratados existentes, dijo el Dr. von der Dunk. “No es posible la jurisdicción sobre una base territorial. Una base en la Luna nunca puede cualificarse como un territorio de algún país del mundo, por lo que debemos encontrar otros términos”.

Tampoco está claro qué nacionalidad legal tendría un niño nacido en la Luna.

Con muchas naciones ahora activas en el espacio, y el proyecto de aventuras comerciales tales como el turismo o incluso la minería, la necesidad de un claro marco de unión legal para gobernar las actividades espaciales es más importante que nunca. La probabilidad de próximos acuerdos internacionales sobre leyes espaciales parecen remotos, no obstante, en el actual clima político. El Acuerdo Luna de las Naciones Unidas de 1979 establece cómo deberían comportarse los estados cuando exploren la Luna y otros planetas pero sólo ha sido ratificado por 13 países, ninguno de los cuales tiene los medios para ir a la Luna.

Hasta hace poco las humanidades tenían poco entrada en la política espacial europea la cual había sido dominada por la política y la industria así como por consideraciones científicas. La conferencia está desarrollando las “Visiones de Viena sobre los humanos en el espacio exterior” la cual establecerá una voz clara para una nueva y más amplia circunscripción para contribuir al futuro de los seres humanos en el espacio.


Autor: Dr. Monique van Donzel
Fecha Original: 5 de noviembre de 2007
Enlace Original

Los electrones “ganan peso” en compuestos metálicos cerca del cero absoluto

Físicos de Rutgers demuestran cómo los electrones “ganan peso” en metales cerca de la temperatura del cero absoluto: simulaciones por ordenador pueden proporcionar claves para la comprensión de la supercondictividad y fabricar nuevos materiales superconductores

Un modelo molecular estudiado por los físicos de Rutgers. En esta representación de la estructura cristalina del CeIrIn5, las esferas rojas, doradas y grises corresponden al cerio, iridio e indio respectivamente.

Físicos de la Universidad de Rutgers han realizado simulaciones por ordenador que demuestran cómo los electrones podrían hacerse mil veces más masivos en ciertos compuestos metálicos cuando se enfrían a temperaturas cercanas al cero absoluto – el punto donde todo movimiento cesa. Los modelos pueden proporcionar nuevas pistas sobre cómo funciona la superconductividad y cómo podrían fabricarse nuevos materiales superconductores.

En un artículo publicado en Science Express, sitio web sobre informes de investigación que sirve de borrador a las ediciones impresas de la revista Science, los investigadores describe cómo interactúan los electrones con otras partículas en estos compuestos para metamorfosearse en lo que los físicos llaman un fluido de “cuasi-partículas pesadas” o un “fluido de fermiones pesados”. Aunque este efecto había sido observado rpeviamente en algunos materiales, el trabajo de Rutgers emplea nuevos materiales para proporcionar un nivel de detalle que había sido esquivo hasta ahora para los científicos.

“En este artículo, esencialmente rastreamos el destino de los electrones cuando disminuimos la temperatura”, dijo Gabi Kotliar, Profesor de Física en la Escuela de Artes y Ciencias. “Los físicos experimentales pueden haber visto distintos aspectos de este comportamiento, o pueden haber visto comportamientos que no comprendían. Nuestros cálculos reconcilian lo que han visto”.

Los investigadores de Rutgers basaron sus modelos en experimentos usando nuevos compuestos metálicos cristalinos hechos a partir de los elementos cerio, indio e iridio. Estos y otros compuestos similares que sustituyen al cobalto y al rodio por iridio son excelentes bancos de pruebas para observar el comportamiento de electrones pesados.

Anteriores investigaciones usaron materiales superconductores de alta temperatura llamados cupratos, que fallaron al dar a los físicos una visión clara del comportamiento debido a los desórdenes en la estructura cristalina causado por el dopaje. Los nuevos compuestos basados en el cerio son más simples de estudiar debido a que están libres de dopantes.

“Los nuevos compuestos son para nosotros lo que las moscas de la fruta para los investigadores genéticos”, dijo Kristjan Haule, profesor asistente de física y astronomía. “Las moscas de la fruta son fáciles de producir y tienen una composición genética simple que es fácil de modificar. De la misma forma, estos compuestos son fáciles de crear, estructuralmente simples y ajustables, dándonos una visión más clara de las muchas propiedades de la materia que surgen a bajas temperaturas. Por ejemplo, podemos usar un campo magnético para acabar con la superconductividad y examinar el estado de la materia a partir del cual surgió la superconductividad”.

Estos compuestos son ejemplar de materiales fuertemente correlacionados, o materiales con electrones de interacción fuerte, que no pueden describirse mediante teorías que traten los electrones como entidades mayormente independientes. El término “cuasi-partículas pesadas” se refiere a cómo interactúan los electrones entre sí, como resultado de esas interacciones, formando un nuevo tipo de partícula llamada una “cuasi-partícula”.

Explicando cómo este efecto aparece a bajas temperaturas y se desvanece a otras más altas, Haule apunta que los electrones de los orbitales f están fuertemente unidos a los átomos de cerio a altas temperaturas. Pero cuando la temperatura cae, los electrones exhiben un comportamiento coherente, o delocalización de sus átomos. A 50 grados por encima del cero absoluto, o 50 grados Kelvin, los investigadores observan con claridad cuasi-partículas como electrones interactuando entre sí y otros electrones en el metal como electrones e conducción.

El trabajo realizado por Haule y sus colegas está en una rama de la física conocida como física de materia condensada, la cual trata con las propiedades físicas de la materia sólida y líquida. Sus modelos de cuasi-partículas pesadas se nutre del anterior trabajo de Haule fusionando dos teorías de modelos atómicos, conocida como aproximación de densidad local y teoría de campos de media dinámica, o LDA+DMFT.

En colaboración con Haule y Kotliar estuvo Ji-Hoon Shim, profesor de posdoctorado. La división de Investigación de Materiales de la Fundación Nacional de Ciencia y el Centro Rutgers para Teoría de Materiales apoyaron esta investigación. Shim recibió una beca de investigación posdoctoral de la Fundación de Investigación de Corea.


Autor: Carl Blesch
Fecha Original: 1 de noviembre de 2007
Enlace Original

Un gran trozo del Universo se ha perdido – de nuevo

No sólo se piensa que se ha perdido, de nuevo, un trozo del universo que se creía haber encontrado en 2002 sino que se ha llevado con él algunos amigos, de acuerdo con una investigación en la Universidad de Alabama en Huntsville (UAH). Los nuevos cálculos podrían dejar la masa del universo entre un 10 y un 20 por ciento más ligera de lo que se calculó previamente.

La Galaxia del Remolino con polvo y estrellas. Los astrónomos han descubierto que algunos rayos-X que se creía que procedían de las nubes intergalácticas de gas “caliente” están probablemente causadas por electrones ligeros. Los nuevos cálculos podrían dejar la masa del universo entre un 10 y un 20 por ciento más ligera de los cálculos previos. (Credito: NASA y The Hubble Heritage Team (STScI/AURA) Reconocimientos: N. Scoville (Caltech) and T. Rector (NOAO))

El mismo grupo de la UAH que encontró lo que se había teorizado como una fracción significativa de la “masa perdida” que une al universo ha descubierto que algunos rayos-X que se pensaba que provenían de nubes intergalácticas de gas “caliente” son probablemente causadas por electrones ligeros.

Si la fuente de tanta energía de rayos-X son los diminutos electrones en lugar de los pesados átomos, es como si miles de millones de luces que se piensa que vienen de miles de millones de aviones de carga se descubriese que en realidad provienen de miles de millones de luciérnagas increíblemente brillantes.

“Esto significa que la masa de estas nubes de emisión de rayos-X es mucho menor de lo que se pensaba inicialmente”, dijo el Dr. Max Bonamente, profesor asistente del Departamento de Física de la UAH. “Una porción significativa de lo que se pensaba que era la masa perdida resultó ser estos electrones ‘relativistas’”.Viajando a casi la velocidad de la luz (y de ahí lo de “relativista”), estos electrones ligeros como plumas colisionan con fotones del fondo de microondas cósmico. La energía de estas colisiones convierte los fotones de las microondas de baja energía en rayos-X de alta energía.

“El descubrimiento se realizó mientras intentábamos analizar la composición de un gas caliente que emitía rayos-X en el centro de un cúmulo de galaxias – las mayores estructuras cosmológicas del universo. En 2002 el equipo de la UAH informó del hallazgo de grandes cantidades extra de rayos-X “suaves” (de baja energía) provenientes del vasto espacio en el centro de los cúmulos galácticos. Esto se suma al descubrimiento anterior de gas “caliente” en ese espacio, el cual emite rayos-X “duros” de alta energía.

Aunque los átomos que emiten rayos-X suaves se pensaba que estaban dispersos por el espacio (menos de un átomo por metro cúbico), habría trillones rellenando años luz cúbicos. Su masa acumulada se piensa que suma un diez por ciento de la masa y la gravedad necesarias para mantener unidas a las galaxias, cúmulos de galaxias, y tal vez al mismo universo.

Cuando Bonamente y sus asociados observaron los datos recopilados por varios instrumentos de satélites, incluyendo el Observatorio de rayos-X Chandra, de un cúmulo de galaxias en el cielo del sur, sin embargo, encontraron que la energía de esos rayos-X adicionales no era la que debería.”Nunca hemos sido capaces de detectar las líneas de emisión espectral asociadas a esas detecciones”, explicó. “Si estos “baches” en los datos se debieran a un gas más frío, tendría líneas de emisión”.

“La mejor y más lógica explicación parece ser que una gran fracción de la energía proviene de los impactos de los electrones con fotones en lugar de partir de átomos e iones calientes, los cual daría unas líneas de emisión espectral reconocibles. Hallar estos electrones, sin embargo, es como encontrar “la punta del iceberg”, dijo Bonamente, dado que no estarían limitados a emitir sólo la señal de rayos-X suave. La señal de estos electrones también formaría parte de los rayos-X duros observados anteriormente, lo cual reduciría la cantidad de masa que se pensaba que formaba el gas caliente del centro de los cúmulos galácticos.

Para complicar aún más el tema, la energía procedente de estos electrones podrían también “inflar” el cúmulo. Anteriormente los astrofísicos usaban la energía procedente del interior del cúmulo para calcular qué cantidad de masa se necesitaría para alcanzar el equilibrio visto allí; demasiada masa y la nube colapsaría; muy poca y la nube de gas caliente se expandiría. Dado que la energía procedente de estas nubes de gas caliente pueden medirse con precisión, se pensaba que la masa podría calcularse con una confianza razonable – por los astrofísicos. En lugar de esto, dice Bonamente, si una parte significativa de la energía total de rayos-X proviene de electrones rápidos, “que podrían engañarnos y llevarnos a pensar que hay más gas del que realmente hay. Esto significa que tenemos que revisar cómo calculamos tanto la masa del gas como la masa total”, dijo. “Tenemos que seguir las pruebas y, si nos llevan a la confusión, bueno, estará OK”. Si parte de la energía de rayos-X duros proviene de electrones y fotones, podría también cambiar la que creemos que es la mezcla de elementos en el universo.

Aparte del exceso de rayos-X suaves, la energía de rayos-X procedente de los cúmulos de galaxias tiene líneas de emisión que son especialmente prominentes alrededor del hierro y otros metales. Los rayos-X no-térmicos de los electrones que colisionan con fotones podrían enmascarar esas líneas de emisión, igual que el grosor de la capa de nieve puede enmascarar la altura de los postes de una valla.”Esto también nos dice que hay proporcionalmente más hierro y otros metales de lo que se pensaba anteriormente”, dijo Bonamente. “Menos masa pero más metales”.

Los resultados de esta investigación de Bonamente, Jukka Nevalainen del Observatorio Helsinki en Finlandia y el Dr. Richard Lieu de la UAH se publicaron en el ejemplar del 20 de octubre de Astrophysical Journal.


Fecha Original: 5 de noviembre de 2007
Enlace Original

¿Es real el dolor de crecimiento de los niños?

Tu hijo de ocho años no puede dormir porque sus piernas le duelen. Los amigos de tu hija de cinco años se levantan llorando en mitad de la noche con la misma queja. Después de que mamá o papá le masajeen sus piernas, los niños son capaces de dormirse y levantarse por la mañana sintiéndose bien. Pero en la adolescencia, los dolores esporádicos nocturnos desaparecen por completo.

Comúnmente llamados “dolores de crecimiento”, este fenómeno – muy real y un misterio médico – no tienen nada que ver con el crecimiento, dice Barbara Ostrov, jefe de la división pediátrica y reumatológica del Centro Médico Milton S. Hershey del estado de Pennsylvania.

Si el crecimiento rápido no es el culpable, ¿qué está pasando en esas pequeñas piernas que hace sentir a los críos tan incómodos?

“Realmente, con el paso de los años nadie ha sido capaz realmente de entender qué causa estos síntomas y por qué afectan a este grupo de edad tan específicamente”, dice Ostrov. “Nosotros sabemos que su crecimiento no es la causa del dolor”, añade.

Los doctores hacen referencia a este fenómeno médico como “dolor no específico de los miembros de la niñez” y estiman que un 20 por ciento de los niños de edades entre los 2 y los 12 informan de ligero dolor en sus piernas por la noche. No hay tumefacción, enrojecimiento o inflamación, todos ellos signos de algo serio. No hay síntomas por la mañana. “Cuando vienen diferentes pacientes, obtendrás las mismas historias”, dice Ostrov. “Un niño será de Reading, otro será de York o Altoona y la historia es exactamente la misma. Está muy clara, la presentación típica. En muchos casos, los niños están bien en media hora y al levantarse por la mañana como si nada ocurrió. Y el dolor siempre desaparece”.

Los niños que experimentan este dolor normalmente se quejan de sentirlo en cualquier parte de ambas piernas desde una vez a la semana a una vez al mes. Cuando los niños tiene el dolor de miembros tres o cuatro veces a la semana, los doctores normalmente mandan unas radiografías, analíticas sanguíneas o una IRM (imagen por resonancia magnética) para descartar infecciones, inflamaciones, tumores, u otras patologías. Dice Ostrov, si estas pruebas salen normales, podría sugerir acetaminofenol o ibuprofeno antes de ir a la cama para ayudar a los niños que padecen ataques más severos y frecuentes de dolor nocturno de las piernas.

Algunos estudios indican que las causas de tales dolores comparten similitudes con la periostitis, dolor a lo largo de la espinilla que puede ser un signo del uso excesivo de los músculos, fracturas por estrés de los huesos largos de la pierna, o estrés del músculo o el tendón causadas por el pie plano. Anota Ostrov que esta conexión es consecuente con las observaciones de los padres que cuando sus hijos tienen un día de actividad especialmente física, sus dolores de piernas nocturnos pueden ser peores.

Otro estudio, llevado a cabo en la Clínica Cleveland en 2004, midió el umbral del dolor de los niños que sufren este dolor y encontraron que ellos tenían un aumento de la sensibilidad al dolor comparados con un grupo control de la misma edad y género.

Sea cual sea la causa subyacente, la mayoría de las veces los niños con este tipo de dolor de miembros no tienen que preocuparse por ellos, dice Ostrov. El peligro es si un padre o un pediatra no descarta cuidadosamente las enfermedades más serias si el niño tiene dolor persistente o síntomas atípicos.

“A veces las personas atribuyen los síntomas del “dolor de crecimiento” cuando no son estas en absoluto, lo que pienso que es potencialmente peligroso para la salud de los niños”, dice Ostrov. Mientras el dolor nocturno en ambas piernas no sea con otros síntomas y no haya problemas durante el día probablemente es inofensivo, si el niño tiene dolor en sólo una pierna, el dolor se presenta durante el día, u otros síntomas tales como la inflamación (acompañada de la piel caliente o cambio de color), esto podría indicar algo más serio, dice Ostrov. “Esto para mí es una bandera roja de que algo más está pasando”.


Autor: Lisa Duchene
Fecha Original: 5 de noviembre de 2007
Enlace Original

¿Por qué nos fascinan tanto los zombis?

Con la película de 1968 La Noche de los Muertos Vivientes, George Romero trajo el concepto de zombis de movimientos lentos y comedores de carne a la cultura americana dominante. Desde el vídeo Thriller de Michael Jackson a las recientes películas como 28 días después, los zombis han continuado estremeciendo y horrorizando a la audiencia con la idea de no-muertos vagabundeando por la tierra, buscando cerebros para devorar.

¿Hay alguna evidencia real de la existencia de zombis? Y ¿por qué estamos tan fascinados con ellos?

Peter Dendle, autor de La Enciclopedia del Cine de Zombies y profesor asociado de inglés en Mont Alto en el estado de Pennsylvania, estudia a los zombis en las películas y el folclore. Él cree que aunque podría ser posible producir un estado parecido al de un zombi farmacológicamente, los zombis de Hollywood son un producto de nuestra imaginación.

Etnobotánicos y antropólogos han investigado informes de casos de “zombificación” en Haití, dice Dendle. Han encontrado que algunos curanderos tradicionales y practicantes de vudú en esta isla producen un “polvo zombi” usando tetrodotoxina, una neurotoxina muy potente encontrada en el pez globo. La tetrodotoxina es tan venenosa que según se informa la cantidad encontrada en un sólo pez globo puede matar a 30 personas. La muerte ocurre por el cese de las señales eléctricas en los nervios, conduciendo a una parálisis muscular y fallo respiratorio.

En Japón, el fugu, la carne del pez globo, es un manjar muy cotizado, aunque puede ser letal si se prepara de manera incorrecta. El sesenta por ciento de las víctimas envenenadas por el fugu mueren en horas. Si una víctima sobrevive más de 24 horas, se espera que él o ella se recupere. Pero porque el veneno de la tetrodotoxina puede inducir a las personas a un estado parecido al del coma pareciendo un muerto (mientras el enfermo permanece totalmente consciente pero completamente paralizado), hay historias de algunas víctimas del fugu siendo sacadas de sus ataúdes después de 3 días a fin de verificar su muerte.

¿Podría tal veneno ser usado para crear un zombi? Sumamente inverosímil, dice Dendle. “La cantidad de tetrodotoxina tendría que estar dentro de una gama muy específica, suficiente para poner a una persona en un estupor comatoso pero no realmente para matarla. En otras palabras esto no parece algo en lo que podrías confiar que controlas bien”.

En algunos casos, Dendle cree que centrarse en si los zombis podrían existir evita el problema real. “Digamos que este estado a lo mejor ha ocurrido unas pocas veces en la historia, quizás una vez cada generación”, propone. “Lo más interesante es la importancia de la historia como un artefacto cultural, la forma en la que nosotros configuramos nuestras comunidades y moldeamos nuestras conductas basándonos en esta serie de historias”.

En La Noche de los Muertos Vivientes de Romero, el director combina la idea de los zombis no-muertos con el vampiro, o comedores de carne, creando el zombi moderno que vemos hoy en distintas películas, televisión, e incluso en las adaptaciones de videojuegos.

“La cosa que da miedo es esta idea de entropía, es que es contagioso”, dice Dendle. “Ellos te muerden y entonces tú mueres y te conviertes en zombi, por lo que va a extenderse. Esto se convierte en este Armagedón global con sólo un puñado de supervivientes intentando escapar. Pero no puedes estar luchando en esta ardua batalla contra un adversario exasperantemente implacable”.

“Los zombis de las películas pinchan en nuestros temores apocalípticos y preocupaciones muy eficazmente”, continúa Dendle. “ Ellos quitan romanticismo a las uniones entre los seres humanos y reducen la humanidad al menor común denominador, centrándose en las  relaciones de poder en sus formas humanas más brutales. Esto es “Ejerceré mi voluntad sobre ti”. Es muy Nietzscheano” dice él.

Desde La Noche de los Muertos Vivientes, el zombi ha sido usado como una alegoría de la sociedad enferma. En la secuela 1979 de Romero El Amanecer de los Muertos muchos ven una crítica al capitalismo, con zombis vagabundeando alrededor de un centro comercial, el lugar que más recuerdan de sus vidas, arrastrando sus pies al pasar por un escaparate aturdidos. Dendle también ve cómo en las películas de miedo usan al zombi como un barómetro de nuestras inquietudes culturales.

“Nosotros estamos a la defensiva – todos son enemigos, amenazas, dispara primero, pregunta después”, dice. “Pueden parecer agradables, pero nunca sabes si son unos zombis o no, tan sólo tienes que actuar como si lo fueran hasta que sepas que son diferentes. El zombi de las películas desempeña en gran parte este papel y los personajes son examinados en este paranoico y defensivo camino”.

Mientras que el vampiro parece que domina muchas películas de terror desde la década de los 90, anota él, el zombi se ha convertido en la criatura de los últimos pocos años, con las recientes versiones de la franquicia de Romero y películas como 28 Días después”, en la que los zombis atacan Londres tras la liberación accidental de un virus mortal.

Dendle sugiere que esto es porque el personaje del zombi se encuentra claramente opuesto a nuestra cultura de la multi-tarea. “El zombi es lento, mecánicamente inepto, apenas puede usar herramientas, es un ludita, es tecnológicamente deficiente”, explica. “Pienso que esto es exactamente parte del tema, que esta generación saturada de tecnología se ha fijado en esta criatura específicamente porque hay tanta fascinación como repulsión. Debe haber algo visceralmente satisfactorio en la simplicidad del ansia e impulsos de los zombis. Y nosotros además debemos encontrar algo inaceptable en esto, sobre la conducta general, como lo lentos que son y lo mayores que parecen”.

Quizás lo que es más espantoso de los zombis es que al contrario que la mayoría de las criaturas en las películas de terror, el zombi está en nosotros.

“Hay algo acerca de este hecho, al contrario que los alienígenas del espacio o los demonios, los zombis parecen gente enferma”, reconoce Dendle. “Ellos parecen enfermos, insanos, intrusos contagiosos. Y aún humanos. Por esto causan ese efecto en este sentido”.


Autor: James Conroy
Fecha Original: 29 de octubre de 2007
Enlace Original

Hace 50 años: El primer perro en órbita

Sólo un mes después de que la Unión Soviética asombrase al mundo colocando el primer satélite artificial en órbita, presumió de una nueva victoria – un satélite mucho mayor llevando un perro callejero llamado Laika.

La misión, que cumple 50 años el sábado, finalizó tristemente para Laika pero ayudó a pavimentar el camino para los vuelos humanos.

”nombre_imagen”
Laika

Al igual que otros episodios del programa espacial soviético, la misión de Laika se ocultó bajo un velo de secretismo, y sólo tras la caída de la Unión Soviética pudieron contar los participantes la historia real tras ella.

El satélite que llevó a Laika a la órbita se construyó en menos de un mes en lo que tal vez sea la misión espacial más rápidamente preparada de la historia.

Entusiasmados por el alboroto internacional formado por el lanzamiento del Sputnik el 4 de octubre de 1957, el líder de la Unión Soviética, Nikita Khrushchev, convocó a Sergei Korolyov, padre del programa espacial de la Unión Soviética, y le ordenó que hiciese “algo nuevo” para celebrar el 7 de noviembre, aniversario de la revolución bolchevique de 1917.

La demanda de Khrushchev fue una sorpresa incluso para Korolyov, cuyo equipo había logrado ensamblar el primer Sputnik en menos de tres meses, dijo Georgy Grechko, cosmonauta que comenzó su carrera como ingeniero espacial.

“No creíamos que pudiese adelantar a los americanos con su satélite, pero lo hizo. Ahora debería lanzar algo nuevo para al 7 de noviembre”, citó Korolyov a Khrushchev, de acuerdo con Grechko.

Boris Chertok, la mano derecha de Korolyov, dijo que el aviso en tan poco tiempo hacía imposible diseñar una nueva nave, pero que tampoco tenía sentido simplemente repetir el lanzamiento del Sputnik.

“Korolyov temía con razón que este regalo de vacaciones terminaría en un accidente que echaría a perder una victoria conseguida tras duro trabajo”, escribió Chertok en sus memorias. Pero no podían argumentar con Khrushchev, y la decisión de llevar a cabo el lanzamiento se realizó el 12 de octubre.

Sergey Korolyov

Cuando alguien del equipo de Korolyov sugirió poner a un perro en órbita, la idea se recibió con entusiasmo.

Se sabía poco sobre el impacto de los vuelos espaciales sobre los seres vivos, y algunos pensaban que sería incapaz de sobrevivir al lanzamiento o a las condiciones del espacio exterior.

La Unión Soviética había experimentado el lanzamiento de perros en misiones suborbitales durante pruebas de misiles balísticos, y algunos de ellos sobrevivieron a varias misiones. Todos ellos eran perros callejeros – los doctores creían que eran capaces de adaptarse más rápido a las condiciones hostiles – y eran lo bastante pequeños para que se les pudiese introducir en las diminutas cápsulas.

Sólo nueve días antes del lanzamiento de la misión, el Doctor Vladimir Yazdovsky escogió a uno de ellos – la perra de dos años Laika – para la misión.

Las historias acerca de su elección varían. Algunos dicen que Laika fue escogida porque era bonita – un pionero espacial soviético tenía que ser fotogénico. Otros dicen que los doctores espaciales tenían debilidad por el principal rival de Laika y no querían verla morir: Dado que no había forma de diseñar un vehículo de re-entrada a tiempo para el lanzamiento, la gloria de hacer historia en el espacio también significaba una muerte segura.

“Laika estaba tranquila y encantadora”, escribió Yazdovsky en su libro sobre las crónicas de la historia de la medicina espacial soviética. Recuerda que antes de llevarla a la plataforma de lanzamiento, se la llevó a casa para que jugase con sus hijos.

“Quería hacer algo bueno por ella: Le quedaba muy poco tiempo de vida”, dijo Yazdovsky.

Trabajando 24 horas al día, Korolyov y su equipo combinaron una cápsula que llevaría al perro con sistemas básicos de soporte vital y elementos del primer Sputnik. Para simplificar el diseño, decidieron no separar el satélite de la segunda fase de los cohetes.

Trabajaron con bocetos a un ritmo sobrecogedor incluso para la época de la carrera espacial y que parece completamente imposible para los estándares de hoy.

“Ahora que tenemos ordenadores, equipos industriales sofisticados, láseres y otras cosas, nadie es capaz de construir un satélite en sólo un mes”, dijo Grechko en una entrevista. “Ahora llevaría un mes sólo empezar a hacer el papeleo. Korolyov nos dijo más tarde que ese fue el mes más feliz de su vida”.

Como resultado de unos problemas técnicos de última hora, Laika tuvo que esperar en la cabina de lanzamiento durante tres días. Las temperaturas eran bajas, y los trabajadores conectaron una manguera en la cabina a un calefactor para mantenerla caliente.

El 3 de noviembre, Laika fue lanzada al espacio en el Sputnik 2, con un peso de 507 kilos – una muestra de la capacidad de los soviéticos para llevar grandes cargas al espacio.

El Sputnik 1 pesaba sólo 83,5 kilos. El primer satélite de los Estados Unidos, el Explorer 1, lanzado el 31 de enero de 1958, pesaba apenas 14 kilos.

Cuando Laika alcanzó la órbita, los doctores observaron con alivio que su pulso, que se había elevado con el lanzamiento, y su presión arterial eran normales. Comió un alimento especialmente preparado en un contenedor.

De acuerdo con los informes oficiales soviéticos, el perro fue sometido a eutanasia una semana más tarde. La misión de Laika elevó una ola de protestas de activistas por la protección de animales en Occidente.

No fue tras la caída de la Unión Soviética, que algunos participantes en el proyecto contaron la verdadera historia: Laika había sido sometida, en efecto, a una inyección programada de eutanasia, pero aparentemente murió por sobrecalentamiento sólo unas pocas horas después de entrar en órbita. No hubo información exacta que indicase cuándo murió exactamente.

“Era imposible construir sistemas de control térmico y de soporte vital confiables en tan poco tiempo”, dijo Chertok en sus memorias.

Otros perros murieron en fallos de lanzamiento antes del exitoso vuelo espacial – y retorno seguro a la Tierra – de Belka y Strelka en agosto de 1960. Tras unos pocos vuelos más de perros, la Unión Soviética puso el primer humano en el espacio – Yuri Gagarin el 12 de abril de 1961.

Se dijo que Gagarin había bromeado: “Aún no sé quién soy: el primer humano o el último perro en el espacio”.


Autor: Vladimir Isachenkov
Fecha Original: 2 de noviembre de 2007
Enlace Original

El intercambio de entrelazamiento cuántico: una clave de las comunicaciones del futuro

El cálculo, la encriptación y la telecomunicación cuánticas deberían cobrar importancia de ahora en adelante.

Recientemente, un equipo de la Universidad de Ginebra consiguió producir más fácilmente un intercambio de entrelazamiento cuántico entre pares de fotones.

El fenómeno de la entrelazamiento cuántico ha devenido hoy en día en uno de los emblemas de las extraordinarias características de la mecánica cuántica. Descubierto teóricamente en los años 30 por Einstein y Schrödinger, es la base de la paradoja EPR y del “gato de Schrödinger”.

Dos pares de partículas, como por ejemplo fotones que provienen de la desintegración de una partícula de materia o son emitidos simultáneamente en el momento de una transición atómica particular, como es el caso del célebre experimento de Aspect en 1982, pueden encontrarse en una situación física extraña: el entrelazamiento.

Forman entonces un solo sistema físico no separable y toda medida del estado de una de las partículas influye instantáneamente sobre el estado de su compañera, cualquiera que sea la distancia que las separa.

Las implicaciones son profundas porque todo pasa como si fundamentalmente, la realidad fuera de hecho un todo inseparable más allá de las categorías intuitivas del espacio y del tiempo.

No se trata más que de consideraciones teóricas “esotéricas”. La maestría del entrelazamiento de las partículas al nivel cuántico podría pronto darnos la clave de ordenadores mucho más potentes que de los que disponemos actualmente. El mismo fenómeno del entrelazamiento está en la base de la teletransportación cuántica que también podría transformar la tecnología de las telecomunicaciones en un futuro próximo.

Pares de partículas entrelazadas cuya intricación puede ser cambiada.

Para entender bien lo que hacen los miembros del GAP, siglas de Group of Applied Physics (Grupo de Física Aplicada) de la Universidad de Ginebra, hay que saber qué produce en general los pares de fotones entrelazados, llamémoslos A y B, a partir de fuentes de luz que emiten paquetes de tales pares de fotones.

Si consideramos dos pares, (A1, A2) y (B1, B2), es entonces posible entrelazar A1 y B1 efectuando una medida particular y simultánea sobre estos últimos. Producimos entonces uno de los cuatro estados de Bell posibles para dos partículas arbitrarias que pueden existir cada una en dos estados cuánticos, por ejemplo polarización derecha e izquierda para un fotón y un espín alto y bajo para un electrón.

”cuadro01”
Los colores representan una partícula y la flecha uno de los dos estados posibles. Los corchetes son una representación de un vector de estado en mecánica cuántica en el formalismo de Dirac
© Gianni Blatter

Automáticamente, la formación de un estado de Bell para la medida de A1 y B1, en el cual los fotones están entrelazados, provoca el entrelazamiento a su vez de A2 y B2. Así, realizamos un intercambio de entrelazamiento entre los pares iniciales de fotones que eran independientes al principio del experimento. Hablamos de Bell-State Measurement o BSM (Medición del estado de Bell), para cualificar este proceso.

El problema de las fuentes discretas de pares

Nicolás Gisin se hizo célebre hace algunos años con sus pioneros experimentos sobre la teletransportación cuántica y con su grupo llegó a reproducir el fenómeno de intercambio precedente no con fuentes discretas, pero si con fuentes continuas de pares de fotones entrelazados.

”experimento
Un experimento de óptica cuántica
© Universidad de Ginebra-GAP

Es importante porque, hasta ahora, había que sincronizar con mucha precisión la emisión de los paquetes de pares de fotones y esto no era fácil. La dificultad radicaba en la realización práctica de un sistema de comunicación cuántica a escala global. Esta dificultad ha sido evitada utilizando una fuente continua y trasladando la exigencia de la sincronización, no a la emisión, si no a la detección.


Por Xavier Civit para Ciencia KanijaAutor: Laurent Sacco
Fecha Original: 26 de octubre de 2007
Enlace Original

Investigadores encuentran el origen de una atmósfera “respirable” hace 500 millones de años

El oxígeno podría haber disparado el estallido de la biodiversidad

Geólogos de la Universidad Estatal de Ohio y sus colegas han descubierto pruebas de cuándo la Tierra pudo soportar por primera vez una atmósfera rica en oxígeno similar a la que respiramos hoy día.

¿El oxígeno disparó la biodiversidad?

El estudio sugiere que los trastornos en la corteza terrestres iniciados por un efecto invernadero inverso hace 500 millones de años que enfrió los océanos de la Tierra, generó el florecimiento de plancton gigante, y envió ráfagas de oxígeno a la atmósfera.

Este oxígeno pudo haber ayudado a disparar uno de los mayores crecimientos de la biodiversidad en la historia de la Tierra.

Matthew Saltzman, profesor asociado de Ciencias de la Tierra en la Universidad Estatal de Ohio, informó de los hallazgos el domingo en la reunión de la Sociedad Geológica Americana en Denver .

Durante una década, él y su equipo han estado encajando pruebas del cambio climático que tuvo lugar hace 500 millones de años, durante el final del periodo Cámbrico. Midieron las cantidades de distintos compuestos químicos en núcleos rocosos recogidos por todo el mundo, para reconstruir una compleja cadena de eventos del periodo.

Sus últimas medidas, tomadas de núcleos del centro de los Estados Unidos y el interior de Australia, revelaron nuevas pruebas de un evento geológico llamado Excursión de Isótopos de Carobo Positivos del Esteptoeano (SPICE).

Las cantidades de carbono y azufre de las rocas sugieren que el evento enfrió drásticamente el clima de la Tierra durante unos dos millones de años – un tiempo muy corto para los estándares geológicos. Antes del evento, la Tierra era un invernadero, con 20 veces más dióxido de carbono en la atmósfera que hoy. Tras esto, el planeta se enfrió y el dióxido de carbono se reemplazó con oxígeno. La composición climática y atmosférica habría sido similar a la de hoy.

“Si pudiésemos volver atrás en el tiempo y pasear por los finales del Cámbrico, parecer que sería la primera vez que nos sentiríamos como en casa”, dijo Saltzman. “Por supuesto, no había vida en tierra en esa época, por lo que no habría sido tan confortable”.

La tierra carecía de plantas y animales, toda la vida estaba en el océano, principalmente en forma de plancton, esponjas y trilobites. La mayor parte de los primeros ancestros de las plantas y animales que conocemos hoy existieron durante el Cámbrico, pero la vida no era tan diversa.

Entonces, durante el periodo Ordovícico, el cual comenzó aproximadamente hace 490 millones de años, comenzaron a brotar muchas especies comenzaron. El primer arrecife de coral se formó durante esa época, y el primer pez verdadero nadó entre ellos. Nuevas plantas evolucionaron y comenzaron a colonizar la tierra.

“Si dibujas el “árbol de la vida” evolutivo, la mayor parte de las ramas principales existían durante el Cámbrico, pero la mayor parte de las ramas menores no se completaron hasta el Ordovícico”, dijo Saltzman. “Ahí es cuando la vida animal comenzó verdaderamente a desarrollarse a nivel de familia y género”. Los investigadores llaman a esta diversificación la “radiación Ordovícica”.

La composición de la atmósfera ha cambiado muchas veces desde entonces, pero el cambio durante el Cámbrico es notable. Por esto es por lo que Saltzman y sus colegas se refieren a esta súbito aumento de oxígeno durante el evento SPICE como un “pulso” o “estallido”.

“Tras este pulso de oxígeno, el mundo permaneció con un clima cálido esencialmente estable, hasta finales del Ordovícico”, dijo Saltzman.

Se detuvo antes de decir que la atmósfera rica en oxígeno causó la radiación del Ordovícico.

“Sabemos que el oxígeno fue liberado durante el evento SPICE, y sabemos que persistió en la atmósfera durante millones de años – durante la radiación del Ordovícico – por lo que las líneas temporales parecen encajar. Pero decir que el evento SPICE disparó la diversificación es delicado, dado que es difícil decir cuándo comenzó exactamente la diversificación”, dijo.

“Necesitaríamos trabajar con paleobiólogos para comprender cómo el incremento del nivel de oxígeno pudo llevar a la diversificación. Enlazar los dos eventos en el tiempo siempre será difícil, pero si podemos lograrlo conceptualmente, entonces se convertiría en una historia más convincente”.

Los investigadores han estado tratando de comprender el repentino cambio climático durante el periodo Cámbrico desde que Saltzman halló la primera prueba del evento SPICE en rocas del oeste americano en 1998. Más tarde, rocas de un lugar de Europa apoyaron esta hipótesis, pero estos últimos hallazgos en la región central de Iowa y Queensland, Australia, demuestran que el evento SPICE tuvo lugar a nivel mundial.

Durante el periodo Cámbrico, la mayor parte de los continentes tal y como los conocemos hoy estaban sumergidos o eran parte del supercontinente Gondwana, explicó Saltzman. La actividad tectónica envió nuevas rocas a la superficie, donde fueron erosionadas inmediatamente por la lluvia ácida. Tal desgaste químico capturó dióxido de carbono del aire, atrapando el carbono en sedimentos, y liberando oxígeno – un tipo de efecto invernadero inverso.

“A partir de nuestros trabajos previos, sabíamos que el carbono fue capturado y se liberó oxígeno durante el evento SPICE, pero no sabíamos con seguridad que el oxígeno permaneció en la atmósfera”, dijo Saltzman.

Compararon las medidas de carbono inorgánico – capturado durante el desgaste – con carbono orgánico – producido por plancton durante la fotosíntesis. Y debido a que el plancton contiene distintas razones en los isótopos de carbono dependiendo de la cantidad de oxígeno en el aire, los geólogos fueron capaces de comprobar por dos vías sus estimaciones de cuánto oxígeno se liberó durante este periodo, y cuánto tiempo permaneció en la atmósfera.

También estudiaron los isótopos de azufre, para determinar si se recapturaron grandes cantidades de oxígeno en los sedimentos.

No lo fueron.

Saltzman explicó la cadena de eventos de esta forma: La actividad tectónica llevó a un desgaste incrementado, lo cual atrapó dióxido de carbono de la atmósfera y enfrió el clima. Entonces, cuando los océanos se enfriaron a unas temperaturas más hospitalarias, el plancton prosperó – y creí más oxígeno a través de la fotosíntesis.

“Fue un golpe doble”, dijo. “En realidad no quedaron dudas de eso cuando combinamos los datos de carbono e isótopos de azufre – los niveles de oxígeno se elevaron drásticamente durante esa época”.

¿Qué nos dice este evento sobre el cambio climático de hoy? “Los niveles de oxígeno se han mantenido estables durante los últimos 50 millones de años, pero han fluctuado a lo largo de los últimos 500 millones”, dijo Saltzman. “Desmotramos que el estallido de oxígeno a finales del periodo Cámbrico tuvo lugar a lo largo de sólo dos millones de años, por lo que es un indicio de la sensibilidad del ciclo del carbono y cómo de rápido pueden cambiar las cosas”.

El enfriamiento global pudo haber disparado la vida a principios del periodo Ordovícico, pero hace unos 450 millones de años, más actividad tectónica – muy probablemente, el surgimiento de los Montes Apalaches – nos llevaron a una nueva edad de hielo letal. Por lo que la mayor parte de las especies de plantas y animales del mundo que nacieron durante el periodo Ordovícico, al final del mismo, más de la mitad de ellas se habían extinguido.

Los coautores del estudio incluyen a Seth Young, estudiante graduado en Ciencias de la Tierra en Ohio State; Ben Gill, estudiante graduado, y Tim Lyons, profesor de Ciencias de la Tierra, ambos de la University de California en Riverside; Lee Kump, profesor de Geociencias en la Universidad Estatal de Pennsylvania; y Bruce Runnegar, profesor de Paleontología en la Universidad de California en Los Ángeles.


Autor: Pam Frost Gorder
Fecha Original: 28 de octubre de 2007
Enlace Original

La lucha contra la tuberculosis resistente a fármacos extendida a los hospitales

Una epidemia mortal de tuberculosis resistente a fármacos se ha extendido por los hopitales de Sudáfrica, pero una mezcla de sencillas medidas preventivas podrían reducir el número de casos futuros a la mitad, de acuerdo con un estudio realizado el viernes.

La tuberculosis extensivamente resistente a los fármacos (XDR) ha emergido durante la pasada década como un grave problema de salud que preocupa en todo el mundo, especialmente en los países más empobrecidos.

Mientras se informa de sólo una diminuta fracción de los nueve millones de nuevos casos de tuberculosis (TB) denunciados cada año, la tuberculosis XDR está en aumento, de acuerdo con la Organización Mundial de la Salud (OMS).

La variante resistente a los fármacos es además virtualmente intratable, matando sobre el 90 por ciento de los infectados.

En ausencia de una cura, el equipo de investigadores de Estados Unidos y Sudáfrica dirigidos por el epidemiólogo de Yale Sanjay Basu han propuesto una estrategia de bajo coste para mantener la enfermedad bajo control.

Países con casos confirmados de la extensión de tuberculosis resistente a los fármacos a la fecha. Según la OMS, con permiso. Reservados todos los derechos.

Sus estudios, enfocado como un modelo de políticas de salud para los países en vías de desarrollo, se centra en la población de Tugela Ferry en Sudáfrica, que informó del primero, y uno de los más extensos grupos de tuberculosis XDR en el país.

Se afirmó que la enfermedad acabó con las primeras 53 víctimas de la ciudad, la mayoría de las cuales falleció en las dos primeras semanas de ser diagnosticados.

Todos sufrieron VIH, y más de dos tercios han sido hospitalizados poco antes de enfermar, “sugiriendo que es nosocomial” – con base en el hospital – “ la transmisión de la tuberculosis XDR podría ser un conductor para esta epidemia”.

La tuberculosis puede ser particularmente letal para los que tienen VIH y SIDA, y ha alcanzado el nivel de epidemia en países en vías de desarrollo con altos índices de infección por VIH, tales como Sudáfrica.

Basu y sus colegas usaron un modelo matemático para calcular que, bajo las actuales condiciones, surgirán 1300 nuevos casos en la ciudad para el año 2012.

Llevar máscaras, cambiar a cuidados externos de los pacientes, mejorar la ventilación y probar la resistencia de los fármacos podría prevenir un tercio de esos casos, concluyen.

Añadiendo el tratamiento del VIH y el aislamiento de las salas para pacientes con TB “ se podría evitar casi la mitad de los casos de tuberculosis XDR en Tugela Ferry en los próximos cinco años”, informaron.

Pero la forzosa reclusión de pacientes con tuberculosis XDR, defendida por algunos profesionales de la salud, sólo podría disuadir a esos infectados de pedir el tratamiento y agravaría cualquier epidemia, dice el estudio.

En un comentario, publicado también en The Lancet, los epidemiólogos Travis Porco y Wayne Getz de la Universidad de California promocionan la propuesta, pero advierten las medidas preventivas perfiladas no son suficientes.

Ellos también dicen que parar la propagación de la tuberculosis – la cual ha sido fácilmente curable durante más de medio siglo – es más que un problema local.

“La polifarmacia y la amplia resistencia a los fármacos son monstruos de nuestra propia creación”, escriben.

“ El control de la tuberculosis XDR en África es responsabilidad nacional e internacional, y la comunidad mundial ignora este mensaje bajo un gran peligro”.

La tuberculosis mató a 1,6 millones de personas en 2005, de acuerdo con la OMS. Treinta y siete países de todas las regiones del mundo han informado de casos de TB XDR desde mayo de 2007.


Fecha Original: 26 de octubre de 2007
Enlace Original

Blog solidario

Anoche recibí un correo de Joan Puigcerver, uno de nuestros asiduos lectores, en el que me informaba que era uno de los premiados en su Blog Solidario. Esta iniciativa, que yo no conocía, es una especie de cadena en la que cada premiado escribe un mensaje en su blog referenciando a su vez a los siete blog que más le gustan.

Ante todo agradecer a Joan que me haya incluido en su lista, dada la cantidad de blogs de este cybermundo, el que te escojan para ser uno de los siete indica que las cosas se hacen bien y el contenido es interesante. En respuesta colocaré mi lista de siete blogs más seguidos, aunque la verdad, paradójicamente, apenas sigo blogs. De hecho si está leyendo esto el Tito Albi se estará revolcando de la risa…con lo que yo he rajado de los blogs y ahora mírame. Bueno, como decía mi lista tal vez no sea muy representativa, pero quizá os descubra algo nuevo. Vamos con ella:

  • El Tamiz: Una página web que sigue la filosofía “Antes simplista que incomprensible” no puede ser sigo un referente en la divulgación. Pedro Gómez-Esteban y Geli Crick nos enseñan de una forma amena y entretenida, pero sin perder un ápice de rigor, todo lo referente a la Física, Química, Tecnología etc. Series como “Relatividad sin fórmulas”, “Conoce nuestros elementos”, “Esas maravillosas partículas” etc. son de lecuta obligada. Sin duda mi favorito en español.
  • Maikelnai: Bueno, ¿qué voy a comentar de este fantástico blog que no sepais ya? Mi buen amigo Miguel Artime (Maikelnai) nos trae cada día noticias de ciencia, tecnología, curiosidades, inventos etc. Todo un referente en el mundillo blogger en español.
  • HAL9000: El Club Lorem Ipsum es una entidad dedicada a promover la cultura y el pensamiento ilustrado en todas sus vertientes. Aunque la principal actividad del grupo se basa en la política internacional se abren también a otras formas de cultura como el cine o la ciencia. En HAL9000 podeis encontrar colaboraciones de Ciencia Kanija, así como de otros compañeros.
  • Luna Antagónica: Desde su blog, Andrea Naranjo nos habla sobre ciencia, antropología, pensamiento crítico, sociedad etc. Absolutamente recomendable especialmente si eres aficionado a la antropología y ciencias afines.
  • Bad AStronomy (Mala Astronomía): Uno de los referentes del pensamiento crítico es sin duda el astrónomo Phil Plait. Desde su blog (en inglés, claro) nos informa de eventos astronómicos, desmonta falsos conceptos sobre el espacio y de vez en cuando se deja caer con algún mensaje dándole cera a la administración Bush.
  • Sueños en la Casa de la Bruja: Dejamos para los dos finales un par de blogs no-científicos. Los Sueños en la Casa de la Bruja es el blog personal de mi buen amigo Juanlu. Compartimos, entre otras muchas aficiones, nuestra pasión por la literatura de H.P. Lovecraft sobre la que está desarrollando su tesis doctoral. Desde su blog nos habla de Lovecraft, literatura en general y muchas otras cosas.
  • Blansket: Por último otra de mis grandes pasiones, el baloncesto. En este blog nos hemos reunido algunos chiflados de la canasta para escribir sobre baloncesto. Noticias, rumores, fichajes, historia, ACB, Euroliga, NBA…todo lo que rodea a este fantástico deporte.

Bueno, hasta aquí mi lista, por supuesto me estoy dejando fuera algunos sitios como Astroseti, Physorg, Universe Today o Space pero entiendo estos sitios web como exactamente eso, sitios web y no blogs. A pesar de esto creo interesante mencionarlos como algunas de las mejores webs de ciencia que se puedan encontrar.

Un nuevo sistema podría proporcionar unas mamografías más detalladas, seguras y baratas

Un nuevo sistema de mamografía de resolución ultra-alta que detecta tumores cancerosos con imágenes de mejor calidad, más eficiente en la exposición a la radiación y menos costosa ha sido desarrollado por un equipo de científicos de Estados Unidos y Alemania.

La ganadora del premio R&D 100 Jacqueline Jonson prepara una pequeña muestra de un cristal de cerámica que forma parte de la base de las placas de imagen radiográfica que ella y sus compañeros desarrollaron permitiendo que los doctores obtengan más claridad y más detalles en las mamografías.

La radiografía es el método más antiguo y el que se usa con más frecuencia para detectar masas internas en imágenes médicas. Permite a los doctores salvar vidas al descubrir los tumores cancerosos o irregularidades precozmente.

Las muertes por cáncer de mama han disminuido desde 1990, pero la enfermedad mata anualmente a 40 000 mujeres. “Mejorar la tecnología de imagen es crucial para disminuir las muertes e incrementar el diagnóstico precoz y la prevención”, dijo Jacqueline Jonson, una científica material del Laboratorio Nacional Argonne del Departamento de Energía de los Estados Unidos.

Johnson, en colaboración con Rick Lubinsky de Nueva York y Stefan Schweizer de Alemania, perfeccionaron la tecnología informática de radiografía para producir el Sistema de Mamografía de Resolución ultra-alta, el cual fue recientemente galardonado con un el premio R&D 100 .

El sistema usa una placa de cristal-cerámica, que es transparente para disminuir la dispersión de la luz y un mecanismo de salida diseñado específicamente para maximizar la eficiencia del material cristal-cerámica. Las placas, fabricadas en un fósforo fotoestimulable fosforoso, tienen muchas ventajas respecto a la película fotográfica tradicional y las proyecciones brillantes, como la reusabilidad, una amplia gama dinámica y digitalización directa.

Aunque la tecnología radiográfica digital basada en paneles planos (DR) ha comenzado a superar a la radiografía computerizada (CR) en importantes hospitales de investigación, el sistema de DR es mucho más caro, y cada detector individual de DR necesita una sala por separado. “El hospital medio podría aún beneficiarse enormemente de un sistema de alta resolución que permita el diagnóstico precoz del cáncer de mama pero sea asequible”, dice Johnson.

En la radiografía normal, la actual tasa de conversión de tecnología analógica a digital es de cerca del 50 por ciento, pero es de menos del 10 por ciento para los sistemas de mamografía. Sin embargo, el nuevo sistema alcanza resoluciones tan buenas o mejores que la pantalla o película, y tiene el potencial de aumentar enormemente la mamografía por CR. La tecnología también reduce la cantidad de productos químicos usados y la producción de residuos, lo que hace al sistema atractivo para otras aplicaciones, incluyendo la inspección de partes micro-electrónicas o análisis de la difracción de Rayos X de los materiales biológicos.


Fecha Original: 29 de octubre de 2007
Enlace Original

Una piedra de Rosetta para la medicina tradicional china

Científicos en el Reino Unido han “descifrado” el inescrutable lenguaje de la medicina tradicional china (MTC), revelando una fuerte base química que podría ayudar a los científicos a desarrollar los nuevos fármacos del mañana a partir de la antiquísima medicina china. Sus estudios están previstos para el número de noviembre/diciembre de la revista bimensual Journal of Chemical Information and Modeling.

David J. Barlow, Thomas M. Ehrman y Peter J. Hylands, muestran que la medicina tradicional china (MTC) – respetada por muchos expertos de occidente como un sistema arcaico condenado a la extinción hace 50 años – ha experimentado un “extraordinario renacimiento” en los últimos años.

Sin embargo, el arcano lenguaje usado para describir las categorías de la medicación en la MTC ha dificultado la comprensión eficaz de uno de los más desarrollados y maduros sistemas de medicina alternativa existentes.

Para vencer esta barrera, los investigadores analizaron patrones entre los 8 411 compuestos de las 240 hierbas chinas relacionadas con las categorías encontradas en la MTC. Organizaron sus hallazgos en una especie de “mapa” de hierbas, sus resultados revelan que muchas categorías de la medicina china son susceptibles de traducirse a la terminología occidental.

El grupo “veneno de fuego” de la MTC, por ejemplo, es comparable a la actual familia de medicamentos anti-inflamatorios. Ahora, futuros investigadores mejorarán su comprensión de las bases químicas de los remedios que han sido usados durante miles de años, indicó el estudio.

“Es probable que sea beneficioso para la búsqueda de nuevos fármacos y además, igualmente significativo, para comprender cómo trabaja la medicina china”, dicen los autores.


Fecha Original: 29 de octubre de 2007
Enlace Original

El cielo nocturno en noviembre

La constelación de Taurus es localizable trazando una línea que una Capella con Iota de Auriga (Hassaleh) y luego duplicándola, llegando así a la magnífica Aldebarán, una estrella gigante roja, la más espectacular de la constelación.

En las latitudes norte, las constelaciones de Perseus, Andrómeda, Cassiopeia y Triangulum dominarán los cielos, con la Vía Láctea cruzando de este a oeste (desde Monoceros a Aquila) y Orión empezando a aparecer en los cielos. Cetus, Eridanus y Pisces se podrán hallar mirando hacia el sur, y Lynx, Camelopardalix y Cepheus hacia el norte.

Cúmulo abierto de las Pléyades M45
Crédito: NASA , ESA and AURA/Caltech

Desde la constelación de Leo podremos observar la lluvia de estrelas de las Leónidas, desde el 14 al 20 del mes, esperando que se alcance su mayor actividad el día 18 antes del amanecer. Cada 33 años, las Leónidas muestran un pico de actividad debido a que el polvo del cometa Tempel-Tuttle no está distribuido homogéneamente a lo largo de su órbita. En años normales, las Leónidas producen tasas del orden de diez a quince meteoros por hora. El color de estos meteoros es generalmente rojizo, son muy rápidos, ya que la Tierra los encuentra de frente, y con frecuencia dejan tras sí una estela de color verde que persiste durante unos pocos segundos. Su distribución a lo largo de la órbita no es uniforme, por cuanto están concentrados en un enjambre más denso que ha dado lugar a las grandes lluvias de estrellas. Para 2007 se espera una frecuencia de 10 meteoros a la hora. Un nuevo brote de actividad se espera para 2032. Durante la primera semana de noviembre se espera otra lluvia de estrellas, con radiante en Tauro, las Táuridas, con una frecuencia de 10 meteoros/hora, con su máximo alrededor del día 1. A pesar de su baja frecuencia son estrellas fugaces interesantes dada su baja velocidad, lo que las hace de muy larga duración y muy brillantes.

Es un buen momento para la observación del doble cúmulo NGC884 y NGC869, a medio camino entre Perseus y Cassiopeia, visibles con prismáticos.

El cielo en las latitudes sur se verá dominado por Eridanus, con su brillante estrella Achernar, circundada por Orión, Lepus, Caelum, Cetus y Taurus. Las Nubes de Magallanes las podremos localizar a media altura en la zona sur. Las vistas hacia el norte se verán dominadas por Auriga y Perseus. Cerca de Delta de Cetus podemos encontrar las más brillante de las galaxia Seyfert, M77, se trata de una galaxia espiral cuyo centro es mucho más brillante de lo normal, efecto causado por el gas caliente que gira alrededor de un agujero negro masivo. Esta galaxia solo es observable con un telescopio. El cúmulo de las Pléyades, M45, y el cúmulo de las Híades, Mel 25, ambos en Taurus, se podrán observar en la zona norte.

Durante este mes habrá tres conjunciones con la Luna: el día 4 se aproximará Saturno a 1,8º, el día 5 será Venus que estará a 3,1º y por último, otra vez Marte se aproximará a 1,7º el día 27. El día 8, Mercurio, alcanzará su máxima elongación oeste de 2007, con 19,0º de separación con el astro rey. Las mejores condiciones para la observación astronómica estarán entre los días 7 y 11 del mes, cuando la Luna tendrá su menor luminosidad (la Luna nueva tendrá lugar el día 9).

Venus podrá observase la segunda mitad de la noche, dos o tres horas antes del amanecer. La segunda semana es un buen momento para observar Mercurio, el cual alcanza su mayor elongación oeste del año el día 8 antes del amanecer. Marte el dominante de las noches, será visible la mayor parte de ella, aumentando su brillo según avancen los días, llegando a alcanzar una magnitud de -1,3. Mientras Júpiter irá desapareciendo del cielo nocturno poco a poco (será observable poco antes del anochecer), Saturno volverá a los cielos nocturnos, apareciendo poco antes del alba, pudiéndose observar casi durante casi la mitad de la noche. Tanto Urano como Neptuno, serán visibles durante las primeras horas nocturas, aunque será necesaria ayuda óptica para ello.

Las constelaciones que alcanzan su momento de mejor visibilidad son Fornax, Horologium, Perseus, Reticulum, Eridanus y Taurus. Este mes lo dedicaremos a la constelación de Taurus.


Pulsar sobre la imagen para verla ampliada

Pulsar sobre la imagen para verla ampliada
Constelación de Taurus (Toro)
Nombre abreviado: Tau
Localización: AR 4,27 horas, Dec 18,87º
Franja de observación: 88ºN -58ºS
Carta de la constelación
La constelación de Taurus es localizable trazando una línea que una Capella con Iota de Auriga (Hassaleh) y luego duplicándola, llegando así a la magnífica Aldebarán, una estrella gigante roja, la más espectacular de la constelación. En esta constelación tenemos dos importantes cúmulos de estrellas, las Pléyades, M45, y las Hiades, Mel 25, además de su estrella Aldebarán, una de las más brillantes del firmamento.

Estrellas mas importantes:

Aldebarán. Alfa de Taurus. Es una estrella gigante naranja del tipo K que tiene una compañera de magnitud 13,6 y que debido a su posición es ocultada por la Luna. Magnitud 0,8. Distancia: 65 años luz.
Alnath. Beta de Taurus Se trata de una estrella gigante blanca-azul del tipo B. Magnitud 1,65. Distancia: 150 años luz.
Hyadum. Gamma de Taurus. Es una estrella naranja del tipo K. Magnitud 3,6. Distancia: 160 años luz.
Delta1 de Taurus. Es una estrella naranja del tipo K, con una magnitud de 3,7. Distancia: 170 años luz.
Delta3 de Taurus. Es una estrella blanca del tipo A, con una magnitud de 4,3. Distancia: 120 años luz.
Ain. Epsilon de Taurus. Es una estrella doble gigante anaranjada de tipo K, con una magnitud de 3,5 y su compañera de 10,6. Distancia: 150 años luz.
Zeta de Taurus. Es una estrella gigante azul del tipo B. Magnitud 2,9. Distancia: 520 años luz.
Lambda de Taurus. Es una estrella doble de color blanco del tipo B, con una magnitud de 3,4. Distancia: 1.600 años luz.
Mu de Taurus. Es una estrella blanca del tipo B, con una magnitud de 4,3. Distancia: 510 años luz.
Xi de Taurus. Es una estrella blanca del tipo B, con una magnitud de 3,7. Distancia: 190 años luz.
Omicron de Taurus. Es una estrella amarilla del tipo G, con una magnitud de 3,6. Distancia: 150 años luz.

Objetos de interés:

M1 – NGC 1952: Nebulosa del Cangrejo. Son los restos de una supernova, la muerte de una estrella masiva. La explosión de esta estrella se contempló en el año 1054 d.C. y su brillo superó en cuatro veces el de Venus. Se pudo ver durante 23 dias de día y noche y a lo largo de casi dos años durante solo la noche.
M45. Es un cúmulo abierto, el famoso cúmulo de las Pléyades. Es uno de los cúmulos abiertos más espectaculares y popularmente se conocen como las Siete Hermanas, siendo de sus integrantes la más brillante Alcyone. En las fotografías de larga exposición se logra observar una nebulosidad azulada que rodea al cúmulo, aunque se piensa que es una nube de gas que no está relacionada con el cúmulo.
Mel 25: Es otro cúmulo abierto, conocido como las Hyades, del que parece formar parte la propia Aldebarán, aunque a la mitad de distancia del cúmulo. Con prismáticos se logran observar varias docenas de estrellas integrantes del mismo y es el más cercano de los cúmulos estelares que son visibles desde la Tierra.
NGC 1647: Es un cúmulo abierto de magnitud 6,4, compuesto por unas 200 estrellas, algunas binarias.
NGC 1746: Cúmulo abierto pequeño y pobre formado por 20 estrellas de magnitud 6,1.
NGC 1807: Cúmulo abierto pobre y de rango medio que contiene 20 estrellas. Magnitud 7.

Estrellas en color amarillo
Nebulosas en color verde
Galaxias en color azul
Cúmulos en color azul claro


Para El Cielo del Mes por Vicente Díaz. Reproducido en Ciencia Kanija con permiso del autor.

¿Cómo surgieron los componentes químicos básicos para la vida en la Tierra primitiva?

Los experimentos demuestran que moléculas simples pueden combinarse químicamente más que biológicamente para formar los componentes básicos del ADN, el principal compuesto de todas las formas de vida. Estos procesos podrían haber tenido lugar en la Tierra primitiva, pero cómo ocurrieron es un misterio sin resolver.

Químicos de la Universidad de Georgia han propuesto el primer mecanismo detallado factible para explicar cómo la adenina, uno de los cuatro componentes del ADN, podría ser construido a partir de combinaciones de cinco moléculas de cianuro. La investigación está basada en extensivas computaciones químicas cuánticas a lo largo de varios años.

“Dónde se originaron estas moléculas es algo que no se sabe”, dijo Paul von Ragué Schleyer, Profesor Graham Perdue de Química en la Universidad de Georgia. “Sólo se puede especular. Podrían haberse formado a partir de moléculas más pequeñas presentes en la Tierra primitiva, o muy lentamente a lo largo de millones de años, o rápidamente antes de que la Tierra se enfriase. Los asteroides podrían haberlas traído del espacio exterior, ¿pero cómo se formaron allí esas biomoléculas?”

El mecanismo propuesto recientemente para la formación de adenina da una clara descripción de cómo podría haberse generado uno de los ladrillos esenciales para la formación del ADN. La investigación fue publicada hoy en la versión impresa de Proceedings of the National Academies of Science. Los colaboradores de Schleyer fueron el doctorando Debjani Roy, el primer autor del artículo, y Katayoun Najafian, su antiguo estudiante de Irán.

El ADN es un ácido nucleico indispensable para la vida que ha pasado de generación en generación. Aislado por primera vez en 1869 a partir del pus de vendajes quirúrgicos desechados por Friedrich Miescher, un doctor suizo, la estructura en doble hélice del ADN fue resuelta por Watson y Crick en 1953. El ADN tiene una forma similar a una escala retorcida con los peldaños anclados por pares de sólo cuatro bases que encajan: adenina, guanina, citosina y timina.

Los químicos de la UGA se centraron en la adenina debido a que tiene una predominancia relativa en la Tierra y su formación a ciegas a partir de componentes simples. Junto con tros componentes fundamentales, la adenina ha sido detectado incluso fuera de la Tierra. Aún así, las vastas distancias que hay entre las moléculas más pequeñas requeridas para la formación de la adenina en el espacio exterior descarta su formación, a menos que estén presentes centros de generación, como motas de polvo interestelar.

“Numerosos experimentos han demostrado que los aminoácidos, nucleótidos, carbohidratos y otros compuestos esenciales se forman bajo las condiciones simuladas de la Tierra primitiva”, escriben los autores en su artículo.

Extraordinariamente, una solución altamente venenosa de cianuro en amoniaco, congelada en un refrigerador durante 25 años, produjo adenina, un componente necesario para la vida. Se formó una cantidad sustancial de adenina en un experimento a alta temperatura diseñado para simular los entornos cercanos a los volcanes. Pero la pregunta es cómo.

Los investigadores de Georgia llegaron a la respuesta resolviendo una serie de enigmas clave. Calcularon los procesos en los que cinco moléculas de cianuro podrían combinarse para formar adenina en condiciones terrestres. Sus predicciones están basadas en extensivos cálculos de secuencias de los pasos reactivos a lo largo de posibles rutas mecánicas.

“Encontrar un mecanismo paso a paso viable y termodinámicamente factible que pueda servir en la formación de adenina era algo más que un avance”, dijeron los autores. “Nuestro informe proporciona una comprensión más detallada de algunos de los procesos químicos involucrados en la evolución química, y una respuesta parcial a la cuestión fundamental de la biogénesis molecular. Nuestra investigación debería dar lugar a investigaciones similares sobre la formación abiótica de las restantes bases de ácidos nucleicos así como otras moléculas biológicamente relevantes”


Autor: Philip Lee Williams
Fecha Original: 30 de octubre de 2007
Enlace Original

¿Encontrado el primo del meteoroide de Tunguska?

Es una novela policíaca cósmica: un meteorito explotó en el aire cerca de una remota zona de Rusia llamada Tunguska en 1908, y el meteorito que provocó el evento desapareció. ¿De dónde vino? ¿Era un asteroide o un trozo de un cometa? Los astrónomos han abordado la cuestión usando simulaciones matemáticas para rastrear al sospechoso. Incluso creen que podrían haber encontrado algunos de sus hermanos.

Tunguska.

Tadeusz J. Jopek y su equipo del Observatorio Astronómico UAM en Polonia – en colaboración con el Observatorio de la Costa Azul de Francia – buscaron los posibles orígenes del meteoro de Tunguska básicamente realizando la explosión hacia atrás, y simulando matemáticamente dónde habrían estado los padres del objeto de tal evento antes del impacto.

Tomando las pruebas forenses existentes sobre el impacto y estimando la velocidad y ángulo de impacto del meteorito de Tunguska, el equipo fue capaz de simular las posibles órbitas y velocidades del objeto antes de que golpease el suelo. Haciendo esto, crearon 3311 “partículas” virtuales como posibles orígenes del objeto.

Entonces analizaron las órbitas de objetos cercanos a la Tierra que estaban en la región de mayor probabilidad durante los pasados 20 000 años para descubrir posibles coincidencias con las partículas simuladas. Aún no está claro de dónde vino el meteoro de Tunguska, y hay aproximadamente 130 sospechosos.

“Creemos que el TCB se originó como resultado de la fragmentación de un único cuerpo: un cometa o asteroide. En nuestro estudio concluimos que es más probable que fuese un asteroide. No podemos señalar uno concreto; sino que tenemos varios candidatos para el padre de Tunguska, y el asteroide 2000 WK63 es un ejemplo”, dijo el Dr. Tadeusz.

Es realmente un caso difícil de resolver, ya que quedan pocas pruebas físicas del objeto original cerca de Tunguska, y las únicas herramientas que los astrónomos tienen son las simulaciones matemáticas y estadísticas. La cuestión aún permanece en si el padre fue un cometa o un asteroide, y si efectivamente el objeto cercano a la Tierra del que provino ya ha sido descubierto.

“Tal conclusión estadística no nos da una absoluta certeza [sic] de que uno de los asteroides conocidos sea efectivamente el cuerpo padre del de Tunguska. Por tanto es posible que el cuerpo padre de Tunguska está aún por descubrir”, dijo el Dr. Tadeusz.


Autor: Nicholos Wethington
Fecha Original: 29 de octubre de 2007
Enlace Original