Los agujeros negros pueden quedar atrapados por el gas interestelar

Los agujeros negros supermasivos podrían verse forzados a colisionar por el suave tirón del gas interestelar, según sugiere una nueva simulación por ordenador. Estas son buenas noticias para un experimento diseñado para buscar ondas gravitatorias, como las que deberían emitirse cuando colisionan agujeros negros.

Un par de agujeros negros agitan el gas conforme giran en espiral entre sí en una simulación por ordenador (Ilustración: Lucio Mayer et al.)

Los agujeros negros con masas de millones o incluso miles de millones de Soles se hallan frecuentemente en el centro de las galaxias. Las galaxias colisionan a menudo y se fusionan, y es extraño encontrar una galaxia con más de un monstruoso agujero negro en su corazón, por eso los científicos sospechan que los agujeros negros en galaxias en colisión también se fusionan.

Esto, sin embargo, no es seguro. Algo debe decelerar los dos agujeros negros gigantes, o se mantendrían orbitando a distancia el centro de la galaxia.

Rastros de gas

Las simulaciones por ordenador han sugerido que un gas denso podría proporcionar el tirón necesario. No funcionaría como la resistencia del viento común – después de todo los agujeros negros tragarán cualquier gas que alcance su horizonte de eventos.

En lugar de ésto, un agujero negro deja un rastro de gas denso tras él, tirando hacia el interior por la gravedad del agujero, y la gravedad de este gas más denso tira sobre el agujero. De forma gradual se va decelerando, los dos agujeros negros van girando en espiral hacia el centro de la galaxia y finalmente se fusionan.

Aún hay dudas, debido a que nadie había demostrado que una fusión de galaxias dejaría a los agujeros orbitando en un gas lo bastante denso, perolas nuevas simulaciones por ordenador han reforzado esta idea. Lucio Mayer del Instituto Federal Suizo de Tecnología en Zurich lideró el equipo que llevó a cabo las simulaciones

El equipo simuló la fusión de dos galaxias similares a nuestra Vía Láctea, teniendo en cuenta el comportamiento de las estrellas, el gas y la materia oscura, así como los dos agujeros negros, que empiezan a unos 300 000 años luz de distancia entre ellos.

Fusión final

Encontraron que una gran cantidad de gas de las dos galaxias – suficiente para formar 3 mil millones de soles – termina en la región central de la galaxia fusionada junto con los dos agujeros negros.

Tras esto, le lleva un millón de años al gas el arrastre para mover a los agujeros negros a sólo unos pocos años luz el uno del otro. Observa este video de los agujeros negros agitando el gas en la simulación.

La simulación no tiene la suficiente resolución para ver qué sucede luego, pero el experto en agujeros negros Chris Reynolds de la Universidad de Maryland en College Park, Estados Unidos, quien no es miembro del equipo, dice que sería razonable suponer que los agujeros negros continuarán acercándose.

Cuando los agujeros negros estén un poco más cerca de su separación final en la simulación, empezarán a generar ondas gravitatorias – ondulaciones en el espacio-tiempo que portan energía – lo que entonces garantizaría una fusión final, dice.

Las fuertes ondas gravitatorias de tales colisiones podrían ser detectables por una misión propuesta por la NASA.

Un trío de naves llamadas Antena Espacial de Interferómetro Láser, o LISA, se ha diseñado para ser sensible a las ondas gravitatorias de baja frecuencia, con periodos de entre 100 y 1000 segundos, en el rango de lo esperado de una colisión entre agujeros negros supermasivos. Podría lanzarse para el año 2015.


Autor: David Shiga
Fecha Original: 7 June 2007
Enlace Original

¿Existen límites de temperatura máximo y mínimo?

Condensado BEC
Tres imágenes que muestran la formación de un condensado de Bose-Einstein de átomos de rubidio. Cortesia de NIST

La mayoría de las personas ha escuchado que el cero absoluto es la temperatura más baja posible pero, ¿qué significa esto? ¿Es verdaderamente la temperatura más fría, o sólo la más baja que podemos medir? De acuerdo con Moses Chan y Evan Pugh profesores de física de la Universidad Penn State, contestar estas cuestiones requiere una comprensión del significado de temperatura.

“La temperatura es una medida del grado de “desorden” o “confusión” de un sistema”, dice Chan. “Cuando un sistema se enfría hasta el cero absoluto, entonces el sistema está perfectamente ordenado con todos sus constituyentes — moléculas y átomos — en el lugar adecuado. Esta es la menor temperatura posible”. El cero absoluto, o 0 K (Kelvin) corresponde a –273,16° C, ó –459,688° F.

Seguir Leyendo…

Creer en alienígenas puede resultar letal

De acuerdo con las últimas encuestas, aproximadamente uno de cada tres estadounidenses cree que seres del espacio han visitado la Tierra. Para la mayoría de la gente, creer en los OVNIs y los alienígenas es algo perjudicial. En algunos casos, tales creencias pueden tener graves consecuencias. Toma, por ejemplo, el juicio de Allison Lamont Norman, que comenzó la semana pasada en Georgetown, Delaware.

Norman está acusado de matar a dos personas y herir a otras cuatro durante un tiroteo en abril de 2005. ¿Qué desencadenó la masacre? De acuerdo con su abogado, Norman creía que las víctimas eran alienígenas que estaban intentando abducir a su hija.

Esta no es la primera vez que las creencias extravagantes han desempeñado un papel importante en un tumulto.

  • Cuando apareció en los cielos el cometa Hale-Bopp en 1997, mucha gente se puso nerviosa. Pronto, muchos aficionados a los OVNIs afirmaron que una nave alienígena seguía al cometa. Aunque no había nada de verdad en el rumor, el programa presentado por Art Bell repitió esta afirmación en su programa nocturno “Coast to Coast AM”. Desgraciadamente, el culto a las Puertas del Cielo creía que la nave espacial inexistente traía a Jesús, y que esta era la señal para que sus seguidores abandonasen sus cuerpos terrenales. Treinta y nueve personas se suicidaron.
  • En mayo de 2002, seis personas fueron heridas cuando 18 bombas caseras depositadas en buzones rurales de Iowa, Illinois, Nebraska, Colorado, y Texas explotaron. Las bombas se rastrearon hasta Luke J. Helder, un estudiante universitario de veintiún años. Tras una persecución en coche a toda velocidad, Helder fue detenido en Reno, Nevada, cuando portaba una escopeta recortada. Helder escribió que las bombas estaban diseñadas “para llamar la atención” para iluminar al mundo con sus creencias sobre temas paranormales como alienígenas, fantasmas, proyección astral y canalización de espíritus. Escribió, “Estoy tomando medidas muy drásticas para intentar darte esta información”.
  • En 2005 un exorcismo en un convento rumano resultó en la muerte de Maricica Irina Cornici, una monja de veintitrés años esquizofrénica que dijo que oía al diablo decirle que era una pecadora. Con la ayuda de cuatro monjas, el sacerdote Daniel Corogeanu colgó de una cruz a Cornici, la amordazó con una toalla y la dejó tres días sin comida ni agua. El ritual, según explicó el sacerdote, fue un intento de sacar a los demonios fuera del cuerpo de la mujer. Cornici fue hallada muerta el 15 de junio. En febrero de 2007, Corogeanu y las cuatro monjas fueron sentenciados a catorce años de prisión.

Aunque nada puede prevenir tragedias como estas, una saludable dosis de ciencia y escepticismo podría ayudar a inocular a la gente contra las ideas peligrosas.


Benjamin Radford escribió sobre histerias colectivas y espejismos populares en “Hoaxes, Myths, and Manias: Why We Need Critical Thinking – Engaños, Mitos y Manías: Por qué necesitamos un pensamiento crítico”, junto al sociólogo Robert Bartholomew. Éste y otros libros están comentados en su sitio web.

Autor: Benjamin Radford
Fecha Original: 7 de junio de 2007
Enlace Original

El mayor dúo estelar

Las dos estrellas más masivas jamás descubiertas están orbitándose entre ellas a 20 000 años luz de distancia cerca del centro de la Vía Láctea. La más pesada de las dos tiene una masa de 114 veces la del Sol – tan grande que de acuerdo con algunos astrónomos debería haber estallado en pedazos.

En el centro de este cúmulo estelar hay un par de estrellas, marcadas como A1, que son las más pesadas hasta el momento (Imagen: HST)

Anthony Moffat de la Universidad de Montreal anunció el descubrimiento de las dos estrellas, marcadas como “A1″, hoy en la reunión de la Sociedad Astronómica Canadiense en Kingston, Ontario.

Ya hay un puñado de estrellas conocidas que se cree que tienen más de 100 veces la masa del Sol, pero esta es la primera vez que se mide realmente en una estrella algo que sobrepase este hito.

Premio astronómico

La medida es posible debido a que las dos estrellas, en el cúmulo estelar NGC 3603, están en órbita una alrededor de la otra. Esto permite a los astrónomos observar el estrechamiento y concentración de la luz, debido al efecto Doppler, cuando las estrellas pasan alrededor la una de la otra, completando una órbita cada 3,8 días.

Moffat y sus colegas recopilaron los datos Doppler usando el Telescopio Muy Grande (VLT) del Observatorio Europeo del Sur en Chile. Conociendo la velocidad de las estrellas, y su separación, los astrónomos calcularon qué masa deberían tener para mantenerse en órbita mediante la gravedad.

Los anteriores poseedores del récord también formaban un sistema estelar binario. WR20a, como se conoce al grupo, pesan alrededor de 80 masas solares cada uno. Por lo que incluso el compañero más pequeño del nuevo sistema, con 84 masas solares, batiría este récord – y el mayor lo destroza. Para los astrónomos es como conseguir dos veces el premio de la lotería.

En el borde

“Estoy asombrado y muy extrañado”, dice el astrofísico John Brown de la Universidad de Glasgow, que no es miembro del equipo. “No pensé que las estrellas tan grandes pudiesen existir, deberían haber estallado en pedazos”, dice.

Cuanto más masiva es una estrella, más radiación se genera dentro de su núcleo. Esto incrementa la presión que ejerce en las capas más externas de la estrella cuando la radiación lucha por escapar hacia el espacio exterior.

Las estimaciones sobre el límite máximo de la masa varía, pero el miembro más pesado de A1 debe estar cerca de la auto-destrucción.

Las estrellas de esta escala son extremadamente raras en la galaxia, no es de extrañar debido a que se espera que agoten sus reservas de combustible en unos pocos millones de años. Afortunadamente, cuando estos nuevos pesos pesados decidan estallar, estarán lo bastante lejos como para no poner en peligro a la Tierra.


Autor: Stuart Clark
Fecha Original: 7 de junio de 2007
Enlace Original

Un nuevo quásar es el más antiguo encontrado

¿Cuándo son dos millones de años luz un pelo? Cuando estamos hablando de un quasar a 13 mil millones de años luz de distancia, el más distante descubierto hasta el momento. El nuevo récord fue anunciado hoy por Chris Willott de la Universidad de Ottawa en Canadá.

El quásar más distante encontrado hasta la fecha – un agujero negro gigante a 13 mil millones de años luz de distancia (Imagen: Telescopio Franco-Canadiense en Hawaii)

Este aumento incremental en la distancia promete una nueva comprensión de las “edades oscuras” del universo joven.

Durante casi mil millones de años, las primeras galaxias y estrellas estuvieron ocultas tras un velo de absorción de luz de átomos de hidrógeno, hasta que la luz ultravioleta de las jóvenes estrellas calientes y la materia que caía en los agujeros negros gigantes que llamamos quásar ionizaron el hidrógeno para limpiar la bruma.

El nuevo quásar es el más antiguo encontrado hasta el momento, y los astrónomos esperan que les ayude a revelar cómo se formaron las galaxias, estrellas y quásars durante estas edades oscuras.

El anterior poseedor de récord fue detectado por el Explorador Digital del Cielo Sloan. Estaba extremadamente desplazado al rojo – estirado por la actual expansión del universo. El desplazamiento al rojo es de 6,41, lo que significa que la longitud de onda de la luz ha sido estrechada en un 641%.

Objeto Antiguo

Una nueva exploración con el Telescopio Franco-Canadiense en Hawaii de 3,5 metros puede hallar quásars mucho más tenues que los del explorador Sloan, que usó un telescopio más pequeño y menos sensible, dice Willott. Esto es importante debido a que los quásars pequeños son más comunes.

Contó en la reunión de la Sociedad Astronómica Canadiense en Kingston, Ontario, que la exploración había hallado cuatro quásars más allá de un desplazamiento al rojo de 6, incluyendo uno, al que se le ha dado el memorable título de CFHQS J2329-0301, a un récord de desplazamiento al rojo de 6,43. Esto significa que estamos viendo a sólo 870 millones de años tras el Big Bang.

El nuevo agujero negro pesa unas 500 millones de veces la masa del Sol. “Teóricamente, es muy difícil crear un agujero negro tan grande tan al principio del universo”, dijo Willott a New Scientist.

El descubrimiento ayudará a revelar cuántas estrellas y otros quásars estaban brillando en esa época, e ionizando el gas hidrógeno. El espectro detallado muestra que la bruma de hidrógeno del nuevo quásar ha empezado a limpiarse incluso antes de que se encendiera, pero por sí mismo esto no prueba que las edades oscuras estaban terminando en todo el cosmos.

“Necesitas una mayor muestra de quásars para obtener conclusiones firmes”, dice Avi Loeb del Centro Harvard-Smithsoniano para Astrofísica en Cambridge, Massachusetts, Estados Unidos. Willott espera que esta investigación encuentre unos 11 más, elevando el número total cerca de los 25 o 30 que se piensa que son necesarios.


Autor: Jeff Hecht
Fecha Original: 7 de junio de 2007
Enlace Original

HiRISE publica 1200 imágenes y un lanza un visor en el nuevo diseño de su sitio web

Cualquiera que se conecta a Internet puede ver el planeta Marte mejor que en cualquier otro momento de la historia, a través de los ojos de HiRISE, la cámara más potente que jamás haya orbitado un planeta.

Un equipo con base en la Universidad de Arizona que opera el Experimento de Cámara de Alta Resolución (HiRISE) del Orbitador de Reconocimiento de Marte de la NASA acaba de publicar más de 1200 imágenes de Marte en el Sistema de Datos Planetario, el archivo de datos de la misión de la agencia espacial de los Estados Unidos.

Colores primaverales en el casco polar sur der Marte – averdaderamente terrenos de otros mundo, con exóticas formaciones terrestres sin analogía en la Tierra. (Crédit: NASA/JPL/Universidad de Arizona)

El equipo no sólo ha publicado los 1,7 terabytes de datos de HiRISE – el mayor conjunto de datos jamás enviado a la biblioteca de datos de la misión espacial de la NASA – sino también una forma amigable para el público de ver ls imágenes de HiRISE.

Gracias a las nuevas herramientas disponibles en la página web de HiRISE en http://hirise.lpl.arizona.edu, cualquier usuario de Internet puede rápidamente acercarse y explorar las mismas notables imágenes que emocionan y confunden a los científicos.

“Estas imágenes deben contener cientos de importantes descubrimientos sobre Marte”, dijo el Investigador Principal de HiRISE Alfred McEwen del Laboratorio Planetario y Lunar de la Universidad de Arizona. “Sólo necesitamos tiempo para darnos cuenta de lo que son”.

La cámara HiRISE toma imágenes en una franja de 6km de ancho conforme el orbitador vuela a una velocidad de 12 500 km/h a una altitud de entre 250 a 316 km de la superficie de Marte. Durante al menos los próximos 18 meses, HiRISE tomará miles de imágenes estéreo en blanco y negro y color de la superficie marciana, resolviendo características tan pequeñas como de un metro, cubriendo aproximadamente un 1 por ciento del planeta.

El equipo con base en el Centro de Operaciones HiRISE de la Universidad de Arizona comenzó publicando en Internet imágenes seleccionadas cuando comenzaron las operaciones científicas en noviembre de 2006. Los miembros del equipo comenzaron a reprocesar todas las imágenes tomadas hasta el 25 de marzo de 2007, usando una calibración mejorada, o técnicas de corrección de imagen, en abril.

HiRISE se convierte en un “nodo de datos” del Sistema de Datos Planetario

Con las primeras 1200 imágenes, HiRISE se convierte en un “nodo de datos” del Sistema Planetario de Datos (PDS).

El Sistema Planetario de Datos (PDS) es usado por los científicos, estudiantes, escritores de libros de texto y un creciente número de personas que siguen los últimos descubrimientos planetarios. La NASA comenzó el archivo hace dos décadas cuando los científicos planetarios requirieron un sistema para mantener el creciente volumen de datos tomados por las misiones de la NASA de forma que estuviesen accesibles en cualquier momento en el futuro, dijo R. Stephen Saunders, científico del programa PDS. PDS está disponible en la red en http://pds.jpl.nasa.gov

“Aunque los ordenadores evolucionen y cambien, esperamos tener siempre acceso a los datos, un tesoro nacional”, dijo Saunders.

“Un nodo de datos PDS está diseñado para proporcionar acceso a un conjunto de datos en particular durante una misión activa, cuando los datos son del mayor interés”, dijo Saunders. También, “la NASA quiere tirar del equipo de expertos para asegurarse de que los datos están validados, archivados y son útiles para alcanzar los objetivos de la misión MRO”, dijo. “La NASA ha hecho una gran inversión en software y hardware en Marte y en la Universidad de Arizona, y ésta es una forma de sacar provecho de tal inversión”.

Visor IAS para unos acercamientos rápidos

El nuevo diseño del sitio web de HiRISE http://hirise.lpl.arizona.edu da a los usuarios normales, así como a los científicos, una herramienta para situarse rápidamente en cualquier localización de una enorme imagen de HiRISE, que a menudo será una imagen de un gigabyte con unas medidas de 20 000 píxels por 50 000 píxels. La herramienta, desarrollada por ITT-Visual Information Solutions en Boulder, Colorado, se llama Visor IAS. Los usuarios pueden descargarla de forma gratuita directamente del sitio web de HiRISE.

Richard Cooke, presidente y gerente de ITT Visual Information Systems dijo, “ITT está destinada a apoyar a la comunidad científica espacial con tecnología y servicios que avancen en la búsqueda del descubrimiento. Integrar nuestra tecnología IAS con el proyecto HiRISE es muy excitante para nosotros, dado que ayuda a llevar las aplicaciones científicas espaciales a una comunidad de usuarios más amplia, incluyendo el público general”.

La ventaja de la tecnología del visor IAS es que transmite sólo la cantidad de datos necesaria para presentar la parte de la imagen que se verá en nuestra pantalla. Esto es, cada vez que un usuario haga zoom sobre una imagen, no descargará un conjunto nuevo de píxels. En lugar de eso, el usuarios descargará sólo las partes de mayor resolución de los datos de la imagen, que se añadirán a los datos de la imagen ya descargados por el visor. El visor IAS finalmente presenta la parte seleccionada de la imagen en alta resolución añadiendo cada vez más píxels.

La herramienta, que también tiene aplicaciones en defensa, inteligencia y gestión de catástrofes, entrega imágenes de gran calidad a pesar de tener conexiones de red limitadas o lentas.

Lo he ejecutado en casa, con mi pequeño cable módem”, dijo el Director de HiROC, Eric Eliason. “La herramienta te permite ampliar pequeñas porciones de la imagen rápidamente, sin tener que descargar toda la información de la imagen completa, lo que llevaría horas. El visor IAS hará a nuestras imágenes mucho más accesibles no sólo a nuestro equipo científicos, sino a todo el mundo”.

El nuevo sitio web de HiRISE presenta imágenes impresionantes

El miembro del equipo de comunicaciones de HiRISE, Yisrael Espinoza, dijo que el diseño del nuevo sitio web de HiRISE estaría dirigido por imágenes. Los visitantes pueden echar un vistazo rápido a una imagen, o ver una versión más grande en el navegador, o la versión a resolución completa de acuerdo al interés que tenga en una imagen concreta. La versión a resolución completa lanzará en visor IAS una vez que el usuario haya descargado el software gratuito en su ordenador.

Los últimos, y tentadores, resultados de HiRISE incluyen:

  • Una imagen de un cráter de impacto que disparó 100 000 avalanchas de polvo.
  • Nuevos detalles de las rocas sedimentarias de capa fina en las llanuras cercanas a Juventae Chasma, que contienen intrigantes capas repetidas.
  • Rocas sedimentarias enterradas que salen a la luz en antiguos terrenos en las tierras altas del sur.
  • Un “agujero negro”, una posible caverna en Marte. HiRISE no vio detalles en la sombra, lo que es consistente con un agujero profundo y muros salientes.
  • ”Géiseres” en el polo sur que posiblemente se crearon como resultado de una liberación explosiva del gas dióxido de carbono, atrapado bajo presión debajo de la capa de dióxido de carbono translúcida.
  • “Arañas” en Marte, canales cercanos al polo sur que aparentemente convergen y fluyen colina arriba.

HiRISE es llamado “La Cámara del Pueblo” debido a que el equipo de HiRISE proporciona imágenes procesadas al mundo para estimularlos a aprender, discutir e investigar. Los investigadores de HiRISE animan a la comunidad científica y al público a ayudar a localizar y analizar imágenes.

Hay información en línea disponible sobre el Orbitador de Reconocimiento de Marte en http://www.nasa.gov/mro. La misión está dirigida por el Laboratorio de Propulsión a Chorro de la NASA, una división del Instituto de Tecnología de California en Pasadena, para el Consejo de la Misión Científica de la NASA en Washington. Lockheed Martin Space Systems en Denver, es el principal contratista y constructor de la nave. El Experimento Científico de Cámara de Alta Resolución está operado por la Universidad de Arizona. Ball Aerospace and Technologies Corp, en Boulder, Colorado, construyó el instrumento HiRISE.


Autor: Lori Stiles
Fecha Original: 4 de junio de 2007
Enlace Original

El escudo solar podría ser una solución rápida para el calentamiento global

Un escudo solar que refleje parte de la radiación del Sol de nuevo al espacio podría enfriar el clima en sólo una década y ser una solución rápida al cambio climático, dicen los investigadores.

Debido a su rápido efecto, sin embargo, debería desplegarse sólo como último recurso, cuando los “peligros” del cambio climático sean inminentes, advierten.

Con un escudo solar, las temperaturas serían aproximadamente las mismas que en 1900 (c), pero las precipitaciones caerían (d). Sin el escudo, las temperaturas se elevarían drásticamente (a), y las precipitaciones se incrementarían en algunas regiones y caerían en otras (b) (Imagen: PNAS/Caldeira/Matthews)

Los escudos solares no son una idea nueva – tales esquemas de “geoingeniería” para enfriar artificialmente la Tierra están recibiendo un interés creciente, e incluyen propuestas para inyectar aerosoles reflectantes en la estratosfera, desplegar reflectores solares en el espacio y la siembra de nubes a gran escala.

Los escudos están inspirados en los efectos de enfriamiento de las grandes erupciones volcánicas que expulsaron partículas de sulfatos a la estratosfera. Allí, las partículas reflejaban la radiación solar de vuelta al espacio, reduciendo la cantidad de calor que alcanzaba la atmósfera, y por tanto reduciendo el efecto invernadero.

La erupción de 1991 del Monte Pinatubo en las Filipinas enfrió la Tierra unas décimas de grado durante varios años.

Actuación rápida

Ken Caldeira de la Institución Carnegie de Washington, en California, Estados Unidos, y Damon Matthews de la Universidad de Concordia en Canadá, usaron modelos por ordenador para simular los efectos que tendría un escudo solar sobre el clima de la Tierra si las emisiones de gases invernadero se mantuviesen en aumento en un escenario de “situación habitual”.

“Hemos estado intentando señalar algo verdaderamente malo contra la geoingeniería del clima”, dice Caldeira. “Pero es realmente difícil de encontrar”.

Su modelo por ordenador simuló un escudo desplegado gradualmente que compensaría el efecto invernadero de las crecientes concentraciones de dióxido de carbono. Para cuando los niveles de CO2 sean el doble de los de la era pre-industrial – que se predijo que sería a finales del siglo XXI – el escudo necesitaría bloquear el 8% de la radiación solar.

Los investigadores hallaron que un escudo de azufre podría actuar muy rápidamente, bajando las temperaturas a los niveles de principios del siglo XX en una década desde su despliegue.

“El problema es, que la escala temporal de la década funciona en amos sentidos”, dice Caldeira. Un escudo de sulfatos necesitaría ser rellenado continuamente, y el modelo muestra que un fallo en ésto significaría que el clima de la Tierra se vería repentinamente golpeado por todo el efecto caldeador del CO2 que se ha acumulado mientras tanto.

“Por lo que si levantas el escudo y éste falla – o, por ejemplo, los Republicanos colocan el escudo y los Demócratas suben al poder y lo quitan – entonces comprimirás en una o décadas el calentamiento que haya tenido lugar desde que levantaste el escudo”, explica Caldeira.

Comprensión pobre

Un escudo solar no debería atrofiar el crecimiento vegetal necesariamente. De hecho, hay algunas pruebas de que algunas plantas crecieron de forma más vigorosa tras la erupción del Monte Pinatubo debido a que las partículas de sulfatos incrementaron la cantidad de luz difuminada y esto aceleró el crecimiento en las áreas de sombra. Pero si se eliminase repentinamente el escudo, una parte del CO2 almacenado en las plantas se liberaría de pronto cuando las plantas respiren más rápido en unas temperaturas más cálidas.

“Personalmente, como ciudadano y no como científico, no me gusta la geoingeniería debido a su alto riesgo medioambiental”, dijo Caldeira a New Scientist. “Es jugar con unos sistemas complejos poco comprendidos”.

Y la facilidad con la que podría funcionar también es arriesgada, dice: “Estos esquemas son también demasiado baratos y fáciles. Sólo una manguera de incendios dispersando dióxido de azufre a la atmósfera haría el trabajo durante un siglo. Esto costaría unos 100 millones de dólares – nada en comparación con los cientos de miles de millones que se necesitarían para transformar nuestros suministros de energía”.

Pero también cree que es hora de tener en cuenta seriamente los escudos solares. El 1 de junio, James Hansen, jefe del Instituto de la NASA para Estudios Espaciales en los Estados Unidos, publicó un artículo afirmando que el sistema climático de la Tierra había alcanzado un punto de inflexión (Atmospheric Chemistry and Physics, vol 7, p 2287).

¿El mal menor o dos males?

El estudio de Hansen sugiere que sólo un calentamiento moderado adicional probablemente dispararía la desintegración de las capas de hielo de la Antártica Occidental y del Ártico – eventos que serían casi imposibles de invertir.

“Si este es el caso, entonces no tengo claro cual es el camino “más verde”, dice Caldeira. “¿Es mejor dejar que la capa de hielo de Gorenlandia colapse y ahogue a los osos polares hacia su extinción, o dispersar algunas partículas de azufre en la estratosfera?”

Dice que si se ve forzado a tener en cuenta el despliegue de un escudo solar, “necesitaríamos confiar en que no estaríamos creando más problemas de los que resolvemos. Además, es importante comprender el problema en el que estamos hoy – lo cerca que estamos de hacer cambios irreversibles, lo rápido que podemos alterar nuestros sistemas de energía – y comprender lo que podría pasar si intentamos eliminar algunos de los peores resultados mediante la ingeniería del clima “.

Caldeira y Matthews también encontraron que un escudo solar no corregiría las anormalidades en las lluvias. Muy notablemente, los trópicos recibirían menos lluvia en ausencia del efecto invernadero, como predicen los modelos de cambio climático.


Referencias a revistas: Proceedings of the National Academy of Sciences (DOI: 10.1073/pnas.0700419104)Autor: Catherine Brahic
Fecha Original: 5 de junio de 2007
Enlace Original

Comprendiendo qué causa la lluvia

Los modelos climáticos no son buenos para predecir las lluvias. Especialmente en terrenos accidentados, ésto puede llevar a un gran daño a partir de avisos tardíos sobre inundaciones, o incluso por la falta de avisos. Desde el 1 de junio al 1 de septiembre de 2007, la Universidad de Tecnología de Delft participará en un gran encuentro internacional en la Selva Negra alemana, para aprender más sobre qué causa las lluvias. Se usarán aviones y dirigibles junto a observatorios en tierra. Se usarán los satélites para recuperar información a gran escala.

La creación de la lluvia es el resultado de una variedad de procesos físicos. Estos procesos influyen unos en otros y se desarrollan a escalas extremadamente pequeñas (unos pocos micrómetros) y en las muy grandes (100 kilómetros). La escala espacial de los modelos climáticos es de unos pocos kilómetros, y los procesos físicos que tienen lugar a escalas menores tienen que aproximarse. La formación de nubes es un ejemplo de esto. La complejidad y diferencias de escala hacen que el modelado del clima sea impreciso en la predicción del momento y lugar del aguacero, y la cantidad de agua que caerá finalmente.

Selva Negra

La Selva Negra tiene una gran cantidad de tormentas en verano, y las discrepancias entre las predicciones y las lluvias reales son enormes. Ésto hace de este lugar el “laboratorio” natural ideal. Desperdigados en un área de 100 por 100 km, se han equipado cinco observatorios temporales con equipos sensores remotos de última tecnología para medir de forma continua la atmósfera. En julio, se desplegarán también nueve aviones y dirigibles para traer medidas detalladas de encima, debajo y dentro de las nubes. Los satélites se usarán para recolectar datos a gran escala.

Universidad Tecnológica de Delft

El 4 de junio la Universidad Tecnológica de Delft movió el radar atmosférico TARA (Transportable Atmospheric RAdar – Radar Atmosférico Transportable) a Alemania. El instrumento se colocará en la cima del Hornisgrinde (uno de los picos más altos de la Selva Negra). Una vez allí medirá la atmósfera junto con otros instrumentos (LIDARs [Light Detection And Ranging – Detección y Medida de la Luz], radiómetros, radares de nuebes).

La Universidad Tecnológica de Delft también tendrá acceso a dos aviones de investigación (uno francés y otro alemán) que volarán a través de las nubes para medir sus propiedades físicas. Estos aviones han sido asignados especialmente a dos candidatos a doctor de Delft.

Dentro de este Estudio de Precipitaciones inducidos por la Orografía y Convectiva (COPS) internacional, la Universidad Tecnológica de Delft se preocupará principalmente de las cuestiones de cómo la formación de la lluvia y las nubes se ve afectada por las partículas de polvo de la atmósfera.

Modelos Climáticos

La influencia de la interacción del aerosol de las nubes en el equilibrio de radiación de la Tierra es una de las mayores incógnitas de los modelos climáticos. Las datos recuperados durante COPS serán adecuados para mejorar los modelos que describen la relación entre la dinámica atmosférica y la formación de nubes.

Programa

- TARA se transportará a Alemania el 4 de junio;
- TARA estará operativo el 11 de junio;
- Se llevarán a cabo medidas intensivas desde el 24 de junio al 1 de agosto, con coordinación entre las medidas de tierra y aire;
- Desde el 1 de agosto TARA se usará TARa en modo estándar para construir rutinariamente un conjunto de datos estadísticamente representativo.


Autor: Roy Meijer y Karen Collet
Fecha Original: 4 de Junio de 2007
Enlace Original

La fuerza de Casimir aprende a nadar

Físicos en los Estados Unidos han demostrado que la Fuerza de Casimir – un misterioso fenómeno cuántico atrae a dos espejos cercanos – puede existir en un fluido. Los investigadores han encontrado que dos superficies chapadas en oro sumergidas en etanol experimentaron una atracción cuando se encontraban a 200 nm la una de la otra, aunque es dos veces menor de la fuerza con la que se atraerían en el vacío. Esto podría, dicen, llevar a un nuevo efecto de “flotación cuántica”, el cual podría usarse para diseñar mejores sensores (arxiv.org/abs/0705.3793v1).

Predicha por primera vez por Hendrik Casimir en 1948, la Fuerza de Casimir surge cuando dos espejos enfrentados se llevan uno hacia el otro en un vacío. De acuerdo con la mecánica cuántica, cualquier campo electromagnético que rebote entre los espejos debería fluctuar constantemente en fuerza. A separaciones muy cortas de los espejos, estos campos ejercen una presión de radiación que es, en media, superior en el exterior que en interior de las superficies. Esto provoca una Fuerza de Casimir global que atrae las superficies entre sí.

Ahora, Jeremy Munday y Federico Capasso de la Universidad de Harvard en los Estados Unidos han demostrado que la Fuerza de Casimir pueden existir también el vacío se reemplaza por un fluido. Unieron una bola de poliestireno de 40 µm de diámetro cubierta con una fina capa de oro a un voladizo, el cual suspendieron dentro de un baño de etanol con una superficie plana de oro en el fondo. Reflejando un láser desde el voladizo sobre un fotodetector sensible a la posición, pudieron determinar la fuerza del efecto Casimir que atraía la bola a partir del tamaño del desplazamiento.

Encontraron que la fuerza se había detectable cuando la bola se llevaba a una distancia de 200 nm o menos de la superficie plana, y cuando la separación era de 50 nm la fuerza subía hasta 120 pN – unas dos veces más débil que la fuerza que tendría en el vacío. Esto demuestra, de acuerdo con Munday, que el etanol oculta la Fuerza de Casimir alterando los modos permitidos para las fluctuaciones electromagnéticas entre las superficies.

Recientemente los físico se han dado cuenta de que la Fuerza de Casimir debe tenerse en cuenta de que cuando se diseñan dispositivos micromecánicos, y los teóricos incluso han considerado explotarlo para probar la validez de las leyes de Newton de la gravedad a distancias sub-milimétricas. Munday dijo a Physics Web que ahora está proponiendo una forma de “levitación cuántica”, la cual usaría un medio fluido distinto que provoque que los espejos se repelan en lugar de atraerse. “En tal caso, se podría hacer levitar a un objeto sobre otro mientras esté en el fluido”, explicó. “Debido a que los objetos no están en contacto físico, la fricción estática se elimina virtualmente, y el objeto en levitación respondería incluso a la fuerza más ligera, permitiendo sensores y acelerómetros muy sensibles”.


Autor: Jon Cartwright
Fecha Original: 6 de junio de 2007
Enlace Original

La simplicidad puede ser clave para la autorreproducción robótica

“La autorreproducción es uno de los rasgos más notables de los sistemas biológicos que ha permanecido durante largo tiempo fuera del ámbito de las posibilidades de los sistemas de ingeniería tradicionales”, explica Victor Zykov y sus colegas de la Universidad de Cornell es un estudio reciente en IEEE Transactions on Robotics.

Secuencias de autorreproducción robótica diseñadas a mano por los ingenieros. Los nuevos molecubos se depositan desde arriba, y cada cubo tiene la capacidad de girar. Crédito de la imagen: Zykov, et al. ©IEEE 2007.

Zykov, Efstathios Mytilinaios, Mark Desnoyer, y Hod Lipson han examinado el significado de tales conceptos como “autorreproducción” y “evolución” cuando se aplican a máquinas sin vida.

Los ingenieros diseñaron y construyeron un conjunto de robots modulares que podían combinarse en máquinas de varios tamaños que como resultado serían capaces de construir copias idénticas de sí mismos. El grupo experimentó con máquinas tanto físicas como virtuales que fueron diseñadas manualmente para autorreproducirse, así como con máquinas autorreproductoras que evolucionaron artificialmente. En el futuro, las máquinas autorreproductoras podrían ser esenciales para aplicaciones que prohíben el mantenimiento humano.

“Finalmente, la evolución artificial se usará para diseñar los cuerpos de máquinas 3-D autorreproductoras, así como los procedimientos para su construcción por robots modulares disponibles pre-ensamblados”, explicó Zykov a PhysOrg.com. “Luego, estos programas de autorreplicación serán cargados en los robots disponibles que construirán físicamente los nuevos robots — o autorreproductores”.

Zykov dijo que diseñar las secuencias para la evolución autorreplicante de los robots 3D es actualmente muy difícil, debido a esto el equipo diseñó programas de evolución autorreplicativa para robots modulares en 2D. También, para preparar la automatización del diseño y control de la autorreplicación en 3D, los científicos realizaron experiemntos manuales en 3D para demostrar la factibilidad práctica de evolucionar la autorreplicación 3D.

La configuración del proceso manual recuerda a un juego de Tetris en 3D, donde un dispensador deja caer módulos cúbicos, llamados “Molecubos”, a una máquina que consta de una línea de cubos conectados que puede tomar, mantener y dejar otros cubos, así como girar un cubo para colocarlo en una posición distinta. Finalmente, la máquina original puede programarse para construir copias de sí misma, la cual puede copiarse a sí misma sucesivamente, idealmente, a lo largo de varias generaciones.

Cada Molecubo es idéntico: un módulo de 10 cm3 y 625 gramos que puede girar a lo largo de su eje diagonal. En dos de los lados del cubo hay unos conectores que pueden unirse a los conectores de otros cubos. Un servomotor dentro de cada cubo dirige el mecanismo de giro.

El objetivo de la segunda parte del proyecto era encontrar si es posible o no evolucionar simples máquinas autorreproductoras modulares 2D con Molecubos 2D. Primero, el algoritmo genético busca una forma específica para la máquina 2D. La forma deseada permitiría al robot obtener los módulos disponibles a su alrededor, girarlos hacia una situación objetivo, y, secuencialmente dejar caer los módulos uno a uno en los lugares adecuados, formando una réplica exacta de sí mismo.

Concepción artística de un sistema robótico modular autosostenible para una aplicación espacial. Crédito de la imagen: Zykov, et al. ©IEEE 2007.

Durante la segunda etapa del proceso, la evolución busca una secuencia de acciones que permitirían al robot resultante lograr la autorreproducción. Finalmente, evolucionarían 3 robots distintos en 2D que serían capaces de crear réplicas completas de ellos mismos.

Aunque este no es el primer sistema físico robótico autorreproductoric, hay relativamente pocos sistemas autorreproductores, y generalmente usan mecanismos más complejos que los Molecubos. La simpleza demostrada por los ladrillos sugiere que, para estos sistemas complejos, puede ser más fácil autorreproducirse con muchas unidades idénticas y simples.

Los ingenieros apuntan que los organismos biológicos están compuestos por un repertorio de sólo 20 tipos de aminoácidos; sin embargo, los organismos completos pueden contener hasta 1020 moléculas individuales de tales aminoácidos. Esta comparación sugiere que la autorreproducción en los organismos biológicos pueden también tender a emplear módulos simples y similares.

Zykov dijo que los robots autorreproductores podrían tener aplicaciones en futuras misiones de exploración espacial a largo plazo.

“Imagina una misión espacial larga donde no podemos predecir alguno de los problemas específicos con los que se encontrará”, dijo. “En este caso, tampoco podemos prever qué tipos de robots serán necesarios para resolver esos problemas no anticipados. Sin embargo, podemos llenar cualquier espacio disponible a bordo de la nave con Molecubos, y también incluir un o dos robots ensamblados con ellos.

“Ahora, si la misión se encuentra con un problema imprevisto, el algoritmo evolutivo a bordo de la nave puede usarse para evolucionar una forma corporal para un robot que estará disponible para resolver el problema”, continuó. “Una vez que se conozca la forma deseada del robot, el robot funcional a bordo de la nave lo ensamblará a partir de los Molecubos sobrantes. Esperamos que, en el futuro, tales sistemas robóticos adaptables universales ayuden a evitar tragedias similares a las que acabó con las vidas de siete astronautas durante la última misión de la Lanzadera Espacial Columbia”.

Otra pregunta que lanzaron los científicos en su investigación es el concepto fundamental de “qué es necesario para la autorreplicación”. Han desarrollado una métrica que captura dimensiones como calidad, razón, material externo requerido, probabilidad de surgimiento de una entidad replicante en distintos entornos, y unieron todos estos aspectos en un continuo cuantificad basado en la cantidad de información involucrada en la replicación.

“En juzgar si ha tenido lugar o no la autorreplicación, pueden usarse múltiples criterios: el grado de similitud entre el original y la réplica, la cantidad de ayuda del entorno usada por el original en el proceso de autorreplicado, la complejidad de la entidad replicante en relación a sus partes constituyentes, etc.”, explicó Zykov.

“Si consideramos la autorreplicación como parte de una propiedad binaria, que es verdad o falsa para cada caso específico considerado, entonces debe hacerse un juicio sobre si la autorreplicación ha sucedido o no usando los criterios de arriba”, dijo. “Sin embargo, para cada uno de estos criterios, no está claro el límite que separaría la autorreplicación de lo que no lo es, por lo que hacer una decisión del tipo si/no es difícil”.

Cuando vemos la autorreplicación como una propiedad continua, sin embargo, el valor de al autorreplicación sería distinto para cada caso específico.

“Este valor será más pequeño para aquellos casos en los que la autorreplicación dé como resultado réplicas imperfectas, requiera unas condiciones del entorno muy especiales o una ayuda significativa externa, o involucre un agente autorreplicante muy simple. Por ejemplo, un animal tendría un valor mucho más alto de autorreplicabilidad que unsimple robot de dos piezas, ya que consta de muchos más componentes básicos, puede reproducirse con éxito en una gran variedad de condiciones del entorno y no usa fuentes de energía externas”.

Con algo de suerte, esta métrica proporcionará un punto de comparación común para permitir mejoras en los sistemas autorreplicantes en el futuro.


Cita: Zykov, Victor, Mytilinaios, Efstathios, Desnoyer, Mark, y Lipson, Hod. “Evolved and Designed Self-Reproducing Modular Robotics.” IEEE Transactions on Robotics, Vol. 23, No. 2 de abril de 2007. Autor: Lisa Zyga
Fecha Original: 5 de junio de 2007
Enlace Original

Modelando el inquieto cerebro

Neurocientíficos de la Universidad de Indiana vinculan la estructura de red a la actividad espontánea en el cerebro

”Olaf

Los neurocientíficos de la Universidad de Indiana Olaf Sporns y Christopher Honey encontraron que el 98 por ciento de la actividad cerebral que otros investigadores consideran sólo ruido de fondo es algo importante y fascinante.

Los cerebros siempre están activos, incluso cuando la gente está descansando. En este “estado de reposo”, las ondas de la actividad neuronal oscilan a través del cerebro, creando patrones fluctuantes y cambiantes en todo momento. El trabajo de Sporns y Honey en el modelado de esta actividad cerebral arroja una nueva luz sobre cómo y cuándo tienen lugar estas misteriosas fluctuaciones y ofrecen pistas sobre qué hace el cerebro cuando está en espera.

“Alguna gente ve el cerebro en términos de entradas y salidas, como un ordenador. Si proporcionas una entrada, tendrás una salida concreta”, dijo Honey, estudiante de doctorado en la IU en el Departamento de Ciencias Psicológicas y Cerebrales de Bloomington. “Nosotros tomamos una visión distinta. Creemos que incluso en ausencia de estímulos externos, existen procesos muy importantes en el cerebro que afectan a las respuestas a estímulos que produce el cerebro. Creemos que la actividad espontánea actual debería estudiarse por sí misma. Otros investigadores consideran que este es un “ruido” poco importante que deberíamos filtrar”.

”Christopher

Honey y Sporns, profesor asociado en el Departamento de Ciencias Psicológicas y Cerebrales, tomaron una visión más cercana de la actividad espontánea del cerebro en reposo. Con su aproximación computacional – que involucra crear un modelo por ordenador a gran escala del cerebro de un macaco – demostraron que la forma y patrón de las fluctuaciones están determinados por el diagrama de cableado del cerebro, su neuroanatomía.

Su modelo también puede demostrar cómo fluctuaciones lentas de 5 a 10 segundos de actividad surgen de forma natural mucho más rápido que las interacciones neuronales caóticas que duran generalmente sólo unos pocos milisegundos.

“Nuestro modelo sugiere que el estado de reposo cortical no es invariante en el tiempo, sino que contiene una rica e interrelacionada estructura temporal a múltiples escalas de tiempo a la que da forma la topología estructural subyacente”, escribieron Sporns y Honey en un artículo que apareció esta semana en Proceedings of the National Academy of Sciences en su edición avanzada on-line.

El artículo, que está disponible en http://www.pnas.org/cgi/doi/10.1073/pnas.0701519104, incluye un enlace a una película que visualiza cómo se verían las fluctuaciones espontáneas en el cerebro del mono. Los coautores del artículo son Rolf Kötter, neuroanatomista de la Universidad de Radboud en Nijmegen Holanda, y Michael Breakspear, neurocientífico cognitivo en la Universidad de Nueva Gales del Sur en Australia.

Cuando una persona lee un libro o habla con un amigo, las tareas relacionadas con la actividad neuronal tienen lugar en distintas regiones del cerebro, pero esta actividad sólo cuenta aproximadamente de un 2 a un 5 por ciento de la actividad total del cerebro. Las fluctuaciones de magnitud similar – las estudiadas por Sporns y Honey – tienen lugar cuando una persona está en reposo, sin hacer nada.

La naturaleza de estas “fluctuaciones de estado de reposo” es un tema activo en la investigación en la neurociencia cognitiva, provocando con su misterioso origen que un prominente investigador la etiquetase como “la energía oscura del cerebro”, dijo Sporns. Hasta ahora, nadie sabe por qué tienen lugar estas fluctuaciones o cuál puede ser su función.

Sporns y Honey sugieren que una mirada más cercana a la estructura del cerebro podría proporcionar una nueva perspectiva.

A pesar de la enorme cantidad de trabajo realizado por los neurocientíficos, se sabe relativamente poco sobre cómo está estructurado el cerebro humano – cómo, por ejemplo, los cientos (el número es desconocido) de regiones del cerebro humano están conectadas. El modelo de ordenador creado por Sporns y Honey sugiere que este mismo patrón de conectividad es crucial para generar y dar forma a la actividad cerebral en un cerebro activo y en reposo.

El trabajo empírico sobre el cerebro humano es un reto debido al hecho de que por lo intrincado del mismo no es posible manipularlo y observarlo simplemente. Sporns y Honey comparan el estudio del cerebro con el estudio de otros sistemas complejos como el metabolismo celular, la economía o el cambio climático global. Los modelos deben usarse para probar teorías y generar pistas sobre cómo funciona el sistema a nivel global.

Y aunque las tecnologías como las IRM funcionales permiten a los científicos medir ciertas clases de conectividad neuronal, la aproximación neuroinformática, que usa conjuntos de datos extensivos anatómicos y fisiológicos para describir el cerebro del macaco, permitió a Sporns y Honey recuperar datos de toda la actividad que tuvo lugar durante las simulaciones.

Sporns dijo que deseaba crear un modelo similar a gran escala de un cerebro humano que le permita estudiar las grandes redes y conectividades, una vez que estén disponibles los conjuntos de datos necesarios sobre cómo están estructuradas las redes neuronales.

Un modelo por ordenador de nuestro cerebro humano ayudaría a los científicos a comprender mejor de dónde vienen estas fluctuaciones de estado de reposo. También les permitiría enlazar la actividad neuronal al rendimiento cognitivo y del comportamiento y hacer preguntas sobre las diferencias en los cerebros de cada individuo.

Sporns dijo que esta investigación podría llevar a aplicaciones clínicas, ofreciendo nuevas herramientas de diagnóstico para desórdenes cerebrales tales como la enfermedad de Alzheimer que se sabe que afecta a las conexiones cerebrales. También podría ayudar a explicar por qué los humanos no piensan igual.

“Si las fluctuaciones en la actividad cerebral están guiadas por la anatomía”, dijo Sporns, “entonces las diferencias individuales en el pensamiento de la gente y lo que piensan podría tener sus raíces en cómo están conectados los cerebros”.

La investigación fue financiada por la Fundación James S. McDonnell.


Fecha Original: 4 de junio de 2007
Enlace Original

Explosión de energía extrema detectada por el Telescopio Chandra

A simple vista, el cúmulo galáctico 3C438 parece igual que cualquier otra mancha en el cielo estrellado. Pero la visión de rayos-X del telescopio espacial Chandra describe una imagen completamente distinta con una explosión desde el centro del cúmulo que forma una nube de energía equivalente a la explosión de mil millones de Soles, un evento que puede ser el más energético jamás detectado en el universo.

Los astrónomos que hicieron el descubrimiento han separado al causante de la explosión energética cósmica en dos sospechosos. Piensan que o bien dos galaxias densas están colisionando a 6 millones de kilómetros por hora, o que un agujero negro supermasivo está tragándose la masa de 100 estrellas cada año.

“Sea cual sea el escenario, es uno de los eventos más extremos en el Universo local”, escribieron los astrónomos en la próxima edición de Astrophysical Journal. A más de 13 veces la temperatura del núcleo del Sol, las energías halladas rivalizan incluso con las halladas en el “cúmulo bala”.

Ralph Kraft, astrofísico del Centro Harvard-Smithsoniano para Astrofísica en Massachusetts y coautor del estudio del hallazgo, dijo que la explosión es equivalente a la “explosión de todas las estrellas de una galaxia a la vez”.

Aunque existen dos posibles explicaciones para el conflicto estelar, Kraft no cree en la idea de que un obeso agujero negro esté provocando la terrible explosión de energía del cúmulo. Incluso los mayores agujeros negros supermasivos no podrían devorar estrellas a la razón necesaria para producir la energía vista en 3C438. “Verdaderamente, (estos valores) son difíciles de creer”, dijo Kraft.

Las imágenes del radiotelescopio del cúmulo revelan una historia más compleja: dos chorros similares a nubes en forma de seta brotando de cada lado de un brillante punto caliente, que representa la radio galaxia. Cuando superponemos sobre la imagen de rayos-X, la estructura se sitúa en el centro de una intensa nube de energía.

Ero, ¿la radio galaxia es la pista decisiva para el calor observado en el cúmulo? Kraft y sus colegas aún no están convencidos. Es “demasiado débil” y no podemos contar con la gran dispersión de energía intensa, de acuerdo con el estudio.

“Estamos siendo testigos de la colisión de dos cúmulos muy masivos en uno contra el otro”, dijo a SPACE.com. “Ésto es lo único que podría liberar tanta energía”.


La escritora del personal de Space.com Jeanna Bryner contribuyó a este artículo.Autor: Dave Mosher
Fecha Original: 5 de junio de 2007
Enlace Original

Investigadores de la MU hallan mecanismos que podrían desvelar las respuestas a la enfermedad de Alzheimer

Cuatro millones de personas en los Estados Unidos y de 15 a 20 millones en todo el mundo sufren la enfermedad de Alzheimer. Estos números es probable que se tripliquen para el año 2050 debido al hecho de que el 24 por ciento de la población tendrá más de 65 años. En su intento por combatir la enfermedad, dos profesores de la Universidad de Missouri-Columbia han identificado nuevos mecanismos que podrían tener importantes implicaciones en el desarrollo de tratamientos para la enfermedad. Los Institutos Nacionales de Salud premiaban recientemente a los investigadores de Mizzou con una beca de 6 millones de dólares para continuar con su estudio.

Grace Sun y Gary Weisman, profesores de bioquímica en la Escuela de Medicina y la Facultad de Agricultura, Alimentos y Recursos Naturales, están entrando en la segunda fase de un proyecto de 11 millones de dólares destinado a identificar las causas de la enfermedad de Alzheimer. Estudios previos, han indicado los efectos tóxicos de una proteína, el péptido beta-amiloide o “A-beta,” que se acumula en placas amiloides en el cerebro de los pacientes de Alzheimer. A pesar de desconocer los mecanismos, la producción incrementada de este péptido puede causar discapacidades en las funciones cerebrales.

“Cuando la proteína A-beta se acumula en placas, se pliega en formas anormales que son tóxicas para las células”, dijo Sun. “Aunque sabemos que esto tiene algún efecto en la función cerebral, no sabemos cómo es el tóxico o en qué etapa comienza la toxicidad. En los pasados cinco años, hemos comenzado a comprender cómo funciona esta enfermedad. Con la nueva beca, seremos capaces de seguir avanzando y ver si hay tratamientos que puedan modificar la respuesta celular en el cerebro”.

Las A-beta anormales perjudican las conexiones sinápticas que tienen lugar entre neuronas. Estas sinapsis controlan la comunicación entre las células cerebrales, incluyendo cómo se procesa la memoria. Además de a las neuronas, las A-beta también atacan a los astrocitos y las células microgliales. Los astrocitos son un tipo importante de células ya que proporciona nutrientes a las neuronas. Las células microgliales son células inmunes activadas para las funciones relacionadas con la defensa. Los efectos de las A-beta sobre los astrocitos y las microglías pueden crear una respuesta inflamatoria anormal que puede dañar las neuronas y otras células cerebrales.

La siguiente fase del estudio incluye tres proyectos. Se estudiarán los mecanismos por los que  las A-beta afectan a las fosfolipasas, un grupo de enzimas que, cuando se activan, destruyen las membranas de las células cerebrales. Las pruebas actuales sugieren que las A-beta activan algunas de estas enzimas.

En el segundo proyecto, Weisman estudiará los mecanismos de inflamación en el cerebro y el papel de las A-beta en la creación de la respuesta inflamatoria. Weisman explorará el papel de un grupo de receptores que controlan tanto la función de la enzima que produce la A-beta en las células cerebrales como la que regula la inflamación. Con la supresión de la función de este receptor, Weisman espera identificar nuevos tratamientos que minimicen la producción e inflamación de las A-beta.

Gibson Wood, profesor de farmacología de la Universidad de Minnesota, liderará el tercer proyecto, que estudiará el papel del colesterol en el cerebro. El estudio de Wood evaluará los efectos de las estatinas, usadas normalmente para tratar los altos niveles de colesterol. La anterior investigación de Wood demostró que las estatinas tenían otros efectos beneficiosos además de bajar el nivel de colesterol. Su estudio comprobará si los medicamentos también combaten los efectos negativos de las A-beta y limitan las progresión de la enfermedad de Alzheimer.

Los hallazgos de este nuevo programa de investigación han sido publicados en Journal of Neuroinflammation, Journal of Neuroscience y Journal of Biological Chemistry. Los fondos para el estudio han venido del Instituto Nacional de la Vejez, parte de los Institutos Nacionales de la Salud, y la Universidad de Missouri-Columbia.

“Sin los fondos de la MU y las colaboraciones interdisciplinares, no habríamos sido capaces de llevar a cabo esta investigación”, dijo Sun.

De acuerdo con los Institutos Nacionales de Salud, la enfermedad de Alzheimer es la forma más común de demencia entre los adultos ancianos y afecta a áreas del cerebro que controlan la memoria, el juicio, el comportamiento y la inteligencia. La enfermedad se descubrió por primera vez hace más de 100 años por un médico alemán, el Dr. Alois Alzheimer, cuando diagnosticó a un paciente que falleció de una enfermedad del tipo de demencia a la edad de 55 años.


Autor: Christian Basi
Fecha Original: 4 de junio de 2007
Enlace Original

Los agujeros negros más solitarios del universo

Este es un “corte” de unos 700 millones de años luz de la distribución de galaxias en el universo. Los vacíos están marcados como círculos azules, y las galaxias con puntos rojos. La imagen muestra una galaxia vacía que alberga un agujero negro con acreción activa en su centro; tal actividad se revela en el espectro óptimo exhibiendo picos de emisión, característico de los gases ionizados por la luz emitida por la materia que gira alrededor de un agujero negro supermasivo. Los otros objetos de la imagen están en primer o segundo plano. (Crédito: John Parejko, Danny Pan y Anca Constantin de la Universidad de Drexel)

Los agujeros negros supermasivos en continuo crecimiento de los centros galácticos son comunes incluso en los vacíos cósmicos las regiones más extrañas y vacías del universo.

En un estudio de más de mil galaxias vacías, usando datos del Explorador del Cielo Digital Sloan (SDSS-II), astrónomos de las Universidades de Drexel y Widener anunciaron que el crecimiento de estos monstruosos agujeros negros – con masas de millones a cientos de millones de veces la de nuestro Sol – se encuentran donde las galaxias son poco densas e interactúan muy poco unas con otras. Los investigadores también han encontrado que la acreción de materia en estos agujeros negros vacíos es más lenta que en los entornos galácticos más densos.

Estos hallazgos arrojan luz sobre la formación de agujeros negros y su proceso de evolución demostrando que el entorno afecta a cómo de rápido proceden las galaxias a través de su ciclo evolutivo.

La simple presencia de agujeros negros supermasivos crecientes en los puestos fronterizos del universo reta a los actuales modelos teóricos de la estructura, formación y evolución galáctica, explicó Anca Constantin de la Universidad de Drexel, autora principal del artículo enviado hoy a la reunión de la Sociedad Astronómica Americana en Honolulu.

“Es interesante que veamos agujeros negros galácticos en acreción activa en todas las fases de la evolución de estas regiones poco densas”, dijo Constantin. “Esto significa que el proceso de crecimiento de un agujero negro es bastante similar a lo que podría compararse con las zonas más apartadas del país y las regiones urbanas más atestadas del universo”.

Las regiones vacías, prácticamente sin nada, son campos tridimensionales de cientos de millones de años luz de distancia, que llenan la mitad del universo. Sólo el cinco por ciento de todas las galaxias viven en estas regiones similares a burbujas. El otro 95 por ciento de las galaxias viven juntas en comunidades, atestadas en cúmulos, filamentos y muros: las ciudades y los suburbios del universo.

Estudiando una “porción” de 700 millones de años luz de ancho del universo, los investigadores encontraron que el espectro de los centros de las galaxias vacías muestran gases calientes ionizados por la luz emitida por la materia que gira alrededor de los agujeros negros supermasivos. Constantin añade que, “los agujeros negros de acreción más aislados, no obstante, no son tan activos como los de entornos más poblados, y el combustible parece estar menos disponible para la acreción en los vacíos que en las galaxias ‘urbanas’”.

La astrónomo Fiona Hoyle, miembro del equipo del descubrimiento de la Universidad de Widener añadió: “Esto es extraño dado que estas apartadas galaxias forman estrellas a una razón mayor que sus homólogos en regiones más densas; esto significa que hay gran cantidad de combustible, pero no se canaliza de forma eficiente hacia el motor central”.

La formación de estrellas requiere la presencia de grandes cantidades de gas y por esto debe haber más que suficiente gas en las galaxias vacías si sus razones de formación estelar son altas, explicó Hoyle. El mejor ratio de acreción observado en las galaxias vacías significa que este gas no está llegando a la región del núcleo donde tiene lugar la acreción. Se piensa que las interacciones con otras galaxias perturban el potencial gravitatorio, lo que desvía algo de gas hacia la región nuclear. “Estas interacciónes no son tan frecuentes en los vacíos, por lo que el “alimento” del agujero negro se hace más lento”.

Estos rudos individuos de los vacíos no necesitan competir con sus vecinos por el combustible, y su ciclo vital es raramente perturbado, apunta Constantin. Por el contrario, la vida es más agitada en las regiones pobladas donde las interacciones galácticas son frecuentes. Como consecuencia, las galaxias son despojadas de su gas y se envía material hacia su motor central. Esto significa que hay más posibilidades de acreción en los agujeros negros en entornos más “urbanos”.

“Por otra parte, a los agujeros negros de galaxias vacías puede llevarles más tiempo alcanzar la madurez, dada su fase de acreción lenta, lo que podría explicar por qué los agujeros negros más masivos y lentos son menos frecuentes en los vacíos”, apunta. Los datos estudiados por Constantin pueden demostrar también que los agujeros negros activos parecen ser más comunes en los vacíos pero sólo entre las galaxias pequeñas (menos masivas), mientras que son menos comunes entre las galaxias masivas. Esto también da una pista de que el ciclo de vida en el crecimiento del agujero se retrasa o se hace más lento en los vacíos comparado con las regiones más densas.

El miembro del equipo del descubrimiento Michael Vogeley de Drexel dijo que es particularmente extraño que los poco sistemas vacíos de acreción masivos y lentos viven dentro de las subregiones más retiradas, mientras que sus homólogos más “urbanos” se encuentran en las vecindades más pobladas.

“Tal vez debido a que los objetos masivos son propensos a reunir material alrededor de ellos, tal proceso de “limpieza” contribuiría a vaciar el ya enrarecido espacio cercano en vacíos”, apunta Vogeley. “Esto dejaría poco o insuficiente material para la futura formación de otras masivas y brillantes galaxias cercanas”. Por contra, en los cúmulos galácticos donde hay gran cantidad de material alrededor, la acreción del material que lo rodea tendría poca diferencia.

Estos resultados han sido posibles sólo gracias a un reducido número de regiones vacías y galaxias vacías halladas en los datos del SDSS-II, la exploración más ambiciosa del universo jamás llevada a cabo, dicen los investigadores. La muestra usada en el análisis que anunciaron hoy comprende más de 1000 galaxias vacías. Previamente, se había estudiado la acreción de los agujeros negros en los centros de galaxias vacías sólo en un puñado de objetos contenidos en una región vacía, el Vacío del Boyero.

Los resultados se detallan en el artículo “Active Galactic Nuclei in Void Regions (Núcleos Galácticos Activos en Regiones Vacías)” enviado para su publicación en The Astrophysical Journal.

Los fondos para este trabajo fueron proporcionados por la NASA a través de la beca NAG5-12243 y la Fundación Nacional de Ciencia a través de la beca AST-0507647.


Fecha Original: 4 de junio de 2007
Enlace Original

Los científicos confirman el retraso en las pruebas del acelerador de partículas del CERN

El “Globo” de madera que se ve, es la entrada de la Organización Europea para la Investigación Nuclear, CERN, el 3 de junio de 2007 en Meyrin cerca de Ginebra. Los científicos que buscan desvelar los secretos del universo tendrán que esperar un poco más después de que el laboratorio del CERN en Suiza el lunes haya confirmado un retraso en las pruebas del nuevo acelerador de partículas masivo.

Los científicos que buscan desvelar los secretos del universo tendrán que esperar un poco más después de que el laboratorio del CERN en Suiza este lunes haya confirmado un retraso en las pruebas de un nuevo acelerador de partículas masivo.

El Gran Colisionador de Hadrones (LHC), un túnel circular de 27 kilómetros a 100 metros de profundidad bajo la frontera Franco-Suiza donde las partículas subatómicas colisionaran a una velocidad cercana a la de la luz, comenzará sus operaciones la próxima primavera y no en noviembre como estaba planeado originalmente, dijo el CERN.

“El inicio a todo rendimiento siempre estuvo programado para la primavera de 2008, pero habíamos planeado probar la máquina dos semanas antes de Navidad, lo cual no tendrá lugar”, dijo el portavoz James Gillies a AFP, confirmando un informe del diario francés Le Monde.

El retraso se debe a una acumulación de pequeños contratiempos, dijo Gillies.

El LHC, ensamblado durante 15 años e involucrando a más de 10 000 físicos y a otras 500 firmas y organizaciones de todo el mundo, puede ayudar a abrir el cerrojo de los últimos secretos de las partículas subatómicas.

El proyecto “podría ser la empresa científica más ambiciosa de todos los tiempos”, y sus resultados “probablemente cambiarán nuestro conocimiento fundamental del universo”, dicen sus organizadores.

Los científicos planean estrellar entre sí protones de alta energía en dos rayos que rotan en sentido contrario en el túnel, en las afueras de Ginebra, para buscar señales de supersimetría, materia oscura y los orígenes de la masa.

Los rayos están hechos de grupos que contienen miles de millones de protones que serán inyectados, acelerados, y mantenidos en circulación durante horas, guiados por miles de imanes superconductores magnéticos.

Cada protón recorrerá el anillo de 27 kilómetros unas 11 000 veces pos segundo.


Fecha Original: 4 de junio de 2007
Enlace Original

El cambio climático ligado a los orígenes de la agricultura en México

Laguna Tuxpan
Restos de Laguna Tuxpan en el Valle Iguala de México, proporcionaron pruebas para el cultivo y del maíz y calabacín junto con sus límites entre el 8000 BP y la gran sequía entre el 1800 y 900 BP (Crédito: Ruth Dickau)

Nuevas pruebas de microfósiles de plantas y carbones del centro del valle Balsas en México une un crucial desplazamiento cultural, el cultivo doméstico en el Nuevo Mundo, a la historia medioambiental local y regional. La agricultura en el valle de Balsas se originó y diversificó durante el periodo cálido y húmedo posglacial que siguió al clima mucho más frío y seco de la fase final de la última edad de hielo. Un significativo periodo seco parece haber tenido lugar al mismo tiempo que el episodio seco principal asociado con el colapso de la civilización Maya, según informan investigadores Smithsonianos y sus colegas en la versión on-line de Proceedings of the National Academy of Sciences.

“Nuestro estudios del clima y la vegetación revelan la configuración ecológica en la que la gente del suroeste de México inició los cultivos. También enfatiza los efectos a largo plazo de la agricultura sobre el entorno”, dijo Dolores Piperno, encargada de arqueobotánica y arqueología Suramericana en el Museo Nacional Smithsoniano de Historia Natural y el Instituto de Investigación Tropical Smithsoniano en Panamá.

Los coautores junto a Piperno son Enrique Moreno e Irene Holst, investigadores ayudantes en el STRI; José Iriarte, profesor de arqueología en la Universida de Exeter en Inglaterra; Matthew Lachinet, profesor asistente en la Universidad de Nevada en Las Vegas; John Jones, profesor asistente en la Universidad de Washington State; Anthony Ranere, profesor en la Universidad de Temple; y Ron Castanzo, colaborador de investigación en el Museo Nacional de Historia Natural.

El polen del Podocarpus, una conífera encontrada hoy principalmente en altas elevaciones, es común en los antiguos estratos sedimentarios tomados de los lagos y pantanos en las divisiones de las aguas centrales de Balsas. Junto al polen de hierbas y otras plantas de tierras secas, el Podocarpus indica que el entorno que se encontraron los humanos a finales de la última edad glacial (14 000-10 000 B.P.) era más seco y 4 o 5 grados centígrados más frío que el de hoy.

El valle de Balsas es uno de los lugares más probables para el cultivo del maíz (Zea mays) de su ancestro silvestre, el teosinte (Zea mays ssp. parviglumis) debido a que las poblaciones de teosinte moderno de aquellas regiones eran las más cercanas genéticamente al maíz. Cuando comenzaron a formarse los lagos alrededor del 10 000 B.P., se convirtieron en imanes para las poblaciones humanas que explotaron los suelos fértiles y los recursos acuáticos que contenían los lagos. Los investigadores hallaron restos de alfarería prehistórica y otros artefactos en los sedimentos a los bordes del lago. En un lago, los datos fitolíticos demuestran que el maíz y el calabacín fueron probablemente plantados en las fértiles riberas sobre el 8000 B.P. El polen del teosinte es indistinguible del maíz, pero el polen del Zea está presente de forma consistente en los restos desde el final de la última glaciación.

El polen y los fitolitos de las hierbas asociadas a las plantas de cultivo se hicieron abundantes en los restos aproximadamente hacia el 6300 B.P El carbón asociado a las prácticas de quemas agrícolas también son abundantes en esta época. Entre el 1800 B.P. y el 900 B.P., tuvo lugar una gran sequía, correspondiente a la época en la que hubo una sequía en la región de la civilización Maya. Esta prueba demuestra que incluso durante el Holoceno, las oscilaciones severas climáticas a corto plazo tuvieron lugar y que pudieron haber tenido una considerable importancia para los cambios sociales.

“Continuamos encontrando que los bosques tropicales desempeñan un papel mucho más importante en el origen de la agricultura en el Nuevo Mundo de lo que se pensaba previamente”, dijo Piperno.

El equipo publicará las pruebas de las correspondientes excavaciones arqueológicas de cuevas cercanas y refugios de roca que comenzarán a rellenar la información cultural que acompañó estos cambios y los fechan con mayor precisión.

Los fondos para este estudio fueron proporcionados por una beca de la Fundación Andrew W. Mellon y el Instituto de Investigación Tropical Smithsoniano y el Museo Nacional de Historia Natural.


Fecha Original: 4 de junio de 2007
Enlace
Original

Nueva era para la exploración espacial, 14 agencias espaciales dan un paso histórico

En un movimiento sin precedentes, 14 de las agencias espaciales más importantes del mundo revelaron hoy su acuerdo para una exploración espacial coordinada globalmente de la Luna, Marte y más allá.

Tras meses de intensas discusiones, publicaron sus ideas comunes para la exploración espacial: La Estrategia de Exploración Global: El Marco de Trabajo para la Coordinación.

El documento esboza la base social para la exploración del espacio, define el foco actual y el proceso de la exploración espacial, el actual interés en la Luna y en la exploración de Marte, y propone un marco de trabajo para una futura coordinación global de la exploración espacial.

Dando la bienvenida a la publicación del documento, el Ministro de Ciencia e Innovación Malcolm Wicks dijo:

“Este documento marca el inicio de una nueva era en la exploración espacial. Desde el lanzamiento del Sputnik en 1957, hemos aprendido mucho sobre cómo explorar el espacio y hemos experimentado los beneficios de los descubrimientos científicos en nuestras vidas cotidianas. Las innovaciones como explotar el espacio para las comunicaciones globales, predicción del clima y ayuda a los servicios de emergencia todas han venido de la exploración espacial de la primera mitad del siglo XX.

“Durante este siglo estamos seguros de que veremos fantásticos viajes de descubrimiento con robots y humanos y humanos aventurándose más allá de nuestro Sistema Solar. Lo que aprendan excitará e inspirará a nuevas generaciones para involucrarse en la ciencia y crear nuevas tecnologías que podrían beneficiar a la economía global.

“El Marco de Trabajo para la Coordinación propone una visión común para una nueva era de la colaboración internacional. Le doy la bienvenida al hecho de que el Reino Unido pueda usar esto para informar de nuestros planes nacionales mientras nos unimos en un esfuerzo verdaderamente global”.

El Centro Espacial Nacional Británico – que coordina las actividades espaciales civiles del Reino Unido y representa al Reino Unido en la Agencia Espacial Europea – estuvo totalmente involucrado en dar forma a este documento. Tras su publicación, se espera que un foro voluntario y no vinculante (el Mecanismo de Coordinación Internacional) se establezca de tal forma que las 14 naciones puedan compartir sus planes para la exploración espacial, y colaborar para hacer más fuertes tanto los proyectos individuales como los colectivos.

Este es un momento excitante para el Reino Unido en la exploración espacial:

  • El Reino Unido estuvo fuertemente implicado en la reciente y exitosa misión SMART-1 a la Luna;
  • El Reino Unido está desarrollando tecnología puntera para la exploración geoquímica de la Luna a bordo de la misión india Chandrayaan-1 la cual está prevista para su lanzamiento en 2008;
  • También es el segundo mayor contribuyente a la Agencia Espacial Europea (ESA) en el programa de exploración espacial Aurora;
  • La industria del Reino unido recientemente ha comenzado a trabajar en la misión BepiColombo a Mercurio, una misión conjunta Europeo/Japonesa que se lanzará en 2013.

El sector espacial del Reino Unido tiene un valor de 4,8 millones de libras anuales, proporcionando 70 000 puestos de trabajo y haciendo una contribución al total al PIB del Reino Unido de casi 7 mil millones de libras por año.

El Centro Espacial Nacional Británico está entre las 14 agencias espaciales que han desarrollado el documento. Son las siguientes: ASI (Italia); BNSC (Reino Unido); CNES (Francia); CNSA (China); CSA (Canadá); CSIRO (Australia); DLR (Alemania); ESA (Agencia Espacial Europea); ISRO (India); JAXA (Japón); KARI (República de Corea); NASA (Estados Unidos); NSAU (Ucrania); y, Roscosmos (Rusia).


Fecha Original: 31 de mayo de 2007
Enlace Original

Células solares con una eficiencia del 40% para usarse en electricidad solar

Científicos de Spectrolab, Inc., empresa subsidiaria de Boeing, han publicado recientemente su investigación sobre la fabricación de células solares que superan el hito del 40% de eficiencia — la mayor conseguida hasta el momento para un dispositivo fotovoltaico. Sus resultados aparecen en una edición reciente de Applied Physics Letters.

La mayoría de células solares convencionales usadas en las aplicaciones de hoy, tales como energía suplementaria para casas y edificios, son simples uniones de células de silicio que usan únicamente la intensidad de la luz que el Sol produce de forma natural, y tienen eficiencia óptima para un rango relativamente estrecho de energías de los fotones.

El grupo de Spectrolab experimentó con un concentrador de multiuniones de células solares que usa altas intensidades de la luz solar, el equivalente de cien soles, concentrados por lentes o espejos. Significativamente, las células de multiuniones pueden usar el amplio rango de longitudes de onda de la luz solar de forma mucho más eficiente que las células de uniones simples.

“Estos resultados animan especialmente debido a que se han logrado usando una nueva clase de materiales semiconductores metamórficos, permitiendo mucha mayor libertad en el diseño de células de multiuniones para una conversión óptima del espectro solar”, dijo el Dr. Richard R. King, investigador principal del esfuerzo del desarrollo e investigación en células solares de alta eficiencia a PhysOrg.com. “El excelente rendimiento de estos materiales apunta hacia una eficiencia mayor en futuras células solares”.

En el diseño, las células de multiuniones dividen el amplio espectro solar en tres secciones menores usando tres espacios entre bandas de subcélulas. Cada una de estas subcélulas puede capturar un rango de luz en una longitud de onda distinta, permitiendo a cada subcélula convertir de forma eficiente la luz en electricidad. Con su conversión de eficiencia medida en el 40,7%, las células concentradoras de multiuniones metamórficas sobrepasan el límite teórico de 37% para unas células de unión simple a 1000 soles, debido a su estructura de multiunión.

Aunque el principal negocio de Spectrolab es proporcionar células fotovoltaicas y paneles para la industria aeroespacial (muchas de sus células solares se usan en satélites actualmente en órbita), la compañía prevé que este avance tendrá aplicaciones también en la generación comercial de electricidad solar terrestre.

La investigación que llevó a este descubrimiento de célula de concentradores solares de alta eficiencia fue patrocinada en parte por el Laboratorio Nacional de Energía Renovable del Departamento de Energía de los Estados Unidos, y desempeñará un papel importante en la Iniciativa de América Solar del gobierno, lo que apunta a hacer una energía solar de coste competitivo con la generación convencional de energía para el año 2015. La compañía ha dicho que estas células solares podrían ayudar a los fabricantes de sistemas de concentradores a producir electricidad a un coste competitivo con la electricidad generada por los métodos convencionales actuales.

Los científicos de Spectrolab también predicen que con una eficiencia teórica del 58% en células con más de tres uniones usando materiales y diseños mejorados, las células de concentradores solares podrían conseguir eficiencias de un 45 o un 50% en el futuro.


Cita: King, R. R., Law, D. C., Edmondson, K. M., Fetzer, C. M., Kinsey, G. S., Yoon, H., Sherif, R. A., and Karam, N. H. “40% efficient metamorphic GaInP/GaInAs/Ge multijunction solar cells.” Applied Physics Letters 90, 183516 (2007).

Autor: Lisa Zyga
Fecha Original: 1 de junio de 2007
Enlace Original

Las matemáticas que mejoran los filtros de spam se usan para comprender cómo aprende el cerebro a mover nuestros músculos

Un equipo de ingenieros biomédicos ha desarrollado un modelo por ordenador que hace uso de las más o menos predecibles estimaciones de los movimientos musculares humanos para explicar cómo el cerebro recurre tanto a lo que aprendió recientemente como a lo que ya conocía para anticipar lo que necesita para desarrollar nuevas habilidades motoras.

Los ingenieros, de Johns Hopkins, MIT y Noroeste, explotaron el hecho de que toda la gente muestra unos patrones similares de aprendizaje “probable” y los usan para desarrollar y ajustar nuevos movimientos, ya sea en bebés que intentan andar o en pacientes de apoplejía que reconectan los vínculos entre el cerebro y los músculos del cuerpo.

En su informe de esta semana en Nature Neuroscience, el equipo dice que su nueva herramienta podría hacer posible predecir las mejores formas de enseñar nuevos movimientos y ayudar a diseñar regímenes de terapias físicas para los discapacitados o lesionados.

Reza Shadmehr, Doctor de ingeniería biomédica en Hopkins, quien construyó junto con sus colegas el nuevo modelo, dice que el cerebro artificial de un ordenador, como su homólogo natural, está guiado en parte por un tipo especial de teoría estadística de “probabilidad” llamada matemática bayesiana.

Al contrario que el análisis estadístico convencional, la probabilidad bayesiana es una “opinión” subjetiva, que mide un grado de creencia individual en el estudiante en un resultado particular cuando la entrada es incierta. La idea cuando se aplica al trabajo cerebral es que cada cerebro usa lo que ya conoces para “predecir” o “creer” que algo nuevo sucederá, y entonces usa la información para ayudarle a hacerlo.

“Usamos la idea de que la experiencia anterior y la creencia afectan a la probabilidad de futuros resultados, tales como tomar una ruta alternativa al trabajo el viernes porque hay atascos martes, miércoles y jueves, y creemos firmemente que el viernes será peor”, dice Shadmehr. Los filtros de spam del correo electrónico funcionan bajo un principio similar; predicen qué palabras de las que están “probablemente” adjuntas en tu correo no quieres y “aprenden” y mejoran con lo que se excluye de tu bandeja de entrada.

El modelo por ordenador, dice Shadmehr, duplica casi con total precisión los resultados de los experimentos que prueban la capacidad de los monos para seguir visualmente rápidos flashes de luz. Los experimentos que usan tales movimientos rápidos del ojo, o sacadas, son básicos en el estudio de cómo controla el cerebro los movimientos.

Inicialmente, el estudiante animal cometía grandes errores, pero también almacenaba la información sobre sus errores en un banco de memoria por lo que pudo adaptarse y hacer predicciones más precisas para la siguiente ocasión. Cada vez que el estudiante repetía la tarea, escudriñaría en sus bancos de memoria y haría una predicción de cómo moverse, lo cual, a su vez, sería también memorizado. Aunque la memoria a corto plazo es purgada periódicamente, los errores repetidos fueron finalmente transferidos a un banco de memoria a largo plazo.

Al estudiante ordenador se le puso como tarea “observar” un punto de luz. Entonces se apagaban todas las luces. Se encendía de nuevo la luz y se pedía de nuevo al estudiante ordenador que mirase al mismo punto. La velocidad y patrón de aprendizaje en adaptar sus movimientos encajaban con los resultados del experimento del mono casi perfectamente. “Encontramos que el modelo bayesiano puede explicar casi todos los fenómenos que observamos en relación al aprendizaje de movimientos motores”, dice Shadmehr.

Más allá del posible uso en la ayuda a pacientes de apoplejía, la nueva herramienta podría aplicarse también a una mejor comprensión de cómo aprendemos el lenguaje, desarrollamos ideas y creamos la memoria. “Cómo aprendemos a pensar funciona bajo muchos de los mismo principios de cómo aprendemos a movernos”, dice Shadmehr.

La investigación fue patrocinada por el Instituto Médico Howard Hughes y el Instituto Nacional de Salud.

Los autores del artículo son Konrad Kording de la Universidad del Noroeste, Joshua Tenenbaum del MIT y Shadmehr de Johns Hopkins.


Autor: Nick Zagorski / Audrey Huang
Fecha Original: 1 de junio de 2007
Enlace Original

Físico de la Universidad de Missouri-Columbia dice que la técnica para probar el campo gravitomagnético es ineficaz

La existencia del campo gravitomagnético relaciona la Teoría de la Relatividad General de Einstein con en origen del Universo.

La Teoría de la Relatividad General de Albert Einstein ha fascinado a los físicos y generado un debate sobre el origen del universo y la estructura de objetos como los agujeros negros y estrellas complejas llamadas quásars. Principalmente se ha enfocado el estudio en confirmar la existencia del campo gravitomagnético, así como de las ondas gravitatorias. Un físico de la Universidad de Missouri-Columbia argumentó recientemente en un artículo que la interpretación de los resultados del Medidor Láser Lunar (LLR), que se usa para detectar el campo gravitomagnético, es incorrecto debido a que el LLR actualmente no es sensible al gravitomagnetismo y por tanto no es efectivo para medirlo.

La Teoría de la Relatividad General incluye dos campos diferentes: campos estáticos y no estáticos. El campo gravitomagnético es un campo no estático que es importante para la comprensión de la relatividad general y del universo.

“Si se confirma la existencia del campo gravitomagnético, entonces nuestra comprensión de la relatividad general es correcta y puede usarse para explicar cosas como los chorros de los quásars y los discos de acreción en los agujeros negros”, dijo Sergei Kopeikin, profesor asociado de física en el Facultad de Artes y Ciencias de la MU. “La relatividad general explica el origen del universo, y esto es importante para toda la humanidad, independientemente de su credo o religión. Todos vivimos en el mismo mundo, y debemos comprender este lugar en el que vivimos”.

Kopeikin dijo que se usaron cuatro técnicas para probar el campo gravitomagnético. La primera, llamada Gravity Probe B, usó un giroscopio en órbita alrededor de la Tierra para medir el campo. Fue patrocinada por la NASA y llevbó casi 40 años desarrollarla; los científicos recientemente llevaron a cabo el experimento y están actualmente analizando los resultados. Un segundo experimento que involucró satélites, llamado Lageos, detectó un campo gravitomagnético con una precisión no superior a un 15 por ciento. Un tercer experimento fue desarrollado por Kopeikin y otros científicos en 2001 y usó el Interferómetro de Línea Muy Larga (VLBI) para probar el campo gravitomagnético de Júpiter; este experimento detectó el campo con una precisión aproximada de un 20 por ciento.

LLR es una técnica de prueba reciente. Implica disparar un rayo láser contra unos espejos llamados retroflectores, situados en la Luna, y medir el viaje de ida y vuelta de la luz de rayo. En respuesta a un artículo sobre el LLR, Kopeikin argumentó en una carta publicada en Physical Review Lettersque la interpretación de los resultados del LLR son incorrectos. Dice que los análisis de su propia investigación y de las de otros científicos revelan que esta aproximación a la técnica de la LLR no mide lo que se afirma que hace.

La técnica del LLR involucra un procesamiento de datos con dos conjuntos de ecuaciones matemáticas, uno relacionado con el movimiento de la Luna alrededor de la Tierra, y el otro relacionado con la propagación del rayo desde la Tierra hasta la Luna. Estas ecuaciones pueden escribirse de distintas formas basándose en la “libertad gauge”, la idea de que pueden usarse coordenadas arbitrarias para describir la física gravitatoria. Kopeikin analizó la libertad gauge de la técnica LLR y demostró que la manipulación de las ecuaciones matemáticas está provocando que los científicos deriven resultados que no aparecen en los datos.

“De acuerdo con la Teoría de Einstein, sólo las cantidades independientes de las coordenadas pueden medirse”, dijo Kopeikin. “El efecto que los científicos del LLR afirman que es detectable no existe, dado que se desvanece en el marco del observador. Las ecuaciones suman hasta cero, no teniendo nada que hacer con los datos reales. Los resultados aparecen de esta forma debido a un control insuficiente de los efectos coordenados en el sofisticado código de ordenador usado para el procesado numérico de datos del LLR. Necesitamos centrarnos en los efectos físicos reales de la gravedad, no en los efectos matemáticos que dependen exclusivamente de la elección de las coordenadas”.

También se ha publicado una respuesta del equipo del LLR en Physical Review Letters y argumentan que hay aspectos en la técnica que los hacen creer que sus méritos están justificados.


Autor: Katherine Kostiuk
Fecha Original: 1 de Junio de 2007
Enlace Original