Archivos del mes: mayo 2007

Cuasicristales: algo entre el orden y el desorden

David Damanik, profesor asociado de matemáticas, ha publicado una prueba clave en el estudio de los cuasicristales.

Un matemático ofrece una nueva prueba sobre unas extrañas propiedades electrónicas.

Profesionalmente hablando, las cosas en el mundo de David Damanik no se alinean – y puede probarlo.

En una nueva investigación que está disponible en línea y en revisión para su publicación en el número de julio de Journal of the American Mathematical Society, Damanik y su colega Serguei Tcheremchantsev ofrecen una prueba clave en el estudio de los cuasicristales, materiales similares a los cristales cuyos átomos no se alinean en una red de filas como los átomos que encontramos en los cristales. El último trabajo de Damanik se centra en un popular modelo que los matemáticos usan para estudiar los cuasicristales. La investigación, que estuvo en proceso durante 10 años, prueba que los cuasicristales del modelo no son conductores eléctricos y arroja algo de luz sobre este rincón poco conocido de la ciencia de los materiales.

“Esta es la primera vez que se ha conseguido, y dado el amplio interés académico en los cuasicristales esperamos que el artículo genere un interés significativo”, dijo Damanik.

Hasta 1982, los cuasicristales no es que no se hubiesen descubierto, es que se creía que eran físicamente imposibles. Comprender el porqué ayuda a comprender cómo se alinean los átomos en un cristal.

En la literatura de principios del siglo XIX, los minerólogos demostraron que todos los cristales – como el diamante o el cuarzo – estaban hechos de un red de una fila de átomos tras otra, repitiéndose cada fila a intervalos regulares. Los matemáticos y Químicos Físicos demostraron más tarde que la estructura periódica de repetición de los cristales no sólo estar en pequeños alineamientos fijos. Esto se reveló de forma elegante en el siglo XX cuando los cristales fueron bombardeados con rayos-X. Los cristales difractaron la luz en patrones de puntos que tenían “simetría rotacional”, lo que significa que se ven exactamente igual cuando se les rota parcialmente. Por ejemplo, un cuadrado tiene una simetría rotacional de cuatro caras debido a que se ve exactamente igual cuatro veces cuando se le da un giro completo.

La cristalografía de rayos-X reforzó lo que los físicos, químicos y matemáticos conocían sobre los cristales; podían producir patrones de puntos con sólo dos, tres, cuatro o seis caras de simetría rotacional. La física de sus entramados no permitía nada más.

Todo esto fue bien hasta 1982, cuando el físico Dan Shechtman hizo un estudio de difracción de rayos-X sobre una nueva aleación que había fabricado en el Instituto Nacional de Estándares y Tecnología. El patrón de puntos parecía como los hechos por cristales, pero tenía una simetría rotacional de cinco caras, como un pentágono –algo que estaba prohibido claramente para una estructura periódica de un cristal.

La aleación – que fue rápidamente llamada cuasicristal – atrajo intensamente el interés científico. Desde entonces se han fabricado docenas de cuasicristales. Aunque ninguna de sus estructuras se ha resuelto aún, científicos y matemáticos como Damanik están entusiasmados con su comprensión.

“Matemáticamente hablando, los cuasicristales caen en un terreno intermedio entre el orden y el desorden”, dijo Damanik. “Durante la última década, ha quedado cada vez más claro que las herramientas matemáticas que la gente ha usado durante décadas para predecir las propiedades electrónicas de los materiales no funcionarán en este terreno intermedio”.

Por ejemplo, la ecuación de Schrödinger, que apareció en 1925, describe cómo se comportan los electrones en cualquier material. Pero durante décadas, los matemáticos han sido capaces de usar sólo uno de los términos de las ecuaciones – el operador de Schrödinger – para descubrir si el material sería un conductor o un aislante. En los últimos cinco años, los matemáticos han probado que este método no funciona en los cuasicristales. El resultado de esto es que es mucho más complejo en realidad resolver las ecuaciones y averiguar el comportamiento de los electrones dentro de un cuasicristal. Se han usado Supercomputadores para resolverlas, pero Damanik dijo que las simulaciones por ordenador no pueden sustituir la prueba matemática.

“Las simulaciones por ordenador han demostrado que los electrones se mueven a través de los cuasicristales – aunque muy lentamente – de una forma notablemente distinta a como se moverían a través de un conductor”, dijo Damanik. “Pero los ordenadores nunca te mostrarán todo el paisaje complejo. Sólo dan una solución aproximada para un tiempo finito. En nuestro artículo hemos probado que los electrones siempre se comportan de esta forma en el modelo de cuasicrital estudiado, no sólo hoy o mañana, sino siempre”.

La investigación de Damanik fue financiada por la Fundación Nacional de Ciencia.


Autor: Jade Boyd
Fecha Original: 23 de mayo de 2007
Enlace Original

El VLT encuentra el objeto galáctico más pequeño con chorros

Chorros saliendo de una enana marrón (Impresión artística)

Se han descubierto chorros de materia alrededor de una “estrella fallida” de muy baja masa, en un proceso que imita al visto en las estrellas jóvenes. Esto sugiere no sólo que estas “enanas marrones” se forman de una forma similar a las estrellas normales sino también que sus flujos de salida se encuentran en objetos tan masivos como de cientos de millones de soles o por debajo del tamaño de Júpiter.

La enana marrón con el nombre 2MASS1207-3932 está llena de sorpresas [1]. Su compañera, una gigante de 5 veces la masa de Júpiter, fue el primer exoplaneta confirmado del que los astrónomos pudieron obtener una imagen, abriendo de esta forma un nuevo campo de investigación – la detección directa de mundos alienígenas. Fue más tarde cuando se encontró que la enana marrón tenía un disco a su alrededor, no muy distinto del de las estrellas jóvenes.

Ahora, los astrónomos usando el Telescopio Muy Grande del ESO (VLT) han encontrado que la joven enana marrón también expulsa chorros, un comportamiento bastante similar al de las estrellas jóvenes.

La masa de la enana marrón es de sólo 24 veces la masa de Júpiter. Por tanto, es de largo el objeto más pequeño conocido con un flujo de salida. “Esto nos lleva a la tentadora posibilidad de que los planetas gigantes jóvenes pudieran también tener flujos de salida asociados”, dice Emma Whelan, autor principal del artículo que informa de los resultados.

Los flujos de salida se descubrieron usando una técnica sorprendente conocida como espectroastrometría, basada en el espectro de alta resolución tomado con el instrumento UVES del VLT. Tal técnica se requiere debido a la dificultad de la tarea. Mientras que en las estrellas jóvenes normales – conocidas como estrellas T-Tauri por ser el prototipo de su clase – los chorros son lo bastante grandes y brillantes como para verse directamente, este no es el caso en las enanas marrones: la longitud de los chorros, recuperada mediante espectroastrometría es de sólo 0,1 arcosegundo, es decir, el tamaño de una moneda de dos euros vista a una distancia de 40 kilómetros.

Los chorros se alargan a una distancia de 1000 millones de kilómetros y el material escapa de la enana marrón a una velocidad de unos pocos kilómetros por segundo.

Los astrónomos tenían que confiar en la potencia del VLT dado que las emisiones observadas son extremadamente tenues y sólo UVES del VLT podría proporcionar tanto la sensibilidad como la resolución espectral requerida.

“Descubrimientos como este dependen exclusivamente de los excelentes telescopios e instrumentos, tales como el VLT”, dice Whelan. “Nuestro resultado también remarca el increíble nivel de calidad que está disponible hoy día a los astrónomos: el primer telescopio construido por Galileo se usaba para observar las lunas de Júpiter. Hoy, los telescopios terrestres de mayor tamaño pueden usarse para ver un objeto del tamaño de Júpiter a una distancia de 200 años luz y ¡ver que tiene chorros! ”

Usando la misma técnica y el mismo telescopio, el equipo había descubierto previamente flujos de salida en otra estrella enana joven. El nuevo descubrimiento establece un récord del objeto de menor masa con chorros que se ha visto [2].

Los flujos de salida están por todas partes en el Universo, ya que se han observado escapando de los núcleos activos de las galaxias – AGNs – pero también emergiendo de las estrellas jóvenes. Las observaciones actuales demuestran que aparecen en objetos de una masa aún menor. El mecanismo de flujo es, por tanto, muy robusto en un enorme rango de masas, desde algunas decenas de millones de masas solares (para los AGNs) hasta unas decenas de la masa de Júpiter (para las enanas marrones).

Más información

Se informó de estos resultado en una Carta al Editor en Astrophysical Journal (vol. 659, p. L45): “Discovery of a Bipolar Outflow from 2MASSW J1207334-393254 a 24 MJup Brown Dwarf”, by E.T. Whelan et al.

El equipo está compuesto por Emma Whelan y Tom Ray (Instituto de Dublín para Estudios Avanzados, Irlanda), Sofia Randich y Ray Jayawardhana (Universidad de Toronto, Canadá), Francesca Bacciotti y Antonella Natta (Observatorio Astrofísico de Arcetri, Italia), Leonardo Testi (ESO), y Subu Mohanty (Harvard-Smithsonian CfA, Estados Unidos).


Información Técnica

La espectroastrometría es simplemente un ajuste Gaussiano del perfil espacial del continuo y las regiones lineales de emisión de un espectro para medir posiciones con gran precisión. De esta forma se recupera la información espacial más allá de las limitaciones de la simple observación. Por ejemplo, la espectroastrometría se ha usado principalmente para investigar la binariedad en fuentes donde la separación binaria es mucho menor de que lo que se ve y para confirmar la actividad de flujos de salida donde la línea de emisión que traza el flujo se salida se origina a una distancia mucho más pequeña de lo que se ve y parece estar confinada en la fuente. El primer paso es medir el centroide continuo, es decir, la posición de origen. El perfil espacial del continuo se extrae en muchas posiciones a lo largo del eje de dispersión. Cada perfil extraido se ajusta con una Gausiana para medir la posición centroide de la emisión del continuo y el resultado es un espectro de posición del continuo. Este mapa de la posición del continuo se corrige fácilmente por la curvatura o inclinación del espectro. Se elimina el continuo siguiente y la posición de una región lineal de emisión pura se mide (de nuevo con un ajuste Gausiano) con respecto a la posición del continuo. La presencia del continuo tenderá a arrastrar la posición de la región lineal de emisión de vuelta hacia la fuente por lo que debe eliminarse. La precisión con la que puede medirse la posición con la espectroastrometría es fuertemente dependiente del ruido de la señal observada y viene dado por sigma = seeing /[2,3548(sqrt{Np})] donde Np es el número de fotones detectados. Por ejemplo para una visión de un arcosegundo y un valor de 10 000, las posiciones pueden recuperarse con una precisión de menos de 5 miliarcosegundos. Las líneas de emisión prohibidas que se encuentran en el espectro de algunas estrellas enanas jóvenes son fuertes indicaciones de actividad de flujo de salida. No obstante, las regiones no se extendieron y por esto no se pudo confirmar que originasen un flujo de salida de forma directa. Usando la espectroastrometría los astrónomos fueron capaces de demostrar que las regiones lineales estaban desplazadas pequeñas cantidades respecto al continuo de la enana marrón (los desplazamiento son relativamente pequeños a la vista) y por tanto efectivamente trazaban un flujo de salida. Por favor ver http://www.nature.com/nature/journal/v435/n7042/suppinfo/nature03598.html para una discusión más en detalle de la técnica de espectroastrometría.

Notas

[1]: Las enanas marrones son objetos cuya masa está por debajo de las estrellas normales – se cree que el límite está en aproximadamente un 8% de la masa del Sol – pero mayores que los planetas. Al contrario que las estrellas normales, las enanas marrones son incapaces de mantener una fusión nuclear estable del hidrógeno.

[2]: La enana marrón 2MASS1207-3932 pertenece al Conjunto TW Hydrae y tiene unos 8 millones de años de antigüedad. Aunque e es relativamente jovene, esto impica que esta enana marrón es uno de los objetos galácticos más antiguos con un chorro descubierto, enfatizando el hecho de que los flujos de salida pueden persistir durante tiempos relativamente largos.

Autor: Emma Whelan
Fecha Original: 23 de mayo de 2007
Enlace Original

Magnetoterapia: Un despilfarro de mil millones de dólares

Magnetoterapia

Casi mil millones de dólares se gastan cada año en “magnetoterapia”, que según se afirma elimina muchos síntomas y enfermedades. Los principios científicos básicos indican que todo este dinero es como tirarlo a la basura.

Aproximadamente hace un año Leonard Finegold de la Universidad de Drexel y yo decidimos entrar en el controvertido campo (juego de palabras no planeado) de la “magnetoterapia”. Como profesor de física, Finegold sabe un poco de imanes y campos magnéticos. Como médico y antiguo presidente de investigaciones, sé un poco sobre terapia e investigación médica. Tal vez un físico y un médico puedan arrojar algo de luz sobre este interesante tema. Sabíamos que los imanes eran vendidos como tratamiento para muchas enfermedades médicas y sabíamos que eran muy populares. Pero nos sorprendimos bastante al saber lo populares que son. En los Estados Unidos, sus ventas anuales se estiman en unos 300 millones de dólares (Brody 2000), y globalmente en más de mil millones de dólares (Weintraub 1999). Puedes hacerte una idea aproximada de la magnitud de la industria de la curación por imanes haciendo una búsqueda por Google con el patrón magnetoterapia. Una búsqueda en enero de 2006 arrojó 459 000 páginas web, muchas de las cuales afirmaban que los imanes tiene un poder curativo casi milagroso. ¿Lo tienen? El Profesor Finegold y yo revisamos la literatura sobre la magnetoterapia y encontramos muy pocas pruebas que la apoyen. Una versión abreviada de nuestra revisión se publicó recientemente en British Medical Journal (Finegold y Flamm 2006). Lo siguiente son algunos comentarios sobre la industria de la curación magnética, una breve sinopsis de nuestro artículo del BMJ, y una visión de la magnetoterapia desde un punto de vista teórico.
Seguir Leyendo…

No inspires profundamente, el oxígeno puro es malo para tu cerebro

Estudio de UCLA revela por qué hay problemas en el cerebro al inhalar oxígeno puro

Es una escena de “Anatomía de Grey”— un paramédico o un doctor coloca una máscara sobre la cara de una persona con problemas de respiración y comienza a dispensar oxígeno puro.

Los avances en la investigación sugieren que inhalar oxígeno directamente puede, en realidad, dañar el cerebro. Por primera vez, una estudio de fotografía cerebral de UCLA revela el porqué. Publicado en la edición del 22 de mayo de la revista Public Library of Science (PLoS) Medicine, los hallazgos se oponen a las guías nacionales de práctica médica y recomiendan una nueva aproximación que añade dióxido de carbono a la mezcla para mantener la función cerebral en los pacientes.

“Durante décadas, la comunidad médica mundial ha defendido el 100 por cien de oxígeno como la llave maestra de la reanimación. Pero nadie ha informado de lo que sucede dentro de nuestro cerebro cuando inhalas oxígeno puro”, dijo Ronald Harper, distinguido profesor de neurobiología en la Escuela de Medicina David Geffen en UCLA. “Lo que hemos descubierto se añade a un convincente cuerpo de pruebas para modificar una práctica estándar en la sanidad de los Estados Unidos”.

El equipo de Harper usó una Cámara de Resonancia Magnética Funcional (IRMf) para tomar imágenes detalladas de lo que sucede en el interior del cerebro humano durante dos escenarios distintos de respiración. La técnica detecta pequeños incrementos en el flujo sanguíneo disparados por la activación de distintas partes del cerebro, provocando que estas regiones brillen o se enciendan en el escáner de color.

Los investigadores escanearon los cerebros de 14 niños sanos, de edades entre 8 y 15 años, y monitorizaron su respiración y pulso cuando inhalaban un 100 % de oxígeno a través de una boquilla durante dos minutos. Tras esperar ocho minutos para que la respiración de los más jóvenes volviese a la normalidad, el equipo añadió un 5 por ciento de dióxido de carbono a la mezcla y repitieron el escáner.

La comparación de ambos escaneos reveló diferencias drásticas.

“Cuando los niños inhalaron oxígeno puro, su respiración se aceleró, dando como resultado una exhalación rápida de dióxido de carbono de sus cuerpos”, dijo el coautor del estudio Paul Macey, investigador asociado de UCLA en neurobiología. “La caída en el dióxido de carbono estrechó los vasos sanguíneos, evitando que el oxígeno alcanzara el tejido cerebral y el corazón”.

Aquí es cuando sucedió algo sorprendente en el escáner IRM. Tres estructuras cerebrales se encendieron de pronto: el hipocampo, que ayuda a controlar la presión sanguínea; el córtex cingular, que regula la percepción del dolor y la presión sanguínea; y la ínsula, que monitoriza la tensión física y emocional.

Toda esta actividad despertó al hipotálamo, que regula el pulso del corazón y el flujo hormonal. La activación del hipotálamo disparó una cascada de reacciones dañinas y la liberación de productos químicos que pueden dañar al cerebro y el corazón.

“Algunas áreas del cerebro respondieron al 100 por cien de oxígeno poniendo al hipotálamo a toda marcha”, explicó Harper. “El hipotálamo reaccionó vertiendo una cantidad masiva de hormonas y neurotransmisores en el torrente sanguíneo. Estos compuestos químicos interfieren con la capacidad del corazón para bombear y entregar oxígeno — el efecto opuesto cuando estás intentando reanimar a alguien”.

Cuando los niños inhalaban dióxido de carbono mezclado con el oxígeno, la actividad hipotálamo se desvanecía del escáner IRM.

“Añadir dióxido de carbono al oxígeno relajó los vasos sanguíneos, permitiendo al oxígeno alcanzar el corazón y el cerebro, calmando el hipotálamo y ralentizando la liberación de compuestos químicos peligrosos”, dijo Macey.

“El oxígeno puro prende la mecha que dispara un incendio de daños en el cuerpo”, dijo Harper. “Pero un poco de dióxido de carbono hace que desaparezca”.

Basándose en sus hallazgos, los investigadores animan con firmeza a los proveedores de cuidados sanitarios a añadir dióxido de carbono en la dispensación de oxígeno, especialmente cuando se reanima a niños o se administra oxígeno durante más de unos pocos minutos. La nueva dirección podría tener implicaciones particulares para los pacientes de accidentes, ataques al corazón, envenenamiento por monóxido de carbono y la terapias de oxígeno de largo plazo.

“Cuando hay dudas en un caso, la aproximación médica actual es incrementar los niveles de oxígeno y esperar a ver si el paciente mejora”, explicó Harper. “Pero nadie ha escaneado nunca el cerebro de un paciente para examinar cómo responde a la terapia de oxígeno”.

Los primeros datos sobre los efectos dañinos del oxígeno en concentraciones altas ya han dado como resultado el cambio de política al otro lado del océano. En lugar de usar oxígeno directo, muchos hospitales europeos ahora reaniman pacientes en salas de aire, que contienen una mezcla de nitrógeno, oxígeno y dióxido de carbono, o con una combinación de oxígeno y dióxido de carbono.

Mary Woo, profesor de la Escuela de Enfermería de UCLA, fue la coautora del estudio, patrocinado por el Instituto Nacional de Salud y Desarrollo Infantil.


Autor: Elaine Schmidt
Fecha Original: 21 de mayo de 2007
Enlace Original

GLAST: El reto de demasiados datos

La comunidad astrofísica espera con entusiasmo el inminente lanzamiento del Telescopio de Rayos-gamma Espacial de Gran Área (GLAST), el último y más potente telescopio de rayos-gamma. Pero interpretar la enorme cantidad de nuevos datos que recopilará GLAST puede ser una prueba difícil.

Hasta ahora los instrumentos existentes han permitido a los astrofísicos detectar unas 300 posibles fuentes de rayos-gamma en el universo, y los científicos han tenido que analizar y clasificar estas fuentes una por una. La sensibilidad mejorada de GLAST, de 30 a 100 veces mayor que sus predecesores, permitirá, potencialmente, al telescopio detectar miles de nuevas fuentes de rayos gamma.

“Tendremos una situación difícil para identificarlos”, dice el Físico de Stanford Olaf Reimer. “No podemos aplicar la aproximación individual a miles de fuentes de ninguna forma. A los investigadores les llevó 20 años identificar a Geminga, el pulsar de rayos-gamma que no emite ondas de radio, pero no podemos pasar de nuevo 20 años con una sola fuente”.

Para tratar los retos científicos que surgirán con GLAST, Reimer y varios colegas organizaron una conferencia llamada “La Aproximación Multimensajera a las Fuentes de Rayos Gamma de Alta Energía”, que tuvo lugar el pasado julio en Barcelona. Esta conferencia fue la tercera de una serie de charlas dedicadas exclusivamente al problema de la identificación de las fuentes de rayos gamma. En un libro que se publicará este junio, basado en la conferencia, Reimer sugiere combinar la técnica de identificación establecida con una aproximación estadística basada en la población.

“La idea es establecer las características de las poblaciones ocultas en los pozos de nuevos datos”, dice Reimer. Entonces, los investigadores podrían proceder a escoger los candidatos más apropiados a nuevas fuentes de rayos gamma entre estas poblaciones.

El problema de identificar las nuevas poblaciones de rayos gamma es que los astrofísicos no conocen el comportamiento de las fuentes. “Sabemos que los núcleos galácticos activos brillan ocasionalmente, los pulsos de un púlsar, las binarias tienen órbitas características… estas son firmas claras”, dice Reimer. “Pero para este nuevo fenómeno galáctico no tenemos ese conocimiento”.

Reimer admite que este nuevo problema científico es duro. “Pero tenemos que abordarlo, porque sólo se puede hacer ciencia si sabes con lo que estás tratando en el cielo”, dice.


Autor: María José Viñas
Fecha: 21 de mayo de 2007
Enlace Original

Investigador de la VCU anuncia una cura para la hepatitis C

”Virus
 

Esta enfermedad es la causa principal de la cirrosis, el cáncer de hígado y la necesidad de trasplantes.

El uso aislado del peginterferón, o en combinación con ribavirín, apunta a una cura para la hepatitis C, la causa principal de cirrosis, cáncer hepático y la necesidad de transplantes de hígado, según dijo hoy un investigador de la Universidad de Virginia Commonwealth.

El Doctor en Medicina Mitchell Shiffman, profesor en la Escuela de Medicina de la VCU, y jefe del departamento de hepatología y director médico del Programa de Transplantes de Hígado en el Centro Médico de la Universidad de Virginia Commonwealth, es uno de los investigadores principales del estudio, que se presentó en la 38ª conferencia anual de la Semana de Enfermedades Digestivas en Washington, D.C. La VCU está entre los aproximadamente 40 lugares a nivel mundial que estudian el interferón pegilado alfa-2a, fabricado por Roche Inc.

Casi todos – el 99 por ciento – de los pacientes con hepatitis C que fueron tratados con éxito sólo con peginterferón, o en combinación con ribavirín, no tuvieron ningún virus detectable durante los siete años posteriores. Los investigadores dicen que estos datos confirman el uso de la palabra “cura” ya que la descripción de un tratamiento de la hepatitis C como tratamiento exitoso es definirlo como aquel que no deja rastros detectable del virus de la hepatitis C en sangre a los seis meses del mismo.

“En la VCU estamos animados por estos datos debido a que es extraño en el tratamiento de las enfermedades virales letales que podamos decir a los pacientes que pueden curarse”, dijo Shiffman. “Hoy en la hepatitis C, somos capaces de ayudar a algunos pacientes a un resultado que les permite de forma efectiva dejar atrás la enfermedad”.

El resultado está basado en un estudio con seguimiento a largo plazo diseñado para determinar si el virus re-emergía en los pacientes que habían logrado éxito en el tratamiento. El estudio revisó 997 pacientes, tanto monoinfectados con el VHC crónico como en los coinfectados con el VHC y el VIH, que lograron una respuesta viral sostenida siguiendo tratamientos tanto con una monoterapia de Pegasys (peginterferón alfa-2a) como con una combinación de Pegasys y ribavirín.

Tras el tratamiento exitoso los investigadores monitorizaron los niveles de suero de VCH una vez al año durante una media de 4,1 años (en un rango de 0,4 a 7 años). De los 997 pacientes, 989 mantuvieron niveles indetectable de VHC. Los otros ocho pacientes dieron positivo para el VCH en una media de dos años tras la finalización del tratamiento. El estudio encontró que estos ocho pacientes no presentaban una consistencia en la edad, género o genotipo de VHC, y aún no se ha determinado si estos pacientes experimentaron una recaída o si fueron infectados de nuevo con el VHC.

La hepatitis C es una enfermedad infecciosa de transmisión sanguínea del hígado y es la principal causa de la cirrosis, el cáncer hepático y la necesidad de transplantes de hígado. De acuerdo con el Centro de Control y Prevención de Enfermedades, se estima que 4,1 millones de estadounidenses han sido infectados con la hepatitis C, y 3,2 millones están infectados de forma crónica. El número de nuevas infecciones anuales bajó de los 240 000 en los años ochenta a 26 000 en 2004, el último año para el que tenemos estadísticas disponibles. El CDC estima que el número de muertes relacionadas con la hepatitis C podría incrementarse a 38 000 anualmente para el año 2010, sobrepasando las muertes anuales por el VIH/SIDA.

La conferencia de la Semana de la Enfermedad Digestiva es la reunión internacional más grande de médicos, investigadores y académicos en los campos de la gastroenterología, hepatología, endoscopia y cirugía gastrointestinal. Patrocinado conjuntamente por la Asociación Americana de Estudios de Enfermedades Hepáticas, el Instituto de la Asociación Gastroenterológica Americana (AGA), la Sociedad Americana para Endoscopia Gastrointestinal y la Sociedad para Cirugía del Tracto Alimentario, tiene lugar entre el 19 y 24 de mayo de 2007, en el Centro de Convenciones de Washington en Washington, D.C. El encuentro exhibe aproximadamente 5000 resúmenes y cientos de lecturas sobre los últimos avances en la investigación gastrointestinal, medicina y tecnología. Para más información visite www.ddw.org.


Autor: Anne Buckley
Fecha Original: 21 de mayo de 2007
Enlace Original

Asombro y escepticismo

Yo era un niño en una época de esperanza. Crecí cuando la expectación por la ciencia era muy alta en los años treinta y cuarenta. Fui a la universidad a principios de los cincuenta y obtuve mi doctorado en 1960. Había un sentimiento de optimismo sobre la ciencia y el futuro. Soñaba con ser capaz de hacer ciencia. Crecí en Brooklyn, Nueva York, y fui un chico de la calle. Vine de un buen núcleo familiar, pero pasé mucho tiempo en las calles, como todos los chicos de entonces. Conocía cada arbusto y cada seto, cada farola y cada porche y cada muro del teatro donde jugar al balonmano chino1. Pero hubo un aspecto de aquel entorno que, por alguna razón, me impactó de forma distinta, y eran las estrellas.

Incluso yendo temprano a la cama en invierno podías ver las estrellas. ¿Qué eran? No eran como los setos, ni siquiera como las farolas; eran distintas. Así que pregunté a mis amigos qué eran. Ellos dijeron, “Son luces en el cielo, chaval”. Yo podía decir que en luces en el cielo, pero eso no era una explicación. Yo quería decir, ¿qué eran? ¿Pequeñas bombillas en largos cables negros, y por eso no se podía ver dónde estaban colgadas? ¿Qué eran?
Seguir Leyendo…

Alarmante aceleración de emisiones de CO2 a nivel mundial

Entre 2000 y 2004, las emisiones mundiales de CO2 se incrementaron a una tasa tres veces superior a la tasa de los años 90 — el ratio se incrementó de un 1,1 % por año durante los años 90 a un 3.1% por año a principios de siglo. La investigación, publicada en la edición anticipada en línea de Proceedings of the National Academy of Sciences* del 21 al 25 de mayo, también ha encontrado la tasa de crecimiento acelerado es mayor debido al incremento de la intensidad de energía de la actividad económica (la energía requerida para producir una unidad de producto doméstico bruto) y la intensidad del carbono del sistema energético (la cantidad de carbono por unidad de energía), acoplado con el incremento de la población y el producto doméstico bruto per-cápita. “Ninguna región está descarbonizando su suministro de energía”, afirma el estudio.

La investigación demuestra que el incremento en la intensidad del carbono y la energía constituyen un revés en la tendencia a largo plazo de dirigirnos hacia una mayor eficiencia de la energía y una intensidades de carbono más reducidas. “A pesar del consenso científico sobre que las emisiones de carbono están afectando al clima mundial, no vemos evidencias de progreso en la gestión de estas emisiones ni en países desarrollados ni en países en desarrollo. En muchas partes del mundo, estamos yendo hacia atrás”, recalca el coautor del estudio Chris Field, director del Departamento de Ecología Global de la Institución Carnegie.

La investigación también muestra que las actuales emisiones globales desde 2000 crecieron más rápido que en el escenario más pesimista de los desarrollados por el Panel Intergubernamental sobre el Cambio Climático (IPCC). “La tendencia que relaciona el crecimiento económico con la energía se dirige hacia la dirección equivocada”, comentó Field.

La aceleración de las emisiones de carbono es mayor en las economías en expansión de los países en desarrollo, particularmente en China, donde el incremento refleja principalmente un crecimiento en el producto doméstico bruto per cápita. El estudio** dividió el mundo en Estados Unidos, Unión Europea, las naciones de la antigua Unión Soviética, China, India, y tres regiones que cubren el resto del mundo.

Entre 2000 y 2004 los países en desarrollo contaron con una gran mayoría del aumento en las emisiones, incluso aunque contribuyeron sólo en el 40% de las emisiones total. En 2004, el 73% del crecimiento en las emisiones globales provino de las economías en desarrollo y de las menos desarrolladas, que comprenden el 80% de toda la población mundial. El mismo año las áreas desarrolladas (incluyendo la antigua Unión Soviética), contribuyeron en un 60% a las emisiones totales. Estos países cuentan con el 77% de las emisiones acumuladas desde el inicio de la revolución industrial.

Entre 1980 y 2004, las emisiones en las áreas desarrolladas (Estados Unidos, Europa, Japón, y otras economías menores) se incrementaron como resultado de un rápido crecimiento en el producto doméstico per cápita, junto con un ligero aumento en la población. Este crecimiento estuvo en parte contrarrestado por un decrecimiento en la cantidad de energía necesaria para crear cada unidad de producto.

El estudio enfatiza que el crecimiento en las emisiones puede estar causado por una variedad de factores y que gestionar las emisiones de una economía creciente requiere un progreso tanto en la intensidad de la energía como en la intensidad del carbono del sistema económico. De acuerdo con Field, “resolver la primera parte del puzzle requiere desplazar la economía más hacia las actividades como la industria de servicios y la tecnología de la información, donde las emisiones pueden ser menores, y enfatizar en la eficiencia energética. Para resolver la segunda se requiere el despliegue de nuevas fuentes de energía sin emisión como la eólica, solar y nuclear”.

El presidente de Carnegie Richard A. Meserve apunta que “los impactos del dióxido de carbono en nuestra atmósfera son el resultado de las emisiones acumulativas. Este estudio es una señal de que se necesita urgentemente una acción global para revertir la tendencia adversa o el reto de responder al cambio climático será más difícil”.


*Los investigadores del estudio son Michael Raupach de la Investigación Atmosférica y Marina de CSIRO en Canberra, Australia; Gregg Marland del Laboratorio Nacional Oak Ridge; Philippe Ciais, Comisario de la Energía Atómica en Gif sur Yvette, Francia; Corinne Le Quére, de la Universidad del Este de Investigación Antártica Anglo-Británica en la Escuela de Ciencias Ambientales de Norwich, Reino Unido; Josep Ganadell de la Investigación Atmosférica y Marina de CSIRO en Canberra, Australia; Gernot Klepper del Instituto Kiel para la Economía Mundial en Kiel, Alemania; Christopher Field del Departamento de Ecología Global de la Institución Carnegie en Stanford, California.

**Los datos provienen de fuentes públicas: la Administración de Información de la Energía y la Información sobre el Dióxido de Carbono y el Centro de Análisis USDOE; la División de Estadística de las Naciones Unidas; y la Perspectiva Económica Mundial del IMF.

Autor:
Chris Field
Fecha Original: 21 de mayo de 2007
Enlace Original

Jet lag: Todo se debe a reacciones químicas celulares

Este gráfico de la estructura en lazo de una proteína vívida con un sol naciente indica el reloj circadiano (ciclo de 24-horas).

Según dicen investigadores de Cornell en una explicación biológica de los relojes circadianos.

Los relojes circadianos regulan el tiempo de las funciones biológicas en casi todos los organismos superiores. Cualquiera que haya volado a través de varias zonas horarias conoce el jet lag que resulta de este trastorno del tiempo.

Ahora, una nueva investigación por parte de científicos de Cornell y Dartmouth explica el mecanismo biológico bajo cómo los relojes circadianos sienten la luz a través de un proceso de transferencia de energía de la luz a reacciones químicas en las células. La investigación se publicará en el número del 18 de mayo de la revista Science.

Los relojes circadianos en las células responden a diferencias de la luz entre la noche y el día y de esta forma permiten a los organismos anticiparse a los cambios del entorno ajustando su metabolismo al ciclo diario. Los relojes desempeñan un papel en muchos procesos: sincronizan el momento en que las plantas con flor abren sus pétalos por la mañana y los cierran por la noche; o ajustan el momento en que los hongos liberan sus esporas para maximizar su éxito reproductivo. En los humanos, los relojes son los responsables de por qué tenemos sueño por la noche y nos despertamos por la mañana, y controlan las principales funciones regulatorias. Las interrupciones en el ritmo circadiano pueden causar jet lag, enfermedades mentales o incluso algunas formas de cáncer.

“Estos relojes están conservados en todos los organismos, y en organismos separados por cientos de millones de años de evolución”, dijo Brian Crane, el autor que dirige el artículo y profesor asociado en el Departamento de Química y Biología Química de Cornell.

El estudio revela cómo un hongo (Neurospora crassa) usa los sensores de luz del reloj circadiano para controlar la producción de carotenoides, que lo protegen de los daños de la radiación solar ultravioleta justo tras la salida del sol. Los investigadores estudiaron una proteína llamada vívida, que contiene un cromóforo – una molécula que absorbe la luz. El cromóforo captura un fotón o partícula de luz, y la energía capturada de la luz dispara una serie de interacciones que finalmente llevan a unos cambios en la conformación de la proteína vívida. Estos cambios estructurales en la superficie de la proteína dan lugar a una cascada de eventos que afectan a la expresión genética, tales como los que activan o desactivan la producción de carotenoides.

Sustituyendo un sólo átomo (azufre por oxígeno) en la superficie de la proteína vívida, los fueron capaces de cortar la cadena de eventos y prevenir los cambios estructurales en la superficie de la proteína, interrumpiendo de esta forma la regulación de la producción de carotenoides.

“Ahora podemos demostrar que este cambio conformacional en la proteína está directamente relacionado con su función en el organismo”, dijo Brian Zoltowski, principal autor del artículo y estudiante graduado en Biología Química en Cornell.
El reloj circadiano permite a los hongos regular y producir carotenoides sólo cuando son necesarios para protegerse de los rayos del sol. Un “interruptor” similar puede ser el responsable de sincronizar el ciclo del sueño en los humanos.

“Estamos interesados en intentar comprender el comportamiento a nivel molecular”, dijo Crane. “Este es un gran ejemplo de Química Biológica, en el que podemos perturbar la química de una única molécula de una forma concreta y en realidad cambiamos el comportamiento de un organismo complejo”.

El estudio fue financiado por los fondos del Instituto Nacional de Salud.


Autor: Krishna Ramanujan
Fecha Original: 18 de mayo de 2007
Enlace Original

Diseccionando el Universo con HARP/ACSIS – Una nueva vista de Orión

Este video lleva al observador a través del cubo de datos y ofrece la sensación de cómo se mueve el gas. A película se inicia con las nubes en la región sur y progresivamente se mueven hacia el norte cuando pasa por los cortes de la longitud de onda. Esto revela un gas en expansión. El gas del sur está moviéndose hacia el observador meintras que el del norte está alejándose del mismo.

El Telescopio James Clerk Maxwell (JCMT) en Mauna Kea, Hawaii tiene una nueva forma de mirar al Universo, gracias a dos instrumentos revolucionarios llamados HARP y ACSIS.

Estos instrumentos operan juntos, y recientemente han diseccionado la Nebulosa de Orión, registrando por primera vez los movimientos internos de los gases de las estrellas en formación.

Orión es una de las constelaciones más famosas y reconocibles en el cielo. En su corazón alberga una vasta nube de polvo y gas, la Nebulosa de Orión, que está pasando por una explosión en la formación de estrellas. Los astrónomos se refieren a esta y otras regiones similares como “guarderías estelares”. En esta nube, el polvo y gas se extienden sobre vastas regiones y ayudan a “alimentar” la formación estelar. La gravedad toma el gas y el polvo de estas nubes y lo comprime en estrellas.

HARP y ACSIS permiten a los astrónomos ver el movimiento de este gas con una claridad y precisión que no estaba disponible anteriormente en estas longitudes de onda. Juntos dan al JCMT la potente capacidad de registrar información en tres dimensiones. Al contrario que los sistemas receptores de la generación anterior, HARP/ACSIS pueden producir imágenes del cielo similares a las de una cámara en miles de longitudes de onda adyacentes al mismo tiempo; formando un conjunto de imagen tridimensional llamado “cubo espectral”. Las dimensiones de las longitudes de onda permiten al telescopio detectar rastros moleculares así como los movimientos del gas.

Estos cortes de longitudes de onda revelan a los astrónomos la composición química de nuestra galaxia y de otras en el Universo. Hay muchas moléculas gaseosas en el espacio que emiten radiación a longitudes de onda en las que se puede ajustar el HARP/ACSIS. El JCMT observa en el rango submilimétrico de las longitudes de onda, longitudes de onda mucho más pequeñas que las típicas de una estación de radio, pero mucho mayores que las ondas luminosas. La emisión natural de polvo y gas que tiene lugar en el material entre estrellas es particularmente efectivo al revelar los procesos de acumulación de material para formar estrellas. Este proceso aún es misterioso en sus detalles, y el sistema receptor de HARP/ACSIS en el JCMT está ajustado exquisitamente para estudiar los constituyentes precisos y los movimientos de polvo y gas cuando colapsa para formar estrellas. Y esto hace de este instrumento la herramienta perfecta para examinar la Nebulosa de Orión.

La información que se registra en la tercera dimensión de “longitud de onda” muestra qué cantidad de moléculas de gas, en este caso monóxido de carbono, están radiando y a qué velocidad se están moviendo. Vemos gas con grandes movimientos tanto hacia nosotros como alejándose a velocidades de aproximadamente 200 km/s. Estos cortes de velocidad pueden combinarse en una película permitiéndonos ver en el centro de la nebulosa caliente, donde tiene lugar la formación estelar más vigorosamente, está forzando la salida del gas en lo que llamamos un “flujo de Champagne”.

El Dr. John Richer del aboratorio Cavendish de la Universidad de Cambridge (Reino Unido) dice: “Ha llevado mucho tiempo llegar hasta este punto – los primeros datos científicos del HARP/ACSIS – pero ha valido la pena la espera. Por primera vez podemos hacer mapas a gran escala del gas caliente en las nubles moleculares y comenzar a entender en detalle los complejos y espectaculares procesos que tienen lugar cuando las estrellas se forman”.

HARP (Heterodyne Array Receiver Programme – Programa de Conjunto de Receptores Heterodinos) es un conjunto de 16 receptores espectrales alineados en una parrilla de 4×4 usando uniones de superconductores como elementos detectores. ACSIS (AutoCorrelation Spectrometer and Imaging System – Sistema de Autocorrelación de Cámara y Espectrómetro) es un sistema de ordenadores y electrónica digital de alta velocidad para el análisis de señales producidas por HARP y otros instrumentos. Consta de más de 1000 circuitos integrados personalizados y 30 microprocesadores para el manejo de grandes cantidades de datos y producir resultados que puedan usar los astrónomos. ACSIS produce datos a una razón 1000 veces más rápida que el viejo sistema del JCMT. Juntos, estos intrumentos han convertido al JCMT en una cámara 3-D de ondas submilimétricas más que en un simple telescopio.

La Dra. Jane Buckle del Laboratorio Cavendish dice: “El encargo de HARP y ACSIS ha necesitado de un duro trabajo y dedicación, en particular por parte del JAC, el Laboratorio Cavendish y el personal del Reino Unido de la ATC, pero las nuevas capacidades espectrales del JCMT hace que este sea un momento excitante para la investigación de la formación de estrellas”.

El Dr. Bill Dent del Centro de Tecnología Astronómica del Reino Unido en Edimburgo dice:” A menudo encontramos nubes de gas de muchos cientos de años luz de tamaño que contienen cientos de estrellas todas formándose simultáneamente. Con este nuevo sistema podemos cartografiar la estructura y medir la velocidad del gas que está formando todas estas nuevas estrellas y, además, hacer un análisis químico, para tal vez buscar regiones ricas en extrañas y exóticas moléculas. Antes de la llegada de HARP/ACSIS, no era posible estudiar y comprender las nubes de esta forma”.

“Es realmente excitante ver como la ciencia mana del instrumento finalmente”, dice el Profesor Richard Hills del Laboratorio Cavendish, Científico del Proyecto para HARP. Y el Dr. Harry Smith, Director del Proyecto HARP, dice: “Fue genial trabajar en lo que resultó ser un instrumentos con unas instalaciones de récord”.

El Dr. John Richer ha usado el JCMT durante 19 años para hacer observaciones espectroscópicas de nubes moleculares. “Suele ser un proceso lento y meticuloso. Ahora con los 16 sensibles detectores de HARP, podemos tomar datos a un ratio mucho mayor y comenzar a dar respuesta a preguntas mucho más ambiciosas sobre la formación de nuevos sistemas estelares.

HARP/ACSIS está revolucionando nuestra visión de la formación estelar en la galaxia”, dice Richer.

El Profesor Gary Davis, Director del JCMT, dice “ACSIS y HARP han sido desarrollados durante los últimos años por una red de laboratorios de instrumentación a lo largo de todo el mundo. Haciendo uso de las últimas tecnologías, hemos introducido una nueva capacidad en la observación a la que no puede equipararse ninguna otra en el mundo.

Los astrónomos ahora serán capaces de estudiar las regiones de formación estelar como Orión con un alcance y detalle sin precedente. Estamos realmente excitados con la ciencia que estos instrumentos harán posible por primera vez”.



Fecha Original: 17 de mayo de 2007
Enlace Original

1 2 3 4 5