Breve paseo por la Historia de la Astronomía

El deseo de volar del hombre es casi tan antiguo como la humanidad misma y soñó con los vuelos desde tiempos muy anteriores al logro de los mismos, un ejemplo de ello son Dédalo e Ícaro.

Según la mitología griega, Dédalo fabricó alas de cera a su hijo Ícaro para poder escapar del laberinto donde se encontraban prisioneros, en la isla de Creta, pero éste, al volar demasiado cerca del sol, cayó al mar al derretírsele las alas. Dédalo si logró escapar volando hasta Sicilia.

Fue necesario alcanzar muchos descubrimientos científicos antes de poder hacer realidad este sueño. La atracción del hombre por el firmamento hace que la Astronomía sea la mas antigua de las ciencias, la sucesión de los días y las noches, el movimiento de las estrellas y los planetas, la estaciones, y la regularidad de sus movimientos sirvieron al hombre para lograr definir el tiempo y orientarse.

De las primeras civilizaciones que se tiene constancia que poseyeran conocimientos astronómicos es de los Caldeos (desde unos 4.000 a.C.) que vivieron en Babilonia, quienes llegaron a predecir con bastante exactitud los períodos de eclipses gracias al cúmulo de observaciones que hicieron durante siglos. Los babilonios estudiaron los movimientos del Sol y de la Luna para perfeccionar su calendario.

Observadores excelentes fueron los griegos, entre los mas importantes cabe destacar a Pitágoras y a Tales de Mileto, este último predijo un eclipse total de Sol el 28 de mayo de 585 a.C. Pitágoras fue el primero en considerar a la Tierra como un globo y atribuía a las estrellas una condición semejante a la del Sol.

Sistema de Ptolomeo

Aristarco de Samos consideraba al Sol como una estrella, calculó el diámetro del Sol y su distancia a la Tierra, también dedujo que era necesario que la órbita de la Tierra estuviera inclinada para dar explicación a los cambios de las estaciones y pensaba que ésta giraba en torno al Sol.

Eratóstenes logró calcular las dimensiones de nuestro planeta e Hiparco descubrió la precesión de los equinoccios y describió el movimiento aparente de las estrellas fijas. Hiparco formó el primer catálogo de estrellas que se conoce, catalogando a 850 estrellas y clasificándolas por su brillo en seis categorías o magnitudes, clasificación que aun hoy se utiliza.

Ptolomeo reunió en su famoso libro llamado Almagesto los conocimientos de sus predecesores, obra que dominó el pensamiento humano durante muchos siglos. Pensaba que la Tierra era el centro del universo, donde los planetas, el Sol, la Luna y las estrellas giraban en torno a ella.

Tomando como base el Almagesto, los árabes perfeccionaron los conocimientos astronómicos y confeccionaron las tablas astronómicas, que se trataba de cuadros numéricos donde se predecía la posición que habían de ocupar los planetas.

Así surge la figura de Azarquiel como máxima figura de la escuela astronómica de Toledo, formando las Tablas Toledanas, que junto al Almagesto de Ptolomeo, traducidas al latín, y por un grupo de hombres de ciencia reunidos por el rey de Castilla Alfonso X el Sabio, se formaron las Tablas Alfonsíes, consideradas durante más de tres siglos como las mejores tablas planetarias.

Telescopio de Galileo

La aparición de Copérnico hizo que la astronomía progresara rápidamente. Copérnico puso en duda el sistema de Ptolomeo mostrando que los movimientos planetarios se podían explicar atribuyendo la posición central al Sol. Así se convirtió en el creador de la teoría Heliocéntrica, la cual serviría de base para la astronomía moderna. No obstante, esta teoría requería de complicadas correcciones para dar explicación al movimiento de los planetas, debido a la perfección de la esfera. Galileo, con la construcción de su primer telescopio en 1609 (se cree que el inventor del telescopio fue Hans Lippershey en 1608, aunque hoy todavía se debate la identidad del mismo; Galileo solo mejoró el mecanismo, usando para ello un viejo tubo de órgano), logró observar las fases de Venus, que contradecían la astronomía de Ptolomeo y confirmaban su aceptación de las teorías de Copérnico. Galileo, además, descubrió la Vía Láctea como conjunto de estrellas y los cuatro satélites mayores de Júpiter.

Kepler, aprovechando las observaciones precisas de las posiciones aparentes de los planetas, el Sol y la Luna por parte de Tycho Brahe, formuló las leyes del movimiento planetario, definiendo que los planetas giraban alrededor del sol en órbitas elípticas, a velocidades diferentes y que sus distancias relativas con respecto al sol están relacionadas con sus períodos de revolución. Newton logró identificar la fuerza de atracción planetaria con la gravedad terrestre, formulando su ley de gravitación universal. Newton demostró que la fuerza gravitatoria disminuye según el cuadrado de la distancia y que esto da origen a las leyes de Kepler del movimiento planetario. Expuso la Ley de la gravitación universal: Entre dos cuerpos se ejerce una fuerza de atracción directamente proporcional al producto de sus respectivas masas e inversamente proporcional al cuadrado de la distancia que separa sus centros de gravedad. Se establecieron así las leyes fundamentales y físicas que gobiernan el movimiento de los planetas, y se calcularon las órbitas de los planetas alrededor del Sol.

Al mismo tiempo que se sucedían todos estos descubrimientos científicos, el hombre trataba de alcanzar uno de sus ansiados sueños, poder volar. Al principio se pensaba que imitando el movimiento de las alas de los pájaros se lograría, pero hasta el siglo XIII no se llegaría a la conclusión de que un artefacto mas pesado que el aire podría volar, a manos de Roger Bacon.

Rotor de Leonardo

A comienzos del siglo XVI, Leonardo da Vinci, considerado como el genio mas completo de todos los tiempos (escultor, pintor, arquitecto, biólogo, músico, filósofo, escritor e ingeniero), desarrolló varios diseños que mas tarde resultarían ser realizables. Concibió tres tipos distintos de máquinas que podían volar y eran mas pesados que el aire: el planeador, el helicóptero y el ornicóptero (un artefacto con alas que se podían mover al igual que la de los pájaros). En el terreno de la investigación experimental fue un precursor de Galileo.

A lo largo de la historia los inventos de ingenios voladores se sucedieron, muchos de ellos fracasaron, pero se alcanzó el sueño, dominar el aire y volar, cada vez más rápido y más lejos. Aún así el hombre no se conformaba con volar, sino que además quería llegar mas lejos, conquistar el espacio.

Los inicios de la exploración del espacio

Los problemas planteados en el astronáutica son muchos. La primera dificultad es vencer la atracción terrestre, imprimiendo al vehículo una velocidad igual a la que tendría, al llegar a la Tierra, un cuerpo que cayese sobre ella desde el infinito. Esta velocidad de escape, o liberación, es de 11.200 metros por segundo, o lo que equivale a 40.320 Km por hora. Si una nave lanzada al espacio no logra superar los 8.000 m/sg volverá a caer a la Tierra. Si es superior a 8.000 m/sg, pero inferior a la velocidad de escape, este no caerá a la Tierra, pero tampoco logrará escapar a la influencia de ella porque su fuerza centrífuga equilibrará la acción de la gravedad terrestre, quedando en órbita alrededor de la misma (8.000 m/sg es la velocidad mínima requerida para poner en órbita un satélite).

Con mayores velocidades a los 8.000 m/sg, las órbitas se van haciendo elípticas, tanto mas cuanto mayor sea la velocidad, hasta superar los 11.200 m/sg, velocidad a la que el vehículo logrará vencer la atracción terrestre y escapará de la misma. Los aviones que vuelan por la atmósfera maniobran gracias a sus motores y a sus alas, las cuales los sustentan en el aire frente a la fuerza de la gravedad. Una nave espacial no puede valerse de alas para su sustentación por la ausencia de aire en el espacio, por lo que para mantenerse en el mismo necesita entrar en órbita, y para poder maniobrar e impulsarse dependen de sus cohetes.

Primer cohete de combustible líquido de Goddard
© NASA (Historical Rocket Gallery)

Los primeros cohetes datan del siglo III a.C. en China, utilizando como combustible sólido a la pólvora. Con una mezcla de carbón, sulfuro y sal se llenaban cañas de bambú y eran tiradas en fuegos ceremoniales durante las festividades. En el año 1045 los chinos ya usaban los cohetes y la pólvora como mecanismos de defensa. El uso de cohetes por parte de los Mongoles en su ataque a Bagdad en 1258 hizo que estos entraran a formar parte del inventario armamentístico de los árabes, los cuales los usaron contra de la Armada Francesa del Rey Louis IX. En 1300, los cohetes empezaron a formar parte de los arsenales europeos, los cuales se desarrollaron rápidamente y fueron utilizados en diversas guerras, como la de los 100 años en Orleans, creciendo el interés por los mismos en los ejércitos y haciendo que la mejoría en sus alcances y estabilidad en vuelo se fueran mejorando considerablemente.

La astronáutica científica se comenzó a desarrollar casi al unísono en Estados Unidos y en Europa. Robert Goddard en EEUU, en los inicios del siglo XX, ideaba cohetes con combustibles líquidos y experimentó con prototipos creados por él mismo; sus planos ayudarían mas tarde a Wernher von Braun al desarrollo de las V-2. En Europa, Tsiolkovsky, por un lado, demostraba que el uso de combustible sólido era menos eficaz que el combustible líquido y calculaba la velocidad que precisaría un cohete para escapar a la atracción de la Tierra, y por otro, Herman Oberth ideaba la manera de realizar vuelos de ida y vuelta a la Luna y al igual que Goddard y Tsiolkovsky, propuso el uso de propulsantes líquidos.

El papel que iban a desempeñar Tsiolkovsky y Oberth iba a ser crucial en la historia de la astronáutica. Oberth fue el fundador de la Sociedad Astronáutica de Berlín, sociedad en la que ingresó Wernher von Braun, que con su propio equipo mas tarde se convertiría, contratado por el ejército alemán, en el creador de las V-2, el primer misil balístico creado por el hombre, misil que era capaz de alcanzar Londres desde territorio ocupado alemán, en La Haya. Wernher von Braun y casi todo su equipo de técnicos se entregó al ejército norteamericano antes de la conclusión de la Segunda Guerra Mundial, convirtiéndose mas tarde en los precursores del futuro programa espacial estadounidense.

siolkovsky hizo de Sergei Korolev un apasionado de los cohetes, ingresando en el Club de Cohetes de Moscú. Éste, experimentó numerosos diseños y desarrolló misiles de todo tipo ya contratado por el ejército ruso. Korolev y sus técnicos serían los precursores del programa.

Sputnik 1© NSSDC Master Catalog Display: Spacecraft

En 1950 se creó la Federación Internacional de Astronáutica y en su VI Congreso, EEUU dió a conocer su intención de lanzar un satélite artificial y ponerlo en órbita en conmemoración del Año Geofísico Internacional (1957-1958), pero los rusos, el 4 de octubre de 1957, se adelantaron poniendo en órbita el primer satélite, el Sputnik 1, dando comienzo así a la era espacial. El segundo satélite de la historia tambien fue ruso, el Sputnik 2, el 3 de noviembre del mismo año, portando en su interior además a un ser vivo, la perra Laika, la cual, al no estar prevista la recuperación del satélite, murió orbitando la Tierra.

Los estadounidenses en cambio iban de fracaso en fracaso, explotando en la misma plataforma de lanzamiento o en los comienzos del ascenso los primeros intentos, a cargo del proyecto Vanguard. Hubo que esperar al primer lanzamiento del proyecto Explorer, preparado por el equipo de von Braun, para alcanzar el éxito, así, el 31 de enero de 1958 EEUU lograba poner en órbita su primer satélite artificial, el Explorer 1.

Enlaces de interés:

Original de Vicente Díaz para la web El Cielo del Mes y reproducido en Ciencia Kanija con permiso del autor.

Los esquizofrénicos más propensos a sufrir roturas de apéndice

Las personas con enfermedades mentales sufren más que sólo los problemas psicológicos. Las personas con esquizofrenia son más propensas a sufrir roturas de apéndice que otras, de acuerdo con una investigación publicada en la revista online de acceso abierto, BMC Public Health.

La mayoría de los estudios de provisión de asistencia sanitaria para pacientes con enfermedades mentales normalmente se enfocan hacia los problemas psicológicos pero con frecuencia ignoran las dolencias físicas. Jen-Huoy Tsay y sus colegas de la Universidad Nacional Yang Ming en Taipei, Taiwán, R.O.C., han comparado los resultados de enfermos de apendicitis, observando en concreto a los pacientes con y sin enfermedades mentales, incluyendo la esquizofrenia y diferentes enfermedades mentales graves.

El equipo usó los datos de las altas hospitalarias del Seguro Nacional de Salud de Taiwán (NHI) y comparó la probabilidad de una rotura de apéndice entre casi 100 000 personas con edades de 15 y por encima quienes fueron hospitalizados por apendicitis aguda en Taiwán durante el periodo 1997-2001.

Tsay y sus colegas hallaron que tenía lugar una rotura de apéndice en el 46,7 por ciento de los pacientes esquizofrénicos, en un 43,4 por ciento en pacientes con otros desórdenes mentales graves, y en un 25,1 por ciento en pacientes sin enfermedades mentales graves. Fueron encontrados más casos de roturas entre hombre y pacientes mayores.

Después de ajustar la edad, género, etnia y nivel socioeconómico, y las características del hospital, el equipo encontró que los pacientes con esquizofrenia aún eran casi tres veces más propensos a sufrir una rotura de apéndice que la población en general. La presencia de psicosis afectiva u otros desórdenes mentales graves no lo tienen, sin embargo, permanecen asociados de manera significativa con un aumento del riesgo de rotura.

Los hallazgos indican que, aunque el programa del NHI reduce las barreras económicas para el cuidado de las personas con enfermedades mentales, los esquizofrénicos aún están en desventaja para obtener el tratamiento oportuno para los problemas físicos.



Fecha Original: 15 de noviembre de 2007
Enlace Original

La materia invisible pierde la batalla cósmica

En una batalla cósmica que tiene lugar en los centros de las galaxias, las fuerzas estelares luchan y desplazan a la materia invisible. El resultado, concluye un nuevo estudio, compensa la cantidad de materia invisible situada en los núcleos galácticos, resolviendo un misterio cosmológico.

Las simulaciones por ordenador mostraron una galaxia enana en formación (imagen de fondo) mil millones de años tras el Big Bang. La inserción mientras la región central de la galaxia donde una potente retroalimentación procedente de los cúmulos estelares recién formados (mostrados en amarillo) dirigen movimientos masivos en el gas (los colores del violeta, azul, verde y blanco corresponden a incrementos en la densidad del gas). Crédito: S. Mashchenko, J. Wadsley, y H. M. P. Couchman

La materia invisible, llamada materia oscura, se piensa que forma el 90 por ciento de la masa del universo. Los astrónomos nunca han observado directamente esta misteriosa materia, dado que no emite ni refleja luz visible u otra radiación electromagnética. En lugar de esto, infieren su existencia basándose en sus efectos gravitatorios sobre la materia visible como estrellas y galaxias. (Por ejemplo, la materia oscura hace que las galaxias giren más rápido de lo que se esperaría en otro caso).

Los astrónomos han tratado de explicar durante mucho tiempo modelos teóricos que predicen que debería haber mucha más materia oscura en las regiones centrales de las galaxias enanas de lo que sugieren las observaciones que hay.

“Uno de los temas más problemáticos trata de la misteriosa materia oscura que domina la masa de la mayor parte de las galaxias”, dijo Sergey Mashchenko del Departamento de Física y Astronomía de la Universidad McMaster en Ontario.

Maschenko y sus colegas usaron simulaciones en un supercomputador para ilustrar la formación de galaxias en los inicios de nuestra historia cósmica — aproximadamente mil millones de años tras el Big Bang, el inicio teórico del universo tal y como lo conocemos. Las simulaciones mostraron los violentos procesos que sufren las galaxias tras su nacimiento, cuando densas nubes de gas colapsan para formar estrellas masivas, las cuales finalizan sus vidas rápidamente como supernovas explosivas.

Está bien establecido que estas estrellas masivas pueden inyectar grandes cantidades de energía en sus vecindades galácticas a través de explosiones y también con emisiones constantes de partículas cargadas llamadas vientos estelares. La energía puede empujar al gas interestelar a casi la velocidad del sonido, lo cual para un gas a una temperatura típica en de 10 kilómetros por segundo.

Aún permanece el debate sobre si esta retroalimentación estelar podría girar la aguja en la densidad de la materia oscura (predicha por la teoría) en los núcleos planos observados en las regiones centrales de las galaxias enanas.

Las simulaciones mostraron que los vientos estelares y las explosiones chocan con el gas interestelar, empujándolo hacia detrás y adelante como el agua vertida en una bañera cósmica. Este vertido expulsa la mayor parte de la materia oscura fuera del centro de una galaxia enana en la simulación, llevando a un acuerdo las predicciones teóricas y las observaciones.

Los investigadores dicen que sus resultados, detallados la semana pasada en la revista Science, forzarán a los cosmólogos a replantearse el papel del gas interestelar en la formación de galaxias y podría llevar a una mejor comprensión de la materia oscura.


Autor: Jeanna Bryner
Fecha Original: 3 de diciembre de 2007
Enlace Original

¿Son los asteroides una amenaza para la Tierra?

Concepción artística de un impacto de asteroide catastrófico. Cortesía de la NASA

Los “thrillers” de Hollywood como Deep Impact ayudaron a despertar el interés de América por conocer cuál sería nuestra “estrategia de rechazo” si un asteroide gigante estuviese en una ruta de impacto potencialmente catastrófico con la Tierra.

Chris Palma, profesor de astronomía y astrofísica en la Universidad Estatal de Pennsylvania, dice que tales eventos son estadísticamente muy improbables. “A lo largo de la historia de la Tierra, hemos sido bombardeados por cometas y asteroides del espacio”, apunta Palma. “Los impactos han tenido lugar más frecuentemente en el pasado, pero pasarán de nuevo. Sólo es cuestión de cuando”.

Palma explica que hace dos años pasó se admitió una ley que requería que la NASA “estudiase los objetos cercanos a la Tierra y desarrollase un plan para desviar dichos objetos”. Aún así, algunos expertos han criticado tanto a la NASA como al gobierno de los Estados Unidos por no hacer lo suficiente para prevenir posibles impactos con la Tierra.

Seguir Leyendo…

Océano de Europa: ¿Delgado o grueso?

¿Cómo determinar el grosor de un océano que no puede verse, y mucho menos saber lo salado que es? Europa, el sexto satélite de Júpiter, se cree que tiene un océano líquido de agua bajo su superficie helada. Sabemos esto debido a su superficie extraordinariamente sin cráteres y la forma en que su campo magnético reacciona con el de Júpìter. Nuevos resultados que tienen en consideración la interacción de Europa con el plasma alrededor de Júpiter – además del campo magnético – nos da una mejor descripción del grosor y composición del océano. Esto ayudará a futuros exploradores robóticos a saber cómo de profundo tendrá que ser el túnel para alcanzar los océanos bajo la superficie.

“Sabemos a partir de las medidas gravitatorias realizadas por Galileo que Europa es un cuerpo diferenciado. Los modelos más plausibles para el interior de Europa’ tienen una capa de hielo de H2O de un grosor entre 80 y 170 km. Sin embargo, las medidas de gravedad no nos dicen nada sobre el estado de esta capa (sólido o líquido)”, dijo el Dr. Nico Schilling del Instituto para Geofísica y Meteorología de Colonia en Alemania.

El agua en el océano de Europa – así como el agua de nuestro océano – es un buen conductor de la electricidad. Cuando un conductor pasa a través de un campo magnético, se produce electricidad, y esta electricidad tiene un efecto sobre el propio campo magnético. Es lo mismo que sucede en el interior de un generador eléctrico. Este proceso es llamado inducción electromagnética, y la intensidad de la inducción ofrece mucha información sobre los materiales implicados en el proceso.

Pero Europa no sólo interactúa con el campo magnético procedente de Júpiter, sin embargo; también tiene interacciones electromagnéticas con el plasma que rodea a Júpiter, llamado plasma magnetosférico. Esto mismo sucede en la Tierra de una forma que es muy familiar: la Tierra tiene una magnetosfera, y cuando el plasma procedente del Sol interactúa con ella vemos el maravilloso fenómeno de las Auroras Boreales.

Este proceso, que sucede de forma intermitente cuando Europa orbita a Júpiter, tiene un efecto de campo de inducción en el océano de la subsuperficie de la luna. Combinando estas medidas con las medidas previas de la interacción entre Europa y el campo magnético de Júpiter, los investigadores fueron capaces de obtener una mejor imagen de cómo de grueso y cómo de conductivo es el océano de Europa. Sus resultados fueron publicados en un artículo titulado, Time-varying interaction of Europa with the jovian magnetosphere: Constraints on the conductivity of Europa’s subsurface ocean(Interacción variable en el tiempo de Europa con la magnetosfera joviana: Restricciones en la conductividad del océano subsuperficial de Europa), el cual apareció en la edición de agosto de 2007 de la revista Icarus.

Los investigadores compararon sus modelos de inducción electromagnética de Europa con los resultado de las medidas de campo magnético de Galileo, y encontraron que la conductividad total del océano era de aproximadamente 50 000 Siemens (una medida de la conductividad eléctrica). Esto es mucho más alto que los resultados previos, que situaban la conductividad en 15 000 Siemens.

Dependiendo de la composición del océano, no obstante, el grosor podría estar entre los 25 y 100 km, lo cual también es más grueso de lo que se estimó previamente con un límite inferior de 5 km. Cuando menos conductivo es el océano, más grueso debe ser para tener en cuenta la conductividad medida, y esto depende de la cantidad y tipo de las sales encontradas en el océano, lo cual aún permanece desconocido.

Tener en cuenta las interacciones con el plasma magnetosférico es importante cuando se estudia la composición de planeta y lunas.

Dijo el Dr. Schilling, “Las interacciones del plasma afectan a las medidas del campo magnético, pero no, por ejemplo, a las medidas gravitatorias. Por lo que en cada caso del sistema de Júpiter, donde se usaron las medidas de campo magnético para obtener información a partir del interior de las lunas, se tiene que tener en cuenta las interacciones del plasma. Un ejemplo es Ío, donde los primeros sobrevuelos sugerían que Ío podía tener un campo dinamo interno. Resultó que la perturbación del campo magnético medida no era un campo interno sino que estaba creado por las interacciones de plasma”.

Europa e Ío, sin embargo, no son el único lugar donde las interacciones del plasma y los campos magnéticos pueden decirnos cosas sobre la naturaleza del interior del planeta; este mismo método también se usó para detectar los géiseres de Encelado, una de las lunas de Saturno.

“Los primeros indicios de una región activa en el polo sur vinieron de unas medidas del campo magnético y las simulaciones de las interacciones del plasma, antes de que Cassini viese realmente los géiseres”, dijo el Dr. Schilling.

Con el descubrimiento de ecosistemas completas en el fondo de los océanos aquí en la Tierra – ecosistemas completamente aislados de la luz solar – el descubrimiento de los océanos en Europa da a los científicos esperanza de que pudiese haber vida allí. Y este nuevo descubrimiento ayuda a los científicos a comprender con qué tipo de océano están tratando.

Ahora, sólo tenemos que hacer un túnel a través de la capa de hielo superficial y mirar por nosotros mismos.


Autor: Nicholos Wethington
Fecha Original: 4 de diciembre de 2007
Enlace Original

Analogía de la creación cosmológica de partículas

“En la cosmología existe este efecto cuántico”, dice Ralf Schützhold a PhysOrg.com. “En el universo, existe un estado base, que está vacío. Pero si el universo comienza a expandirse o contraerse, el vacío se distorsiona y no queda vacío por más tiempo. Se crean partículas”.

Los efectos cuánticos descritos por Schützhold, teórico en el Instituto para Física Teórica en la Universidad Tecnológica de Dresden, en Alemania, son pequeños por ahora. “Este efecto ahora mismo es probablemente muy diminuto”, dice. “Pero durante la formación del universo, los efectos cuánticos probablemente desempeñaron un gran papel”.

Schützhold y sus colegas, Michael Uhlmann en el Instituto de Dresden, y los científicos experimentales Lutz Petersen, Hector Schmitz, Axel Friedenauer y Tobias Schätz en el Instituto Max Planck Institute para Óptica Cuántica en Garching, Alemania, esperan modelar la cuántica de partículas usando un modelo análogo de fonones en una trampa de iones. Su trabajo se discute en un artículo titulado “Analogue of Cosmological Particle Creation in an Ion Trap (Analogía de la creación cosmológica de partículas en una trampa de iones)”, y publicado en Physical Review Letters.

“En esta analogía, esperamos ver los mismos efectos de creación cuántica de partículas que suceden en el universo. Pero en lugar de electrones y fotones, como en el universo, usamos fonones en una trampa de iones”, explica Schützhold. Señala que a través de tal analogía, sería posible “ver los efectos cosmológicos y hacer experimentos”.

“Uno de los indicadores básicos que proponemos usar”, dice Schützhold, “son los pares. Las partículas creadas por estos efectos cuánticos siempre aparecen en pares. En la trampa de iones seria de la misma forma. Si existe un efecto cuántico, los fonones aparecerían en pares. Si encontramos que tenemos dos partículas en lugar de una, entonces este es un fuerte indicador de los efectos cuánticos”. Tal detección en la trampa de iones ayudaría a descartar efectos que lleven a la creación de partículas debida a efectos de la física clásica como el calentamiento.

Schützhold señala que la comprensión de los efectos cuánticos que lleva a la creación de partículas no apuntaría directamente a cómo se formó el universo. “Esta es una forma de ayudar a comprender los posibles efectos cuánticos de los inicios del universo, pero no es una prueba directa de la creación cosmológica de partículas”. Se detiene antes de continuar y añade: “A largo plazo, esto podría ayudarnos a entender mejor temas de la teoría”.

Una de las cualidades más atractivas de la analogía de la trampa de iones propuesta por los científicos alemanes es que es posible ver los resultados usando la tecnología actual. De acuerdo con Schützhold, Schätz, líder del grupo experimental en Garching, dice que ya han realizado un experimento preliminar donde enfriaron iones cerca del estado base y lograron bombeo óptico con una precisión del 99 por ciento. “Aún no está completamente listo”, admite, “pero debería estar listo tal vez para finales de año o inicios del siguiente”.

Este experimento, explica Schützhold, es una forma de demostrar los efectos cuánticos tras la creación de partículas y un trabajo hacia la comprensión de las cuestiones fundamentales de la física cuántica. “Este efecto cuántico se ha calculado sólo en la teoría”, dijo. “Por supuesto queremos verlo en un experimento…Aún no se ha observado en la práctica”.

Y aunque la tecnología para medir directamente los efectos cuánticos en la creación de partículas pueden tardar aún años, Schützhold y sus colegas pueden haber encontrado una forma de comprender estos efectos usando una analogía experimental que podría posibilitar un modelo de los mismos efectos.


Autor: Miranda Marquit
Fecha Original: 3 de diciembre de 2007
Enlace Original

Las “estrellas oscuras” podrían haber poblado el inicio del universo

Estrella oscura
Estrella oscura, aunque invisible al ojo humano, emitiría radiación infrarroja. Crédito: Universidad de Utah

La aniquilación de materia oscura podría haber evitado la ignición de la fusión de las primeras estrellas, dejándolas como enormes orbes de hidrógeno y helio apenas brillante, afirman físicos de los Estados Unidos. Tales “estrellas oscuras”, las cuales aún no se han observado, podrían explicar por qué los agujeros negros se formaron tan rápidamente tras el Big Bang — aunque su existencia podría obligar a los físicos a re-evaluar cómo evolucionó el inicio del universo.

La materia oscura se propuso originalmente para explicar cómo lograban las galaxias mantenerse unidas, dado que parecían tener sólo una pequeña fracción de la masa necesaria para producir suficiente energía atractiva gravitatoria. Aunque nadie sabe lo que es la materia oscura, los cosmólogos creen que también desempeñó un papel crucial en los inicios del universo, ayudando a los átomos de helio e hidrógeno a unirse hasta que fueron lo bastante densos para fusionarse y formar las primeras estrellas.

Ahora, Paolo Gondolo de la Universidad de Utah, junto con sus colegas de distintos puntos de los Estados Unidos, dicen que las interacciones entre la materia oscura podrían haber dificultado la formación estelar. Los investigadores modelaron la formación estelar implicando al neutralino, una partícula predicha por la popular extensión “supersimétrica” del Modelo Estándar de la física de partículas y uno delos candidatos favoritos a componer la materia oscura.

Se cree que los neutralinos se aniquilan ocasionalmente y producen calor, pero el grupo de Gondolo ha calculado que un grupo de hidrógeno y helio atraparía este calor en su núcleo, evitando la compactación del grupo y frenando la fusión. La estrella oscura resultante podría crecer hasta las 2000 UA de diámetro — 200 000 veces más que nuestro Sol — mientras brilla en radiación infrarroja (en publicación de Phys. Rev. Lett; pre-impresión disponible en arXiv:0709.2369).

Materia agrupada

Los investigadores comenzaron a modelar la formación estelar con una simulación existente de gas helio e hidrógeno comprimido en grupos, suplementándola con una nueva simulación de cómo la materia oscura de neutralino se contrae bajo el tirón gravitatorio del gas. Entonces calcularon cómo el calor producido por la aniquilación de neutralinos se equilibraría con el calor perdido a través del enfriamiento, y encontraron que había una densidad crítica más allá de la cual el enfriamiento era sobrepasado por el calentamiento.

El grupo de Gondolo no está seguro de cuánto tiempo viviría una estrella oscura producida por este mecanismo, dado que incluso si se agota la materia oscura por aniquilación podría ser repuesta de nuevo. Incluso así, la existencia de estrellas oscuras podría tener varias consecuencias. Podrían explicar por qué los agujeros negros supermasivos, que se piensa que se producen a lo largo de miles de millones de años tras el Big Bang en los cúmulos estelares, parecen haber estado presentes unos pocos millones de años tras el Big Bang. Una estrella oscura podría atraer el suficiente gas de los alrededores para que la presión internar se hiciese cada vez mayor, hasta que por fin sea abrumadora y colapse en uno de esos agujeros negros.

Desafortunadamente, las estrellas oscuras podrían echar a perder la comprensión cosmológica de la reionización, cuando los fotones ultravioleta de las primeras estrellas despojaron de electrones al hidrógeno neutro. Si alguna o todas de estas primeras estrellas fuesen oscuras, la fuente de la reionización tendría que provenir de algún otro lugar. Además, careciendo de fusión, las estrellas oscuras no serían capaces de generar elementos más pesados que el hidrógeno y el helio que vemos hoy.

Pruebas de rayos gamma

En principio, las estrellas oscuras podrían detectarse buscando la firma de subproductos de la aniquilación, tales como los rayos gamma, que normalmente no proceden de regiones de gas de helio e hidrógeno. Pero incluso aunque se carece actualmente de pruebas observacionales, Tom Theuns, cosmólogo computacional de la Universidad de Durham en el Reino Unido, dijo a physicsworld.com que pensaba que la idea de tener primeras estrellas muy diferentes es interesante. “Pero cómo afecta esto a otras cosas, por ejemplo a la cantidad de metales que estas estrellas producen, sus propiedades de supernova o de estallidos de rayos gamma, [o] cómo esto afecta a las posteriores generaciones de formación estelar…estos temas necesitan desarrollarse más”, añadió.


Autor: Jon Cartwright
Fecha Original: 6 de diciembre de 2007
Enlace Original

“Ladrillos” orgánicos descubiertos en la atmósfera de Titán

Los científicos que analizan los datos recopilados por la nave Cassini han confirmado la presencia de iones negativos pesados en las regiones superiores de la atmósfera de Titán. Estas partículas pueden actuar como “ladrillos” orgánicos para moléculas más complejas y su descubrimiento ha sido totalmente inesperado debido a la composición química de la atmósfera (que carece de oxígeno y principalmente consta de nitrógeno y metano). La observación ha sido ya verificada a lo largo de 16 encuentros y las conclusiones se publicaron en Geophysical Research Letters el 28 de noviembre.

Atmósfera superior de Titán

El Profesor Andrew Coates, investigador del University College de Londres (UCL) en el Laboratorio de Ciencia Espacial Mullard y autor principal del artículo, dijo: “El espectrómetro de electrones de Cassini nos ha permitido detectar iones negativos los cuales tienen 10 000 veces más masa que el hidrógeno. Anillos de carbono adicionales pueden formarse a partir de estos iones, formando moléculas llamados hidrocarburos aromáticos policíclicos (PAH), los cuales pueden actuar como base para las primeras formas de vida.

“Su existencia genera dudas sobre los procesos implicados en la química atmosférica y la formación de aerosoles y creemos que es más probable la formación de estos iones negativos en las capas superiores de la atmósfera, moviéndose más tarde hacia la superficie, donde probablemente forman la niebla que envuelve al planeta y que ha ocultado sus secretos en el pasado. Fue esta niebla lo que evitó que las misiones Voyager examinaran Titán más de cerca en 1980 y fue una de las razones por las que se envió a Cassini”.

El nuevo artículo se basa en un trabajo publicado en Science el 11 de mayo donde el equipo encontró tolinas más pequeñas, de hasta 8000 veces la masa del hidrógeno, formándose lejos de la superficie de Titán.

El Dr. Hunter Waite del Instituto de Investigación del Suroeste en Texas y autor principal del anterior estudio, dijo: “Las tolinas son unas moléculas orgánicas muy grandes y complejas que se piensa que están implicadas como precursoras de la vida. Comprender cómo se forman podrían proporcionar una valiosa visión de los orígenes de la vida en el Sistema Solar”.

La misión Cassini-Huygens es un proyecto cooperativo de la NASA, la Agencia Espacial Europea y la Agencia Espacial Italiana. El Laboratorio de Propulsión a Chorro (JPL) de la NASA, una división del Instituto Tecnológico de California, dirige la misión Cassini-Huygens para el Consejo de la Misión Científica de la NASA en Washington, D.C. El orbitador Cassini fue diseñado, desarrollado y ensamblado en el JPL.


Fecha Original: 28 de noviembre de 2007
Enlace Original

¿Por qué explorar el espacio?

Mucha gente descarta la exploración espacial como un lujo, pero esta actitud no sólo es equivocada, es peligrosa.

La tecnología de satélites ha revolucionado nuestro planeta en prácticamente todos los ámbitos. Los satélites climáticos nos ayudan a rastrear los huracanes en formación, permitiendo avisar a la gente con días de antelación. Eso salva miles de vidas. Los satélites de comunicaciones nos permiten acceder instantáneamente a información de todo el mundo usando radio, televisión y teléfonos. Alguna gente acredita, en parte, la caída de la Unión Soviética a esta facilidad de acceso a la información; la gente en esos países veían lo que hacía el resto del mundo, acelerando el proceso de reforma. Los satélites GPS nos permiten encontrar barcos, aviones e incluso gente que se han perdido o necesitan ayuda.

Alcanzar los límites el espacio nos ha ayudado de otras formas también. Una flota de satélites (YOHKOH, SOHO y otros) estudian el Sol de tal forma que podamos comprenderlo mejor. Las descomunales erupciones solares pueden dañar satélites y crear apagones energéticos (como el de Québec en 1989), y el Sol influye directamente en nuestro entorno. La comprensión del Sol es un uso clave de la tecnología espacial.

Explorar otros planetas nos ayuda a colocar en contexto nuestra Tierra. ¿Por qué Marte es frío, seco, casi sin aire, y muerto? ¿Por qué Venus está cubierto de una gruesa capa de nubes y sufre un efecto invernadero extremo? ¿Por qué los huracanes de Júpiter duran siglos? Todas estas preguntas (y miles más) nos ayudan a comprender nuestro planeta, y nos permiten ver cómo afecta los humanos sobre él. Ciertamente, comprender los asteroides es importante – necesitamos aprender cómo moverlos en caso de que alguno se dirija hacia nosotros; un impacto de asteroide podría eliminar a todos los humanos de la Tierra, y nuestro propio futuro está ligado al viaje espacial.

Existen simples razones tecnológicas para la exploración espacial además. Algunos estiman que por cada dólar invertido en el programa espacial Apolo, se generaron más de 20 dólares de beneficio. ¡Esto es un gran pago! La tecnología de ordenadores, comunicaciones, cohetería y muchos otros campos se han beneficiado enormemente de la exploración espacial..

Y hay otra razón más. Los humanos se esfuerzan por aprender, explorar, llegar a los límites, ver qué hay tras la esquina. Esto es, en muchas formas, una necesidad fundamental y la exploración espacial es una fantástica manifestación de la misma. El universo es enorme, maravilloso, misterioso, y finalmente, conocible. Incluso si no hubiese otras razones, ésta sola debería ser suficiente para seguir con nuestra exploración espacial.


Autor: Phil Plait
Fecha Original: 28 de noviembre de 2007
Enalce Original

¿Puede evitarse el hambre en el mundo?

En 1798, el economista británico Thomas Malthus predijo que la población mundial pronto superaría su capacidad para alimentarse a sí misma. Aunque se han realizado pronunciamientos similares en cada generación, la escasez de comida no es el problema básico, dice David Blandford.

Blandford, profesor de economía agrícola en la Universidad Estatal de Pennsylvania, apunta a las recientes conclusiones de la Organización de Alimentos y Agricultura (FAO) de las Naciones Unidas. Tal y como cita, “Lo que demuestra el análisis de la FAO es que el suministro total de comida es más que adecuado para cubrir las necesidades calóricas de toda la población mundial”.

Es más, Blandford confía que “dadas las tendencias esperadas para productividad y progreso tecnológico esto continuará siendo así conforme la población mundial se expanda hasta el punto en la que se estabilice, lo cual será en algún momento a mediados de este siglo”.

Aunque la División de Población de las Naciones Unidas prevé una población global de 9300 millones de personas para 2050, Blandford cree que el principal problema en el suministro de alimentos a nivel mundial no es que haya una población abrumadoramente grande, sino que hay una carencia de estructuras sociales para distribuir de forma adecuada la comida que existe.

El dinero – o la carencia del mismo – es el mayor obstáculo, explica Blandford. “La mayor parte de los problemas actuales de desnutrición son debidos a la pobreza. El alimento está disponible pero algunos grupos son incapaces de obtenerlo simplemente porque no tienen los ingresos necesarios. Encontramos este problema en todos los países, no sólo en aquellos en los que la renta per cápita es baja”.

Crear una mejor infraestructura para la distribución de alimentos — principalmente en forma de vehículos de transporte para desplazar comida por todo el mundo — también es costoso. “Cuando es demasiado difícil o caro desplazar la comida de áreas de superávit a áreas con déficit, la gente se queda sin acceso a comprar comida cuando la necesitan”, dice Blandford.

“La inestabilidad política, principalmente guerras civiles y conflictos internos, es la principal fuente de inseguridad alimenticia en el mundo desarrollado, más que cualquier carencia de potencial agrícola”, añade Blandford, apuntando al ejemplo de Zimbabwe. Aunque en un tiempo las naciones africanas eran líderes en exportación de grano y otros productos agrícolas, “las políticas gubernamentales restrictivas sobre los propietarios y la operación de la tierra, así como la pobre gestión de la economía global, han cambiado Zimbabwe a un país en el cual gran parte de la población está al borde de la subsistencia, o ha emigrado para sobrevivir”.

Otra tema de potencial preocupación para el suministro alimenticio mundial, dice Blandford, es el incremento en la demanda de biocombustibles. “Cuando el grano, particularmente el maíz, es dirigido hacia tal uso, el precio del maíz tiende a subir”, explica, “y esto tiene un efecto de ola sobre los precios de otras comodidades y el precio de la comida”.

“Aunque no hay una forma fácil de solucionarlo”, concluye Blandford, “la esperanza es que podamos trabajar hacia la creación de unos mejores sistemas de distribución, de forma que podamos reducir la crisis de hambruna y malnutrición en todo el mundo”.


Autor: Josh Ambrose
Fecha Original: 3 de diciembre de 2007
Enlace Original

¿Podríamos detectar plantas en otros planetas?

Ya hemos encontrado aproximadamente 250 planetas extrasolares, y se descubren cada vez más bastante a menudo. Con el surgimiento de todos estos nuevos planetas, la pregunta obvia que debemos hacer es: ¿cómo vamos a intentar detectar si tienen vida o no? Aunque aún no podemos ver características de la superficie incluso usando los telescopios más potentes – y probablemente no seamos capaces de hacerlo en mucho tiempo – un análisis de la luz procedente de los planetas podría revelar si está cubierto con vida en la forma de plantas.

El Dr. Luc Arnold del Observatorios CNRS de Haute-Provence en Francia sugiere que el análisis espectral de la luz reflejada por el planeta podría determinar si está cubierto o no con vegetación.

La superficie de la Tierra, cubierta de plantas, absorbe ciertas frecuencias de la luz y refleja otras. Nuestra vegetación tiene un espectro muy específico debido a que absorbe gran cantidad de la luz visible alrededor de los 700 nanómetros, o el color que nosotros vemos como rojo. Este es el llamado Borde Rojo de Vegetación (VRE).

Observando la luz solar que es reflejada por la Tierra – el brillo terrestre – puede determinarse la composición de la superficie de la Tierra y su atmósfera. La luz de la Tierra puede analizarse cuando es reflejada de vuelta desde la Luna, o desde una nave lo bastante distante para verla como un pequeño disco.

Conociendo la composición de la luz del Sol, y ajustándolo para los elementos y minerales de la atmósfera y la superficie, aún hay aproximadamente entre un 0 y un 10 por ciento de fotones cerca del extremo rojo del espectro visible que se pierden. El factor necesario para explicar esta absorción de fotones es la presencia de plantas, las cuales usan la luz para la fotosíntesis.

Este mismo método podría, potencialmente, usarse para detectar la presencia de vegetación en planetas extrasolares, propone el Dr. Arnold en un artículo titulado, Earthshine Observation of Vegetation and Implication for Life Detection on Other Planets (Observación de vegetación del brillo terrestre e implicaciones para la detección de vida en otros planetas) publicado el 30 de octubre de 2007 en la revista Space Science Review.

“El punto es que, si en el espectro de un planeta similar a la Tierra encontramos una firma espectral – probablemente distinta de la del VRE – que no podemos explicar como una firma mineral, ni como una firma atmosférica, entonces la propuesta es que esta característica se convierte en una firma posiblemente reveladora de vida. Especialmente si la variación en la fuerza de la señal está correlacionada con el periodo de rotación del planeta, sugiriendo que la característica espectral está en la superficie del planeta”, dijo el Dr. Arnold.

El VRE en la Tierra se calcula tomando “factores de ruido” tales como la composición de la atmósfera, si hay muchas nubes, y si la parte de la Tierra que refleja la luz está cubierta por desiertos, océanos o bosques. Todas estas cosas absorben luz en distintas partes del espectro. Estos mismos detalles deben ser tenidos en cuenta para otros planetas de forma que aseguremos que la ausencia de fotones en cierta parte del espectro está, efectivamente, debida a la absorción de luz por parte de las plantas.

Para poder descartar otros factores en el espectro del planeta, la resolución debe ser mejor de lo que actualmente es posible. La misión Darwin de la ESA y el Buscador de Planetas Terrestres de la NASA, ambas misiones diseñadas para la búsqueda de nuevos planetas terrestres y un mejor estudio de los ya descubiertos, se espera que se lancen en los próximos diez años. No serán capaces de resolver el espectro de los planetas extrasolares lo bastante bien como para usar este método para hallar vegetación, pero la segunda generación de telescopios de búsqueda de planetas probablemente tendrán esta capacidad.

La cuestión permanece en si las plantas de otros mundos usarán clorofila como medio para fotosintetizar la luz. ¿La luz absorbida será roja, o de un color distinto? ¿La luz reflejada será verde o algo completamente extraño, como magenta o azul brillante? Si usan clorofila, su espectro será similar al de nuestro propio planeta. Si no es así, su firma espectral puede ser bastante distinta de la que encontraos en la vegetación de la Tierra.

El Dr. Arnold dice que un VRE distinto podría ser bastante interesante: “¿Qué es lo que nos diría un VRE extraño y distinto? Nos revelaría pérdida de fotones, es decir, fotones de la estrella absorbidos y “usados” (su energía) en un proceso químico desconocido o no identificado, eso es lo que aprenderíamos. De nuevo, otras informaciones sobre la composición atmosférica (vapor de agua, oxígeno, ozono, etc.) y temperaturas ayudarían a hacer propuestas coherentes. ¡Al menos alimentará un debate muy excitante!”


Autor: Nicholos Wethington
Fecha Original: 5 de diciembre de 2007
Enlace Original

Alienígenas separados

Durante años los científicos han luchado contra un hecho desconcertante: El universo parece ser notablemente adecuado para la vida. Sus propiedades físicas están ajustadas con precisión para permitir nuestra existencia. Estrellas, planetas y el tipo de química de uniones que producen los peces, los helechos y las personas no sería posible si algunas de estas constantes cósmicas fuese sólo ligeramente distinta.

Bueno, existe otra propiedad en el universo que es igualmente notable: Está configurado de una forma que mantiene a cada uno aislado.

Aprendimos esto hace relativamente poco. El gran descubrimiento tuvo lugar en 1838, cuando Friedrich Bessel derrotó a sus compañeros de observación telescópica en ser el primero en medir la distancia a otra estrella que no fuese el Sol. 61 Cygni, una estrella binario de nuestro propio patio de atrás, resultó estar a unos 11 años luz de distancia. Para aquellos que, como Billy Joel, le tienen cariño a los modelos, pensaron de esta forma: Si encoges al Sol hasta que sea como una pelota de ping-pong y la colocas en el Central Park de Nueva York, 61 Cygni sería una pelota ligeramente menor cerca de Denver.

Las distancias entre estrellas adyacentes se miden en decenas de billones de kilómetros. Las distancias entre civilizaciones adyacentes, incluso suponiendo que existan gran cantidad de ellas, se miden en miles de billones de kilómetros – cientos de años luz, por usar una unidad más manejable. Nota que este número no cambia mucho sea cual sea el número de planetas que creas que están repletos de habitantes – la separación es prácticamente la misma si crees que hay diez mil sociedades galácticas o un millón.

Las distancias interestelares son grandes. Teniendo que la física del universo hubiese sido diferente – si la constante gravitatoria fuese menor – tal vez los soles habrían se habrían rociado de forma mucho más cercana, y los viajes a nuestros vecinos estelares habrían sido de no más de un paseo en cohete, del tipo de un viaje a Sydney. Como es en realidad, no importa cual sea tu nivel tecnológico, el viaje entre estrellas es un misión dura. Saltar de una a la siguiente a la velocidad de nuestros cohetes químicos más potentes llevaría casi 100 000 años. Para cualquier alienígena que haya logrado dominar las ingentes reservas de energía y los voluminosos escudos de radiación requeridos para el vuelo espacial relativista, el tiempo del viaje todavía se mide en años (si no para ellos, al menos para los que dejan atrás).

Esto tiene consecuencias obvias (las cuales, notablemente, han escapado a la atención de la mayoría de guionistas de Hollywood). Para empezar, olvídate de “imperios” galácticos o las más políticamente correctas “federaciones”. Hace dos mil años, los romanos fundaron un imperio que abarcaba desde España hasta Irak, con un radio de aproximadamente 2000 kilómetros. Pudieron hacer esto gracias a la organización e ingeniería civil. Todos esos caminos (por no mencionar el Mediterráneo) permitían a las tropas moverse a alrededor de unas pocos kilómetros por hora. Incluso los rincones más recónditos de los dominios romanos podían alcanzarse en meses o menos, o aproximadamente un uno por ciento de la vida media de un legionario. Tenía sentido llevar a cabo campañas diseñadas para mantener unido un extenso tejido social cuando hacer tal cosa requiere sólo un uno por ciento aproximadamente de tu vida.

En el siglo XIX, los barcos de vapor y ferrocarriles incrementaron la velocidad de desplazamiento de las tropas en un factor de diez, lo que extendió el radio de control en una cantidad similar. Los británicos podían gobernar un imperio que abarcaba todo el mundo.

Pero aquí está el truco: Incluso si pudiésemos mover gente a casi la velocidad de la luz, esta “regla del uno por ciento” estaría limitada a nuestra capacidad para intervenir con efectividad – nuestro radio de control – a distancias menores de un año luz, un espacio considerablemente corto incluso para la estrella más cercana a nuestro Sol. Por consiguiente, la Federación Galáctica es una ficción (por si no lo sabías). A pesar de que te advirtiesen de que los cardassianos causaban destrozos, caos y destrucción en la galaxia del Brazo de Perseo, no podrías reaccionar lo bastante rápido para afectar al resultado. Y, de todas formas, tus reclutas serían pasto de los gusanos mucho antes de llegar a las fronteras.

En otras palabras, los alienígenas no se verían las caras con nadie.

Podría hacerse un argumento similar para la comunicación. Raramente iniciamos un intercambio de información que lleve más que meses (una carta interoceánica, por ejemplo). Más generalmente, raramente iniciamos cualquier proyecto bien definido que dure más de dos o tres generaciones. Los constructores de las catedrales medievales estarían dispuestos a gastar tal cantidad de tiempo para completar sus edificios góticos , y aquellos que enterraron cápsulas del tiempo están ocasionalmente dispuestos a dejar pasar cientos de años antes de que los botes sean excavados. Pero, ¿qué pasa con un proyecto que lleva varios siglos, o posiblemente milenios? ¿Quién está dispuesto a hacer eso? Sólo la “Fundación Long Now” de Stewart Brand parece tener agallas para acometer esta empresa, proponiendo construir un reloj que se mantenga en hora durante diez mil años.

Claramente, estas simples observaciones deben tener implicaciones para SETI, el cual, como apuntamos, implica transmisiones que deben durar de cientos a miles de años. En particular, si existen señales que se están intercambiando por la galaxia con el propósito de contactar, o bien (1) los alienígenas son individuos de una longevidad mucho mayor que la nuestra, lo cual – si eres aficionado a los circuitos integrados sensibles – implica que probablemente no son biológicos. O (2) nos estamos perdiendo algo realmente importante de la física que permite comunicaciones que viajan más rápido que la luz, y los esfuerzos en señales extraterrestres no incluyen saltos de luz y ondas de radio en el espacio.

Muchos lectores elegirán, en una muestra de entrañable perversidad la según opción. Puede que tengan razón, pero eso está en contra de todo lo que conocemos. Y lo que sabemos es algo sobre lo que merece la pena bromear en tu próxima fiesta – a saber, que las escalas de tiempo para el viaje y la comunicación son demasiado largas para una interacción fácil con los seres cuyas vidas son, como la nuestra, de sólo un siglo o menos. Por lo que aunque el cosmos podría tener abundante vida inteligente – la arquitectura del universo, y no algún Primer Ministro de la Flora Estelar, ha asegurado una preciosa pequeña interferencia de una cultura con otra.


Autor: Seth Shostak
Fecha Original: 6 de diciembre de 2007
Enlace Original

Explicados los “platillos volantes” alrededor de Saturno

La formación de extrañas lunas con forma de platillos volantes incrustadas en los anillos de Saturno ha desconcertado a los científicos. Nuevos hallazgos sugieren que nacen en su mayoría a partir de cúmulos de partículas de hielo de los mismos anillos, una pista que podría arrojar luz sobre cómo la Tierra y otros planetas se unieron a partir del disco de materia que una vez rodeó al Sol.

Imagen generada por ordenador de la luna de Saturno, Atlas. Los científicos creen que la forma de platillo volante proviene de partículas enganchadas de los anillos del planeta. Crédito: CEA/ANIMEA

Los anillos de Saturno orbitan el planeta en un disco plano que corresponde al ecuador del planeta. De la misma forma, la Tierra y otros planetas orbitan al Sol en un plano relativamente liso que se relacionado con el ecuador solar. Los planetas, al menos los rocosos, se piensa que se formaron cuando trozos de material que orbitaban al recién nacido Sol se unieron, formando objetos cada vez más grandes que colisionaban y se fusionaban.

Las observaciones de la nave Cassini de la NASA revelaron que las lunas saturnianas Atlas y Pan, cada una de aproximadamente 20 kilómetros de polo a polo, tienen grandes crestas que surgen de su ecuador de aproximadamente entre 6 y 10 kilómetros de altura, dándoles la apariencia de platillos volantes.

En principio, los rápidos ratios de giro podrían haber alargado Atlas y Pan en formas inusuales, de la misma forma que se aplana el disco de una pizza. Pero ninguna de las lunas gira rápidamente, llevándoles 14 horas realizar una rotación completa. La Tierra, mucho mayor, rota en 24 horas, por supuesto.

Carolyn Porco, científico planetario en el Instituto de Ciencia Espacial en Boulder, Colorado, y sus colegas sospechaba que estas peculiares lunas podrían haberse formado mayormente a partir de los anillos de Saturno, en lugar de ser producto de colisiones de lunas mayores, como se había sugerido. La localización de los riscos está alineada con precisión con los anillos de partículas de hielo en las que están incrustados, hallazgo que se detalló en el ejemplar del 6 de diciembre de la revista Science.

Tras analizar las formas y densidades de las lunas a partir de los datos captados por Cassini, el equipo de Porco ha encontrado que Pan y Atlas parecen ser en mayor parte cuerpos helados porosos, igual que las partículas que forman los anillos. Simulaciones por ordenador sugieren que entre la mitad y dos tercios de estas extrañas lunas están hechas de material de anillo, apilado en fragmentos masivos y densos de lunas mayores que se desintegraron hace miles de millones de años tras las catastróficas colisiones de unas con otras.

Estos hallazgos podrían arrojar luz sobre el comportamiento de los “discos de acreción” – discos que se conforman cuando la materia cae hacia un tirón gravitatorio.

“Los discos de acerción se encuentran por todas partes en el universo — alrededor de agujeros negros, de estrellas e incluso de Júpiter”, dijo el astrofísico Sebastien Charnoz de la Universidad de Paris Diderot en Francia. Es el autor principal de un nuevo estudio relacionado, también descrito en el ejemplar del 6 de diciembre de Science — que muestra cómo las lunas saturnianas se alargaron y abultaron en las formas de platillos volantes.

Comprender cómo las partículas de hielo se amontonaron para crear estas formas podría arrojar luz sobre cómo la materia del disco protoplanetario que se reunió alrededor de nuestro recién nacido Sol pudo haberse unido para formar planetas, añadió, Charnoz.


Autor: Charles Q. Choi
Fecha Original: 6 de diciembre de 2007
Enlace Original

Primera detección desde tierra de la atmósfera de un planeta extrasolar

El astrónomo de la Universidad de Texas en Austin y Miembro de Hubble, Seth Redfield, ha usado el Telescopio Hobby-Eberly (HET) en el Observatorio McDonald para realizar la primera detección desde tierra de la atmósfera de un planeta de fuera de nuestro Sistema Solar. Esta investigación ha sido aceptada para su publicación en un próximo ejemplar de la revista Astrophysical Journal Letters.

Telescopio HET.

“Es un descubrimiento pionero notable”, dijo el Director del Observatorio McDonald, David L. Lambert.

El trabajo es un paso más en la búsqueda de la vida en el Universo, que cae entre las detecciones iniciales de planetas alrededor de otras estrellas (conocidos como “planetas extrasolares o “exoplanetas”), y el descubrimiento anticipado de planetas similares a la Tierra.

“Lo que todos queremos encontrar es un planeta con una atmósfera similar a la Tierra”, dijo Redfield.

El planeta que estudió Redfield orbita a HD189733, una estrella a aproximadamente 63 años luz de distancia en la constelación de Vulpecula, la Zorra. Pero no es como la Tierra. El planeta es un 20% más masivo que Júpiter, y orbita muy cerca de su estrella madre (más de diez veces más cerca de lo que lo hace Mercurio respecto a nuestro Sol).

Desde la línea de visión de la Tierra, el planeta pasa directamente frente a la estrella en cada órbita. Esto significa que este planeta, HD189733b, es lo que se conoce como un “planeta extrasolar en tránsito”. Fue esta propiedad del “tránsito” lo que permitió el descubrimiento del planeta en 2004 por Francois Bouchy del Laboratorio de Astrofísica de Marsella en Francia, y la detección de su atmósfera en 2007 por Redfield.

El equipo de Redfield para este proyecto incluye a los astrónomos de la Universidad de Texas en Austin Michael Endl, William Cochran, y Lars Kosterke.

Los astrónomos sólo habían detectado anteriormente una vez la atmósfera de un planeta orbitando una estrella de tal forma, usando el ahora instrumento inoperativo del Telescopio Espacial Hubble, Espectrógrafo de Imágenes del Telescopio Espacial Hubble (STIS).

“STIS se rompió poco después de la detección, y no existe forma de hacer esto desde el espacio. Las observaciones desde tierra son la única opción por el momento”, dijo Redfield.

Se ha intentado esta hazaña varias veces desde tierra sin éxito en los últimos años, dijo. En la mayoría de los casos, los astrónomos han estudiado sus estrellas objetivo a través de un sólo tránsito.

“Sabía que teníamos que dar un paso más”, dijo Redfield. “Sabía que probablemente tendríamos que captar más tránsitos” para detectar la atmósfera. Estudió 11 tránsitos a lo largo de un año con HET y su Espectrógrafo de Alta Resolución.

Para obtener el “espectro de transmisión” del planeta, y de esta forma la composición química de su atmósfera, usó lo que llamó una técnica “muy sencillo”.

“Toma un espectro de la estrella cuando el planeta está frente a la misma”, dijo. “Entonces toma un espectro de la estrella cuando no lo está. Divide ambos y tendrás el espectro de transmisión atmosférica del planeta”.

Sencillo, pero no fácil. La luz bloqueada por el planeta es apenas un 2,5 por ciento de la luz total de la estrella, más otro 0,3 por ciento para la atmósfera del planeta.

“Cada vez que el planeta pasa frente a la estrella”, dijo Redfield, “el planeta bloquea parte de la luz de la estrella. Si el planeta no tiene atmósfera, bloqueará la misma cantidad de luz en todas las longitudes de onda. Sin embargo, si el planeta tiene atmósfera, los gases de la misma absorberán parte de la luz adicional”.

Se predijo que los átomos de sodio estarían presentes en la atmósfera. La atmósfera del planeta absorberá más luz de la estrella en esas longitudes de onda que corresponden a transiciones específicas del átomo de sodio.

“Esto provoca que el planeta parezca más grande, dado que ahora “vemos” el planeta más la atmósfera, y medimos más luz bloqueada de la estrella”, dijo Redfield.

Cuando estudiamos el planeta en una longitud de onda concreta de la transición del sodio, el planeta parece un 6 por ciento más grande que en otras longitudes de onda. La detección del sodio fue posible debido a que hay una gran cantidad allí, y la transición atómica es fuerte y cae en el rango visual que los telescopios terrestres pueden detectar.

“Muchos otros constituyentes atómicos y moleculares de la atmósfera podrán estudiarse de una forma similar, incluyendo potasio e hidrógeno”, dijo Redfield.

“Intentaremos la detección de otros gases alrededor de este planeta”, dijo Lambert. Y, “Le deseo todo el éxito a Seth en su búsqueda del oxígeno, vapor de agua y otras moléculas — indicadoras de la vida — alrededor de planetas mucho más adecuados para la vida que este”.

El análisis de los datos implicó el estudio de cientos de observaciones dispersas a lo largo de un año, tomadas en distintas condiciones. Redfield y sus colaboradores eliminaron la contaminación de los datos provocada por el vapor de agua de la propia atmósfera de la Tierra, modelando cómo la propia estrella podrían haber contribuido a sus medidas, y más, para asegurar que su detección era correcta.

Finalmente, el “espectro de transmisión” del planeta extrasolar de HET tenía una resolución mucho mayor que las previamente realizadas con el Telescopio Espacial Hubble de un planeta distinto.

“En realidad quedé sorprendido y animado de que esto fuese posible”, dijo Redfield. “Hemos demostrado que es posible. Vamos a empezar a aplicarlo a otros planetas en tránsito. Vamos a empezar a hacer “exoplanetología comparativa”.

“Es sobrecogedor lo rápido que se produce el progreso en el campo de los exoplanetas”, dijo el colaborador de Redfield, Michael Endl. “Hemos llegado a un punto donde podemos estudiar la composición de las atmósferas de “Júpiter calientes-2 con gran detalle. El HET no es sólo un buscador de planetas realmente, sino que es una gran herramienta para examinar las características atmosféricas de los planetas extrasolares en tránsito con una resolución sin precedentes. No puedo esperar a ver los resultados de otros planetas y compararlos con nuestros hallazgos iniciales”.

Redfield dijo que HET puede estudiar la atmósfera de muchos de los planetas en tránsito más brillantes.

El Telescopio Hobby-Eberly es un proyecto conjunto de la Universidad de Texas en Austin, la Universidad Estatal de Pennsylvania, la Universidad de Stanford, la Universidad Ludwig-Maximilians de Munich, y la Universidad Georg-August de Göttingen.


Fecha Original: 05 de diciembre de 2007
Enlace Original

Propuesta nueva hipótesis para el origen de la vida

La vida pudo haber comenzado en los espacios protegidos dentro de las capas del mineral de mica en los antiguos océanos, de acuerdo con una nueva hipótesis.

Moléculas biológicas en los espacios entre las láminas de mica. Crédito: Helen Greenwood Hansma, UCSB

La hipótesis fue desarrollada por Helen Hansma, científico investigador de la Universidad de California en Santa Bárbara y directora de un programa de la Fundación Nacional de Ciencia. Hansma presentó sus conclusiones en una rueda de prensa de la reunión anual de la Sociedad Americana para la Biología Celular en Washington, D.C.

La hipótesis de Hansma sobre la mica propone que los estrechos espacios confinados entre las finas capas de mica podrían proporcionar exactamente las condiciones adecuadas para el surgimiento de las primeras biomoléculas –– creando, efectivamente, células sin membranas. La separación de las capas también habría proporcionado el aislamiento necesario para la evolución Darwiniana.

“Algunos creen que las primeras biomoléculas fueron proteínas simples, algunos creen que fueron ARN, o ácido ribonucleico”, dijo Hansma. “Tanto las proteínas como el ARN podrían haberse formado entre las capas de mica”.

El ARN desempeña un importante papel en la traducción del código genético, y está compuesto de bases nitrogenadas, azúcar y fosfatos. El ARN y muchas otras proteínas y lípidos de nuestras células tienen carga negativa como la mica. Los grupos de fosfatos de ARN están distanciados medio nanómetro, justo igual que las cargas negativas de la mica.

Las capas de mica están unidas por potasio. La concentración de potasio en el interior de la mica es muy similar a la concentración de potasio de nuestras células. Y el agua del mar que bañó a la mica es rica en sodio, como nuestra propia sangre.

El calentamiento y enfriamiento producido por ciclo del día y la noche habría provocado que las capas de mica se moviesen arriba y abajo, y las olas habrían proporcionado además una fuente de energía mecánica, de acuerdo con el nuevo modelo. Ambas formas de movimiento habrían causado la formación y ruptura de los enlaces químicos necesarios para la primera bioquímica.

De esta forma las capas de mica podrían haber proporcionado soporte, protección y una fuente de energía par el desarrollo de la vida precelular, mientras dejaban artefactos en la estructura de los seres vivos de hoy.

Además de proporcionar una hipótesis más plausible que el modelo de “sopa” en el océano prebiótico, Hansma dijo que su nueva hipótesis también explica más que la conocida como hipótesis de la “pizza”. Este modelo propone que las biomoléculas se originaron en la superficie de los minerales de la corteza terrestre. A hipótesis de la “pizza” no puede explicar como obtuvieron las primeras biomoléculas la cantidad adecuada de agua para formar biopolímeros estables.

Como biofísico, Hansma ha trabajado con mica durante décadas comenzando con su trabajo en biología con el Microscopio de Fuerza Atómica (AFM) a finales de los años 80. “Pusimos nuestras muestras sobre mica, porque es atómicamente muy plano, tan plano que incluso pueden ver las moléculas de ADN como pequeñas ondas sobre la superficie de la mica”, dijo Hansma. “Este material en capas está formado por láminas tan delgadas (un nanómetro) que hay un millón de ellas en una porción de mica de un milímetro de grosor”.

Hansma llegó a esta idea un día de la pasada primavera cuando estaba dividiendo mica en su microscopio de disección. Había recolecta las muestras en una mina de mica de Connecticut. La mica estaba cubierta con material orgánico. “Conforme observaba el material orgánico sobre la mica, se me ocurrió que sería un buen lugar para que se originase la vida –– entre esas capas que pueden moverse arriba y abajo en respuesta a las corrientes de agua las cuales habrían proporcionado la energía mecánica para la creación y ruptura de enlaces”, dijo Hansma.

Resumió su hipótesis del origen de la vida diciendo, “Me imagino todas las moléculas de la vida primitiva evolucionando y reorganizándose entre las capas de mica de forma comunal durante eones antes de crear membranas celulares y dispersarse para poblar el mundo”.


Fecha Original: 4 de diciembre de 2007
Enlace Original

Pensando en el futuro: La tecnología de los vuelos espaciales dentro de 50 años

La Era Espacial comenzó hace 50 años con el lanzamiento del Sputnik, una pequeña bola metálica que portaba sólo un par de radiotransmisores. Desde entonces, las tecnologías del vuelo espacial han crecido. Los combustibles para cohetes de alto rendimiento, electrónica de guía miniaturizada y materiales para naves ultra ligeros, por nombrar unos pocos, hacen que los frecuentes y complejos viajes al espacio sean posibles.

Durante el siguiente medio siglo, sin embargo, los líderes en planes vuelos espaciales creen que las innovaciones tecnológicas de bajo coste guiarán el camino hacia la Luna, Marte y más allá.

“Llegar al espacio es muy caro. Si hay una forma de reducir verdaderamente los costes de llegar a la órbita de la Tierra en un factor de 10, ya sería algo”, dijo Chris Moore, ejecutivo del programa de la NASA para tecnología de exploración en los cuarteles generales de la agencia en Washington, D.C. “Hay un gran ramo de ideas innovadoras desde propulsión por scramjet a elevadores espaciales, pero algunas de ellas…están muy lejos en el futuro”.

Vuelo espacial rebajado

Brett Alexander, director ejecutivo de los premios espaciales de la Fundación X Prize en Santa Mónica , California, dijo que los nuevos sistemas de propulsión deberían allanar el camino para más tecnologías.

“El mayor reto es crear un sistema de propulsión más seguro y simple que pueda ser producido en masa”, dijo Alexander a SPACE.com. “Es un punto de inflexión no sólo para los vuelos espaciales, sino también para las siguientes tecnologías”.

Aunque los científicos de todo el mundo siguen trabajando en el tema del desarrollo de sistema de propulsión rebajados, Moore explicó que la NASA está apuntando su “lista de regalos” en los Retos del Centenario.

“Ofrecemos premios en metálico a la industria o universidades para hacer misiones altamente innovadoras de bajo coste así como demostraciones tecnológicas”, dijo Moore del programa. Las tareas de prueba de ideas incluyen el desarrollo de guantes para astronautas más perdurables y que permitan más destreza, extraer oxígeno respirable del polvo lunar y crear “correas” ligeras increíblemente fuertes que podrían usarse por un elevador espacial para elevarse en el espacio.

Aunque los ganadores del reto fueron escasos a lo largo de 2005, Moore confía en que próximos eventos, tales como el reto del aterrizador lunar Luna 2.0 de la Fundación Prize X y Google, generará éxitos.

“Estos tipos de competiciones han sido exitosas en el pasado”, dijo Moore, citando el vuelo suborbital de Rutan en una nave patrocinada por fondos privados en 2004, que logró el premio de 10 millones de dólares.

Tecnología resistente al regolito

Mientras equipos de financiación privada intentan conseguir atrerrizadores de bajo coste para la Luna, la NASA está haciendo preparativos para una permanencia humana continuada allí alrededor de 2020 — pero conseguir eso será sólo la mitad de la batalla, dijo Moore.

La superficie luna está cubierta de partículas microscópicas de polvo vidrioso, conocido como regolito, el cual amenaza tanto al hombre como a la máquina. Moore dijo que crear una base funcional en la superficie lunar requiere del desarrollo de una tecnología “resistente al regolito”.

“El regolito puede degradar los trajes espaciales y los cierres de presión así como otros equipos”, dijo Moore. El daño para la saluda durante largas estancias es también un tema, dijo, mencionando que los astronautas que retornan de la Luna se quedan de problemas de respiración por el polvo que se introdujo en su reducido espacio vital.

Las tecnologías antipolvo podrían ser tan complejas como cámaras de eliminación de polvo o tan simples como cubiertas para trajes espaciales, dijo Moore. También apuntó que serán claves hábitats lunares que sean capaces de reciclar el aire, el agua y los residuos humanos de forma mucho más eficiente que los sistemas de la Estación Espacial.

“Una vez que estemos allí, necesitaremos robótica avanzada para desplegar módulos de hábitat y conectarlos entre sí para formar un puesto avanzado lunar”, dijo. “Lo que nos gustaría hacer es tomar el regolito lunar y extraer oxígeno a partir de los minerales del suelo, por lo que podemos usarlo para respirar o para fabricar oxidantes para combustibles de cohetes”.

Marte y más allá

Las tecnologías desarrolladas para misiones a la Luna de largo plazo servirán como plantillas para las expediciones a Marte algún tiempo después del año 2030, pero Moore dijo que necesitarán más avances de innovación para llevar a los astronautas – y traerlos – de una sola pieza.

“Mejor cuando más rápido lleguemos”, dijo Moore a SPACE.com. Cree que los sistemas de propulsión nuclear aún en desarrollo pueden mostrarse como la forma más rápida de vuelo espacial en el futuro, así como el enviar una misión en dos viajes: Una nave más pesada cargada de suministros que se lance con anterioridad, seguida por una nave tripulada más ligera.

Moore dijo que viajes más rápidos recortarían el tiempo de exposición a los agentes que puedan amenazar la salud de la tripulación durante el viaje, tales como la radiación, pérdida ósea y deficiencias inmunes, pero las tecnologías médicas avanzadas también serán cruciales para el éxito.

“Cuando vamos a Marte vamos a hacer un viaje muy largo”, dijo. “Necesitamos estar seguros de que la tripulación está sana y puede realizar su trabajo cuando llegue allí”.

¿Un tema privado?

Construir una fuerte economía espacial con implicación privada será esencial para el éxito del desarrollo de las tecnologías capaces de enviar representantes de la raza humana a Marte, dijo Alexander.

“No podemos mantener programas como el Apolo en el futuro, de la misma forma que no podíamos hacerlo hace 40 años”, dijo Alexander. “Mi sueño es tener una acceso sostenible y accesible al espacio, y firmemente creo que se debe involucrar al sector privado para lograr esto”.

Moore está de acuerdo, apuntando que la NASA pretende usar sus puestos lunares para proporcionar infraestructuras para la industria privada. Aún así, la destreza de las industrias espaciales de un solo país pueden no ser suficientes.

Además de la implicación privada, Moore explicó que una mejor colaboración internacional será esencial para poner nuevas tecnologías en uso para la siguiente era del vuelo espacial.

“Los primeros años de la Era Espacial se caracterizaron por una gran competitividad internacional, pero ahora estamos en un entorno mucho más colaborativo”, dijo Moore. “El vuelo espacial es muy caro y una empresa que supone un gran tero, y tendremos que depender de otras naciones … en los próximos 50 años”.


Autor: Dave Mosher
Fecha Original: 3 de octubre de 2007
Enlace Original

Los mayores agujeros negro crecen dentro de “quasiestrellas”

Los mayores agujeros negros del universo podrían haber crecido en las entrañas de estrellas gigantes, según sugiere un nuevo estudio. Si estas “quasiestrellas” portadoras de agujeros existen, entonces podrían brillar lo suficiente para verse a través del universo.

Crédito: Jorge Calero

Las quasiestrellas son un intento de explicar la existencia de los agujeros negros supermasivos, los cuales han sido detectados por los astrónomos en el corazón de la mayoría de grandes galaxias, y cuyo origen aún es desconocido.

Los agujeros negros más pequeños son más fáciles de explicar – el núcleo de una estrella masiva puede a veces colapsar en un agujero negro con una masa de unas 10 veces la del Sol. Pero sus hermanos mayores tienen mil millones de veces esa masa.

Es posible que los hermanos menores puedan crecer alimentándose de estrellas y gas o colisionando y fusionándose entre sí. Pero tendrían que haber crecido muy rápidamente en términos cósmicos, debido a que algunos agujeros negros supermasivos estaban ya allí apenas unos cientos de millones de años tras el Big Bang.

Mitchell Begelman y sus colegas de la Universidad de Colorado en Boulder, Estados Unidos, han desarrollado cómo los grandes agujeros negros podrían haber tenido ventaja en los inicios de su vida.

Las grandes nubes de hidrógeno y helio eran comunes en los inicios del universo. Begelman dice que si una de tales nubes colapsó en una estrella masiva, un denso grupo de gas podría apilarse tan rápidamente en su núcleo que colapsaría en un pequeño agujero negro.

Cuando esto sucede en estrellas con una pocas veces la masa del Sol, la enorme energía liberada es suficiente para disparar las capas de gas que la rodean, revelando una brillante explosión de supernova.

Gran masa

Pero dado que una quasiestrella tiene al menos 1000 veces la masa del Sol, su gran masa podría haber absorbido toda la energía, conteniendo la supernova en apenas una sacudida, convirtiéndose en un agujero negro solar.

El embrión de agujero negro podría entonces crecer con rapidez, alimentado por el denso cuerpo de la quasiestrella. El gas que cae en el agujero calentaría y liberaría una inmensa cantidad de luz, tanta que su presión mantendría las capas de la estrellas sobre ella.

Esto podría llevar a una situación potencialmente inestable, con gas denso situado en una capa más ligera. Begelman sospecha que la presión sería liberada cuando parte de la luz escapase en “burbujas de fotones”, grandes conjuntos de radiación que estallarían en la superficie de la estrella. “Mi idea es que tendría que ser burbujeante”, dijo Begelman a New Scientist.

La gestación duraría aproximadamente un millón de años, alcanzando el agujero en tal punto al menos las 10 000 masa solares – aún no un agujero negro supermasivo adulto, pero sí un bebé bastante grande. Con tal ventaja, sería relativamente fácil alcanzar mil millones de masas solares con una dieta de estrellas y otros agujeros negros.

Faros brillantes

Los astrónomos pueden ser capaces de comprobar esta idea buscando tales objetos. Una quasiestrella sería un poco más fría que nuestro Sol, calcula Begelman, pero con un máximo de 10 mil millones de kilómetros de diámetro, produciría tanta luz como una pequeña galaxia.

Sin embargo, su detección sería difícil. Es más probable que existieran en los inicios del universo, cuando se piensa que las estrellas eran mucho más masivas de lo que son hoy. La expansión del espacio desde entonces habría estirado su luz a una banda del espectro infrarrojo que es absorbida por la atmósfera de la Tierra.

El Telescopio Espacial James Webb, previsto para lanzamiento en 2013, será sensible a la luz infrarroja y podría ser capaz de detectar quasiestrellas, aunque incluso así aparecerían muy débiles.


Autor: Stephen Battersby
Fecha Original: 29 de noviembre 2007
Enlace Original

¿Una partícula de distinto sabor?

Así como el helado de chocolate no se convierte nunca de forma espontánea en fresa o vainilla, los leptones—electrones, muones y taus—se supone que conservan su “sabor”, o familia.

Un evento simulado tau/anti-tau en el detector BaBar detector. (Imagen cortesía de Swagato Banerjee.)

Es decir, los taus pueden decaer en neutrinos tau, pero no en neutrinos muón o electrón, y cuando decaen producen una clase de leptón, un par anti-neutrino debería aparecer con él. Investigadores del SLAC están actualmente buscando pruebas de que un leptón rompe estas reglas. Si tienen éxito, allanaría en camino hacia una nueva física.

Las reglas provienen del Modelo Estándar de la física de partículas — pero muchos físicos creen que en Modelo Estándar es incompleto. De acuerdo con Soeren Prell, actual coordinador de los análisis físicos de BaBar y profesor en la Universidad Estatal de Iowa, casi cada medida sobre una partícula física es contrastada contra el Modelo Estándar y generalmente la teoría se mantiene notablemente bien.

Sin embargo, la teoría no puede explicar todo, y se esperan nuevas extensiones de ls misma. La búsqueda de procesos que violen el sabor de los leptones es uno de los muchos esfuerzos que hay para descubrir violaciones del Modelo Estándar.

El principal objetivo de BaBar es estudiar los mesones B, producidos por la colisión entre electrones y positrones. Pero, además, tales colisiones producen un gran número de partículas tau y anti-tau. Los miembros del grupo de trabajo de análisis tau de BaBar, liderado por Swagato Banerjee y Alberto Lusiani, están buceando entre los copiosos datos de Babar para buscar una violación del sabor del leptón.

El conjunto de datos de BaBar, que ya incluye alrededor de 440 millones de eventos tau/anti-tau, permite a los científicos conseguir un kilometraje extra de los datos sin necesidad de añadir equipo. “BaBar y el experimento Belle en Japón tienen la mayor batería de taus que existe”, dijo Prell.

El tau es el más pesado de los leptones; aproximadamente 3500 veces más pesado que un electrón, el más ligero. Una partícula no puede ganar masa, y por tanto sólo puede decaer en una partícula más ligera. Un electrón no podría decaer en otro leptón, y un muón sólo podría decaer en un electrón. Sin embargo, los taus podrían decaer en cualquiera de ellos, haciéndolos un excelente objetivo para examinar una potencial violación del sabor.

La recopilación de datos de BaBar concluirá en 2008, y Prell espera tener resultados preliminares para el próximo verano, con la mayoría de resultados finales publicados para la primavera de 2009. Pero difícilmente esto sería el final del estudio de los taus. “Mientras tengamos taus, la gente mirará hacia ellos”, dijo Prell.


Autor: Amber Dance
Fecha Original: 29 de noviembre de 2007
Enlace Original

Científicos informan de los primeros hallazgos sobre un problema clave de la astrofísica

En un artículo publicado recientemente por la revista Nature Physics, un equipo internacional de científicos espaciales liderado por investigadores de la Universidad New Hampshire presentaron sus conclusiones sobre la primera evidencia experimental que apunta en una nueva dirección hacia la solución del largo problema central del plasma en la astrofísica y la física espacial.

El misterio implica la aceleración de los electrones durante las explosiones magnéticas que tienen lugar, por ejemplo, en las llamaradas solares y “subtormentas” en la magnetosfera de la Tierra – la cubierta protectora el forma de cometa que rodea el planeta y donde tienen lugar las brillantes auroras.

Seguir Leyendo…

Astrónomos detectan los sistemas solares más jóvenes

Los astrónomos de la Universidad de Michigan dicen que han encontrado algunos de los sistemas solares más jóvenes detectados hasta ahora.

Los sistemas se encuentran en torno a las estrellas jóvenes UX Tau A y LkCa 15, ubicadas en la región de formación estelar Tauros a apenas 450 años luz de la Tierra. Con un telescopio que mide los niveles de radiación infrarroja los investigadores notaron brechas en los discos protoplanetarios de gas y polvo que rodea a estas estrellas. Los científicos dicen que estas probablemente las causan los planetas infantes que barren de escombros esas áreas.

La edición del 1 de diciembre de la revista Astrophysical Journal Letters publica estas conclusiones en un artículo de la estudiante de doctorado de astronomía Catherine Espaillat, la profesora Nuria Calvet y sus colegas.

“Antes los astrónomos ya habían visto estos hoyos en los centros de los discos protoplanetarios y una de las teorías era de que podría ocurrir que la estrella estuviese fotoevaporando ese material”, explicó Espaillat, primera autora del artículo.

La fotoevaporación es un proceso por el cual se calienta el polvo y el gas en la nube que rodea una estrella hasta que se evaporan y disipan.

“Encontramos que en algunas estrellas, incluidas estas dos, en lugar de un hoyo hay una brecha”, continuó Espaillat. “Es más parecido a una senda abierta, una franja limpiada dentro del disco. Eso no se corresponde con la fotoevaporación. La existencia de planetas es la teoría más probable que puede explicar esta estructura”.

Los investigadores usaron el Telescopio Espacial Spitzer de la NASA para este estudio. El telescopio infrarrojo orbital observa la energía en longitudes de onda invisibles para los telescopios ópticos. Eso permitió que los astrónomos estudiasen estas “estrellas previas a la secuencia principal” de una forma más profunda.

Una estrella de secuencia principal es una estrella adulta promedio, como el Sol, que arte mediante la conversión de hidrógeno en helio. Las estrellas previas a la secuencia principal como UX Tau A y LkCA 15 no han establecido aún este proceso de conversión, y derivan la energía de la contracción gravitacional. Tanto la UX Tau A como la LkCA 15 tienen una edad aproximada de 1 millón de años.

“Son bebés estelares”, dijo Calvet.

Por comparación, el Sol es una estrella de edad mediana con unos 4 500 millones de años.

Calvet dijo que esta investigación agrega nuevos elementos al conocimiento el estudio de los sistemas solares.

“Lo que buscamos es nuestra historia”, dijo Calvet. “Buscamos la historia de los sistemas solares para comprender cómo se forman”.

El artículo se titula “Acerca de la diversidad de los discos transicionales Taurus: UX Tau A y LkCa 15.”

El Laboratorio de Propulsión de la NASA en Pasadena (California) maneja la misión del Telescopio Espacial Spitzer para el Directorio de Misión Científica de la NASA en Washington. Las operaciones de telescopio se llevan a cabo en el Centro Científico Spitzer en el Instituto de Tecnología de California, asimismo en Pasadera. Caltech maneja el Laboratorio de Populsión para la NASA.


Fecha Original: 28 noviembre 2007
Enlace Original