Fabrican un material imposible

Nanotecnología

El investigador Eugenio Coronado y su equipo del Instituto de Ciencia Molecular de la Universidad de Valencia han desarrollado a nivel químico un material superconductor y ferromagnético a la vez, dos propiedades incompatibles en la naturaleza. La información se ha presentado hoy durante un encuentro organizado por la Fundación Ramón Areces y el grupo editorial Nature, en el que diversos expertos han debatido sobre la revolución nanotecnológica.

Un grupo de investigadores del Instituto de Ciencia Molecular de la Universidad de Valencia, dirigido por el científico Eugenio Coronado, ha logrado controlar la materia a nivel químico hasta tal punto que han conseguido introducir en un mismo material dos propiedades incompatibles: la superconductividad (capacidad para conducir la corriente eléctrica sin resistencia en determinadas condiciones) y el ferromagnetismo (ordenamiento magnético o imantación).

“En física se dice que un material ferromagnético y superconductor no pueden existir si la conductividad y el ferromagnetismo están en la misma región del espacio”, ha explicado a SINC Coronado, “pero en química podemos diseñar ese tipo de estructuras poniéndolas en distintas regiones del espacio, y con bloques muchos más pequeños de lo investigado hasta ahora”.

Las aplicaciones de este estudio, cuyos detalles se publicaran previsiblemente este año, podrían dirigirse a áreas como la electrónica, la espintrónica y las tecnologías de la información. Los materiales ferromagnéticos y conductores son muy sensibles a los campos magnéticos, y ya se emplean, por ejemplo, en los lectores de los discos duros.

Otra de las líneas de investigación del equipo son las “moléculas imán”, según ha señalado hoy Coronado durante un encuentro sobre nanotecnología organizado hoy en Madrid por la Fundación Ramón Areces y Nature Publishing Group Iberoamérica. “Una sola molécula que se comporte como un imán significa que esa molécula mide un nanómetro (normalmente los tamaños de los bits de memoria magnéticos suelen medir 1000 nm), por lo que hacer memorias de 1 nm es importante”, ha destacado el químico.

“Además las ‘moléculas imán’ se comportan en física de forma diferente a la de los sistemas microscópicos, y a escala nanométrica aparecen fenómenos cuánticos, que se pueden aplicar, a su vez, en computación cuántica, donde en lugar de tener bits binarios de unos y ceros tenemos más valores”, ha añadido.

Más almacenamiento y nanochips

En cualquier caso Coronado ha destacado que, en principio, las investigaciones básicas no buscan su aplicación directa, sino el concepto del “cómo” realizarlas, algo en lo que también coincidió otro de los ponentes, Andreas Berger, director del Centro de Investigación Científica CIC nanoGUNE de San Sebastián.

“A veces las investigaciones son maravillosas, pero al final pueden no tener un sentido práctico, debido a factores como el coste o que no se pueda controlar adecuadamente algún aspecto”, ha indicado Berger, que también ha mencionado el estudio que realiza su grupo sobre un mecanismo para aumentar la capacidad de almacenamiento de los sistemas. “Puede que resulte practico para su uso, pero no está claro si va a dar un producto al mercado”.

En el encuentro también ha participado el ingeniero, matemático y médico Mauro Ferrari, director del Departamento de Nanotecnología e Ingeniería Biomédica de la Universidad de Texas (EE UU), quien ha explicado sus trabajos sobre la validación clínica de los fármacos. Su equipo trata de producir chips destinados a muestras de sangre con contenidos moleculares que permitan identificar con rapidez la eficacia de los medicamentos contra el cáncer.

Normalmente tras la administración de un fármaco hay que esperar varios meses para comprobar su eficacia, y durante ese periodo la persona que lo ha ingerido está expuesta a la toxicidad de la sustancia. Los nanochips que desarrollan estos investigadores se centran en lograr reducir al máximo el periodo necesario para conocer la eficacia del medicamento.



Fecha Original: 28 de enero de 2010
Enlace Original

Comparte:
  • Print
  • Digg
  • StumbleUpon
  • del.icio.us
  • Facebook
  • Twitter
  • Google Bookmarks
  • Bitacoras.com
  • Identi.ca
  • LinkedIn
  • Meneame
  • Netvibes
  • Orkut
  • PDF
  • Reddit
  • Tumblr
  • Wikio

Like This Post? Share It

Comments (10)

  1. “Fabrican un material imposible”

    Estas son las maravillas que nos trae cada dia (y, nos seguira trayendo) la Fisica.

    Estoy en horas de trabajo y, de vez en cuando me asomo a esta ventana para repasar lo que hay aqui expuesto. No tengo tiempo en este momento para hacer un comentario sobre el tema tratado pero, el dia es largo.

    Una cosa si esta clara: Lo que hoy es imposible sera posible mañana.

    ¡Cuantas maravillas! Y, a partir de ahora, asi sera el futuro de la Ciencia que, nos traera un motivo para el asombro en todos los campos del saber humano.

    Hasta luego amigos.

  2. Flanagan

    Los centros de I+D españoles no se estarán especializando en inventos SUBLIMES que no sirven para nada… Sí es que en el fondo somos un pueblo de letras.

    • Iván

      ¿Has leido el articulo? porque las posibles aplicaciones no me parecen para nada inutiles, sin contar que, primero se hacen descubrimientos asi y luego se avanza en sus aplicaciones, otra cosa es que aqui, ese segundo paso no vea fondos, etc y se haga fuera, pero eso es mas cosa de la padereta nacional que de falta de utilidad.

      Sobre tu segunda afirmacion, me recuerda a esos doctores y sabios de letras que miran con desden a los cientificos y se creen mas “cultos” pero desde la optica contraria, como si ser de letras fuese algo malo, es mas, ojala este pais fuese como dices, eso denotaria interes por la cultura (aunque fuese una concreta) que ayudaria a que la ciencia fuese mas comprensible, pero por desgracia la realidad es mas de un pueblo de “viva la vida” ni letras, ni ciencia, ni nada que suponga un minimo esfuerzo.

      • Flanagan

        No te lo tomes así hombre, trataba de expresarme a modo “ironic on” y, un poco, en consonancia con el título de la entrada: “Fabrican un material imposible”.

        De todos modos, disculpas, eh

        • Iván

          Perdoname a mi, el tono ahora que releeo no es para nada el que tenia al escribirlo, no era un ataque para nada, siento que haya quedado asi de borde, no era mi intencion para contigo Flanagan.

  3. Verdaderamente interesante todo el artículo y las distintas vertientes que en él se tocan. Sin embargo, habría sido interesante que nos hablaran aqueí de la posibilidad real de obtener superconductores a temperatura ambiente. Ese sería un paso básico para continuar luego con todos los demás logros.

    Un material superconductor pierde toda resistencia al paso de una corriente eléctrica por debajo de una cierta temperatura Tc llamada crítica, y por tanto deja de sufrir pérdidas de energía en forma de calor al conducir esa corriente eléctrica. Es justo lo contrario de lo deseado en un totador de pan o en un secador de pelo. En realidad, el fenómeno de supercondictividad es un legítimo ejemplo del “movimiento perpetuo”, ya que una vez establecida una corriente eléctrica en un circuito superconductor, esta duraría indefinidamente sin desgas alguno incluso en ausencia de fuentes externas de energía como, por ejemplo, una bateria.

    Lamentablemente, hasta ahora el suiperconductor con la máxima Tc corresponde apenas a 164 grados kelvin (K) (o 109 grados Celsius negativos). De modo que hay que utilizar refrigerantes como el helio (He) o el nitrógeno (N₂) líquidos para mantener el material a esas temperaturas de operación bajísimas.

    Los refrigerantes resultan costosos y su manejo difícil y aparatoso aun siendo bastante más barato el N₂ liquido que el helio líquido. Desde el descubrimiento de la superconductividad en 1911 en el laboratorio holandés de Kamerlingh en el conductor elemental mercurio (Hg), la Tc original de 4 Kse fue elevando en distintos elementos, y posteriormente en aleaciones primero binarias y luego terniarias (con tres elementos), hasta llegar a principios de 1986 a 23 K. A este paso, antes de 1986, se deducía por extrapolación que la Tc ambiental de 300 K, con lo que bastaería usar agua común como refrigerante, tardaría unos mil años en alcanzarse.

    En el mismo 1986, con nuevos superconductores cerámicos cuaternarios (compuestos químicos con cuatro diferentes tipos de átomos o elementos) la Tc más alta dio un salto de unos 11 K. Esto despertó el frenesí entre los investigadores experimentales físicos, químicos y metalúrgicos que apenas siete años más tarde, en 1993, se descubrieron superconductores (compuestos óxido de cobre, o cupratos) cuya Tc crítica saltó nada menos que a 141 K para llevar el topo a finales de 2006 a los 164 K, record de ese año.

    Pero aquel record copnseguido en Houston por Paul C.W. Chu y colaboradores en un cierpo cuprato quinario con mercurio, quedaba aun muy por debajo de la temperatura ambiente.

    Mediante los buscados superconductores a temperatura ambiente sería posible tener sistemas magnéticos para extraer impurezas del agua, del carbón y del barro; sensores que midieran pequeñísimas variaciones del campo magnético terrestre para localizar depósitos de petróleo y de minerales; aparatos mecánicos sin fricción, etc…Además, podrían darse las siguientes revoluciones en las industrias eléctrica, médica, de computación y transporte.

    En la Industria eléctrica (es decir, en los procesos de generación, almacenamiento y transmisión de energía eléctrica) podríamos tener:

    -energía limpia, barata y abundante, a partir de la fusión termonuclear que requiere imánes superconductores en sus llamados tokomaks gigantescos.

    -una poterncia eléctrica mucho mayor que la producida actualmente por los generadores convencionales.

    -las llamadas “botellas” magnéticas que almacenen energía eléctrica indefinidamente (para utilizar en hos “pico” de consumo).

    -lineas de transmisión superconductoras que transmitieran corriente sin pérdida de energía, actualmente alrededor del 20%.

    -Estaciones hidroeléctricas que enviaran la energía a miles de kilómetros de distancias sin pérdidas.

    -tipos nuevos de baterias recargables que alnmacenacen enormes cantidades de energía.

    -densidad de corriente (la cantidad de corriente eléctrica capaz de transmitirse por un conductor) mil veces mayor que la de un cableado doméstico típico.

    -electrodomésticos que casi no consuman energía.

    -motores superconductores que no requieran recargarse.

    -generadores eléctricos diez veces más pequeños.

    En la Industria médica tendríamos:

    -escáners de imagen (o tomografía) médica (por ejemplo, de resonancia magnética nuclear [o MRI magnetic resonance imaging) portátiles y relativamwente baratos en lugar de los muy costosos actuales.

    En la Industria de la Computación tendríamos:

    -semiconductores miles de veces más rápidos y menos “alientes”.
    -superconputadores ultra-rápidas (de 10 exp.13 operaciones/segundo) del tamaño de una caja de zapatos.

    En la Industria del transpoorter terrestre, serían posibles:

    -trenes “balas” magneticamente levitados (maglev), que viajarían a más de 581 km/h (los eléctricos convencionales lo hacen hasta 575 Km/h).

    -coches eléctricos baratos y potentes que no contaminarian.

    -generadores superconductores en embarcaciones que reemplazarían los gigantescos ejes de transmisión mecánicos actuales.

    …y en los espaciales tendríamos:

    -lanzamientos de cohetes más efectivo, que requerirían mucho menos combustibles y serían capaces de llevar cargas mucho mayores.

    Sin embargo, los superconductores modernos de alta temperatura descubiertos a partir de 1986 siguen sin ser plenamente comerciales, y las actuales aplicaciones se limitan todavía al uso de los superconductores llamdos “convencionales”, siendo por lo general aleaciones binarias, y que todavía requieren conmo refrigerante el He liquido.

    Pero aún, desde 1993 la búsqueda de superconductores “más calientes” se ha estancado en los 164 K, muy por debajo del “anto Grial” que en este campo es la superconductividad a tempertura ambiente y que algunos auguran tendría un impacto tecnológico equivalente al de la Revolución Industrial que se inició en el siglo XVIII.

    Es muy posible que este estancamiento radique en la falta de una sólida teoría microscópica -es decir, de un formalismo basado en el comportamiento cuántico de los electrones, átomos y moléculas del material- que describne y sobre todo pueda predecir que tipo de materiales pueden ser superconductores con mayores Tc.

    No se deberían perder de vista los condensados de Bose.Einstein.

  4. Dedicaquemos un momento y prestémos nuestra atención sobre esta rama de la física que denominamos superconductividad y superfluidez que, según parece, es un nuevo estilo de hacer Física.

    Recordemos que el Premio Nobel de Física de 2003 fue concedido a los físicos teóricos de la materia condensada Alexel Abrikosav, Vitaly Ginzburg y Antony Leggett, por sus comtribuciones a la comprensión de la superconductividad y la superfluidez.

    La Academia, como tratándo de compensar una cierta desatención en el pasado, esa fue la quinta vez en ocho años que se premian trabajos relacionados con la física de bajas temperaturas.

    En 1996 fue el descubrimiento de la superfluidez del ³He; en 1997 el enfriamiento de átomo mediante rayo láser; en 1998 el descubrimiento y la explicación del efecto Hall cuántico fraccionario; en 2001 la realización de la Condensación de Bose-Einstein en gases atómicos diluidos; finalmente se premian trabajos teóricos clásicos sobre la superconducitivdad como la explicación de la superfluidez.

    ¿Qué tiene la Física de bajas temperaturas que su estudio merece tanto reconocimiento? El fenómeno más caracterísitico de la materia a bajas temperaturas es la ruptura de simetría, es decir, el hecho de que las configuaciones adoptadas por un sistema físico tienen menor simetría que sus fuerzas fundamentales.

    La simetría se puede reducir de maneras muy distintas , lo que explica la gran diversidad de formas de la agregación de la materia que observamos en el mundo que nos rodea. Una menor simetría conlleva un mayor orden y una rigidez que lo preserva. Muy por debajo de la temperatura ambiente aparecen nuevos tipos de orden que no observamos en la vida ordinaria. Dos fenómenos característico del mundo de las bajas temperaturas son la superconductividad y la superfluidez.

    Está claro que podríamos seguir aquí todo el día desarrolando el tema y profundizando más cada vez en los avances y adelantos que en esta materia se están llevando a cabo en los diversos laboratorios del mundo pero, sería largo y algo tedioso para el personal, así que, lo dejaremos simplemente en que, el tema de la superconductivad y la superfluidez podrían hacer avanzar a la Humanidad que, dominando estas dos ramas del saber, daría un salto hacia el futuro de increíbles consecuencias.

  5. La superconductivad es algo que nos traerá muchas alegrias.
    El “universo de las moléculas” en el que se está profundizando también.
    La Nanotecnología es algo que tiene un alcance impensable en un cercano futuro.

    ¡La Física! ¿Cuántas maravillas nos tendrá guardadas?

    Bueno, me disponía a comentar sobre estos temas pero, me oresionan para acudir a otro lugar y, os tengo que dejar.

    Hasta luego amigos.

  6. La Nanociencia y la Nanotecnología son un conjunto de conocimientos teóricos y prácticos que nos permiten determinar como se comporta el denominado nanomundo (el ámbito en el que los tamaños de los objetos tienen entre 1 y 100 nm). A partir de estos conocimientos se están haciendo continuamente interesantes y arriesgadas propuestas sobre nuevos procedimientos, materiales y dispositivos que muy probablemente se convertirán en los bienes de consumo que inundarán nuestras casas, oficinas, hospitales, vehículos, etc. en las próximas décadas. En este artículo se realiza un breve repaso a algunas de estaspropuestas (fullerenos, nanotubos de carbono, grafeno, virus, nanohilos, nanopartículas, etc.) con el fin de mostrar los temas de interés que motivan e impulsan la investigación de centenares de laboratorios de todo el mundo y que ilustran el gran potencial y la gran transversalidad de la Nanotecnología.

    No sería justo hablar de nanotecnología sin dejar aquí una semblanza de sus pioneros. Puede decirse que el comienzo de la Nanotecnología se remonta a 1959 cuando el físico y premio Nobel R. Feynman pronunció en el Instituto deTecnología de California su ahora famoso discurso. Feynman trató en su conferencia del problema de la manipulación individual de objetos tan pequeños como átomos y moléculas y de las múltiples oportunidades tecnológicas que ofrecería dicha manipulación.

    En aquel momento su discurso no tuvo una gran repercusión, pero hoy día muchas de sus predicciones se han cumplido con bastante exactitud. Sin embargo, la palabra Nanotecnología no aparece mencionada en dicho discurso. En
    realidad el término “Nanotecnología” fue acuñado en 1974 por el profesor N. Taniguchi de la Universidad de Ciencia de Tokio en un artículo titulado “On the Basic Concept of ‘Nanotechnology’”, que se presentó en una conferencia de
    la Sociedad Japonesa de Ingeniería de Precisión. En este contexto, la Nanotecnología se presenta como la tecnología que nos permitirá separar, consolidar y deformar materiales átomo a átomo o molécula a molécula.

    En el año 1986 las ideas de Feynman y Taniguchi se concretaron algo más, cuando E. Drexler publicó el libro titulado “Engines of Creation” en el que describe cómo
    será viable construir desde ordenadores hasta maquinaria pesada, ensamblando molécula a molécula, ladrillo a ladrillo, mediante nanorobots ensambladores, que funcionarán de un modo parecido a como lo hacen los ribosomas y otros agregados moleculares en las células de nuestro cuerpo. Este conjunto de ideas, elaboradas y desarrolladas en el periodo 1960-1990, han sido el punto de arranque de lo que hoy en día conocemos por Nanotecnología, el bagaje creciente de conocimientos teórico-prácticos que nos permitirán dominar la materia en la región de dimensiones comprendida entre 1 y 100 nm, y que denominamos nanoescala.

    El trabajo con objetos tan pequeños entraña una gran dificultad, y de hecho fue algo prácticamente imposible hasta que se desarrollaron los microscopios de campo cercano (SPMs) Puede decirse que el comienzo de la Nanotecnología se
    remonta a 1959 cuando el físico y premio Nobel R. Feynmanpronunció en el Instituto de Tecnología de California su ahora famoso discurso. Feynman trató en su conferencia del problema de la manipulación individual de objetos tan pequeños como átomos y moléculas y de las múltiples oportunidades tecnológicas que ofrecería dicha manipulación.

    En aquel momento su discurso no tuvo una gran repercusión, pero hoy día muchas de sus predicciones se han cumplido con bastante exactitud. Sin embargo, la palabra Nanotecnología no aparece mencionada en dicho discurso. En
    realidad el término “Nanotecnología” fue acuñado en 1974 por el profesor N. Taniguchi de la Universidad de Ciencia de Tokio en un artículo titulado “On the Basic Concept of ‘Nanotechnology’”, que se presentó en una conferencia de
    la Sociedad Japonesa de Ingeniería de Precisión. En este contexto, la Nanotecnología se presenta como la tecnología que nos permitirá separar, consolidar y deformar materiales átomo a átomo o molécula a molécula.

    En el año 1986 las ideas de Feynman y Taniguchi se concretaron algo más, cuando E. Drexler publicó el libro titulado “Engines of Creation” en el que describe cómo
    será viable construir desde ordenadores hasta maquinaria pesada, ensamblando molécula a molécula, ladrillo a ladrillo, mediante nanorobots ensambladores, que funcionarán de un modo parecido a como lo hacen los ribosomas y otros
    agregados moleculares en las células de nuestro cuerpo. Este conjunto de ideas, elaboradas y desarrolladas en el periodo 1960-1990, han sido el punto de arranque de lo que hoy en día conocemos por Nanotecnología, el bagaje creciente de conocimientos teórico-prácticos que nos permitirán dominar la materia en la región de dimensiones comprendida entre 1 y 100 nm, y que denominamos nanoescala.

    El trabajo con objetos tan pequeños entraña una gran dificultad, y de hecho fue algo prácticamente imposible hasta que se desarrollaron los microscopios de campo cercano (SPMs).

    A partir del microscopio de efecto túnel (STM). El STM fue inventado por H. Rohrer y G. Binnig a principios de la década de 1980, contribución por la que recibieron el Premio Nobel en 1986. Las herramientas SPM permiten no sólo la visualización, sino también la manipulación de objetos de dimensiones nanométricas y de muy distinta naturaleza. En la actualidad, estas técnicas son de utilización rutinaria en
    los laboratorios de Nanociencia y Nanotecnología de todo el mundo, donde se diseñan, no tanto dispositivos concretos, sino experimentos que demuestren las posibilidades de estas “nuevas” tecnologías.

    Todos los conocimientos generados han desembocado en la puesta a punto de diferentes iniciativas (programas de investigación, nuevos centros y equipamientos, etc.) para lograr que dichos conocimientos tuviesen una traducción
    en la tecnología, generando aplicaciones reales, tangibles.

    La gran belleza de estos experimentos, junto con las enormes expectativas para aplicaciones que de ellos se derivan, ha conducido a la gran proliferación del prefijo “nano” (muchas veces un tanto abusiva con el simple objetivo de
    intentar revalorizar una línea de investigación). Así, oímos hablar de disciplinas como nanoquímica, nanoelectrónica, nanofotónica, nanomedicina o nanobiotecnología; o de objetos tales como nanopartículas, nanotubos, nanoimanes o nanomotores. En definitiva, el colocar el prefijo “nano” delante de una palabra determinada nos indica que ese campo se va estudiar enfatizando aquellos aspectos del mismo relacionados con la nanoescala.

    Buscando un símil sencillo, el fundamento en el que se basa gran parte de la tecnología actual se asemeja al trabajo realizado por un escultor, que cincela, pule y modela un bloque de material para obtener un objeto más pequeño con
    la forma deseada. Puesto que cada vez son necesarias tecnologías de fabricación más precisas, es importante disponer de tamaños de cincel progresivamente más pequeños. Este planteamiento es conocido como tecnología de fabricación
    descendente o “top-down” (de arriba hacia abajo). Un ejemplo del éxito de esta aproximación lo encontramos en la industria de la electrónica que desde hace más de 40 años ha mantenido un incremento continuado de la densidad de transistores que se pueden integrar sobre una oblea de silicio, de forma que el número de elementos dentro en un dispositivo de estado sólido se dobla cada 18 meses. Esta tendencia, propuesta en los años sesenta por G. Moore, co-fundador de Intel, es lo que hoy se denomina “ley de Moore”.

    Sin embargo sabemos que los métodos de fabricación “top-down” poseen una serie de limitaciones intrínsecas. El primero de estos problemas tiene que ver con el hecho de que a medida que se reduce el tamaño de un objeto, la relación
    superficie / volumen crece y, puesto que las propiedades físicas de una superficie son generalmente muy distintas a las del volumen, las propiedades funcionales del material cambiarán al reducir su tamaño a la escala nanométrica.

    Estas modificaciones en las propiedades se conocen como efectos de tamaño finito. El segundo problema con que nos encontramos en esta carrera hacia la minituarización reside en que en la nanoescala se hacen más palpables los llamados
    efectos cuánticos. Por último, otro problema fundamental que aparece al intentar seguir disminuyendo el tamaño de un objeto es que cada vez resulta más difícil mejorar las herramientas que permiten su manipulación.

    Enfrentarse a los desafíos planteados por la miniaturización extrema, que permita explotar las propiedades emergentes en la nanoescala, impone la necesidad de desarrollar una “nueva tecnología”: ese es el papel de la Nanotecnología.
    La aproximación “nano” es, por tanto, muy diferente de la “top-down”, pues el planteamiento está basado exactamente en lo contrario: ir de lo pequeño a lo grande, construyendo dispositivos a partir de sus componentes últimos. En este caso, se trata de trabajar no como un escultor, sino como un albañil, que construye una pared partiendo de una serie de elementos básicos, los ladrillos.

    Esta aproximación, de tipo ascendente, que también se conoce como “bottom-up” (de abajo hacia arriba), utiliza para dar forma a diferentes materialeso dispositivos, componentes básicos muy variados tales como átomos, ácidos nucleicos, proteínas, nanopartículaso nanotubos.

    Queda, de todas las mameras, mucho por hacer.

  7. Siguiendo con la Nanotecnologia y sus maravillosas promesas de futuro, me paro en los nanotubos de Carbono. Si el descubrimiento del C 60 fue un hito importante para la Nanotecnolog´´ia, el de los llamados nanotubos de carbono lo ha superado con creces.

    Los nanotubos de carbono, unas 10 000 veces mas finos que un cabello , presentan excelentes propiedades fisicas y su fabricacion resulta relativamente barata y resulta 10 veces mas ligero que fabricado de acero con el mismo diametro pero seria ¡100 veces mas resistente!

    A estas impresionantes propiedades mecanicas se le añaden unas interesantes propiedades electricas, puesto que pueden ser tanto conductores como aislantes segun la topologia que presente.

    En fin que, todas estas investigaciones en este campo relativamente moderno, nos llevara muy lejos en la consecucion de objetivos que hasta hace bien poco parecian inalcanzables.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *