Arquitectura de ordenador recreada en un dispositivo cuántico

Artículo publicado por Hamish Johnston el 1 de septiembre de 2011 en physicsworld.com

Físicos de California afirman ser los primeros en implementar una versión cuántica de la arquitectura “Von Neumann” que se encuentra en los ordenadores personales. Basándose en circuitos superconductores integrados en un solo chip, el nuevo dispositivo se ha utilizado para llevar a cabo dos importantes algoritmos de computación cuántica. La arquitectura Von Neumann convencional incluye una unidad de procesamiento central (CPU) unida a una memoria que contiene tanto datos como instrucciones.

Las computadoras cuánticas, que aprovechan los fenómenos puramente cuánticos tales como la superposición y el entrelazamiento, en principio deberían ser capaces de superar el rendimiento de los ordenadores clásicos en ciertas tareas. Sin embargo, la construcción de un ordenador cuántico práctico sigue siendo un reto, debido a que los estados cuánticos que emplean estos sistemas son difíciles de controlar y se destruyen fácilmente.

Von Neumann-Oppenheimer © by Revolweb


Al implementar la arquitectura Von Neumann usando circuitos superconductores cuánticos, Matteo Mariantoni y sus colegas de la Universidad de California en Santa Barbara, han dado un paso importante hacia un ordenador funcional. Mariantoni dijo a physicsworld.com que, hasta donde sabía, él y sus colegas son los primeros en crear una versión cuántica de la arquitectura.

Casando CPU y memoria

La CPU cuántica del equipo de investigación, o “quCPU”, se compone de dos superconductores “de bits cuánticos de fase” (qubits) conectados mediante un bus de datos superconductor resonador de microondas. Un qubit de fase es una sola unión Josephson, que consta de dos piezas de material superconductor separadas por una barrera aislante muy delgada. Los niveles lógicos – 0 y 1, por ejemplo – se definen por la diferencia de fase entre los electrodos de la unión.

Cada qubit está conectado a su propia memoria cuántica de acceso aleatorio (quRAM), que se compone de un resonador superconductor que almacena la información cuántica en forma de microondas atrapadas y un “registro de puesta a cero” – un sistema de dos niveles que limpia un qubit de información. La quRAM actúa de manera efectiva como una RAM común que preserva la naturaleza cuántica – tal como el entrelazamiento – de la información que almacena.

El bus y la quRAM operan a frecuencias fijas, mientras que la frecuencia de trabajo de un qubit cambia cuando se aplican “pulsos z” especiales. Cuando la frecuencia de un qubit encaja con la de la quRAM o el bus, la información cuántica puede intercambiarse entre los dos.

Operaciones cuánticas

Para realizar una operación, el equipo de Mariantoni comienza con los qubits “desafinados” respecto a los otros componentes. Se aplican entonces pulsos de microondas, que cargan en el sistema la información cuántica, antes de que se apliquen los pulsos z para el intercambio de información. Las operaciones cuánticas se realizan mediante la cuidadosa aplicación de secuencias específicas de pulsos.

En un experimento, el equipo realizó la operación de la “transformada de Fourier cuántica”, con una fidelidad en el proceso del 66%. En otro experimento, Mariantoni y sus colegas usaron el sistema para implementar una puerta de fase OR Toffoli de tres qubits con una fidelidad de fase del 98%. Ambas operaciones se ven como esenciales para el funcionamiento práctico de los computadores cuánticos.

“Estas meritorias cifras son muy alentadoras”, dice Mariantoni. “Sin embargo, se necesitarán unos números por encima de 98% o incluso más para que funcione un computador cuántico práctico”.

Largos tiempos de coherencia

Otra característica importante del sistema es que la memoria cuántica puede mantener la información cuántica durante mucho más tiempo que los qubits. Tal “tiempo de coherencia” largo es otro de los requisitos prácticos de una computadora cuántica. Aunque la fidelidad de los estados qubit caía por debajo del 20% después de unos 400 ns, la fidelidad de las memorias se mantuvo por encima del 40% por lo menos 1,5 µs.

El equipo ahora está trabajando para aumentar el número de dispositivos cuánticos integrados en un único chip. De acuerdo con Mariantoni, aunque aumentar la integración es bastante fácil, trabajar con tales chips implica muchas más operaciones cuánticas. Esto significa que los tiempos de coherencia de los componentes individuales también deben aumentarse ​​- algo que es más que un desafío. El equipo está abordando esto buscando maneras de mejorar la calidad de los materiales metálicos y dieléctricos utilizados para hacer los dispositivos.

La investigación se publica en Science.


Autor: Hamish Johnston
Fecha Original: 1 de septiembre de 2011
Enlace Original

Comparte:
  • Print
  • Digg
  • StumbleUpon
  • del.icio.us
  • Facebook
  • Twitter
  • Google Bookmarks
  • Bitacoras.com
  • Identi.ca
  • LinkedIn
  • Meneame
  • Netvibes
  • Orkut
  • PDF
  • Reddit
  • Tumblr
  • Wikio
This page is wiki editable click here to edit this page.

Like This Post? Share It

Comments (11)

  1. Información Bitacoras.com…

    Valora en Bitacoras.com: Artículo publicado por Hamish Johnston el 1 de septiembre de 2011 en physicsworld.com Físicos de California afirman ser los primeros en implementar una versión cuántica de la arquitectura “Von Neumann” que se encuentra en los…..

  2. [...] Arquitectura de ordenador recreada en un dispositivo cuántico [...]

  3. reneco

    Cuando me hablan de computadores, me pregunto si veré alguna ves un computador que no se base en silicio, yo creo que no, la especialización en esta tecnología es tan alta que no creo que sea viable un cambio a nivel comercial ni en 100 años, baste decir que el Core i7 ya va en los 1,17 billones de transistores y cada uno de estos funciona de una manera precisa y coordinada con el resto, lo único que lo supera en complejidad es la vida pero eso no es tecnología, por lo menos humana

  4. [...] traducido y posteado en Ciencia Kanija, el original se publicó en Physics World, su autor es Hamish Johnston. [...]

  5. Max

    Pues yo creo que si, mas aún creo que ese cambio (tal vez por el grafeno) comenzará antes del 2017, son los tiempos que maneja la misma industria. Y de hecho justamente esa impresionante miniaturización es la que llevará al limite a la tecnología del silicio, provocando en definitiva su ocaso y posterior reemplazo.

    • reneco

      El 2017 es demasiado cercano, al silicio le falta todavía explotar todo lo que es crear circuitería 3D, las obleas actuales de silicio están dibujadas en 2 dimensiones y hay que ver que es difícil encontrar un material para dibujar mil millones de elementos de dimensiones casi atómicas interconectados entre sí, las compañías dedicadas a eso no van a perder toda la experiencia e inversiones hechas en esta tecnología, el grafeno es carbono, y soy de la opinión que solo la vida puede utilizar este material para crear estructuras complejas, el grafeno solo nos dará la oportunidad de crear estructuras sencillas a muy alta velocidad, nada que sirva para construir la complejidad de diseño un ordenador del futuro, que es procesamiento paralelo de información como son las neuronas

      • Fandila

        El disco duro de un ordenador almacena información en varias capas (3D) y las memorías “estáticas” son por el estilo. El verdero 3D aún queda lejos.

  6. Max

    Pues me gustaría saber que opinaría un persona de 1950 si le contamos que con el silicio se logrará en el futuro un Core i7 con 1,17 billones de transistores. Pues lo mas probable es que nos diga algo similar a lo que tú dices del grafeno. Por eso una opinión no sirve como argumento, ahora si tienes alguno técnico de porque sería imposible dilo (porque “y soy de la opinión que solo la vida puede utilizar este material para crear estructuras complejas” no lo termino de entender), si no dejemoslo aquí que el tiempo se encargará de mostrarnos.

  7. Max

    Por otra parte, las estructuras de procesamiento paralelas (como los chips 3D o los procesadores de multiples núcleos) no terminan de ser un reemplazo del todo satisfactorios (al menos para la mayorías de aplicaciones comerciales), por la complejidad que introducen en la programación.

    • reneco

      Estoy de acuerdo en este punto, pero esto se debe al retraso del software ante el hardware por temas netamente comerciales, las grandes compañías de software (Microsoft, Mac,Adobe) les interesa tener plataformas cerradas para amarrar al consumidor y no dejarlo elegir, esto lógicamente detiene el desarrollo, si te fijas en la forma que funciona el cerebro es todo procesamiento paralelo y no tanta velocidad ( la información viaja mucho mas rápido en los circuitos electrónicos que en el sistema nervioso) y en 1950 el paradigma de la electrónica era la electrónica análoga, no la digital, cuando apareció el transistor se vio enseguida que era el futuro en reemplazo de las válvulas al vacío, y en cuanto a la vida, esta construye estructuras complejas en base a largas cadenas de carbono (ADN) creándose a si misma desde el interior de la célula, esto no lo podemos hacer, los chip electrónicos los hacemos desde el exterior

  8. Max

    Bueno, por ello un campo muy investigado (y con avances continuos) en la nanotecnología son los métodos de fabricación de abajo hacia arriba (en contraposición a los que tú nombraste y que usamos en la actualidad de arriba hacia abajo). Sin lugar a dudas lo mas inteligente es aprender de la naturaleza, que tuvo miles de millones de años de evolución constante. Y no hay ningún factor (hasta donde sabemos) que nos impida poder imitarla.
    Tampoco velocidad significa excluir el procesamiento paralelo de hecho los dos juntos sería la dupla perfecta (y especificamente, la electrónica de grafeno lo podrá permitir en el futuro).

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *