Ciencia

Al perseguir errores, la computación cuántica se acerca a un importante punto de inflexión

Tres equipos de investigación han propuesto diferentes métodos para resolver el problema de la corrección de errores en la computación cuántica, un paso fundamental para la democratización de esta tecnología.

La computación cuántica es una de esas tecnologías que parece destinada a revolucionar nuestra vida cotidiana. Pero todavía adolece de grandes problemas que aún dificultan el desarrollo de aplicaciones concretas, empezando por la cantidad de errores que pueden colarse en los qbits. Pero tres avances notables publicados el mismo día finalmente podrían librar a los científicos de esta restricción.

Muy brevemente, el poder de esta tecnología proviene principalmente del hecho de que permite almacenar información compleja en forma de sutiles diferencias en el estado de la materia. El problema es que para asegurar la integridad de esta información, es necesario poder proteger perfectamente las unidades utilizadas para almacenarla, en este caso, los bits cuánticos o qbits.

Este es un proceso que ya dominamos muy bien en la informática tradicional. Hay muchos procesos e incluso memoria RAM (ECC) específicamente dedicados a prevenir e incluso corregir estos errores. Pero los bits cuánticos (qbits) son mucho más complejos que los que utilizan los equipos actuales. Por tanto, es exponencialmente más complicado conservarlos a la perfección.

Este problema de estabilidad aún dificulta el desarrollo de la computación cuántica. Naturalmente, este es por tanto uno de los aspectos de esta disciplina en el que los investigadores están trabajando intensamente. Tres de ellos acaban de publicar simultáneamente resultados bastante impresionantes en esta área.

Hasta un 99,95 % de precisión para un solo qbit

El primero proviene del equipo de Seigo Tarucha, un investigador japonés cuyo equipo logró alcanzar una precisión del 99,84 % para 1 qbit y del 99,51 para un sistema compuesto por 2 qbits. En los Países Bajos, el equipo de Lieven Vanderspyen obtuvo resultados comparables, con una precisión del 99,87 % para 1 qbit y del 99,65 % para dos qbits. Pero el trabajo más concluyente es sin duda el del equipo de Andrea Morello, investigadora de la Universidad de Gales del Sur. Él y sus colegas lograron una precisión del 99,95 % para 1qbit.

Las pruebas sobre 1 qbit permiten evaluar la estabilidad individual de una unidad de memoria, absolutamente fundamental para el funcionamiento de la máquina. Las pruebas de 2 qbit se utilizan para probar la estabilidad de las funciones lógicas que sirven como base para computadoras complejas. En cualquier caso, se trata de avances significativos, porque ahora estamos entrando en un campo donde cLos errores se vuelven tan raros que podemos intentar corregirlos individualmente – seguridad absolutamente esencial para su uso en operaciones concretas.

Cuando los errores se vuelven tan raros, es posible detectarlos y corregirlos cuando ocurren.”, dice Andrea Morello. “Esto demuestra que es posible construir computadoras cuánticas con suficiente potencia para realizar operaciones significativas.«, él dice. “Esto allana el camino para conjuntos de qbits capaces de producir cálculos sólidos y útiles en la práctica.”, añade su colega Serwan Asaad.

Obviamente, replicar este rendimiento en sistemas a la escala de una computadora cuántica completa no será nada fácil. Pero los investigadores ahora tienen tres estudios fuertes en los que confiar para lograrlo. Por tanto, pronto podríamos ver aparecer los primeros prototipos de ordenadores cuánticos (casi) libres de errores, con todas las consecuencias que ello implica para nuestra civilización.

El texto del estudio está disponible aquí.

Publicaciones relacionadas

Botón volver arriba