¿Cómo construimos computadoras cuánticas capaces de resolver problemas útiles? El otoño pasado, Google anunció un experimento en su dispositivo superconductor Willow de 105 cúbits que demostró un solo cúbit lógico con corrección de errores. Si bien este trabajo es un hito tecnológico, también nos muestra cuánto le queda por recorrer a la industria: las estimaciones de recursos para aplicaciones del mundo real, como la ciencia de los materiales y la química, sugieren que necesitaremos decenas de millones de cúbits. Para alcanzar la escala de utilidad, el enfoque ahora debe estar en cómo avanzar de cientos a millones de cúbits.
El primer paso es exponer claramente todos los desafíos técnicos para el escalamiento . Esto debe abordar no solo los desarrollos de hardware cuántico, sino también la integración de sistemas y el software. Un problema claro en este frente es que los procesadores cuánticos individuales (QPU) tendrán un tamaño limitado y, muy probablemente, serán mucho más pequeños que un millón de cúbits. Luego debemos idear formas de conectar en red muchos, quizás cientos, de QPU en un sistema más grande. Esto requerirá una estrecha integración con la computación de alto rendimiento (HPC) y, eventualmente, interconexiones cuánticas para compartir información entre las QPU.
«El camino hacia la escalabilidad requerirá computación cuántica distribuida y una estrecha integración con la HPC en múltiples capas de la pila», afirmó Masoud Mohseni, distinguido tecnólogo que lidera el equipo de computación cuántica en Hewlett Packard Labs.
“El camino hacia la escalabilidad requerirá computación cuántica distribuida y una estrecha integración con HPC en muchas capas de la pila”.
Las interconexiones cuánticas se encuentran en las primeras etapas de desarrollo y probablemente no estarán disponibles durante algún tiempo. Para interconectar múltiples QPU a corto plazo, podemos usar interconexiones HPC como Slingshot, siempre que dispongamos de métodos escalables que distribuyan las cargas de trabajo cuánticas utilizando únicamente la comunicación clásica.
Sin embargo, la partición de las cargas de trabajo cuánticas es un problema complejo. El entrelazamiento cuántico (correlación de largo alcance entre cúbits que no están necesariamente cerca en el espacio físico) existe y, de hecho, es fundamental para el poder de la computación cuántica. Sin embargo, estas correlaciones cuánticas pueden ser difíciles de caracterizar, y para un problema dado puede que no se sepa de antemano qué correlaciones es importante mantener (es decir, qué cúbits deben ubicarse en la misma QPU) y cuáles son seguros de ignorar (un buen lugar para la partición).
Aquí es donde la selección de problemas desempeñará un papel en la configuración de un codiseño holístico de sistemas cuánticos-HPC. Si bien podemos imaginar una futura computadora cuántica de propósito general , donde cada cúbit pueda interactuar de forma fiable con todos los demás, en problemas reales de física y química el entrelazamiento no es uniforme. Existe una estructura inherente que podría aprovecharse para resolver solo las partes más complejas del problema con el mejor hardware cuántico disponible. Quizás en el futuro podamos permitirnos realizar cálculos aritméticos básicos con cúbits, pero hasta entonces, querremos combinar la computación cuántica de alto rendimiento (HPC) clásica y la computación cuántica. Basándose
en esta idea, HPE está desarrollando un conjunto de técnicas denominadas ” Adaptive Circuit Knitting” (Circuito Adaptativo de Tejido) que pueden determinar lugares eficientes para particionar las cargas de trabajo cuánticas sobre la marcha a medida que se realiza la computación cuántica. Estos enfoques han demostrado una mejora de entre 1 y 3 órdenes de magnitud en la sobrecarga computacional con respecto a los esquemas de partición simples, y podrían allanar el camino hacia una simulación cuántica escalable y distribuida utilizando únicamente interconexiones de HPC clásicas entre QPU. El equipo de HPE se ha asociado con NVIDIA para probar sus algoritmos a escala con simulación de circuitos cuánticos acelerada por GPU, gracias a la plataforma NVIDIA CUDA-Q . CUDA-Q no solo permite desarrollar ideas mediante la ejecución de las simulaciones más rápidas del mundo de cargas de trabajo cuánticas, con la capacidad suficiente para justificar el tejido de circuitos adaptativo (TCC), sino que también proporciona una plataforma diseñada para los flujos de trabajo híbridos necesarios para implementar el TCC: la ejecución de cálculos clásicos rápidos junto con las QPU que determinan activamente dónde crear las particiones de los circuitos.
Esta semana en el Día del Desarrollador Cuántico de GTC.HPE y NVIDIA presentan sus últimos resultados en simulaciones de 40 cúbits de sistemas de espín cuántico. Para validar el método de Tejido de Circuitos Adaptativos (TCC), utilizaron la plataforma NVIDIA CUDA-Q para realizar simulaciones de referencia en la supercomputadora HPE Cray EX Perlmutter. Estas simulaciones tardaron un promedio de tan solo 24 minutos, pero se ejecutaron en la impresionante cantidad de 256 nodos con 1024 GPU NVIDIA A100. Dado que simular circuitos cuánticos es exponencialmente costoso, estas simulaciones se acercan a las más grandes que se pueden realizar con la supercomputación clásica.
Escalar el hardware cuántico es el principal reto al que se enfrenta actualmente la comunidad de la computación cuántica. HPE y NVIDIA colaboran en nuevos enfoques algorítmicos para resolver este desafío.
“Escalar el hardware cuántico es el principal reto al que se enfrenta actualmente la comunidad de la computación cuántica. HPE y NVIDIA colaboran en nuevos enfoques algorítmicos para resolver este desafío”, afirmó Elica Kyoseva, directora de Ingeniería de Algoritmos Cuánticos de NVIDIA. “El Tejido de Circuitos Adaptativo ofrece una vía prometedora hacia la computación cuántica útil a gran escala mediante la distribución de la carga de trabajo cuántica en dispositivos cuánticos más pequeños, similar a la paralelización en la computación clásica. Comprender y aplicar estos prometedores métodos hoy en día se basa fundamentalmente en la supercomputación rápida con IA”.
El trabajo conjunto de HPE y NVIDIA demuestra el potencial de usar CUDA-Q y la HPC clásica para simular sistemas cuánticos, especialmente a corto plazo, dado el tamaño limitado de las QPU. Además, las técnicas de Tejido de Circuitos Adaptativo también ofrecen una vía para escalar ordenadores cuánticos con hardware de alto rendimiento ya disponible, es decir, sin depender de interconexiones cuánticas futuristas. Al desarrollar estas técnicas hoy, damos un paso adelante hacia sistemas de computación cuántica distribuida a gran escala que incluyen interconexiones tanto clásicas como cuánticas.
*Tomado de HPE aruba