top of page

El más reciente procesador de IBM supera los 400 qubits



IBM anunció esta semana la última generación de su familia de procesadores cuánticos de temática aviar, el Osprey con más del triple de qubits que su procesador Eagle de la generación anterior, Osprey es el primero en ofrecer más de 400 qubits, lo que indica que la empresa sigue en camino de lanzar el primer procesador de 1.000 qubits el año que viene.


A pesar del elevado número de qubits, no es necesario salir corriendo a reencriptar todos los datos sensibles. Aunque las tasas de error de los qubits de IBM han mejorado constantemente, todavía no han llegado al punto en que los 433 qubits de Osprey puedan utilizarse en un solo algoritmo sin una probabilidad de error muy alta. Por ahora, IBM insiste en que Osprey es un indicio de que la empresa puede mantener su agresiva hoja de ruta para la computación cuántica y que el trabajo necesario para hacerla útil está en marcha.


Para entender el anuncio de IBM, conviene comprender el mercado de la computación cuántica en su conjunto. En la actualidad hay muchas empresas en el mercado de la computación cuántica, desde startups hasta grandes compañías establecidas como IBM, Google e Intel. Han apostado por una gran variedad de tecnologías, desde átomos atrapados hasta electrones de reserva o bucles superconductores. Casi todos coinciden en que, para alcanzar todo el potencial de la computación cuántica, necesitamos llegar a un número de qubits de decenas de miles y a unas tasas de error en cada qubit individual lo suficientemente bajas como para que puedan unirse en un número menor de qubits con corrección de errores.


También existe un consenso general de que la computación cuántica puede ser útil para algunos problemas específicos mucho antes. Si el número de qubits es lo suficientemente alto y las tasas de error son lo suficientemente bajas, es posible que la repetición de cálculos específicos el número suficiente de veces para evitar un error siga obteniendo respuestas a problemas que son difíciles o imposibles de lograr en los ordenadores típicos.


La cuestión es qué hacer mientras se trabaja para reducir la tasa de error. Dado que la probabilidad de errores se escala en gran medida con el número de qubits, añadir más qubits a un cálculo aumenta la probabilidad de que los cálculos fallen. Un ejecutivo de una empresa de qubits atrapados dijo que sería trivial para ellos atrapar más iones y tener un mayor número de qubits, pero que no veían el sentido: el aumento de los errores dificultaría la realización de cualquier cálculo o dicho de otro modo, para tener una buena probabilidad de obtener un resultado de un cálculo, habría que utilizar menos qubits de los que hay disponibles.


Osprey no cambia fundamentalmente nada de eso. Aunque la persona de IBM no lo reconoció directamente, es poco probable que un solo cálculo pueda utilizar los 433 qubits sin encontrar un error. Pero, como explicó Jerry Chow, director de Infraestructura del grupo cuántico de IBM, aumentar el número de qubits es sólo una rama del proceso de desarrollo de la empresa. Publicar los resultados de ese proceso como parte de una hoja de ruta a largo plazo es importante por las señales que envía a los desarrolladores y a los posibles usuarios finales de la computación cuántica.


IBM dio a conocer su hoja de ruta en 2020 y en ella se decía que el procesador “Eagle” del año pasado sería el primero con más de 100 qubits, se acertó con el recuento de qubits de Osprey y se indicó que la empresa sería la primera en superar los 1.000 qubits con el Condor del año que viene. La iteración de este año de la hoja de ruta amplía el calendario y proporciona muchos detalles adicionales sobre lo que la empresa está haciendo más allá de aumentar el recuento de qubits.
La adición más notable es que Condor no será el único hardware que se lanzará el año que viene; hay un procesador adicional llamado Heron que tiene un recuento de qubits menor pero que tiene el potencial de unirse con otros procesadores para formar un paquete multichip (un paso que un competidor en el espacio ya ha dado). Cuando se le preguntó cuál era el mayor obstáculo para aumentar el número de qubits, Chow respondió que "es el tamaño del chip. Los qubits superconductores no son las estructuras más pequeñas: son bastante visibles a simple vista". El hecho de colocar un mayor número de ellos en un solo chip plantea retos en cuanto a la estructura material del mismo, así como a las conexiones de control y lectura que hay que realizar en su interior.
"Creemos que vamos a darle una vuelta más a esta manivela, utilizando este tipo de tecnología básica de un solo chip con Condor", indicó Chow "Pero, sinceramente, es poco práctico si empiezas a fabricar chips individuales que probablemente sean una gran proporción del tamaño de una oblea". Así que, aunque Heron empezará como una rama lateral del proceso de desarrollo, todos los chips más allá de Condor tendrán la capacidad de formar enlaces con procesadores adicionales.
En un principio, estas conexiones se realizarán mediante enlaces superconductores directos entre el hardware de los chips, pero a más largo plazo, Chow dijo que IBM está trabajando en enlaces de un metro de longitud que puedan sobrevivir a las temperaturas cercanas a cero que requieren los chips y que permitan que la comunicación entre los chips mantenga la coherencia cuántica.
Pero Chow indicó que hay mucho trabajo que no está obviamente en la hoja de ruta. Parte de él está relacionado con el hardware necesario para controlar los qubits durante las operaciones. Los primeros procesadores con los que experimentó la empresa necesitaban un bastidor de equipos para controlar cinco qubits; con Osprey, todo el chip puede controlarse con un solo bastidor y la empresa está experimentando con chips que pueden controlar los qubits mientras funcionan a las temperaturas superfrías de los qubits.
También se echa en falta en la hoja de ruta que IBM experimente con la tecnología de proceso de los qubits en sistemas pequeños con un puñado de qubits y que luego traslade cualquier desarrollo útil a la rama principal en forma de versiones provisionales. "Esto se ve con algunas de nuestras evoluciones de generaciones posteriores de pájaros anteriores", dijo Chow. "El Falcon R8 tuvo un aumento significativo de los tiempos de coherencia con respecto al Falcon R5. Y luego, de manera similar, a principios de este año, tuvimos la tercera revisión de “Eagle”, “Eagle Rev. Three”, que tuvo un aumento de alrededor de 3 veces en los tiempos de coherencia mediana de nuestro Eagle inicial que lanzamos el año pasado."
Estos cambios permiten a los usuarios realizar cálculos más complicados en un chip con el mismo número de qubits y, en última instancia, pueden ayudar a los usuarios a utilizar más qubits en las generaciones existentes de hardware. "Tenemos un Osprey principal y ya tenemos detrás otra generación de Osprey", dijo Chow. "Puede que la mejora sea del doble, dos veces y media".

En cuanto al software es un componente importante en la hoja de ruta actual, que supone un gran cambio con respecto al mapa inicial. IBM ha apoyado el desarrollo de un software llamado Qiskit, que permite a los desarrolladores implementar algoritmos para ordenadores cuánticos sin tener que preocuparse de emitir todos los comandos de control discretos que realizan las manipulaciones reales de los qubits. Ahora está modificando Qiskit para permitirle realizar repetidas ejecuciones de un algoritmo y rastrear dónde se producen los errores; entonces puede alterar la implementación del algoritmo para que sea menos probable que se encuentre con las circunstancias que provocaron el error.


"Se negocia el tiempo para aprender sobre los errores", sustrajo Chow. "Al ejecutar más circuitos con diferentes tipos de operaciones, diferentes exposiciones al ruido, se puede aprender sobre el ruido real al que se es susceptible". Evitar ese ruido, a su vez, reduce la tasa de error general que experimentará un algoritmo. "Estamos descubriendo que podemos llegar a circuitos cuánticos de 10 o 20 grados de profundidad utilizando técnicas de mitigación de errores", explicó

Combinadas, las mejoras en los procesos y en la evitación de errores mejorarán gradualmente el rendimiento de Osprey, aunque llevará tiempo, e IBM ya está trabajando en el reemplazo de Osprey. Así pues, IBM está teniendo cuidado de no hacer demasiadas promesas. "No estamos hablando de conseguir nada parecido a una ventaja cuántica, ni nada parecido en este dispositivo", dijo Chow. En su lugar, el recuento de qubits trata de asegurar a la gente en el campo que IBM puede continuar con su hoja de ruta establecida.

bottom of page