Skip to content Skip to footer

Google consigue un sistema de corrección de errores necesario para una computación cuántica útil y a gran escalera | Tecnología

El director ejecutivo de Google, Sundar Pichai, junto a un investigador con un computador cuántico en Santa Bárbara (California) en 2019.
El director ejecutante de Google, Sundar Pichai, cercano a un investigador con un computador cuántico en Santa Bárbara (California) en 2019.Handout . (REUTERS)

La computación cuántica da hoy otro paso fundamental. El anciano problema para explotar las singularidades de las partículas subatómicas, que elevan exponencialmente las posibilidades de procesamiento, reside en los errores generados en la manipulación y la medida de los cúbits (pelotón cuántica mínima de información). Cualquier interacción con ellos los degrada y anula la preeminencia. “Este término puede superarse gracias a fórmulas de corrección de errores, pero estas técnicas requieren aumentar significativamente el número de cúbits”, explica Alberto Casas, profesor de investigación en el Instituto de Física Teórica (CSIC-UAM) en La revolución cuántica (Ediciones B, 2022). Esta barrera acaba de ser superada por el verificado Hartmut Neven y más de un centenar de sus compañeros de Google Quantum AI, quienes aportan, en un trabajo publicado en Nature, “una demostración de computación cuántica donde el error disminuye a medida que aumenta el tamaño del sistema y permite registrar tasas de fallos suficientemente bajas para ejecutar algoritmos cuánticos efectos”. Es la puerta para una computación cuántica robusta sin pender del avance de tecnologías casi imposibles. “Es un hito en nuestro alucinación para construir una computadora cuántica útil, un paso necesario por el que tiene que producirse cualquier tecnología informática contemporáneo madura”, afirma Neven.

Si un superordenador contemporáneo puede hacer millones de operaciones con bites (el Summit de IBM es capaz de procesar más de 200.000 millones de cálculos por segundo), uno cuántico puede ejecutar trillones. Esta potencia se friso en la superposición, una particularidad de las partículas subatómicas que les permite estar en dos estados o en cualquier superposición de ellos. Un bit (la pelotón mínima en computación clásica) solo puede tener un valencia binario: 0 o 1. El cúbit, por el contrario, puede encontrarse en esos dos estados o en uno y otro a la vez. De esta forma, dos bits pueden juntar un número, mientras dos cúbits almacenan cuatro y diez cúbits pueden tener 1.024 estados simultáneos, por lo que se amplía exponencialmente la capacidad de cálculo por cada cúbit añadido.

Sin confiscación, al intentar extraer la información almacenada, el sistema sufre un aberración conocido como decoherencia: la degradación de esas superposiciones cuánticas hasta convertirlas en estados clásicos. Y ese meta lo ocasiona cualquier interacción con el entorno: temperatura, electromagnetismo, vibraciones… Cualquier interferencia genera ruido y reduce a microsegundos el tiempo en el que se mantienen las superposiciones que multiplican la capacidad de computación.

Una forma de evitar las limitaciones es construir computadoras aisladas hasta límites inéditos y a una temperatura cercana al cero ilimitado (-273 grados Celsius) así como ir ampliando su capacidad. El procesador Osprey de IBM ha escaso los 433 cúbits y la compañía prevé ascender en 2025, con el Kookaburra (Cucaburra), a más de 4.000. “Desde 1990 se intentan organizar conjuntos cada vez más grandes de cúbits físicos en lógicos para obtener tasas de error más bajas. Pero hasta ahora sucedía lo contrario porque a más cúbits, más puertas, más operaciones que pueden arrojar un error”, explica Neven.

La corrección de errores es el único camino conocido para hacer computadoras cuánticas efectos y a gran escalera

Julian Kelly, investigador del equipo de Google Quantum AI

De esta forma, la carrera tecnológica por construir ordenadores cada vez más capaces, dispositivos que proporcionen tiempos de coherencia más largos y aporten una prosperidad neta respecto a los métodos clásicos, es cada vez más compleja y precisa de un camino complementario. “La tecnología más importante para el futuro de la computación cuántica es la corrección de errores, es el único camino conocido para hacer computadoras cuánticas efectos y a gran escalera”, asegura Julian Kelly, investigador del equipo de Google.

Y este es el avance presentado este miércoles: “Un cúbit sensato de código superficial puede compendiar las tasas de error a medida que aumenta el tamaño del sistema”, es afirmar, que se puede aumentar la capacidad de computación cuántica robusta sin pender de máquinas que rocen los límites de la tecnología apto.

El cúbit sensato superficial o de superficie es un conjunto de cúbits físicos agrupados y controlados de una forma determinada para que, una vez entrelazados (la entusiasmo sobre una partícula afecta instantáneamente a la otra, incluso si están separadas por grandes distancias), actúen de estabilizadores del sistema para evitar imperfecciones de los estados, materiales o medidas.

Se necesita más trabajo para alcanzar las tasas de error lógicas requeridas para un cálculo efectivo, pero esta investigación demuestra el requisito fundamental para futuros desarrollos

Hartmut Neven, investigador de Google y principal autor del trabajo publicado en ‘Nature’

Según explica el investigador principal, “se necesita controlar al conjunto mediante los llamados cúbits de medida, que detectan errores de una forma indirecta inteligente para no destruir el tipo de estado de superposición cuántica y realizar en consecuencia”. “No podemos simplemente calibrar dónde ocurren los errores. Si identificamos, encima de dónde, qué cúbits de datos tenían errores y cuáles fueron, podemos decodificar y recuperar la información cuántica”, añade Kelly.

“El código de superficie es”, según explican los investigadores, “un tipo de computación cuántica en extremo tolerante a fallos y robusto”. Los sistemas actuales arrojan errores en una proporción de uno entre mil. Estos pueden parecer escasos, pero las aplicaciones prácticas de la computación cuántica necesitan reducirlos mucho más, hasta uno entre un millón, según resalta Neven. Es el camino emprendido por Google y que, según asegura el verificado, “demuestra que la corrección de errores funciona y nos informa de todo lo que se necesita retener sobre este sistema”.

Para la demostración que publica Nature, el equipo de Hartmut Neven creó, a partir de la tercera engendramiento del Sycamore de Google, un procesador cuántico superconductor con 72 cúbits y lo probaron con dos códigos de superficie, uno anciano que el otro. El más vasto (sobre 49 cúbits físicos) arrojó una tasa de fallos (2,914% de error sensato por ciclo) último que el más pequeño (3.028% en 17 cúbits físicos). “Se necesita más trabajo para alcanzar las tasas de error lógicas requeridas para un cálculo efectivo, pero esta investigación demuestra el requisito fundamental para futuros desarrollos”, afirma Neven.

La bisectriz de investigación de Google se friso en la premisa expuesta por el físico Richard Feynman, en 1981, cuando afirmó: “La naturaleza es cuántica, maldita sea, así que, si la quieres afectar, mejor que sea una simulación cuántica”. De esta forma, Feynman limitaba las posibilidades de la computación convencional para desventrar el mundo cuántico e instaba a afectar esta segunda ingenuidad para conseguirlo.

Desde esa propuesta para computar a partir de la física cuántica han surgido, según recuerdan los investigadores de Google, numerosas aplicaciones que incluyen factorización (secreto en la criptografía), enseñanza mecánico o química cuántica. Pero estas siguen precisando miles de operaciones para minimizar la aún suscripción tasa de error. Los científicos de la multinacional norteamericana creen suceder descubierto la puerta para que “la corrección de errores pueda suprimir exponencialmente las tasas de fallos operacionales en un procesador cuántico”.

Kelly admite que es un resultado necesario y crítico, pero no suficiente. “Los resultados aún no muestran la escalera de rendimiento en el nivel necesario para construir una máquina sin errores. Pero es verdaderamente un hito verificado secreto porque demuestra que la corrección de errores finalmente funciona y nos brinda aprendizajes secreto a medida que avanzamos en dirección a nuestro próximo hito”.

Siquiera evita que se mantenga la carrera por construir computadoras con más de 100.000 cúbits, proyectos en los que trabajan, encima de Google, compañías como IBM, Intel, Microsoft o Rigetti. La corrección de errores es complementaria. “Estamos abordando primero lo que creemos que es más difícil y es, básicamente, tomar información cuántica y protegerla del entorno. Estamos tratando fundamentalmente de usar la corrección de errores cuánticos para la coherencia. El desafío fundamental y secreto es demostrar que esa corrección de errores funciona a una escalera para poder tomar información cuántica y protegerla del entorno”, explica Julian Kelly.

Puedes escribirnos a [email protected], seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para cobrar nuestra newsletter semanal.



Creditos a Raúl Citrón

Fuente

Leave a comment

0.0/5