El último chip de computación cuántica de Google, “Willow,”ha llamado la atención significativa de la comunidad tecnológica global. Este desarrollo innovador no solo muestra los últimos logros en computación cuántica, sino que también suscita debates críticos sobre su posible impacto en la seguridad de la cadena de bloques. La base de la seguridad de la cadena de bloques radica en desafíos criptográficos complejos, y los avances en computación cuántica pueden representar una amenaza para esta base. Este artículo profundiza en las posibles implicaciones del chip "Willow" de Google en la seguridad de la cadena de bloques.
Según informes oficiales [1], Google ha presentado su último chip de computación cuántica, 'Willow', y ha anunciado dos avances importantes:
Desglosemos estos logros. Por ahora, dejaremos de lado el primer avance en corrección de errores cuánticos y nos centraremos en el segundo: la velocidad computacional. Si “Willow” puede completar en cinco minutos lo que a un superordenador le llevaría 1.025 años lograr, presenta una comparación impactante con los desafíos criptográficos tradicionales.
Por ejemplo, considera el tiempo necesario para que una computadora clásica fuerce por fuerza bruta una clave de cifrado RSA-2048. Según las estimaciones de John Preskill [2], una computadora doméstica necesitaría aproximadamente 10¹⁶ años para romper RSA-2048.
Dadas las asombrosas capacidades de “Willow”, si puede manejar tareas que llevarían a una supercomputadora 1.025 años en solo cinco minutos, podría parecer trivial para él abordar desafíos que requieran 10¹⁶ años. ¿Significa esto que el problema criptográfico de la factorización de enteros, en el que se basa RSA, ya no es seguro? ¿Por la misma lógica, ¿se ha resuelto ya el problema del logaritmo discreto en curvas elípticas, otro pilar de la seguridad de la cadena de bloques? Estas especulaciones sugieren un escenario en el que la seguridad de la cadena de bloques podría colapsar en un instante.
¿Pero es eso realmente así?
Profundicemos en las implicaciones reales de estos avances para la criptografía y la tecnología de cadena de bloques. (Continuará...)
Los ordenadores cuánticos tienen el potencial teórico de romper desafíos criptográficos clásicos, como el problema de factorización de enteros y el problema del logaritmo discreto, que sustentan muchos sistemas de cifrado. Pero ¿qué nivel de capacidad de computación cuántica se requiere realmente para romper desafíos criptográficos específicos? Explorémoslo a través de los siguientes ejemplos:
Factorización de un entero grande de una clave pública RSA-2048.
Derivando una clave privada de una clave pública en curvas elípticas como Secp256k1, Secp256r1 o Ed25519.
Para las computadoras clásicas, ambas tareas son computacionalmente inviables. Según sus respectivos parámetros de seguridad, la criptografía de curva elíptica (ECC) es ligeramente más difícil de romper que RSA. Sin embargo, la investigación de Martin et al. [3] sugiere que para las computadoras cuánticas, la situación se invierte: RSA es ligeramente más difícil que ECC. Para simplificar, tratamos ambos problemas como teniendo una dificultad similar y nos enfocamos en el segundo problema.
El papel de Secp256k1 y curvas similares en la seguridad de la cadena de bloques
Las curvas elípticas como Secp256k1, Secp256r1 y Ed25519 son ampliamente utilizadas en sistemas de cadena de bloques. El problema del logaritmo discreto (DLP) en estas curvas forma la base de la seguridad de la cadena de bloques, incluidos sistemas como Bitcoin. Si este problema se resolviera, los atacantes podrían falsificar transacciones en la cadena de bloques a voluntad. Claramente, la capacidad de resolver DLP en curvas elípticas determinaría directamente la supervivencia de la seguridad de la cadena de bloques.
Requisitos de computación cuántica para romper DLP
Según Martin et al. [3], resolver el problema del logaritmo discreto en una curva elíptica definida sobre un campo de orden primo (con tamaño de orden nnn bits) requeriría:
Ejemplo: Rompiendo la curva estándar NIST P-256
Para la curva P-256 utilizada en muchos sistemas criptográficos:
Implicaciones para la seguridad de la cadena de bloques
Un ordenador cuántico con tan solo 2.330 qubits lógicos y capaz de ejecutar 1,26 × 10^{11} compuertas Toffoli sería suficiente para comprometer los sistemas de blockchain. Esta capacidad desmantelaría la seguridad de Bitcoin, Ethereum y prácticamente todas las demás redes de blockchain que dependen de ECC para la protección criptográfica.
Si bien estos requisitos de recursos son desalentadores, los rápidos avances en la tecnología de computación cuántica sugieren que lograr tales capacidades podría no ser imposible a largo plazo. Sin embargo, las estimaciones actuales sitúan la realización de tales sistemas cuánticos a 15-20 años en el futuro, lo que le da a la industria de la cadena de bloques una ventana crucial para desarrollar e implementar criptografía resistente a la cadena de bloques.
El extraordinario poder computacional de las computadoras cuánticas, que supera ampliamente el de las computadoras clásicas, radica en su capacidad para aprovechar superposición cuánticayparalelismo cuánticoa través debits cuánticos (qubits). A diferencia de la computación clásica, que se basa en procesos lineales, la computación cuántica permite realizar cálculos complejos al operar en múltiples estados simultáneamente. Sin embargo, las propiedades únicas de los qubits también plantean desafíos significativos.
Los qubits son altamente sensibles al ruido ambiental y a la interferencia externa, lo que hace que sus estados sean inestables y propensos a perder sus propiedades cuánticas (un fenómeno conocido como decoherenciaLos errores pueden ocurrir en prácticamente todas las etapas de un proceso de computación cuántica, durante la inicialización, el mantenimiento del estado, la operación de puerta cuántica o la medición de resultados. Tales errores pueden hacer que los algoritmos cuánticos sean ineficaces o producir resultados incorrectos. Por lo tanto, garantizar la estabilidad y precisión de los qubits para obtener cúbits de alta calidades uno de los desafíos fundamentales en la computación cuántica.
Abordando el desafío: qubits lógicos y corrección de errores
Una de las estrategias clave para superar la inestabilidad del qubit es la construcción de qubits lógicos, que reducen las tasas de error al combinar múltiples qubits físicos con códigos de corrección de errores cuánticos. Estos códigos, como los códigos de superficie y los códigos cartesianos, permiten la detección y corrección de errores, mejorando así la robustez y fiabilidad de los sistemas cuánticos.
Cada qubit lógico normalmente requiere decenas a miles de qubits físicos para soportarlo. Si bien los qubits lógicos mejoran significativamente la tolerancia a fallos de las computadoras cuánticas, esto conlleva un aumento en los requisitos de qubits físicos y algoritmos de corrección de errores complejos.
Un desafío crítico en la corrección de errores cuánticos ha surgido como un gran cuello de botella. Inicialmente, los investigadores asumieron que sacrificar qubits físicos adicionales mejorarían la precisión de los qubits lógicos. Sin embargo, la realidad ha demostrado lo contrario. Debido a las inherentemente altas tasas de error de los qubits físicos (que van desde 10⁻¹ a 10⁻³), los primeros intentos de corrección de errores a menudo resultaron en qubits lógicos con tasas de error aún más altas que los propios qubits físicos.
Esta paradoja puede compararse con un escenario caótico de equipo: "Cuanta más gente participa, más caos se produce". En la corrección de errores cuánticos, la mala calidad de los qubits físicos significaba que los mecanismos de corrección de errores introducían con frecuencia más errores de los que eliminaban. Este fenómeno, a menudo descrito como "sobrecorrección en el caos", subraya la importancia de los qubits físicos de alta calidad como base para construir qubits lógicos fiables.
Sin qubits lógicos de alta calidad, la computación cuántica práctica sigue estando fuera de alcance. Abordar este desafío requiere no solo avances en la estabilidad de los qubits físicos, sino también avances en las técnicas de corrección de errores cuánticos. Lograr este objetivo es esencial para desbloquear todo el potencial de la computación cuántica y superar sus limitaciones actuales.
Con una comprensión sólida de los desafíos que rodean la computación cuántica, ahora podemos reevaluar los logros del chip cuántico de Google, "Willow".
Uno de los aspectos más revolucionarios de “Willow” es su capacidad para superar los obstáculos de larga data en la corrección de errores cuánticos mediante códigos superficiales [4][5]. Al aumentar el número de qubits y optimizar las técnicas de corrección de errores, “Willow” ha logrado un hito histórico: transformar la corrección de errores de un proceso que generaba pérdidas en una ganancia neta.
Rendimiento del código de superficie
Además, el chip "Willow" completó el cálculo de referencia del Circuito Aleatorio de Muestreo (RCS) en menos de cinco minutos. RCS es un método ampliamente utilizado para evaluar el rendimiento de las computadoras cuánticas.
Sin embargo, es importante tener en cuenta que la impresionante brecha de rendimiento entre el ordenador cuántico y un superordenador clásico en esta prueba surge en parte de las diferencias fundamentales entre la computación cuántica y la clásica. Para comprender mejor esto, podemos usar una analogía imperfecta: comparar la "velocidad de un satélite en el espacio" con la "velocidad de un automóvil en el suelo".
Además, cabe destacar que RCS actualmente carece de escenarios de aplicación práctica, sirviendo principalmente como una herramienta de evaluación de rendimiento.
Mapa de ruta de computación cuántica de Google
El diagrama de arriba ilustra las seis etapas de la hoja de ruta de desarrollo de la computación cuántica de Google, destacando el camino crítico desde los avances experimentales hasta las aplicaciones prácticas a gran escala.
Usando el Procesador SycamoreEl equipo demostró la computación cuántica superando la computación clásica. En tan solo 200 segundos, el procesador completó una tarea que llevaría 10,000 años a una supercomputadora tradicional, sentando las bases para la supremacía cuántica. Los objetivos de esta etapa se lograron con una computadora cuántica con 54 qubits físicos.
La Astilla de sauceSe usó para demostrar el primer prototipo de un qubit lógico, demostrando que la corrección de errores cuánticos puede reducir las tasas de error. Este avance allanó el camino para la construcción de computadoras cuánticas prácticas a gran escala y posibilitó la posibilidad de aplicaciones cuánticas de escala intermedia a corto plazo (NISQ). También se lograron los objetivos de esta etapa, con la computadora cuántica alcanzando 105 qubits físicos y una tasa de error de qubit lógico de 10−310^{-3}10−3.
El objetivo es construir qubits lógicos de larga duración con una tasa de error de menos de uno en un millón de operaciones. Para lograr esto, se requiere una corrección de errores cuánticos más robusta y una arquitectura de hardware escalable. Se espera que las computadoras cuánticas en esta etapa tengan 10^3103 qubits físicos, con tasas de error de qubits lógicos reducidas a 10−610^{-6}10−6.
El enfoque se centra en lograr operaciones de puertas cuánticas lógicas de bajo error, lo que permite aplicaciones significativas de corrección de errores cuánticos. Se espera que las computadoras cuánticas alcancen 10410^4104 qubits físicos manteniendo una tasa de error de qubit lógico de 10−610^{-6}10−6.
El sistema se expandirá a 100 qubits lógicos y logrará operaciones de puerta de alta precisión, desbloqueando más de tres aplicaciones cuánticas tolerantes a fallos. Se espera que las computadoras cuánticas cuenten con 10510^5105 qubits físicos, con tasas de error de qubits lógicos manteniéndose en 10−610^{-6}10−6.
El objetivo final es controlar y conectar 1 millón de qubits, creando una computadora cuántica tolerante a fallos a gran escala. Se prevé que este sistema sea ampliamente aplicable en campos como la medicina y las tecnologías sostenibles, con más de 10 aplicaciones cuánticas transformando diversas industrias. En esta etapa, las computadoras cuánticas tendrán 10^6106 qubits físicos, con tasas de error de qubits lógicos que se reducen a 10−1310^{-13}10−13.
Como se mencionó anteriormente, romper los desafíos criptográficos comunes de la cadena de bloques, como el problema del logaritmo discreto de la curva elíptica, requiere alrededor de 2.330 qubits lógicos de alta calidad y un circuito cuántico con 1,26 × 10^{11} compuertas Toffoli. Los qubits lógicos dependen de la corrección de errores cuánticos, y cada qubit lógico requiere típicamente de múltiples qubits físicos para su soporte. Por ejemplo, el chip Willow utiliza una distancia de código de 7, lo que requiere 49 qubits físicos por cada qubit lógico, lo que suma aproximadamente 114.170 qubits físicos.
Sin embargo, esta estimación es optimista. A medida que aumentan la escala y la profundidad de las operaciones cuánticas, surgirán requisitos más estrictos para las tasas de error del qubit lógico. Actualmente, la tasa de error del qubit lógico de Willow es de alrededor de 10−310^{-3}10−3, lejos del nivel necesario para resolver tales problemas. Según Craig et al. [6], la resolución del problema RSA-2048, que tiene una complejidad similar al problema del logaritmo discreto de la curva elíptica, requiere una tasa de error del qubit lógico de 10−1510^{-15}10−15 y una distancia de código de al menos 27. Esto significa que cada qubit lógico necesitaría 272=72927^2 = 729272=729 qubits físicos, totalizando más de 1,698,570 qubits físicos. Además, la tasa de error del qubit lógico requerida de 10−1510^{-15}10−15 no solo está muy por debajo de los 10−310^{-3}10−3 de Willow sino que también es dos órdenes de magnitud más baja que la tasa de error del qubit lógico prevista para las computadoras cuánticas en la Etapa 6 del plan de Google.
Basándose en la hoja de ruta de desarrollo de Google, solo será posible abordar el problema del logaritmo discreto de la curva elíptica una vez que la computación cuántica alcance la Etapa 6. Lograr este objetivo requerirá avances significativos en la calidad del qubit lógico, junto con una gestión eficiente y corrección de errores de un gran número de qubits físicos.
Suponiendo un intervalo de cinco años entre las Etapas 1 y 2 y un progreso constante, se estima que tomará de 15 a 20 años para que 'Willow' supere los desafíos criptográficos clásicos. Incluso con una perspectiva optimista, tomaría al menos 10 años alcanzar el nivel requerido.
Una vez que los ordenadores cuánticos alcancen la potencia computacional suficiente, podrán aprovechar sus ventajas asimétricas para comprometer rápidamente los mecanismos de seguridad fundamentales de las criptomonedas. Esto incluye robar las claves privadas de los usuarios y obtener el control sobre sus activos. En tal escenario, las redes de criptomonedas existentes se enfrentarían a un colapso sistémico, dejando los activos de los usuarios desprotegidos.
Sin embargo, en la actualidad, el chip cuántico Willow de Google se encuentra en las primeras etapas de la investigación en computación cuántica y no es capaz de resolver desafíos criptográficos como la factorización de enteros grandes y los logaritmos discretos de curvas elípticas. Como resultado, aún no representa una amenaza sustancial para la seguridad de la cadena de bloques. El desarrollo de una computadora cuántica verdaderamente práctica enfrenta numerosos desafíos técnicos, lo que hace que sea un viaje largo y arduo.
Si bien la tecnología de computación cuántica aún no amenaza directamente los activos cifrados, su rápido desarrollo no puede ignorarse. Según las previsiones basadas en las tendencias tecnológicas actuales, se espera que las computadoras cuánticas superen varios cuellos de botella técnicos clave en la próxima década, acercándose gradualmente al punto crítico donde podrían amenazar la criptografía tradicional. Ante esta posible desafío, la comunidad blockchain debe planificar y prepararse de manera proactiva para abordar el impacto tecnológico de la era cuántica. Para garantizar la seguridad y estabilidad a largo plazo de los sistemas blockchain, son esenciales tres medidas clave:
Es fundamental avanzar en la investigación sobre criptografía resistente a la computación cuántica, como los algoritmos basados en retículos, y promover su aplicación estandarizada a nivel mundial. Esta es la máxima prioridad para abordar las amenazas cuánticas y es vital para la seguridad futura de la tecnología de cadena de bloques.
Los esfuerzos deben centrarse en establecer una infraestructura criptográfica resistente a los cuánticos para proporcionar una base técnica sólida para la seguridad a largo plazo de las redes de cadena de bloques. Esto garantizará que los sistemas puedan responder eficazmente a posibles amenazas cuánticas y mantener operaciones estables.
La comunidad de la cadena de bloques también debería explorar las posibles aplicaciones de la computación cuántica, como la optimización de cálculos en cadena, la mejora de la eficiencia de programación de recursos y la protección de la privacidad. Estas innovaciones podrían inyectar un nuevo impulso de crecimiento en la tecnología de la cadena de bloques.
Aunque la aplicación generalizada de computadoras cuánticas aún no se ha materializado, su llegada eventual es inevitable. En este contexto, los marcos de seguridad de la cadena de bloques basados en criptografía tradicional serán gradualmente reemplazados por garantías de seguridad fundamentadas en criptografía resistente a los ataques cuánticos.
Empresas como Safeheron ya están colaborando con instituciones académicas para explorar activamente algoritmos resistentes a la cuántica, sentando las bases para la evolución tecnológica de la seguridad de activos digitales. Además, el ecosistema de la cadena de bloques ha comenzado a ver cadenas públicas que integran algoritmos resistentes a la cuántica, demostrando una tendencia progresista que alivia la preocupación excesiva.
El desarrollo de la computación cuántica no solo presenta desafíos de seguridad potenciales para la tecnología de cadena de bloques, sino que también ofrece oportunidades para el avance tecnológico y mejoras en la eficiencia. Al abordar activamente estos cambios y abrazar la transformación, la tecnología de cadena de bloques puede prosperar en medio de futuras olas de innovación, alcanzando niveles más altos de madurez y creatividad.
[1] Conoce a Willow, nuestro chip cuántico de última generación
[2] John Preskill - Introducción a la Información Cuántica (Parte 1) - CSSQI 2012
[3] Estimaciones de recursos cuánticos para calcular logaritmos discretos de curvas elípticas
[4] Suprimiendo errores cuánticos mediante la escala de un qubit lógico de código de superficie
[5] Corrección de errores cuánticos por debajo del umbral del código de superficie
[6] Cómo factorizar enteros RSA de 2048 bits en 8 horas usando 20 millones de qubits ruidosos
[7] Hoja de ruta de la computación cuántica de Google
分享
目录
El último chip de computación cuántica de Google, “Willow,”ha llamado la atención significativa de la comunidad tecnológica global. Este desarrollo innovador no solo muestra los últimos logros en computación cuántica, sino que también suscita debates críticos sobre su posible impacto en la seguridad de la cadena de bloques. La base de la seguridad de la cadena de bloques radica en desafíos criptográficos complejos, y los avances en computación cuántica pueden representar una amenaza para esta base. Este artículo profundiza en las posibles implicaciones del chip "Willow" de Google en la seguridad de la cadena de bloques.
Según informes oficiales [1], Google ha presentado su último chip de computación cuántica, 'Willow', y ha anunciado dos avances importantes:
Desglosemos estos logros. Por ahora, dejaremos de lado el primer avance en corrección de errores cuánticos y nos centraremos en el segundo: la velocidad computacional. Si “Willow” puede completar en cinco minutos lo que a un superordenador le llevaría 1.025 años lograr, presenta una comparación impactante con los desafíos criptográficos tradicionales.
Por ejemplo, considera el tiempo necesario para que una computadora clásica fuerce por fuerza bruta una clave de cifrado RSA-2048. Según las estimaciones de John Preskill [2], una computadora doméstica necesitaría aproximadamente 10¹⁶ años para romper RSA-2048.
Dadas las asombrosas capacidades de “Willow”, si puede manejar tareas que llevarían a una supercomputadora 1.025 años en solo cinco minutos, podría parecer trivial para él abordar desafíos que requieran 10¹⁶ años. ¿Significa esto que el problema criptográfico de la factorización de enteros, en el que se basa RSA, ya no es seguro? ¿Por la misma lógica, ¿se ha resuelto ya el problema del logaritmo discreto en curvas elípticas, otro pilar de la seguridad de la cadena de bloques? Estas especulaciones sugieren un escenario en el que la seguridad de la cadena de bloques podría colapsar en un instante.
¿Pero es eso realmente así?
Profundicemos en las implicaciones reales de estos avances para la criptografía y la tecnología de cadena de bloques. (Continuará...)
Los ordenadores cuánticos tienen el potencial teórico de romper desafíos criptográficos clásicos, como el problema de factorización de enteros y el problema del logaritmo discreto, que sustentan muchos sistemas de cifrado. Pero ¿qué nivel de capacidad de computación cuántica se requiere realmente para romper desafíos criptográficos específicos? Explorémoslo a través de los siguientes ejemplos:
Factorización de un entero grande de una clave pública RSA-2048.
Derivando una clave privada de una clave pública en curvas elípticas como Secp256k1, Secp256r1 o Ed25519.
Para las computadoras clásicas, ambas tareas son computacionalmente inviables. Según sus respectivos parámetros de seguridad, la criptografía de curva elíptica (ECC) es ligeramente más difícil de romper que RSA. Sin embargo, la investigación de Martin et al. [3] sugiere que para las computadoras cuánticas, la situación se invierte: RSA es ligeramente más difícil que ECC. Para simplificar, tratamos ambos problemas como teniendo una dificultad similar y nos enfocamos en el segundo problema.
El papel de Secp256k1 y curvas similares en la seguridad de la cadena de bloques
Las curvas elípticas como Secp256k1, Secp256r1 y Ed25519 son ampliamente utilizadas en sistemas de cadena de bloques. El problema del logaritmo discreto (DLP) en estas curvas forma la base de la seguridad de la cadena de bloques, incluidos sistemas como Bitcoin. Si este problema se resolviera, los atacantes podrían falsificar transacciones en la cadena de bloques a voluntad. Claramente, la capacidad de resolver DLP en curvas elípticas determinaría directamente la supervivencia de la seguridad de la cadena de bloques.
Requisitos de computación cuántica para romper DLP
Según Martin et al. [3], resolver el problema del logaritmo discreto en una curva elíptica definida sobre un campo de orden primo (con tamaño de orden nnn bits) requeriría:
Ejemplo: Rompiendo la curva estándar NIST P-256
Para la curva P-256 utilizada en muchos sistemas criptográficos:
Implicaciones para la seguridad de la cadena de bloques
Un ordenador cuántico con tan solo 2.330 qubits lógicos y capaz de ejecutar 1,26 × 10^{11} compuertas Toffoli sería suficiente para comprometer los sistemas de blockchain. Esta capacidad desmantelaría la seguridad de Bitcoin, Ethereum y prácticamente todas las demás redes de blockchain que dependen de ECC para la protección criptográfica.
Si bien estos requisitos de recursos son desalentadores, los rápidos avances en la tecnología de computación cuántica sugieren que lograr tales capacidades podría no ser imposible a largo plazo. Sin embargo, las estimaciones actuales sitúan la realización de tales sistemas cuánticos a 15-20 años en el futuro, lo que le da a la industria de la cadena de bloques una ventana crucial para desarrollar e implementar criptografía resistente a la cadena de bloques.
El extraordinario poder computacional de las computadoras cuánticas, que supera ampliamente el de las computadoras clásicas, radica en su capacidad para aprovechar superposición cuánticayparalelismo cuánticoa través debits cuánticos (qubits). A diferencia de la computación clásica, que se basa en procesos lineales, la computación cuántica permite realizar cálculos complejos al operar en múltiples estados simultáneamente. Sin embargo, las propiedades únicas de los qubits también plantean desafíos significativos.
Los qubits son altamente sensibles al ruido ambiental y a la interferencia externa, lo que hace que sus estados sean inestables y propensos a perder sus propiedades cuánticas (un fenómeno conocido como decoherenciaLos errores pueden ocurrir en prácticamente todas las etapas de un proceso de computación cuántica, durante la inicialización, el mantenimiento del estado, la operación de puerta cuántica o la medición de resultados. Tales errores pueden hacer que los algoritmos cuánticos sean ineficaces o producir resultados incorrectos. Por lo tanto, garantizar la estabilidad y precisión de los qubits para obtener cúbits de alta calidades uno de los desafíos fundamentales en la computación cuántica.
Abordando el desafío: qubits lógicos y corrección de errores
Una de las estrategias clave para superar la inestabilidad del qubit es la construcción de qubits lógicos, que reducen las tasas de error al combinar múltiples qubits físicos con códigos de corrección de errores cuánticos. Estos códigos, como los códigos de superficie y los códigos cartesianos, permiten la detección y corrección de errores, mejorando así la robustez y fiabilidad de los sistemas cuánticos.
Cada qubit lógico normalmente requiere decenas a miles de qubits físicos para soportarlo. Si bien los qubits lógicos mejoran significativamente la tolerancia a fallos de las computadoras cuánticas, esto conlleva un aumento en los requisitos de qubits físicos y algoritmos de corrección de errores complejos.
Un desafío crítico en la corrección de errores cuánticos ha surgido como un gran cuello de botella. Inicialmente, los investigadores asumieron que sacrificar qubits físicos adicionales mejorarían la precisión de los qubits lógicos. Sin embargo, la realidad ha demostrado lo contrario. Debido a las inherentemente altas tasas de error de los qubits físicos (que van desde 10⁻¹ a 10⁻³), los primeros intentos de corrección de errores a menudo resultaron en qubits lógicos con tasas de error aún más altas que los propios qubits físicos.
Esta paradoja puede compararse con un escenario caótico de equipo: "Cuanta más gente participa, más caos se produce". En la corrección de errores cuánticos, la mala calidad de los qubits físicos significaba que los mecanismos de corrección de errores introducían con frecuencia más errores de los que eliminaban. Este fenómeno, a menudo descrito como "sobrecorrección en el caos", subraya la importancia de los qubits físicos de alta calidad como base para construir qubits lógicos fiables.
Sin qubits lógicos de alta calidad, la computación cuántica práctica sigue estando fuera de alcance. Abordar este desafío requiere no solo avances en la estabilidad de los qubits físicos, sino también avances en las técnicas de corrección de errores cuánticos. Lograr este objetivo es esencial para desbloquear todo el potencial de la computación cuántica y superar sus limitaciones actuales.
Con una comprensión sólida de los desafíos que rodean la computación cuántica, ahora podemos reevaluar los logros del chip cuántico de Google, "Willow".
Uno de los aspectos más revolucionarios de “Willow” es su capacidad para superar los obstáculos de larga data en la corrección de errores cuánticos mediante códigos superficiales [4][5]. Al aumentar el número de qubits y optimizar las técnicas de corrección de errores, “Willow” ha logrado un hito histórico: transformar la corrección de errores de un proceso que generaba pérdidas en una ganancia neta.
Rendimiento del código de superficie
Además, el chip "Willow" completó el cálculo de referencia del Circuito Aleatorio de Muestreo (RCS) en menos de cinco minutos. RCS es un método ampliamente utilizado para evaluar el rendimiento de las computadoras cuánticas.
Sin embargo, es importante tener en cuenta que la impresionante brecha de rendimiento entre el ordenador cuántico y un superordenador clásico en esta prueba surge en parte de las diferencias fundamentales entre la computación cuántica y la clásica. Para comprender mejor esto, podemos usar una analogía imperfecta: comparar la "velocidad de un satélite en el espacio" con la "velocidad de un automóvil en el suelo".
Además, cabe destacar que RCS actualmente carece de escenarios de aplicación práctica, sirviendo principalmente como una herramienta de evaluación de rendimiento.
Mapa de ruta de computación cuántica de Google
El diagrama de arriba ilustra las seis etapas de la hoja de ruta de desarrollo de la computación cuántica de Google, destacando el camino crítico desde los avances experimentales hasta las aplicaciones prácticas a gran escala.
Usando el Procesador SycamoreEl equipo demostró la computación cuántica superando la computación clásica. En tan solo 200 segundos, el procesador completó una tarea que llevaría 10,000 años a una supercomputadora tradicional, sentando las bases para la supremacía cuántica. Los objetivos de esta etapa se lograron con una computadora cuántica con 54 qubits físicos.
La Astilla de sauceSe usó para demostrar el primer prototipo de un qubit lógico, demostrando que la corrección de errores cuánticos puede reducir las tasas de error. Este avance allanó el camino para la construcción de computadoras cuánticas prácticas a gran escala y posibilitó la posibilidad de aplicaciones cuánticas de escala intermedia a corto plazo (NISQ). También se lograron los objetivos de esta etapa, con la computadora cuántica alcanzando 105 qubits físicos y una tasa de error de qubit lógico de 10−310^{-3}10−3.
El objetivo es construir qubits lógicos de larga duración con una tasa de error de menos de uno en un millón de operaciones. Para lograr esto, se requiere una corrección de errores cuánticos más robusta y una arquitectura de hardware escalable. Se espera que las computadoras cuánticas en esta etapa tengan 10^3103 qubits físicos, con tasas de error de qubits lógicos reducidas a 10−610^{-6}10−6.
El enfoque se centra en lograr operaciones de puertas cuánticas lógicas de bajo error, lo que permite aplicaciones significativas de corrección de errores cuánticos. Se espera que las computadoras cuánticas alcancen 10410^4104 qubits físicos manteniendo una tasa de error de qubit lógico de 10−610^{-6}10−6.
El sistema se expandirá a 100 qubits lógicos y logrará operaciones de puerta de alta precisión, desbloqueando más de tres aplicaciones cuánticas tolerantes a fallos. Se espera que las computadoras cuánticas cuenten con 10510^5105 qubits físicos, con tasas de error de qubits lógicos manteniéndose en 10−610^{-6}10−6.
El objetivo final es controlar y conectar 1 millón de qubits, creando una computadora cuántica tolerante a fallos a gran escala. Se prevé que este sistema sea ampliamente aplicable en campos como la medicina y las tecnologías sostenibles, con más de 10 aplicaciones cuánticas transformando diversas industrias. En esta etapa, las computadoras cuánticas tendrán 10^6106 qubits físicos, con tasas de error de qubits lógicos que se reducen a 10−1310^{-13}10−13.
Como se mencionó anteriormente, romper los desafíos criptográficos comunes de la cadena de bloques, como el problema del logaritmo discreto de la curva elíptica, requiere alrededor de 2.330 qubits lógicos de alta calidad y un circuito cuántico con 1,26 × 10^{11} compuertas Toffoli. Los qubits lógicos dependen de la corrección de errores cuánticos, y cada qubit lógico requiere típicamente de múltiples qubits físicos para su soporte. Por ejemplo, el chip Willow utiliza una distancia de código de 7, lo que requiere 49 qubits físicos por cada qubit lógico, lo que suma aproximadamente 114.170 qubits físicos.
Sin embargo, esta estimación es optimista. A medida que aumentan la escala y la profundidad de las operaciones cuánticas, surgirán requisitos más estrictos para las tasas de error del qubit lógico. Actualmente, la tasa de error del qubit lógico de Willow es de alrededor de 10−310^{-3}10−3, lejos del nivel necesario para resolver tales problemas. Según Craig et al. [6], la resolución del problema RSA-2048, que tiene una complejidad similar al problema del logaritmo discreto de la curva elíptica, requiere una tasa de error del qubit lógico de 10−1510^{-15}10−15 y una distancia de código de al menos 27. Esto significa que cada qubit lógico necesitaría 272=72927^2 = 729272=729 qubits físicos, totalizando más de 1,698,570 qubits físicos. Además, la tasa de error del qubit lógico requerida de 10−1510^{-15}10−15 no solo está muy por debajo de los 10−310^{-3}10−3 de Willow sino que también es dos órdenes de magnitud más baja que la tasa de error del qubit lógico prevista para las computadoras cuánticas en la Etapa 6 del plan de Google.
Basándose en la hoja de ruta de desarrollo de Google, solo será posible abordar el problema del logaritmo discreto de la curva elíptica una vez que la computación cuántica alcance la Etapa 6. Lograr este objetivo requerirá avances significativos en la calidad del qubit lógico, junto con una gestión eficiente y corrección de errores de un gran número de qubits físicos.
Suponiendo un intervalo de cinco años entre las Etapas 1 y 2 y un progreso constante, se estima que tomará de 15 a 20 años para que 'Willow' supere los desafíos criptográficos clásicos. Incluso con una perspectiva optimista, tomaría al menos 10 años alcanzar el nivel requerido.
Una vez que los ordenadores cuánticos alcancen la potencia computacional suficiente, podrán aprovechar sus ventajas asimétricas para comprometer rápidamente los mecanismos de seguridad fundamentales de las criptomonedas. Esto incluye robar las claves privadas de los usuarios y obtener el control sobre sus activos. En tal escenario, las redes de criptomonedas existentes se enfrentarían a un colapso sistémico, dejando los activos de los usuarios desprotegidos.
Sin embargo, en la actualidad, el chip cuántico Willow de Google se encuentra en las primeras etapas de la investigación en computación cuántica y no es capaz de resolver desafíos criptográficos como la factorización de enteros grandes y los logaritmos discretos de curvas elípticas. Como resultado, aún no representa una amenaza sustancial para la seguridad de la cadena de bloques. El desarrollo de una computadora cuántica verdaderamente práctica enfrenta numerosos desafíos técnicos, lo que hace que sea un viaje largo y arduo.
Si bien la tecnología de computación cuántica aún no amenaza directamente los activos cifrados, su rápido desarrollo no puede ignorarse. Según las previsiones basadas en las tendencias tecnológicas actuales, se espera que las computadoras cuánticas superen varios cuellos de botella técnicos clave en la próxima década, acercándose gradualmente al punto crítico donde podrían amenazar la criptografía tradicional. Ante esta posible desafío, la comunidad blockchain debe planificar y prepararse de manera proactiva para abordar el impacto tecnológico de la era cuántica. Para garantizar la seguridad y estabilidad a largo plazo de los sistemas blockchain, son esenciales tres medidas clave:
Es fundamental avanzar en la investigación sobre criptografía resistente a la computación cuántica, como los algoritmos basados en retículos, y promover su aplicación estandarizada a nivel mundial. Esta es la máxima prioridad para abordar las amenazas cuánticas y es vital para la seguridad futura de la tecnología de cadena de bloques.
Los esfuerzos deben centrarse en establecer una infraestructura criptográfica resistente a los cuánticos para proporcionar una base técnica sólida para la seguridad a largo plazo de las redes de cadena de bloques. Esto garantizará que los sistemas puedan responder eficazmente a posibles amenazas cuánticas y mantener operaciones estables.
La comunidad de la cadena de bloques también debería explorar las posibles aplicaciones de la computación cuántica, como la optimización de cálculos en cadena, la mejora de la eficiencia de programación de recursos y la protección de la privacidad. Estas innovaciones podrían inyectar un nuevo impulso de crecimiento en la tecnología de la cadena de bloques.
Aunque la aplicación generalizada de computadoras cuánticas aún no se ha materializado, su llegada eventual es inevitable. En este contexto, los marcos de seguridad de la cadena de bloques basados en criptografía tradicional serán gradualmente reemplazados por garantías de seguridad fundamentadas en criptografía resistente a los ataques cuánticos.
Empresas como Safeheron ya están colaborando con instituciones académicas para explorar activamente algoritmos resistentes a la cuántica, sentando las bases para la evolución tecnológica de la seguridad de activos digitales. Además, el ecosistema de la cadena de bloques ha comenzado a ver cadenas públicas que integran algoritmos resistentes a la cuántica, demostrando una tendencia progresista que alivia la preocupación excesiva.
El desarrollo de la computación cuántica no solo presenta desafíos de seguridad potenciales para la tecnología de cadena de bloques, sino que también ofrece oportunidades para el avance tecnológico y mejoras en la eficiencia. Al abordar activamente estos cambios y abrazar la transformación, la tecnología de cadena de bloques puede prosperar en medio de futuras olas de innovación, alcanzando niveles más altos de madurez y creatividad.
[1] Conoce a Willow, nuestro chip cuántico de última generación
[2] John Preskill - Introducción a la Información Cuántica (Parte 1) - CSSQI 2012
[3] Estimaciones de recursos cuánticos para calcular logaritmos discretos de curvas elípticas
[4] Suprimiendo errores cuánticos mediante la escala de un qubit lógico de código de superficie
[5] Corrección de errores cuánticos por debajo del umbral del código de superficie
[6] Cómo factorizar enteros RSA de 2048 bits en 8 horas usando 20 millones de qubits ruidosos
[7] Hoja de ruta de la computación cuántica de Google