El principal obstáculo para que los ordenadores cuánticos rindan como máquinas prácticas es la memoria cuántica: la información codificada en qubits se degrada con rapidez y las arquitecturas actuales siguen siendo inestables. Para avanzar, equipos de investigación y empresas usan modelos cada vez más fieles al hardware. El 04/04/2026 se presentó un estudio colaborativo que combina un algoritmo de Quantum Monte Carlo (QMC), un gemelo digital calibrado en hardware y la infraestructura de nube de Amazon para abordar simulaciones de corrección de errores a escala experimental.
La propuesta no pretende sustituir experimentos, sino complementarlos: crear un gemelo digital que reproduzca las estadísticas de síndrome y los errores reales del dispositivo permite entrenar y evaluar decodificadores con datos más representativos. Al integrar ruido coherente y correlaciones espaciales, el gemelo digital ofrece una ventana a fallos que modelos simplificados suelen enmascarar.
Por qué hace falta realismo en la corrección de errores
La corrección de errores cuánticos (QEC) funciona como un ciclo de medición y decodificación: se miden estabilizadores (los síndromes), un decodificador clásico infiere los errores y se aplica la corrección correspondiente.
La eficiencia del proceso depende tanto de la fidelidad del hardware como de la capacidad del decodificador para interpretar patrones de síndromes. Cuando el ruido se modela como simples flippings estocásticos de Pauli —por ejemplo mediante Pauli-twirling— se pierden efectos coherentes y correlados que cambian la estadística de los síndromes y pueden provocar decisiones de recuperación sistemáticamente erróneas.
Escalando la fidelidad: técnica y recursos
Método y ventajas del QMC
Las simulaciones de la ecuación maestra abierta capturan tanto procesos coherentes (como desajustes de frecuencia y crosstalk) como incoherentes (descoherencia y relajación), pero la densidad del problema crece como O(4^n) y se vuelve inmanejable más allá de ~15–20 qubits. El enfoque presentado utiliza un método de QMC en tiempo real que representa la matriz densidad mediante una población estocástica de walkers, comprimiendo y evolucionando el estado de forma que conserva firmas de ruido que las simplificaciones suelen perder.
Al controlar la precisión por muestreo, el método intercambia coste determinista por barras de error estadísticas y es naturalmente paralelizable para ejecución en infraestructura HPC.
Implementación en la nube y configuración del experimento
Como prueba de concepto se simuló una ronda de extracción de síndromes de un distance-7 rotated surface code con 97 qubits (49 qubits de datos + 48 ancilla). La simulación corrió en instancias Amazon EC2 Hpc7a gestionadas con AWS ParallelCluster, con unos 96 vCPU dedicados por ejecución y cada corrida QMC durando aproximadamente 75 minutos; se promediaron cinco ejecuciones independientes. El circuito incluye 228 puertas de un qubit y 168 puertas de dos qubits en ocho capas, evaluadas con un modelo de transmon que asigna tiempos de relajación y decoherencia T1 y T2 uniformes en el rango 150–300 μs y crosstalk residual ZZ uniforme entre 20–100 kHz.
Resultados: sesgos de síndrome y comparación con modelos clásicos
En el nivel de pulsos, las puertas de un qubit usaron pulsos gaussianos de 25 ns más virtual-Z, las de dos qubits fueron rotaciones Rzz con pulsos sigmoidales unipolares de 50 ns, y se añadió una sub-rotación uniforme del 0,1% para modelar descalibraciones. La simulación permitió medir dos cosas complementarias: la lectura del ancilla en la base Z y el valor del estabilizador calculado sobre los qubits de datos. En ausencia de errores ambos coincidirían; las discrepancias revelan distorsiones debidas a errores de puerta, crosstalk, decoherencia y ruido de medida.
Al barrer la frecuencia de conducción (detuning) respecto a la frecuencia de los qubits, el gemelo digital QMC mostró un sesgo de extracción de síndromes con estructura espacial y sensibilidad a la fase, evidenciando dependencias que un simulador Clifford como Stim con ruido Pauli-twirled no captura: Stim predice una respuesta más uniforme y pierde patrones coherentes y correlados. Estas diferencias son críticas porque guían el diseño de decodificadores más expresivos y estrategias de co-diseño que incluyen calibración, layout y secuencias de control.
Implicaciones y pasos siguientes
La demostración muestra que es posible ejecutar simulaciones fieles a la ecuación maestra a escalas comparables a experimentos recientes, utilizando recursos clásicos en la nube. Al generar conjuntos de síndromes realistas, este flujo de trabajo facilita el desarrollo de decodificadores basados en Redes neuronales y pruebas de estrés frente a mecanismos de error difíciles de aislar en laboratorio. En Quantum Elements, esta capacidad es la base de su plataforma de gemelo digital para QEC y co-diseño; para más información se puede contactar a [email protected] o visitar www.quantumelements.ai.

