CUDA-QX 0.4 : Accélérer la correction d'erreurs quantiques et le développement d'applications
Sources: https://developer.nvidia.com/blog/streamlining-quantum-error-correction-and-application-development-with-cuda-qx-0-4, developer.nvidia.com
TL;DR
- CUDA-Q QEC 0.4 introduit la génération automatique du DEM (modèle d’erreur du détecteur) à partir d’un circuit QEC et d’un modèle de bruit, permettant une automatisation de bout en bout de la simulation au décodage.
- Un nouveau décodeur par réseau tensoriel avec prise en charge de Python 3.11+ offre une approche de décodage fondée sur des contractions exactes ou très précises.
- L’architecture Belief Propagation + Ordered Statistics Decoding (BP+OSD) bénéficie d’améliorations : vérification de convergence configurable, stabilité numérique, choix d’algorithmes, échelle adaptative et journalisation.
- Un Generative Quantum Eigensolver (GQE) est désormais intégré à la bibliothèque Solvers, utilisant un modèle de transformeur pour trouver des états propres.
- L’édition met l’accent sur l’élargissement du support API (Python et C++), avec une documentation et des exemples, et renvoie vers les notes de version sur GitHub pour le développement continu et les retours.
Contexte et arrière-plan
À mesure que les constructeurs de QPU et les développeurs d’algorithmes s’efforcent de créer des superordinateurs quantiques à grande échelle, la correction d’erreurs quantiques (QEC) représente la plus grande opportunité — et le plus grand défi — dans la recherche actuelle. CUDA-Q QEC vise à accélérer les expériences QEC en fournissant des flux de travail entièrement accélérés et automatisés, allant de la définition et la simulation de codes avec des modèles de bruit au niveau des circuits, jusqu’à la configuration de décodeurs réalistes et leur déploiement aux côtés des QPU physiques. L’objectif est que chaque composant du flux de travail soit accessible via une API complète. Les codes QEC sont finalement mis en œuvre via des mesures de stabilisateurs, qui sont elles-mêmes des circuits quantiques bruyants. Le décodage effectif de nombreuses rondes de stabilisateurs nécessite la connaissance de ces circuits, de la cartographie de chaque mesure à un détecteur et d’une estimation préalable de la probabilité de chaque erreur physique pouvant se produire dans chaque circuit. Le DEM (Detector Error Model), initialement développé dans Stim (Quantum, 2021) et décrit dans le cadre de la littérature sur les circuits tolérants aux défauts utilisant des DEM (ArXiv, 2024), offre une façon utile de décrire ce montage. À ce jour, CUDA-QX 0.4 permet de générer automatiquement le DEM à partir du circuit QEC et du modèle de bruit spécifiés. Le DEM peut être utilisé pour l’échantillonnage de circuits en simulation et pour le décodage des syndromes via l’interface décodeur CUDA-Q QEC standard. Pour les circuits mémoire, toute la logique nécessaire est déjà fournie derrière l’API. Pour plus de contexte sur les DEM dans CUDA-Q QEC, consulter la documentation API C++ et Python et les exemples. L’utilisation des réseaux tensoriels pour le décodage QEC présente plusieurs avantages en recherche. Les réseaux tensoriels pour un code reposent sur son graphe de Tanner et peuvent être contractés pour calculer la probabilité qu’un observable logique ait basculé, compte tenu d’un syndrome. Ils sont garantis comme exacts ou, à défaut, très précis, et ne requièrent pas d’entraînement (même s’ils peuvent bénéficier d’un entraînement). Bien qu’ils soient souvent utilisés comme référence dans la recherche, il n’existait jusqu’ici aucune implémentation Python libre et standardisée. CUDA-QX 0.4 introduit un décodeur tensoriel avec support Python 3.11+.
Ce qui est nouveau
- Génération automatique de DEM à partir du circuit QEC et du bruit, utilisable pour la simulation et le décodage des syndromes.
- Décodeur en réseau tensoriel avec support Python 3.11+.
- Améliorations du BP+OSD GPU : Iter_per_check, clipping des valeurs, bp_method (sum-product ou min-sum), scale_factor (avec option automatique via 0,0), et opt_results avec bp_llr_history pour la journalisation.
- GQE dans les Solvers : implémentation prête à l’emploi de GQE, avec une fonction de coût adaptée à une simulation à petite échelle et l’utilisation d’un modèle de transformeur.
- Documentation/API étendue (Python et C++) et exemples, avec notes de version sur GitHub pour le suivi du développement.
Pourquoi cela importe (impact pour les développeurs/entreprises)
Cette édition 0.4 renforce l’objectif de CUDA-Q QEC consistant à accélérer la recherche en QEC en fournissant des flux de travail complets et accélérés. Génération de DEM à partir de circuits et de modèles de bruit simplifie la simulation et le décodage, permettant des expériences plus rapides et plus efficaces. Le décodeur tensoriel offre une voie solide et mathématiquement fondée pour le décodage sans dépendre d’un apprentissage préalable, tandis que les améliorations du BP+OSD offrent plus de contrôle, de transparence et de performance selon divers codes et scénarios de bruit. L’ajout du GQE élargit les options des solveurs en combinant IA générative et approche par transformeur pour guider la recherche d’états propres, offrant une alternative complémentaire au VQE dans des simulations à petite échelle. L’extension des API Python et C++ facilite l’intégration dans les flux de travail existants et réduit la barrière à l’adoption dans des environnements GPU. Dans l’ensemble, CUDA-QX 0.4 illustre l’engagement de NVIDIA à fournir des outils pratiques et flexibles pour explorer la construction QEC, le décodage et la recherche d’états quantiques dans des environnements GPU, avec les notes de version disponibles sur GitHub pour les retours de la communauté. NVIDIA blog.
Détails techniques ou Mise en œuvre
- DEM et utilisation: DEM peut être généré automatiquement à partir d’un circuit QEC et d’un modèle de bruit et utilisé pour l’échantillonnage de circuits en simulation et le décodage des syndromes via l’interface décodeur CUDA-Q QEC.
- Circuits mémoire et DEM: l’approche DEM s’aligne sur les concepts Stim et prend en charge les décodeurs qui dépendent des mappings détecteur et des probabilités d’erreurs.
- Décodage en réseau tensoriel: support Python 3.11+ et implémentation de référence pour la comparaison avec d’autres décodage tensoriels; lié à des datasets ouverts cités dans les recherches récentes.
- Améliorations BP+OSD: convergence, stabilité numérique, choix d’algorithmes, scalage et journalisation via l’historique LLR.
- GQE dans les Solvers: intégration via modèle transformeur pour guider la recherche d’états propres; la fonction de coût est adaptée à des simulations à petite échelle et complète les approches VQE.
- API et docs: extension de la documentation API Python et C++ avec des exemples, et référence aux notes de version sur GitHub pour le travail continu et les retours.
Points clés
- DEM automatisé à partir de circuits QEC et de modèles de bruit pour des simulations et décodages plus rapides.
- Décodeur en réseau tensoriel avec Python 3.11+ pour une méthode de décodage alternative et solide.
- Améliorations BP+OSD offrant configurabilité accrue et meilleure observabilité.
- GQE comme option générative pour la recherche d’états propres dans les solveurs.
- API et documentation élargies pour faciliter l’intégration dans les flux de travail existants.
FAQ
-
- **Q : Quelle est l’amélioration principale de CUD
QX 0.4 ?** **A :** DEM automatique, décodeur réseau tensoriel 3.11+, BP+OSD amélioré et intégration de GQE dans les Solvers. [NVIDIA blog](https://developer.nvidia.com/blog/streamlining-quantum-error-correction-and-application-development-with-cuda-qx-0-4). - **
-
Comment le DEM impacte les expériences QEC ?**
Le DEM peut être généré à partir du circuit QEC et du bruit et utilisé pour la simulation et le décodage, permettant une automatisation complète. - **
-
Quelles sont les nouveautés du décodeur BP+OSD ?**
Iter_per_check, clipping, choix entre sum-product et min-sum, scale_factor avec option automatique, et journalisation des historiques LLR. - **
-
Qu’est-ce que GQE et pourquoi est-il inclus ?**
GQE est un Generative Quantum Eigensolver utilisant un modèle de transformeur pour trouver des états propres; il offre une alternative au VQE en simulations à petite échelle. - **
-
Où trouver la documentation et les notes de version ?**
Documentation Python et C++, exemples, et notes de version sur le GitHub lié dans la publication. [NVIDIA blog](https://developer.nvidia.com/blog/streamlining-quantum-error-correction-and-application-development-with-cuda-qx-0-4).
Références
More news
NVIDIA HGX B200 réduit l’intensité des émissions de carbone incorporé
Le HGX B200 de NVIDIA abaisse l’intensité des émissions de carbone incorporé de 24% par rapport au HGX H100, tout en offrant de meilleures performances IA et une efficacité énergétique accrue. Cet article résume les données PCF et les nouveautés matérielles.
Prévoir les phénomènes météorologiques extrêmes en quelques minutes sans superordinateur : Huge Ensembles (HENS)
NVIDIA et le Lawrence Berkeley National Laboratory présentent Huge Ensembles (HENS), un outil IA open source qui prévoit des événements météorologiques rares et à fort impact sur 27 000 années de données, avec des options open source ou prêtes à l’emploi.
Comment réduire les goulots d’étranglement KV Cache avec NVIDIA Dynamo
NVIDIA Dynamo déporte le KV Cache depuis la mémoire GPU vers un stockage économique, permettant des contextes plus longs, une meilleure concurrence et des coûts d’inférence réduits pour les grands modèles et les charges AI génératives.
Le Playbook des Grands Maîtres Kaggle: 7 Techniques de Modélisation pour Données Tabulaires
Analyse approfondie de sept techniques éprouvées par les Grands Maîtres Kaggle pour résoudre rapidement des ensembles de données tabulaires à l’aide d’une accélération GPU, des baselines divers à l’assemblage et à la pseudo-étiquetage.
NVIDIA RAPIDS 25.08 Ajoute un Nouveau Profiler pour cuML, Améliorations du moteur GPU Polars et Support d’Algorithmes Étendu
RAPIDS 25.08 introduit deux profils pour cuml.accel (fonctionnel et ligne), l’exécuteur streaming par défaut du moteur Polars GPU, un support de types et chaînes étendu, Spectral Embedding dans cuML et des accélérations zéro-code pour plusieurs estimateurs.
Décodage spéculatif pour réduire la latence de l’inférence IA : EAGLE-3, MTP et approche Draft-Target
Analyse détaillée du décodage spéculatif pour l’inférence IA, incluant les méthodes draft-target et EAGLE-3, leur réduction de latence et les déploiements via TensorRT.