CUDA désormais redistribué par Canonical, CIQ, SUSE et Flox pour un déploiement logiciel GPU plus simple
Sources: https://developer.nvidia.com/blog/developers-can-now-get-cuda-directly-from-their-favorite-third-party-platforms, https://developer.nvidia.com/blog/developers-can-now-get-cuda-directly-from-their-favorite-third-party-platforms/, NVIDIA Dev Blog
TL;DR
- CUDA est redistribué par des plateformes tierces (Canonical, CIQ, SUSE et Flox) pour l’intégrer directement dans leurs flux de paquets.
- Cela simplifie l’installation et la résolution des dépendances en veillant à ce que la version correcte de CUDA soit installée avec l’application.
- Cette initiative élargit l’accès et la facilité d’utilisation de CUDA pour les développeurs qui travaillent sur des flux GPU (par exemple PyTorch, OpenCV).
- Les voies d’accès existantes restent gratuites et disponibles, avec des distributeurs additionnels à venir.
Contexte et arrière-plan
Les développeurs font face à des défis lors de la construction et du déploiement d’applications qui doivent concilier les capacités et la compatibilité du matériel et des logiciels. Veiller à ce que chaque composant sous-jacent soit installé correctement et corresponde aux versions requises pour éviter les conflits peut être long et entraîner des retards de déploiement et des inefficacités. NVIDIA répond à cela en élargissant les moyens d’obtenir CUDA en collaborant avec un large écosystème de systèmes d’exploitation et de gestionnaires de paquets pour réduire les frictions du déploiement du logiciel GPU NVIDIA Dev Blog.
Quoi de neuf
NVIDIA permet la redistribution de CUDA via des plateformes tierces, dont Canonical, CIQ et SUSE, ainsi que Flox (qui active le gestionnaire de paquets Nix) pour intégrer CUDA dans leurs flux de paquets. Cela permet à CUDA d’être distribué de manière plus centralisée, intégré dans des déploiements d’entreprise plus importants et dans des logiciels. En conséquence, les développeurs peuvent télécharger et installer leur application, et la bonne version de CUDA sera installée en coulisses. NVIDIA considère cela comme une étape importante pour réduire les frictions dans le déploiement du logiciel GPU, tout en restant accessible, cohérent et facile à utiliser quel que soit le mode de développement.
Pourquoi cela compte (impact pour les développeurs/entreprises)
- Réduction de la complexité d’installation : l’empaquetage de CUDA dans les flux de paquets simplifie l’installation et la résolution des dépendances, aidant les équipes à éviter les conflits de version.
- Déploiement accéléré de charges de travail GPU : plus facile d’inclure le support CUDA dans des applications complexes comme PyTorch et des bibliothèques comme OpenCV.
- Expérience CUDA cohérente : en travaillant avec les écosystèmes d’OS et de gestionnaires de paquets, CUDA reste accessible et prévisible dans divers environnements de déploiement.
- Flexibilité et expansion : CUDA reste gratuit à obtenir et les méthodes d’accès existantes demeurent disponibles aux côtés des nouveaux canaux de redistribution ; d’autres distributeurs sont attendus.
Détails techniques ou mise en œuvre
- Redistribution par des tiers : Canonical, CIQ, SUSE et Flox intégreront CUDA dans leurs flux de paquets, permettant à CUDA d’être distribué dans le cadre de déploiements d’entreprise plus importants et de logiciels.
- Installation transparente : l’objectif est que les développeurs installent leur application et que la version CUDA correcte soit installée en coulisses, sans étapes manuelles.
- Voies existantes : les méthodes traditionnelles pour obtenir CUDA restent disponibles (CUDA Toolkit, conteneur CUDA et installations Python via pip ou conda).
- Accès gratuit maintenu : obtenir le logiciel CUDA de NVIDIA reste gratuit, et les voies actuelles restent disponibles avec les nouvelles options de redistribution.
- Distributeurs additionnels : NVIDIA indique que d’autres plateformes tierces participeront à mesure que l’écosystème CUDA s’étend.
Tableau : Voies d’accès à CUDA (aperçu)
| Voie d’accès | Description |
|---|---|
| CUDA Toolkit | Téléchargement traditionnel direct depuis NVIDIA pour les composants CUDA. |
| Conteneur CUDA | Environnement CUDA en conteneur pour les charges de travail dans des environnements conteneurisés. |
| pip / conda | Installations Python des composants compatibles CUDA. |
| Redistribution tierce | CUDA intégré dans les flux de paquets par Canonical, CIQ, SUSE, Flox pour simplifier le déploiement et assurer la bonne version avec l’application |
Points clés
- CUDA est redistribué par des plateformes tierces pour l’intégration dans les flux de paquets, réduisant les frictions de déploiement.
- Cette approche complète les méthodes existantes d’accès et met l’accent sur la cohérence entre les OS et les écosystèmes de paquets.
- Le changement facilite les flux de travail GPU dans des bibliothèques et cadres populaires tout en conservant le CUDA gratuit pour l’obtention.
- D’autres distributeurs devraient rejoindre, indiquant une adoption plus large dans l’écosystème.
FAQ
-
- **Q : Quelles plateformes redistribuent CUDA ?**
Canonical, CIQ, SUSE et Flox (Nix) redistribuent CUDA, avec d’autres distributeurs attendus. - **Q : Comment cela affecte-t-il l’installation ?** **A :** Vous installez votre application et les flux de paquets garantissent que la bonne version de CUDA est installée en coulisses. - **Q : Dois-je encore télécharger CUDA séparément ?** **A :** Oui — le CUDA Toolkit, le conteneur CUDA et les installations Python via pip ou conda restent disponibles, en plus des canaux de redistribution. - **Q : La redistribution de CUDA est-elle gratuite ?** **A :** Obtenir le logiciel CUDA de NVIDIA a toujours été gratuit, et les voies actuelles restent disponibles avec les nouvelles options de redistribution.
Références
More news
NVIDIA HGX B200 réduit l’intensité des émissions de carbone incorporé
Le HGX B200 de NVIDIA abaisse l’intensité des émissions de carbone incorporé de 24% par rapport au HGX H100, tout en offrant de meilleures performances IA et une efficacité énergétique accrue. Cet article résume les données PCF et les nouveautés matérielles.
Prévoir les phénomènes météorologiques extrêmes en quelques minutes sans superordinateur : Huge Ensembles (HENS)
NVIDIA et le Lawrence Berkeley National Laboratory présentent Huge Ensembles (HENS), un outil IA open source qui prévoit des événements météorologiques rares et à fort impact sur 27 000 années de données, avec des options open source ou prêtes à l’emploi.
Comment réduire les goulots d’étranglement KV Cache avec NVIDIA Dynamo
NVIDIA Dynamo déporte le KV Cache depuis la mémoire GPU vers un stockage économique, permettant des contextes plus longs, une meilleure concurrence et des coûts d’inférence réduits pour les grands modèles et les charges AI génératives.
Le Playbook des Grands Maîtres Kaggle: 7 Techniques de Modélisation pour Données Tabulaires
Analyse approfondie de sept techniques éprouvées par les Grands Maîtres Kaggle pour résoudre rapidement des ensembles de données tabulaires à l’aide d’une accélération GPU, des baselines divers à l’assemblage et à la pseudo-étiquetage.
Microsoft transforme le site Foxconn en data center Fairwater AI, présenté comme le plus puissant au monde
Microsoft dévoile des plans pour un data center Fairwater AI de 1,2 million de mètres carrés au Wisconsin, abritant des centaines de milliers de GPU Nvidia GB200. Le projet de 3,3 milliards de dollars promet un entraînement IA sans précédent.
NVIDIA RAPIDS 25.08 Ajoute un Nouveau Profiler pour cuML, Améliorations du moteur GPU Polars et Support d’Algorithmes Étendu
RAPIDS 25.08 introduit deux profils pour cuml.accel (fonctionnel et ligne), l’exécuteur streaming par défaut du moteur Polars GPU, un support de types et chaînes étendu, Spectral Embedding dans cuML et des accélérations zéro-code pour plusieurs estimateurs.