NVIDIA vGPU 19.0 Active la Virtualisation Graphiques et IA sur les GPU NVIDIA Blackwell
Sources: https://developer.nvidia.com/blog/nvidia-vgpu-19-0-enables-graphics-and-ai-virtualization-on-nvidia-blackwell-gpus, developer.nvidia.com
TL;DR
- NVIDIA vGPU 19.0 active la virtualisation graphique et IA sur des GPU RTX PRO Blackwell compatibles MIG pour des charges virtuelles évolutives.
- Le RTX PRO 6000 Blackwell Server Edition dispose de 96 Go de mémoire GDDR7 et peut exécuter jusqu’à 48 VMs simultanées par GPU grâce à MIG.
- Nouveau profil 3B pour NVIDIA Virtual PC (vPC) afin d’améliorer l’expérience utilisateur avec les apps modernes et d’accroître la densité serveur.
- Les Toolkits NVIDIA AI Virtual Workstation (vWS) facilitent le déploiement d’IA dans des environnements virtualisés; le toolkit Building an Agentic RAG se concentre sur des agents IA utilisant la génération par récupération (RAG).
- Le support Virtualization-Based Security (VBS) s’étend à Microsoft Azure Local et aux hyperviseurs Windows Server; les instances EC2 G6f proposent des solutions vGPU fractionnées; nVector s’intègre à Login VSI pour tester le VDI GPU à grande échelle.
Contexte et historique
La virtualisation promet depuis longtemps efficacité et scalabilité, mais les charges de travail croissantes en graphisme et calcul mettent à l’épreuve les approches existantes. La série RTX PRO 6000 Blackwell introduit les premières GPUs MIG-enabled conçues pour accélérer à la fois les graphismes et les charges de calcul. La release vGPU 19.0 est conçue pour exploiter les capacités de ces GPUs et des serveurs RTX PRO afin d’offrir une meilleure scalabilité et un ROI accru dans les data centers virtualisés. MIG permet le partitionnement spatial d’un seul GPU en instances isolées, chacune disposant de mémoire, cache, moteurs et multiprocesseurs dédiés, offrant des garanties de QoS pour les workloads individuels. De plus, le partage de GPU par le temps via vGPU permet du multi-tenant au sein de chaque MIG, rendant l’infrastructure adaptée à des workloads variés, depuis les opérations commerciales et le streaming vidéo jusqu’au rendu graphique, la conception de produits et le développement IA. Des tests internes montrent que les workloads des travailleurs du savoir sous Windows 11 consomment 60 % de mémoire GPU en plus que sur Windows 10, soulignant le besoin de capacités graphiques accrues dans les environnements modernes. Cela justifie les nouveautés de vGPU 19.0 et le matériel MIG-enabled.
Quoi de neuf
La version vGPU 19.0 étend le support aux GPUs RTX PRO Blackwell et introduit des fonctionnalités clés. Notamment, elle permet jusqu’à 48 VMs simultanées par GPU lorsque MIG est actif, élargissant le potentiel de densité pour les postes de travail virtuels, le développement IA et les charges graphiques. L’ajout du profil 3B pour le vPC vise à améliorer l’expérience utilisateur pour les applications modernes nécessitant davantage de graphismes tout en préservant la densité. Les Toolkits vWS IA offrent des guides de déploiement et des recommandations de dimensionnement adaptés aux workloads IA dans des environnements virtualisés, aidant les administrateurs à planifier et à optimiser. Le toolkit Building an Agentic RAG se concentre sur la création d’agents IA qui utilisent la récupération augmentée pour récupérer des informations à partir de documents et du web, améliorant la qualité des réponses. Des démonstrations IA vWS illustrent ces capacités. La sécurité est renforcée par Virtualization-Based Security (VBS), qui utilise la virtualisation matérielle et les hyperviseurs pour isoler les environnements. vGPU 19.0 ajoute le support VBS pour Microsoft Azure Local et les hyperviseurs Windows Server, un avantage majeur pour les secteurs régulés. Par ailleurs, les instances EC2 G6f équipées de GPUs L4 Tensor Core proposent désormais des solutions vGPU fractionnées, avec cinq tailles allant de 3 Go à 12 Go, permettant une allocation adaptée des ressources à la demande. NVIDIA nVector, outil de référence pour simuler les flux de travail des travailleurs du savoir, s’intègre à Login Enterprise (solution VDI de Login VSI) pour des tests et une supervision automatisés des environnements VDI basés sur GPU, fournissant des analyses de performance pour assurer une expérience utilisateur à l’échelle.
Points techniques et notes d’implémentation
| Fonctionnalité | Détails |
|---|---|
| GPUs MIG-enabled | Partitionnement spatial d’un GPU en plusieurs instances isolées avec mémoire, cache, moteurs et SM dédiés pour une QoS |
| VMs simultanées max par GPU | Jusqu’à 48 VMs par GPU lorsque MIG est actif |
| Mémoire GPU (RTX PRO 6000 Blackwell Server Edition) | 96 Go de mémoire GDDR7 ultra-rapide |
| Nouveau profil | Profil 3B pour vPC afin de supporter des apps modernes avec plus de graphismes et accroître la densité serveur |
| Toolkits vWS | Guides de déploiement et dimensionnement pour les workloads IA dans des environnements virtualisés |
| Agentic RAG | Toolkit pour créer des agents IA utilisant la génération basée sur récupération |
| Support VBS | Disponible pour Azure Local et hyperviseurs Windows Server pour une sécurité accrue |
| vGPU fractionné sur EC2 G6f | Cinq tailles de 3 Go à 12 Go |
| Intégration nVector | Benchmark pour simuler les flux de travail des travailleurs du savoir avec intégration Login VSI |
Pourquoi c’est important (impact pour développeurs/entreprises)
La sortie 19.0 étend l’emprise de vGPU dans les environnements virtualisés en alliant MIG-enabled GPUs à une stack logicielle robuste destinée à la scalabilité, à la sécurité et à l’accélération IA. Avec jusqu’à 48 VMs par GPU et 96 Go de mémoire sur le RTX PRO 6000 Blackwell Server Edition, les data centers peuvent soutenir une densité accrue d’utilisateurs et des workloads variés sans compromettre la QoS. Le profil 3B et les améliorations vPC répondent à des besoins réels où les apps modernes exigent plus de graphismes accélérés tout en maintenant l’évolutivité. Pour les organisations axées sur les flux IA, les Toolkits vWS et Building an Agentic RAG offrent des orientations claires pour déployer les workloads d’IA et construire des agents basés sur la récupération. Le VBS renforcé contribue à la conformité dans des secteurs réglementés. L’introduction du vGPU fractionné sur EC2 G6f étend l’usage des ressources cloud avec des options coût-efficacité. L’intégration de nVector avec Login VSI permet des tests de performance automatisés pour les VDI basés sur GPU, soutenant les décisions d’architecture et l’expérience utilisateur à grande échelle.
Détails techniques ou Mise en œuvre
La release vGPU 19.0 se concentre sur les GPUs RTX PRO Blackwell avec MIG et sur la pile logicielle associée pour optimiser l’efficacité multi-tenant. Les GPUs RTX PRO 6000 Blackwell Server Edition disposent de 96 Go de mémoire GDDR7, propice à des workloads intensifs en mémoire. MIG partitionne le GPU en instances isolées, chacune avec des ressources dédiées, permettant une QoS précise et l’exécution multi-locataires. L’utilisation du partage temporel de vGPU permet d’allouer les ressources entre workloads sans perte de performance. La vGPU 19.0 prend en charge jusqu’à 48 VMs par GPU lorsque MIG est actif, démontrant les gains de densité pour les postes virtuels, le développement IA et les workloads graphiques. Le profil 3B répond au besoin de plus de graphismes pour les apps modernes, tout en conservant une densité utilisateur. Les Toolkits vWS offrent des guides et dimensionnements pour IA, tandis que Building an Agentic RAG se concentre sur des agents qui utilisent récupération pour améliorer les réponses. La sécurité est renforcée par VBS, fonctionnant avec Azure Local et les hyperviseurs Windows Server pour des environnements plus sûrs. Le cloud bénéficie aussi d’EC2 G6f avec vGPU fractionné, offrant des options adaptées à la demande. nVector et Login Enterprise permettent des tests et analyses de performance pour VDI basés sur GPU, soutenant les décisions d’architecture et l’expérience utilisateur.
Points à retenir
- MIG-enabled GPUs permettent une densité élevée avec QoS pour des environnements multi-tenant.
- Jusqu’à 48 VMs par GPU augmentent considérablement la densité des data centers et des environnements VDI.
- Le profil 3B améliore le support des apps modernes nécessitant davantage de graphismes et une meilleure densité.
- Toolkits vWS et Building an Agentic RAG facilitent le déploiement IA et le développement d’agents basés sur la récupération.
- Le VBS et les options vGPU fractionnées sur EC2 G6f offrent sécurité et scalabilité à coût maîtrisé.
- L’intégration nVector/Login VSI permet des tests de performance automatisés et une analyse d’expérience utilisateur à grande échelle.
FAQ
-
Combien de VMs peuvent tourner simultanément sur un GPU MIG-enabled ?
Jusqu’à 48 VMs par GPU. [NVIDIA](https://developer.nvidia.com/blog/nvidia-vgpu-19-0-enables-graphics-and-ai-virtualization-on-nvidia-blackwell-gpus)
-
À quoi sert le profil 3B ?
Améliorer l’expérience des applications modernes avec plus de graphismes et augmenter la densité serveur. [NVIDIA](https://developer.nvidia.com/blog/nvidia-vgpu-19-0-enables-graphics-and-ai-virtualization-on-nvidia-blackwell-gpus)
-
Quelles outils soutiennent le déploiement IA dans vGPU 19.0 ?
Toolkits vWS IA et Building an Agentic RAG pour la récupération augmentée. [NVIDIA](https://developer.nvidia.com/blog/nvidia-vgpu-19-0-enables-graphics-and-ai-virtualization-on-nvidia-blackwell-gpus)
Références
More news
NVIDIA HGX B200 réduit l’intensité des émissions de carbone incorporé
Le HGX B200 de NVIDIA abaisse l’intensité des émissions de carbone incorporé de 24% par rapport au HGX H100, tout en offrant de meilleures performances IA et une efficacité énergétique accrue. Cet article résume les données PCF et les nouveautés matérielles.
Prévoir les phénomènes météorologiques extrêmes en quelques minutes sans superordinateur : Huge Ensembles (HENS)
NVIDIA et le Lawrence Berkeley National Laboratory présentent Huge Ensembles (HENS), un outil IA open source qui prévoit des événements météorologiques rares et à fort impact sur 27 000 années de données, avec des options open source ou prêtes à l’emploi.
Comment réduire les goulots d’étranglement KV Cache avec NVIDIA Dynamo
NVIDIA Dynamo déporte le KV Cache depuis la mémoire GPU vers un stockage économique, permettant des contextes plus longs, une meilleure concurrence et des coûts d’inférence réduits pour les grands modèles et les charges AI génératives.
Le Playbook des Grands Maîtres Kaggle: 7 Techniques de Modélisation pour Données Tabulaires
Analyse approfondie de sept techniques éprouvées par les Grands Maîtres Kaggle pour résoudre rapidement des ensembles de données tabulaires à l’aide d’une accélération GPU, des baselines divers à l’assemblage et à la pseudo-étiquetage.
Microsoft transforme le site Foxconn en data center Fairwater AI, présenté comme le plus puissant au monde
Microsoft dévoile des plans pour un data center Fairwater AI de 1,2 million de mètres carrés au Wisconsin, abritant des centaines de milliers de GPU Nvidia GB200. Le projet de 3,3 milliards de dollars promet un entraînement IA sans précédent.
NVIDIA RAPIDS 25.08 Ajoute un Nouveau Profiler pour cuML, Améliorations du moteur GPU Polars et Support d’Algorithmes Étendu
RAPIDS 25.08 introduit deux profils pour cuml.accel (fonctionnel et ligne), l’exécuteur streaming par défaut du moteur Polars GPU, un support de types et chaînes étendu, Spectral Embedding dans cuML et des accélérations zéro-code pour plusieurs estimateurs.