NVIDIA vGPU 19.0 habilita la virtualización de gráficos e IA en GPUs NVIDIA Blackwell
Sources: https://developer.nvidia.com/blog/nvidia-vgpu-19-0-enables-graphics-and-ai-virtualization-on-nvidia-blackwell-gpus, developer.nvidia.com
TL;DR
- NVIDIA vGPU 19.0 habilita la virtualización de gráficos e IA en GPUs MIG-enabled RTX PRO 6000 Blackwell, ofreciendo mayor escalabilidad y ROI para centros de datos virtualizados.
- La GPU RTX PRO 6000 Blackwell Server Edition viene con 96 GB de memoria GDDR7 ultra rápida y admite hasta 48 VMs simultáneas por GPU cuando MIG está activado.
- Nuevo perfil 3B para NVIDIA Virtual PC (vPC) para mejorar la experiencia del usuario y la densidad para cargas modernas con gráficos acelerados, incluido Windows 11.
- AI Virtual Workstation (vWS) Toolkits facilita el desarrollo de IA en entornos virtualizados; nuevo toolkit Building an Agentic RAG para agentes de IA con recuperación aumentada por generación (RAG).
- Seguridad con Virtualization-Based Security (VBS) se extiende a hypervisores Microsoft Azure Local y Windows Server, con opciones fraccionadas de vGPU en AWS EC2 G6f. Integración con Login VSI y nVector para pruebas y monitoreo de VDI con GPU.
Contexto y antecedentes
La virtualización ha prometido eficiencia y escalabilidad, pero las crecientes demandas de workloads gráficos y de cómputo crean retos para los centros de datos. La serie NVIDIA RTX PRO 6000 Blackwell representa las primeras GPUs MIG diseñadas para acelerar tanto gráficos como cómputo. La versión vGPU 19.0 está pensada para aprovechar las capacidades de las GPUs RTX PRO 6000 Blackwell Server Edition y de los servidores RTX PRO para ofrecer mayor escalabilidad y ROI en entornos virtualizados. La GPU RTX PRO 6000 Blackwell Server Edition viene equipada con 96 GB de memoria GDDR7, subrayando la intención de NVIDIA de abordar workloads empresariales exigentes, desde inferencia de IA multimodal y IA física hasta computación científica, gráficos y video. Combinando la tecnología vGPU (compartición de GPU por slicing de tiempo) con GPUs MIG, los centros de datos pueden establecer multi-tenancy dentro de cada MIG, garantizando QoS predecible para una variedad de workloads.
Novedades
- GPUs MIG y vGPU 19.0: hasta 48 VMs simultáneas por GPU cuando MIG está habilitado, cubriendo workloads desde operaciones comerciales y streaming de video hasta renderizado gráfico y desarrollo de IA.
- Nuevo perfil 3B para vPC: atiende a las demandas de memoria y gráficos de aplicaciones modernas, mejorando la densidad de usuarios.
- AI Virtual Workstation (vWS) Toolkits: guías de implementación y dimensionamiento adaptadas a entornos virtualizados existentes.
- Building an Agentic RAG: toolkit para crear agentes de IA que utilizan recuperación aumentada por generación (RAG).
- Seguridad con VBS: soporte para Azure Local e hypervisores Windows Server, fortaleciendo el aislamiento de workloads sensibles.
- Opciones de implementación en la nube: AWS EC2 G6f con GPUs L4 Tensor Core, con soluciones fraccionadas de vGPU en cinco tamaños.
- Integración con Login VSI y nVector para pruebas y monitoreo de VDI con GPU.
Por qué importa (impacto para desarrolladores/empresas)
La combinación de MIG y vGPU 19.0 en hardware Blackwell incrementa la densidad de usuarios, mejora el QoS y el ROI para centros de datos virtualizados que manejan cargas de trabajo gráficas, video e IA. Soportar hasta 48 VMs por GPU y el perfil 3B permite atender a más usuarios con menos GPUs físicas, manteniendo el rendimiento. VBS refuerza la seguridad para sectores regulados, especialmente en entornos multi-tenant. Para equipos de desarrollo e IA, las herramientas vWS facilitan el desarrollo de IA en entornos virtualizados, reduciendo el tiempo de configuración y aumentando la repetibilidad. La integración con Login VSI y nVector proporciona pruebas de rendimiento automatizadas y monitoreo para garantizar una experiencia de usuario estable a gran escala. Los proveedores de nube y centros de datos pueden aprovechar las opciones fraccionadas de vGPU en EC2 G6f para optimizar costos y recursos según la carga de trabajo, especialmente para NLP, gráficos y streaming de juegos. Esto se alinea con las tendencias hacia entornos virtualizados de alta densidad, donde MIG, vGPU y características de seguridad equilibran rendimiento, densidad y riesgo.
Detalles técnicos o Implementación
La tecnología MIG de NVIDIA permite particionar espacialmente una única GPU en múltiples instancias aisladas. Cada MIG tiene su propia memoria, caché, engines y multiprocesadores de streaming, proporcionando QoS mejorado y ejecución ininterrumpida para workloads individuales. Al combinar vGPU con GPUs MIG, se habilita multi-tenancy dentro de cada MIG, creando una arquitectura escalable para workloads diversos en un solo dispositivo físico. El vGPU 19.0 se apoya en GPUs RTX PRO 6000 Blackwell Server Edition y en servidores RTX PRO. Estas configuraciones soportan hasta 48 VMs simultáneas por GPU, demostrando la capacidad de la plataforma para escalar para workloads diversos. Un aspecto notable es el perfil 3B para vPC, diseñado para atender las demandas gráficas de aplicaciones modernas y mejorar la experiencia del usuario en Windows 11, donde el uso de memoria GPU por aplicaciones de Knowledge Worker es mayor que en Windows 10. VBS amplía la seguridad aislando el entorno virtual del sistema host, proporcionando protección reforzada incluso si el sistema invitado está comprometido. En cuanto a despliegues, el soporte incluye hypervisores Microsoft Azure Local y Windows Server, con opciones fraccionadas de vGPU en AWS G6f. La integración con Login Enterprise y nVector permite pruebas y monitoreo automatizados para entornos VDI con GPU, brindando análisis de rendimiento para garantizar una experiencia de usuario estable a escala.
Puntos clave
- vGPU 19.0 con MIG en RTX PRO Blackwell permite hasta 48 VMs por GPU, favoreciendo densidades altas.
- RTX PRO 6000 Blackwell Server Edition con 96 GB de memoria GDDR7 para workloads IA y gráficos.
- Perfil 3B para vPC optimiza workloads modernos y densidad de usuarios en entornos de servidor.
- Toolkits vWS e Agentic RAG facilitan el desarrollo de IA en entornos virtualizados.
- VBS mejora la seguridad con Azure Local y Windows Server; opciones fraccionadas de vGPU en AWS G6f.
- Integración con Login VSI y nVector para pruebas y monitoreo automatizados de VDI.
FAQ
Referencias
More news
NVIDIA HGX B200 reduce la intensidad de las emisiones de carbono incorporado
El HGX B200 de NVIDIA reduce la intensidad de carbono incorporado en un 24% frente al HGX H100, al tiempo que ofrece mayor rendimiento de IA y eficiencia energética. Este artículo resume los datos PCF y las novedades de hardware.
Predecir Eventos Climáticos Extremos en Minutos sin Supercomputadora: Huge Ensembles (HENS)
NVIDIA y Berkeley Lab presentan Huge Ensembles (HENS), una herramienta de IA de código abierto que pronostica eventos climáticos raros y de alto impacto usando 27,000 años de datos, con opciones de código abierto o listas para usar.
Cómo reducir cuellos de botella KV Cache con NVIDIA Dynamo
NVIDIA Dynamo offloads KV Cache desde la memoria de la GPU hacia almacenamiento económico, habilitando contextos más largos, mayor concurrencia y costos de inferencia más bajos para grandes modelos y cargas de IA generativa.
Microsoft transforma el sitio de Foxconn en el data center Fairwater AI, descrito como el más poderoso del mundo
Microsoft anuncia planes para un data center Fairwater AI de 1,2 millones de pies cuadrados en Wisconsin, con cientos de miles de GPU Nvidia GB200. El proyecto de 3.3 mil millones de dólares promete un entrenamiento de IA sin precedentes.
Manual de los Grandmasters de Kaggle: 7 Técnicas de Modelado para Datos Tabulares
Un análisis detallado de siete técnicas probadas por los Grandmasters de Kaggle para resolver rápidamente conjuntos de datos tabulares mediante aceleración por GPU, desde baselines variados hasta ensamblaje y pseudo-etiquetado.
NVIDIA RAPIDS 25.08 Agrega Nuevo profiler para cuML, Mejoras en el motor GPU de Polars y Soporte Ampliado de Algoritmos
RAPIDS 25.08 introduce perfiles de nivel de función y de línea para cuml.accel, el ejecutor de streaming por defecto del motor Polars GPU, soporte ampliado de tipos y cadenas, Spectral Embedding en cuML y aceleraciones de cero código para varios estimadores.