Desplegando tus apps Kit de Omniverse a escala
Sources: https://developer.nvidia.com/blog/deploying-your-omniverse-kit-apps-at-scale, https://developer.nvidia.com/blog/deploying-your-omniverse-kit-apps-at-scale/, NVIDIA Dev Blog
Overview
NVIDIA Omniverse Kit App Streaming está diseñado para reducir la fricción de instalación al transmitir aplicaciones basadas en Kit directamente a un navegador. La ejecución y el streaming del lado del servidor se realizan en GPUs RTX de NVIDIA, posibilitando una interacción de baja latencia con cargas de trabajo de gemelos digitales y simulación. Los usuarios acceden a las apps a través de un navegador Chromium o un cliente web, sin necesidad de hardware local potente. La arquitectura de streaming admite implementaciones en la nube y en local, y expone un modelo Kubernetes-native para entrega escalable. Omniverse Kit App Streaming es un conjunto de API y extensiones Kit que transmiten aplicaciones industriales basadas en OpenUSD desarrolladas con el Kit SDK. Este enfoque permite streaming para clientes donde sea, de forma segura y a gran escala, con GPUs bajo demanda de proveedores como Azure, AWS o clústeres en local. Se mencionan GPUs RTX Pro 6000 Blackwell Server Edition como parte del pool del servidor para cargas de trabajo exigentes.
Key features
- Acceso mediante navegador al streaming de apps Kit con señalización WebRTC y extensiones centrales
- Ejecución en servidor con GPUs NVIDIA RTX para visualización y simulación exigentes
- Opciones de implementación flexibles: local, nube y caminos gestionados
- Arquitectura de streaming nativa de Kubernetes con microservicios contenedorizados
- Kit App Template con visor web integrado y soporte de streaming
- Flujos de trabajo automatizados de construcción, prueba, empaquetado e implementación alineados con el template
- Script de empaquetado en contenedor que genera una imagen Docker lista para desplegar
- Integración con NVIDIA NGC Private Registry para distribución de imágenes
- Despliegue declarativo usando herramientas de Kubernetes y Helm
- Azure Marketplace con template de solución preconfigurado para inicio rápido
- Ruta completamente gestionada vía NVIDIA Omniverse en DGX Cloud
- Casos reales como Siemens Teamcenter Digital Reality Viewer, Sight Machine Operator Agent y Hexagon HxDR Reality Cloud Studio
- Referencias y guías oficiales de despliegue para instrucciones actualizadas
Common use cases
- Proporcionar visualizaciones 3D inmersivas a través del navegador y simulaciones industriales sin necesidad de software local
- Escalar flujos de trabajo de IA industrial con streaming de GPU bajo demanda en áreas como arquitectura, ingeniería y manufactura
- Disponer de una plataforma de streaming centralizada en la nube o local, con visualización de alta fidelidad desde laptops comunes
- Desplegar apps de streaming mediante templates listos para usar o a través de Azure Marketplace para acelerar el valor
- Ejecutar workloads de streaming en un clúster de GPUs central, facilitando la colaboración y la retroalimentación en tiempo real
- Usar DGX Cloud para simplificar aprovisionamiento, escalado y mantenimiento de recursos GPU mientras se enfoca en el desarrollo de aplicaciones
Setup & installation
Nota: el material fuente enfatiza flujos de trabajo, templates y despliegue con Helm, pero no proporciona comandos exactos. A continuación se describen las etapas y puntos de referencia. Para comandos exactos, consulte el repositorio Kit App Template y guías oficiales de despliegue.
- Explorar la documentación y el Kit App Template
- Revisar la documentación de Omniverse Kit App Streaming para entender los microservicios contenedorizados y cómo trabajan juntos en una experiencia Kubernetes-native.
- Utilizar el Kit App Template con el visor web integrado, que incluye componentes de streaming como señalización WebRTC, mensajería y extensiones centrales. Al generar una nueva app, habilitar una capa de streaming como omni_default_streaming para asegurar la inclusión de los servicios requeridos.
- Construir, probar y validar localmente o en un sandbox
- Construir tu aplicación Kit usando el flujo de trabajo del template.
- Validar la funcionalidad y el rendimiento en un entorno de prueba, que puede ser local o en la nube con GPU. Consulta la documentación de pruebas de Kit App para detalles.
- Contenerizar la aplicación
- Tras la construcción y prueba, contenerizar tu aplicación usando el script de empaquetado integrado en una estación Linux. El script genera una imagen Docker lista para despliegue, incluyendo dependencias y extensiones de streaming. Subir la imagen a un registro accesible desde tu entorno de despliegue (por ejemplo, el NVIDIA NGC Private Registry).
- Desplegar en un clúster Kubernetes
- Desplegar los servicios centrales de Omniverse Kit App Streaming usando los charts oficiales de Helm de NVIDIA en un clúster Kubernetes con GPUs.
- Registrar tu imagen de contenedor ante tu instancia de Omniverse Kit App Streaming usando herramientas nativas de Kubernetes para controlar lanzamiento, escalado y gestión.
- Caminos de despliegue opcionales
- Azure Marketplace: usa el template de solución preconfigurado para provisionar infraestructura y servicios automáticamente, luego sube tu aplicación contenerizada.
- DGX Cloud: utiliza el camino totalmente gestionado donde NVIDIA se encarga del aprovisionamiento, escalado y mantenimiento de recursos GPU.
- Referencias y preparación para producción
- Consulta guías oficiales de despliegue y vistas arquitectónicas para instrucciones detalladas y mejores prácticas. Revisa despliegues reales como Siemens Teamcenter Digital Reality Viewer y Sight Machine Operator Agent.
Nota: El material de origen recomienda seguir instrucciones actualizadas en el repositorio de templates y guías oficiales de despliegue. Los comandos exactos y valores de Helm pueden variar con el tiempo.
Quick start (ejemplo mínimo ejecutable)
- El material no proporciona un script mínimo ejecutable único. Un ejemplo mínimo depende del flujo Kit App Template, del script de empaquetado y de un manifiesto de despliegue Kubernetes gestionado por Helm. Dada la ausencia de comandos explícitos en la extracción, no se ofrece un ejemplo mínimo aquí. Consulte el repositorio oficial del template y guías de despliegue para un inicio concreto.
Pros and cons
- Pros
- Acceso desde el navegador elimina la necesidad de hardware GPU local de alto rendimiento
- Opciones de despliegue flexibles entre local, nube y caminos gestionados
- Streaming nativo de Kubernetes con microservicios contenedorizados que facilita la escalabilidad
- Viewer basado en template con señalización WebRTC simplifica la integración
- Azure Marketplace y DGX Cloud ofrecen puesta en marcha rápida con infraestructura gestionada
- Casos de uso reales demuestran la viabilidad en producción
- Contras
- Despliegues auto gestionados requieren control sobre los servicios centrales de streaming y operación
- Los comandos exactos y configuraciones pueden cambiar; es necesario seguir guías oficiales y templates
- La configuración inicial involucra múltiples componentes (containers, Helm, registries, GPUs), lo que puede aumentar la complejidad
Alternatives (comparación breve)
| Ruta | Características principales | Desventajas |---|---|---| | Kubernetes autogestionado (local o cloud) con Helm | Control total sobre servicios de streaming | Mayor complejidad operativa; gestión de Helm, CRDs y seguridad |Azure Marketplace template preconfigurado | Infraestructura central ya provisionada | Potenciales limitaciones de personalización y términos del proveedor |DGX Cloud gestionado | NVIDIA gestiona aprovisionamiento, escalado y GPUs | Menos control sobre infraestructura; dependencia de DGX Cloud |Casos de implementación (Siemens, Sight Machine, Hexagon) | Casos reales que ilustran una cadena completa | Personalización depende de la organización; ejemplos muestran posibilidades, no solución única |
Pricing or License
Los detalles de precios o licencias no están explícitamente proporcionados en la fuente. El contenido describe arquitecturas, rutas de despliegue y templates, pero no incluye una tabla de precios o términos de licencia. Consulte Azure Marketplace, los precios de DGX Cloud y los términos de licencia de NVIDIA en guías referenciadas para información actualizada.
References
- https://developer.nvidia.com/blog/deploying-your-omniverse-kit-apps-at-scale/
- Guías oficiales de despliegue y repositorio Kit App Template (referenciados en el artículo)
More resources
CUDA Toolkit 13.0 para Jetson Thor: Ecosistema Unificado de Arm y Más
Kit CUDA unificado para Arm en Jetson Thor con coherencia de memoria total, uso compartido de GPU entre procesos, interoperabilidad OpenRM/dmabuf, soporte NUMA y herramientas mejoradas para embebidos y servidores.
Reducir costos de implementación de modelos manteniendo el rendimiento con intercambio de memoria de GPU
Utiliza el intercambio de memoria de GPU (hot-swapping de modelos) para compartir GPUs entre varios LLM, reducir costos de GPU ociosas y mejorar el autoescalado manteniendo los SLA.
Mejora del autoajuste de GEMM con nvMatmulHeuristics en CUTLASS 4.2
Presenta nvMatmulHeuristics para seleccionar rápidamente un conjunto corto de configuraciones de kernels GEMM con alto potencial para CUTLASS 4.2, reduciendo drásticamente el tiempo de ajuste y acercándose al rendimiento de una búsqueda exhaustiva.
Haz ZeroGPU Spaces más rápido con la compilación ahead-of-time (AoT) de PyTorch
Descubre cómo la compilación AoT de PyTorch acelera ZeroGPU Spaces exportando un modelo compilado y recargándolo al instante, con cuantización FP8, formas dinámicas e integración con Spaces GPU.
Ajuste fino de gpt-oss para Precisión y Rendimiento con Entrenamiento Consciente de Cuantización (QAT)
Guía de afinado fino de gpt-oss usando SFT + QAT para recuperar precisión FP4 manteniendo la eficiencia, con upcasting a BF16, MXFP4, NVFP4 y despliegue con TensorRT-LLM.
Cómo los modelos de lenguaje pequeños son la clave para una IA agentica escalable
Explica cómo los modelos de lenguaje pequeños permiten IA agentica más rentable y flexible junto a LLMs, mediante NVIDIA NeMo y Nemotron Nano 2.