Implantação de seus aplicativos Omniverse Kit em escala
Sources: https://developer.nvidia.com/blog/deploying-your-omniverse-kit-apps-at-scale, https://developer.nvidia.com/blog/deploying-your-omniverse-kit-apps-at-scale/, NVIDIA Dev Blog
Overview
NVIDIA Omniverse Kit App Streaming foi criado para reduzir a fricção de instalação, transmitindo aplicativos baseados em Kit diretamente para um navegador. Execução e streaming no servidor utilizam GPUs RTX da NVIDIA, permitindo interação de baixa latência com cargas de trabalho de gêmeos digitais e simulação. Usuários acessam os apps via navegador Chromium ou cliente web, sem necessidade de hardware local poderoso. A arquitetura de streaming suporta ambientes on-premises e na nuvem e expõe um modelo Kubernetes-native para entrega escalável. Omniverse Kit App Streaming é um conjunto de APIs e extensões do Kit que transmitem aplicações industriais e de IA física baseadas em OpenUSD desenvolvidas com o Omniverse Kit SDK. Essa abordagem possibilita streaming para clientes em qualquer lugar, com segurança e escala, com recursos de GPU sob demanda de provedores como Azure, AWS ou clusters locais. As GPUs RTX Pro 6000 Blackwell Server Edition são mencionadas como parte do pool de servidor para workloads de ponta.
Key features
- Acesso via navegador ao streaming de apps Kit usando signaling WebRTC e extensões centrais
- Execução no servidor com GPUs NVIDIA RTX para visualização e simulação exigentes
- Opções de implantação flexíveis: on-premise, nuvem e caminhos gerenciados
- Arquitetura de streaming nativa do Kubernetes com microserviços containerizados
- Kit App Template com viewer web integrado e suporte incorporado ao streaming
- Fluxos de trabalho automatizados de construção, teste, empacotamento e implantação alinhados ao template
- Script de empacotamento em container que gera uma imagem Docker pronta para deployment
- Integração com o NVIDIA NGC Private Registry para distribuição de imagens
- Implantação declarativa com tooling do Kubernetes e Helm
- Azure Marketplace com template de solução pré-configurado para setup rápido
- Caminho totalmente gerenciado via NVIDIA Omniverse no DGX Cloud
- Casos de uso reais como Siemens Teamcenter Digital Reality Viewer, Sight Machine Operator Agent, e Hexagon HxDR Reality Cloud Studio
- Referências e guias oficiais de implantação para instruções atualizadas
Common use cases
- Fornecer visualizações 3D imersivas via navegador e simulações industriais sem exigir software local
- Escalar fluxos de trabalho de IA industrial com streaming de GPU sob demanda para áreas como arquitetura, engenharia e manufatura
- Disponibilizar uma plataforma de streaming centralizada na nuvem ou local, com visualização de alta fidelidade a partir de laptops comuns
- Implantar apps de streaming com templates prontos ou via Azure Marketplace para acelerar o valor
- Executar workloads de streaming em um cluster de GPUs central, promovendo colaboração e feedback em tempo real
- Usar DGX Cloud para simplificar provisionamento, escalonamento e manutenção de recursos de GPU, enquanto foca no desenvolvimento de apps
Setup & installation
Observação: o material de origem enfatiza fluxos de trabalho, templates e deployment com Helm, mas não fornece comandos exatos. Abaixo está um mapeamento para as etapas descritas e pontos de referência. Para comandos exatos, consulte o repositório do Kit App Template e os guias oficiais de implantação.
- Explorar documentos e o Kit App Template
- Revise a documentação do Omniverse Kit App Streaming para entender os microserviços contêinerizados e como eles funcionam juntos com streaming nativo do Kubernetes.
- Use o Kit App Template com o viewer web incorporado, que inclui componentes de streaming como sinalização WebRTC, mensagens e extensões centrais. Ao gerar um novo app, ative a camada de streaming omni_default_streaming para garantir que os serviços necessários estejam incluídos.
- Construir, testar e validar localmente ou em sandbox
- Construa sua aplicação Kit usando o fluxo de trabalho do template.
- Valide funcionalidade e desempenho em um ambiente de teste, que pode ser local ou na nuvem com simulação de GPU. Consulte a documentação de testes do Kit App para detalhes.
- Containerizar a aplicação
- Após construir e testar, containerize sua aplicação usando o script de empacotamento embutido em uma estação Linux. O script gera uma imagem Docker pronta para deployment, incluindo dependências e extensões de streaming. Envie a imagem para um registry acessível pelo seu ambiente de deployment (por exemplo, o NVIDIA NGC Private Registry).
- Implantar em um cluster Kubernetes
- Implemente os serviços centrais de Omniverse Kit App Streaming com os Helm charts oficiais da NVIDIA em um cluster Kubernetes com GPUs, seja na Azure, AWS ou on-prem.
- registre a imagem do container com a instância do Omniverse Kit App Streaming usando tooling nativo do Kubernetes para controle de lançamento, escalonamento e gerenciamento.
- Caminhos de implantação opcionais
- Azure Marketplace: use o template de solução pré-configurado para provisionar infraestrutura e serviços automaticamente, depois envie seu aplicativo containerizado.
- DGX Cloud: utilize o caminho totalmente gerenciado em que a NVIDIA cuida do provisionamento, escalonamento e manutenção de recursos GPU.
- Referências de implantação e prontidão para produção
- Consulte guias oficiais de implantação e visões arquiteturais para instruções detalhadas e melhores práticas. Veja exemplos reais como Siemens Teamcenter Digital Reality Viewer e Sight Machine Operator Agent para usos em produção.
Observação: o fonte enfatiza seguir instruções atualizadas no repositório do template e nos guias oficiais de implantação. Comandos exatos, caminhos de arquivo e valores Helm são contextuais e podem evoluir.
Quick start (exemplo mínimo executável)
- O material não fornece um script mínimo executável único. Um exemplo mínimo depende do fluxo do Kit App Template, do script de empacotamento em container e de um manifesto de implantação Kubernetes gerido pelos Helm charts. Devido à ausência de comandos explícitos na extração, não há um exemplo mínimo executável aqui. Consulte o repositório do template oficial e os guias de implantação para um início concreto.
Pros and cons
- Prós
- Acesso via navegador elimina a necessidade de hardware local de alto desempenho
- Opções de implantação flexíveis entre on-prem, nuvem e caminhos gerenciados
- Streaming nativo do Kubernetes com microserviços containerizados favorece escalabilidade
- Viewer do template com sinalização WebRTC simplifica a integração
- Azure Marketplace e DGX Cloud oferecem configuração rápida e infraestrutura gerenciada
- Casos reais de uso demonstram aplicabilidade prática
- Contras
- Implantações auto-gerenciadas exigem controle sobre serviços centrais de streaming e disciplina operacional
- Comandos exatos e configurações evoluem; é preciso acompanhar guias oficiais e templates
- A configuração inicial envolve múltiplas partes (containers, Helm, registries, GPUs), o que pode aumentar a complexidade
Alternatives (brief comparisons)
| Caminho | Características principais | Trade-offs |---|---|---| | Kubernetes auto-gerenciado (on-prem ou nuvem) com Helm | Controle total sobre serviços de streaming | Maior complexidade operacional; gerência de Helm, CRDs e segurança |Azure Marketplace template pré-configurado | Infraestrutura central já provisionada | Pode ter limitações de personalização e termos do provedor |DGX Cloud gerenciado | NVIDIA gerencia provisionamento, escalonamento e GPUs | Menor controle sobre infraestrutura; dependência de DGX Cloud |Exemplos de implantação (Siemens, Sight Machine, Hexagon) | Casos de uso reais ilustrando implantação completa | Personalização depende da organização; servem como referência, não solução única |
Pricing or License
Detalhes de preço ou licença não são explicitamente fornecidos no material. O conteúdo descreve arquiteturas, caminhos de implantação e templates, mas não traz tabelas de preços ou termos de licença. Consulte a listagem do Azure Marketplace, os preços do DGX Cloud e os termos de licenciamento da NVIDIA nos guias referenciados para informações atualizadas.
References
- https://developer.nvidia.com/blog/deploying-your-omniverse-kit-apps-at-scale/
- Guias oficiais de implantação e o repositório Kit App Template (referenciados no artigo)
More resources
CUDA Toolkit 13.0 para Jetson Thor: Ecossistema Unificado de Arm e Mais
Kit de ferramentas CUDA unificado para Arm no Jetson Thor com coerência total de memória, compartilhamento de GPU entre processos, interoperabilidade OpenRM/dmabuf, suporte NUMA e melhorias de ferramentas para embarcados e servidores.
Reduzir Custos de Implantação de Modelos Mantendo Desempenho com Swap de Memória de GPU
Utilize o swap de memória da GPU (hot-swapping de modelos) para compartilhar GPUs entre múltiplos LLMs, reduzir custos de ociosidade e melhorar o autoscaling mantendo os SLAs.
Aprimorando a auto-tunagem de GEMM com nvMatmulHeuristics no CUTLASS 4.2
Apresenta nvMatmulHeuristics para escolher rapidamente um conjunto pequeno de configurações de kernels GEMM com alto potencial para o CUTLASS 4.2, reduzindo drasticamente o tempo de tuning enquanto se aproxima do desempenho da busca exaustiva.
Deixe os ZeroGPU Spaces mais rápidos com compilação ahead-of-time (AoT) do PyTorch
Descubra como a AoT do PyTorch acelera ZeroGPU Spaces exportando um modelo compilado e recarregando-o instantaneamente, com quantização FP8, formas dinâmicas e integração cuidadosa com o fluxo Spaces GPU.
Fine-Tuning gpt-oss para Precisão e Desempenho com Treinamento de Quantização (QAT)
Guia de fine-tuning do gpt-oss com SFT + QAT para recuperar a precisão em FP4 mantendo a eficiência, incluindo upcasting para BF16, MXFP4, NVFP4 e implantação com TensorRT-LLM.
Como Modelos de Linguagem Pequenos são a Chave para IA Agentica Escalável
Explora como modelos de linguagem pequenos permitem IA agentica mais barata, flexível e escalável, ao lado de LLMs, com NVIDIA NeMo e Nemotron Nano 2.