Implante Inferência de IA Escalável com NVIDIA NIM Operator 3.0.0
Sources: https://developer.nvidia.com/blog/deploy-scalable-ai-inference-with-nvidia-nim-operator-3-0-0, https://developer.nvidia.com/blog/deploy-scalable-ai-inference-with-nvidia-nim-operator-3-0-0/, NVIDIA Dev Blog
TL;DR
- O NVIDIA NIM Operator 3.0.0 expande opções de implantação para os microserviços NVIDIA NIM e NVIDIA NeMo no Kubernetes.
- Suporta NIMs específicos por domínio (biologia, voz, recuperação) e várias opções de implantação, incluindo configurações multi-LLM e multi-nó.
- Integração com KServe para implantações raw e serverless, com autoscaling e gerenciamento de ciclo de vida via CRDs InferenceService.
- Deep Resource Allocation (DRA) disponível em demonstração técnica para gerenciar atributos de GPU por meio de ResourceClaim e ResourceClaimTemplate.
- A Red Hat contribuiu para permitir a implantação do NIM em KServe, incluindo cache de modelos e NeMo Guardrails para IA confiável. Esta versão foca em pipelines de inferência de IA escaláveis e resilientes para grandes modelos e workloads multimodais, incluindo chatbots, fluxos de RAG baseados em agentes e descoberta virtual de fármacos, alinhando-se ao NVIDIA AI Enterprise para suporte corporativo e atualizações de segurança. Para mais detalhes, consulte o NVIDIA Dev Blog oficial: https://developer.nvidia.com/blog/deploy-scalable-ai-inference-with-nvidia-nim-operator-3-0-0/
Contexto e antecedentes
O cenário de modelos de IA está em rápida evolução, com motores de inferência, backends e frameworks distribuídos cada vez mais complexos. Implementar esses pipelines de forma eficiente é um desafio operacional para organizações que constroem soluções de IA em escala. O NVIDIA NIM Operator foi criado para auxiliar administradores de clusters Kubernetes a implantar e gerenciar os microserviços de inferência NVIDIA NIM necessários para executar LLMs modernos e modelos multimodais—abarcando tarefas de raciocínio, recuperação, visão, fala, biologia e muito mais. A versão 3.0.0 amplia essas capacidades para simplificar, acelerar e estabilizar implantações em ambientes Kubernetes variados. A NVIDIA também colaborou com a Red Hat para habilitar a implantação do NIM no KServe. A contribuição da Red Hat facilita implantações do NIM que se beneficiam da gestão de ciclo de vida do KServe e de cache de modelos, ao mesmo tempo em que habilita recursos de NeMo como Guardrails para IA confiável em pontos de extremidade de inferência do KServe. Essa colaboração demonstra o ecossistema em expansão ao redor da inferência de IA escalável, combinando software NVIDIA com plataformas Kubernetes empresariais. As implantações de NIM têm sido usadas para várias aplicações, incluindo chatbots, fluxos de RAG baseados em recuperação e domínios como biologia e recuperação de modelos. A nova versão reforça a facilidade de uso, confiabilidade e interoperabilidade com ferramentas nativas de cloud-native.
O que há de novo
A versão NIM Operator 3.0.0 traz várias melhorias para simplificar e otimizar a implantação de microserviços NVIDIA NIM e NVIDIA NeMo em Kubernetes:
- Opções de implantação fáceis e rápidas para NIM: Suporte a NIMs por domínio (biologia, voz, recuperação) e opções de implantação, incluindo configurações multi-LLM compatíveis e multi-nó. Observa-se que implantações multi-nó sem GPUDirect RDMA podem enfrentar timeouts de carregamento de shards de modelo e reinicializações de nós mestres/operários. Redes rápidas (IPoIB ou ROCE) são recomendadas e podem ser configuradas via NVIDIA Network Operator.
- Integração com KServe: Suporte a implantações raw e serverless em KServe configurando o InferenceService CRD para gerenciar implantações, upgrades e autoscaling de NIM. O operador configura automaticamente as variáveis de ambiente e recursos necessários nos CRDs do InferenceService, simplificando a integração com Kubernetes.
- Integração com DRA (Deep Resource Allocation): DRA permite gerenciar GPUs com mais flexibilidade, definindo Classes de dispositivos GPU, solicitando GPUs com base nessas classes e filtrando-as conforme a carga de trabalho. Este recurso está em demonstração tecnológica, com suporte completo em breve. Exemplos mostram a configuração de recursos no NIM Pod via CRD de serviço NIM e CRD de NIM Pipeline.
- NeMo e melhorias no ecossistema: a versão mantém suporte às capacidades do NeMo, como NeMo Guardrails para IA confiável e cache de modelos com NIM cache, para fluxos de inferência eficientes.
- Colaboração Red Hat e gestão de ciclo de vida com KServe: A parceria viabiliza implantações de NIM em KServe com gestão de ciclo de vida e cache de modelos, fortalecendo recursos de IA confiável nas extremidades de inferência do KServe.
- Validação prática: o artigo apresenta um exemplo de implantação do Llama 3 8B Instruct em NIM no Kubernetes, com verificação de status de serviço e de pods e teste via curl. Essas mudanças ajudam a tornar a implantação de inferência de IA escalável mais simples, seja para multi-LLM ou multi-nó, otimizando o uso de GPU com DRA ou implantando no KServe. A versão reforça a prontidão empresarial por meio do NVIDIA AI Enterprise, com suporte contínuo, estabilidade de API e correções de segurança.
Por que isso importa (impacto para desenvolvedores/empresas)
Para desenvolvedores e empresas que constroem pipelines de IA em produção, a versão 3.0.0 oferece benefícios práticos:
- Menor atrito na implantação: suporte a NIMs por domínio e modos de implantação diversos permitem escolher a configuração mais adequada para cargas de trabalho sem trabalhos adicionais de infraestrutura.
- Ciclo de vida e autoscaling nativo do Kubernetes: integração com KServe por meio de CRDs InferenceService facilita upgrades, escalabilidade e monitoramento de saúde alinhados às operações existentes.
- Utilização eficiente de GPUs: DRA oferece uma maneira flexível de alocar recursos de GPU para cargas de trabalho NIM, permitindo maior controle sobre atributos de hardware, como arquitetura e memória, fundamental para LLMs grandes e modelos multimodais.
- Confiabilidade e segurança aprimoradas: NeMo Guardrails apoia IA confiável para endpoints KServe, enquanto o suporte do NVIDIA AI Enterprise reforça estabilidade de API e patches de segurança proativos.
- Ecossistema e suporte: a colaboração com a Red Hat amplia o acesso às implantações NIM em KServe, combinando capacidades de inferência do NIM com gestão de ciclo de vida e cache de modelos do KServe. Na prática, operadoras podem implantar, dimensionar e gerenciar microserviços NIM e NeMo com mais eficiência, acelerando a transição de desenvolvimento para produção em fluxos de IA, usando ferramentas Kubernetes já existentes e aproveitando o suporte e as otimizações da NVIDIA.
Detalhes técnicos ou Implementação
Este segmento resume as mudanças técnicas e considerações de implementação destacadas na versão:
- Opções de implantação e NIMs por domínio: Usuários podem implantar NIMs por domínio (biologia, voz, recuperação) ou várias opções de implantação, incluindo configurações multi-LLM e multi-nó. Observa-se que implantações multi-nó sem GPUDirect RDMA podem sofrer timeouts de carregamento de shards; redes rápidas (IPoIB ou ROCE) são recomendadas e configuráveis via NVIDIA Network Operator.
- Integração com DRA (tech preview): DRA permite gerenciar GPUs por meio de ResourceClaim e ResourceClaimTemplate em NIM Pods via CRD do NIM Service e CRD do NIM Pipeline. Usuários podem criar seus próprios claims ou deixar o NIM Operator gerenciá-los automaticamente. DRA suporta atributos como arquitetura e memória para filtrar cargas de trabalho conforme as necessidades. Este recurso está disponível como demonstração tecnológica com suporte completo em breve.
- Integração com KServe e CRDs do InferenceService: O NIM Operator suporta deployments raw e serverless em KServe configurando o CRD InferenceService para gerenciar implantação, upgrades e autoscaling. O operador configura automaticamente variáveis de ambiente e recursos necessários nos CRDs, simplificando a integração com KServe.
- Metodologias de implantação com KServe: Dois approaches são demonstrados—RawDeployment e Serverless. Serverless habilita autoscaling por meio de anotações do Kubernetes.
- Demonstração prática: o artigo apresenta um exemplo de implantação do Llama 3 8B Instruct NIM no Kubernetes usando o NIM Operator, incluindo verificação de status de serviço e de pods e teste com curl.
- Tabela: opções de implantação
| Opção de implantação | Descrição |
|---|---|
| RawDeployment | Implantação direta gerenciada pelo NIM Operator e CRD InferenceService. |
| Serverless | Implantação com autoscaling via anotações do KServe. |
- Ecossistema e suporte: o NIM Operator faz parte do NVIDIA AI Enterprise, garantindo suporte corporativo, estabilidade de API e patches de segurança proativos. Instruções de início apontam para NGC ou o repositório open source NVIDIA/k8s-nim-operator no GitHub para instalação, uso ou dúvidas.
Principais conclusões
- O NIM Operator 3.0.0 amplia as modalidades de implantação para NIM e NeMo no Kubernetes, incluindo multi-LLM e multi-nó.
- DRA oferece caminho de demonstração tecnológica para controle mais fino de GPUs por workload.
- A integração com KServe, com modos RawDeployment e Serverless, simplifica o ciclo de vida, upgrades e autoscaling de serviços de inferência de IA.
- A colaboração com a Red Hat facilita implantações em KServe com cache de modelos e NeMo Guardrails, fortalecendo capacidades de IA confiável.
- A release reforça a prontidão para produção via NVIDIA AI Enterprise e oferece um caminho claro de desenvolvimento para produção usando ferramentas nativas de cloud-native.
FAQ
-
O que o NVIDIA NIM Operator 3.0.0 foi projetado para fazer?
Ele amplia as capacidades de implantação de microserviços NVIDIA NIM e NVIDIA NeMo no Kubernetes, incluindo NIM por domínio e configurações multi-LLM/multi-nó, com integração com KServe e DRA em demonstração tecnológica.
-
uais são as considerações de rede para implantações multi-nó?
Implantações multi-nó sem GPUDirect RDMA podem ter timeouts de carregamento de shards; redes rápidas (IPoIB ou ROCE) são recomendadas e configuráveis via o NVIDIA Network Operator.
-
ual é o papel da Red Hat nesta versão?
Red Hat contribuiu para habilitar a implantação do NIM no KServe, facilitando gestão de ciclo de vida, cache de modelos e NeMo Guardrails em endpoints de inferência do KServe.
-
Como a integração com o KServe funciona?
O NIM Operator configura o CRD InferenceService para gerenciar implantações, upgrades e autoscaling, com suporte a modos RawDeployment e Serverless.
-
Onde posso começar a usar essas ferramentas?
Inicie via NVIDIA NGC ou no repositório open source NVIDIA/k8s-nim-operator no GitHub, conforme indicado nas notas da versão.
Referências
More news
NVIDIA HGX B200 reduz a Intensidade de Emissões de Carbono Incorporado
O HGX B200 da NVIDIA reduz 24% da intensidade de carbono incorporado em relação ao HGX H100, ao mesmo tempo em que aumenta o desempenho de IA e a eficiência energética. Esta análise resume os dados de PCF e as novidades de hardware.
Prever Eventos Climáticos Extremos em Minutos sem Supercomputador com Huge Ensembles (HENS)
NVIDIA e o Lawrence Berkeley National Laboratory apresentam Huge Ensembles (HENS), uma ferramenta de IA de código aberto que prevê eventos climáticos raros e de alto impacto usando 27.000 anos de dados, com opções de código aberto ou prontos para uso.
Playbook dos Grandmasters do Kaggle: 7 Técnicas de Modelagem Testadas para Dados Tabulares
Análise detalhada de sete técnicas testadas por Grandmasters do Kaggle para resolver grandes conjuntos de dados tabulares com aceleração por GPU, desde baselines diversificados até ensemble avançado e pseudo-rotulagem.
Como reduzir gargalos do KV Cache com NVIDIA Dynamo
O Dynamo da NVIDIA transfere o KV Cache da memória da GPU para armazenamento de custo mais baixo, permitindo janelas de contexto maiores, maior concorrência e menor custo de inferência em grandes modelos.
Microsoft transforma site da Foxconn no data center Fairwater AI, considerado o mais poderoso do mundo
A Microsoft divulga planos para um data center Fairwater AI de 1,2 milhão de pés quadrados no Wisconsin, com centenas de milhares de GPUs Nvidia GB200. projeto de US$ 3,3 bilhões promete treinamento de IA em escala sem precedentes.
NVIDIA RAPIDS 25.08 Adiciona Novo Profiler para cuML, Melhorias no Motor GPU Polars e Suporte Ampliado de Algoritmos
RAPIDS 25.08 traz profiladores function-level e line-level para cuml.accel, executor streaming padrão no motor GPU Polars, suporte ampliado de tipos e strings, novo Spectral Embedding no cuML e acelerações com zero código para mais algoritmos.