Skip to content
Despliega Inferencia de IA escalable con NVIDIA NIM Operator 3.0.0
Source: developer.nvidia.com

Despliega Inferencia de IA escalable con NVIDIA NIM Operator 3.0.0

Sources: https://developer.nvidia.com/blog/deploy-scalable-ai-inference-with-nvidia-nim-operator-3-0-0, https://developer.nvidia.com/blog/deploy-scalable-ai-inference-with-nvidia-nim-operator-3-0-0/, NVIDIA Dev Blog

TL;DR

  • NVIDIA NIM Operator 3.0.0 amplía las opciones de despliegue para los microservicios NVIDIA NIM y NVIDIA NeMo en Kubernetes.
  • Soporta NIMs específicos por dominio (biología, voz, recuperación) y varias opciones de despliegue, incluyendo configuraciones multi-LLM y multi-nodo.
  • La integración con KServe está disponible para despliegues raw y serverless, con autoscaling y gestión del ciclo de vida a través de los CRD InferenceService.
  • Deep Resource Allocation (DRA) está disponible en tecnología (tech preview) para gestionar atributos de GPU mediante ResourceClaim y ResourceClaimTemplate.
  • Red Hat colaboró para permitir el despliegue de NIM en KServe, con caché de modelos y NeMo Guardrails para IA de confianza. Esta versión apunta a pipelines de inferencia IA escalables y resilientes para grandes modelos y cargas multimodales, incluyendo chatbots, flujos RAG impulsados por agentes y descubrimiento virtual de fármacos, alineándose con NVIDIA AI Enterprise para soporte empresarial y actualizaciones de seguridad. Para más detalles, consulta el NVIDIA Dev Blog oficial: https://developer.nvidia.com/blog/deploy-scalable-ai-inference-with-nVIDIA-nim-operator-3-0-0/

Contexto y antecedentes

El panorama de modelos IA evoluciona rápidamente, con motores de inferencia, backends y frameworks distribuidos cada vez más complejos. Desplegar estos pipelines de manera eficiente es un desafío operativo para las organizaciones que construyen soluciones IA a gran escala. NVIDIA NIM Operator está diseñado para ayudar a los administradores de clústeres Kubernetes a operar los componentes y servicios necesarios para ejecutar microservicios de inferencia NVIDIA NIM para los LLMs modernos y modelos multimodales, abarcando razonamiento, recuperación, visión, voz, biología y más. La versión 3.0.0 expande estas capacidades para simplificar, acelerar y estabilizar despliegues en entornos Kubernetes diversos. NVIDIA también ha colaborado con Red Hat para permitir el despliegue de NIM en KServe. La contribución de Red Hat facilita despliegues de NIM que se benefician de la gestión del ciclo de vida de KServe y del caché de modelos, al tiempo que habilita capacidades de NeMo como NeMo Guardrails para IA confiable en endpoints de inferencia de KServe. Esta colaboración ilustra el creciente ecosistema alrededor de la inferencia de IA escalable al combinar software NVIDIA con plataformas Kubernetes empresariales. Los despliegues de NIM han sido utilizados para diversas aplicaciones, incluyendo chatbots, flujos RAG basados en recuperación y dominios como biología y descubrimiento virtual de fármacos. La nueva versión subraya la facilidad de uso, la fiabilidad y la interoperabilidad con herramientas nativas de cloud-native.

Novedades

NVIDIA NIM Operator 3.0.0 trae varias mejoras para simplificar y optimizar el despliegue de microservicios NVIDIA NIM y NVIDIA NeMo en Kubernetes:

  • Opciones de despliegue fáciles y rápidas para NIM: soporte para NIMs por dominio (biología, voz, recuperación) y varias opciones de despliegue, incluyendo configuraciones multi-LLM y multi-nodo. Se señala que despliegues multi-nodo sin GPUDirect RDMA pueden provocar timeouts de carga de shards y reinicios de pods maestros/ trabajadores; redes rápidas (IPoIB o ROCE) se recomiendan y se pueden configurar a través del NVIDIA Network Operator.
  • Integración con KServe: soporte para despliegues raw y serverless configurando el InferenceService CRD para gestionar despliegue, actualizaciones y autoscaling de NIM. El operador configura automáticamente variables de entorno y recursos requeridos en los CRD del InferenceService, simplificando la integración con Kubernetes.
  • Integración DRA (Deep Resource Allocation): DRA ofrece una gestión de GPU más flexible definiendo clases de dispositivos GPU, solicitando GPUs según esas clases y filtrándolos según las cargas de trabajo. Esta característica está en versión de tecnología (tech preview) y se espera soporte completo pronto. Los ejemplos muestran la configuración de recursos en el NIM Pod a través de los CRD del NIM Service y del NIM Pipeline.
  • NeMo y mejoras del ecosistema: la versión continúa soportando capacidades de NeMo, como NeMo Guardrails para IA confiable y caché de modelos mediante NIM cache, para flujos de inferencia eficientes.
  • Colaboración con Red Hat y gestión del ciclo de vida con KServe: esta colaboración habilita despliegues de NIM en KServe con gestión del ciclo de vida y caché de modelos, fortaleciendo las capacidades de IA confiable en endpoints de inferencia de KServe.
  • Validación práctica: el artículo presenta un ejemplo de despliegue de Llama 3 8B Instruct NIM en Kubernetes usando el NIM Operator, incluyendo verificación de estado de servicio y de pods y pruebas con curl. Estos cambios facilitan el despliegue de inferencia de IA escalable, ya sea para multi-LLM o multi-nodo, optimizando el uso de GPU con DRA o desplegando en KServe. La versión también destaca la preparación empresarial mediante NVIDIA AI Enterprise, soporte continuo de API y parches de seguridad proactivos.

Por qué importa (impacto para desarrolladores/empresas)

Para desarrolladores y empresas que construyen pipelines de IA en producción, esta versión ofrece beneficios prácticos:

  • Despliegue reducido: el soporte de NIM por dominio y los modos de despliegue múltiples permiten seleccionar rápidamente la configuración adecuada sin complejidad adicional de infraestructura.
  • Ciclo de vida de Kubernetes y autoscaling nativo: la integración con KServe mediante CRD InferenceService facilita actualizaciones automáticas, escalado y monitoreo de salud acorde con prácticas de Kubernetes existentes.
  • Uso eficiente de GPUs: DRA ofrece una vía flexible para asignar recursos GPU a cargas NIM, con control preciso sobre atributos como arquitectura y memoria, fundamental para grandes LLM y modelos multimodales.
  • Fiabilidad y seguridad incrementadas: NeMo Guardrails mejora la confiabilidad de IA en endpoints de KServe, y NVIDIA AI Enterprise aporta soporte empresarial, estabilidad de API y parches de seguridad proactivos.
  • Ecosistema y soporte: la colaboración con Red Hat amplía el acceso a despliegues NIM en KServe, combinando capacidades de inferencia de NIM con caché de modelos y gestión del ciclo de vida. En la práctica, los equipos pueden desplegar, escalar y gestionar servicios de inferencia NIM y NeMo de forma más eficiente, acelerando la transición de desarrollo a producción en flujos de IA y aprovechando herramientas Kubernetes existentes junto con el soporte y las optimizaciones de NVIDIA.

Detalles técnicos o Implementación

Este apartado resume los cambios técnicos y consideraciones de implementación descritos en la versión:

  • Opciones de despliegue y NIMs por dominio: los usuarios pueden desplegar NIMs por dominio (biología, voz, recuperación) o diversas opciones de despliegue, incluyendo multi-LLM y multi-nodo. Se advierte que despliegues multi-nodo sin GPUDirect RDMA pueden provocar timeouts de carga de shards; se recomiendan redes rápidas (IPoIB o ROCE) configurables a través del NVIDIA Network Operator.
  • Integración DRA (tech preview): DRA permite gestionar GPUs de forma más flexible mediante ResourceClaim y ResourceClaimTemplate en los NIM Pods a través de CRD del NIM Service y CRD del NIM Pipeline. Se pueden crear claims propios o dejar que el NIM Operator los gestione automáticamente. DRA admite atributos como arquitectura y memoria para filtrar cargas de trabajo.
  • Integración con KServe y CRD InferenceService: el operador admite despliegues raw y serverless configurando el CRD InferenceService para gestionar despliegues, actualizaciones y autoscaling. El operador configura automáticamente variables de entorno y recursos requeridos en los CRD.
  • Metodologías de despliegue con KServe: se muestran dos enfoques—RawDeployment y Serverless. Serverless activa el autoscaling mediante anotaciones de Kubernetes.
  • Despliegue y pruebas: se presenta un ejemplo de despliegue de Llama 3 8B Instruct NIM en Kubernetes con el NIM Operator, verificando estado de servicio y pods y probando con curl.
  • Tabla: opciones de despliegue
Opción de despliegueDescripción
RawDeploymentDespliegue directo gestionado por NIM Operator y CRD InferenceService.
ServerlessDespliegue con autoscaling vía anotaciones de KServe.
  • Ecosistema y soporte: el NIM Operator forma parte de NVIDIA AI Enterprise, asegurando soporte empresarial, estabilidad de API y parches de seguridad proactivos. Las instrucciones para empezar señalan NGC o el repositorio NVIDIA/k8s-nim-operator en GitHub para instalación, uso o dudas.

Puntos clave

  • NIM Operator 3.0.0 amplía las modalidades de despliegue para NIM y NeMo en Kubernetes, incluyendo multi-LLM y multi-nodo.
  • DRA ofrece un camino tecnológico para un control más fino de recursos GPU por workload.
  • Integración con KServe, con modos RawDeployment y Serverless, simplifica el ciclo de vida, actualizaciones y autoscaling de servicios de inferencia IA.
  • La colaboración con Red Hat refuerza desplegables NIM en KServe con caché de modelos y NeMo Guardrails, fortaleciendo la IA fiable.
  • Esta versión subraya la preparación para producción a través de NVIDIA AI Enterprise, y ofrece una vía clara para pasar del desarrollo a la producción usando herramientas cloud-native.

FAQ

Referencias

More news