Skip to content
Innovaciones de hardware de NVIDIA y contribuciones de código abierto que moldean la IA
Source: developer.nvidia.com

Innovaciones de hardware de NVIDIA y contribuciones de código abierto que moldean la IA

Sources: https://developer.nvidia.com/blog/nvidia-hardware-innovations-and-open-source-contributions-are-shaping-ai, https://developer.nvidia.com/blog/nvidia-hardware-innovations-and-open-source-contributions-are-shaping-ai/, NVIDIA Dev Blog

Visión general

NVIDIA está democratizando la IA al combinar modelos de código abierto, herramientas para desarrolladores y una pila de software/hardware diseñada para escalar en la nube, en centros de datos, en escritorios y en dispositivos edge. Modelos de IA de código abierto como Cosmos, DeepSeek, Gemma, GPT-OSS, Llama, Nemotron, Phi, Qwen y muchos otros son fundamentales para la innovación en IA. Estos modelos democratizan el acceso a pesos, arquitecturas y metodologías de entrenamiento, facilitando el aprendizaje y la experimentación para investigadores, startups y organizaciones en todo el mundo. Los desarrolladores pueden aprender y construir técnicas como mixture-of-experts, nuevos kernels de atención, post-entrenamiento para razonamiento y más, sin empezar desde cero. Esta democratización se ve potenciada por el amplio acceso a sistemas NVIDIA y a herramientas de código abierto diseñadas para acelerar la IA. La arquitectura GPU Blackwell de NVIDIA es un superchip de IA hecho a medida, con la quinta generación de Tensor Cores y un nuevo formato de punto flotante de 4 bits, NVFP4, para ofrecer una computación masiva con alta precisión. La arquitectura integra NVLink‑72, que permite una comunicación GPU-GPU ultrarrápida y escalado entre configuraciones multi-GPU para cargas de trabajo exigentes. Las GPUs Blackwell también incluyen una segunda generación de Transformer Engines y NVLink Fusion. Acelerar la IA requiere más que hardware; requiere una pila de software optimizada que soporte las cargas de trabajo actuales. NVIDIA está democratizando el acceso a capacidades de IA liberando herramientas, modelos y conjuntos de datos de código abierto para permitir a los desarrolladores innovar a nivel de sistema. Ecossistema de código abierto: más de 1,000 herramientas de código abierto en NVIDIA GitHub y colecciones NVIDIA Hugging Face con 450+ modelos y 80+ conjuntos de datos. La pila de software abarca desde el procesamiento de datos fundamental hasta marcos de desarrollo y despliegue de IA. NVIDIA publica varias bibliotecas CUDA-X de código abierto que aceleran ecosistemas de herramientas, asegurando que los desarrolladores puedan aprovechar IA de código abierto en hardware Blackwell. La canalización de IA comienza con la preparación y análisis de datos; RAPIDS es un conjunto open source de bibliotecas Python aceleradas por GPU para acelerar pipelines de ETL y alimentar el entrenamiento de modelos. Mantiene los datos en GPUs, reduciendo cuellos de botella de CPU y acelerando el entrenamiento y la inferencia. Entrenamiento de modelos: NVIDIA NeMo es un marco de extremo a extremo para LLMs, modelos multimodales y de habla, que permite escalar sin problemas el preentrenamiento y el post-entrenamiento desde una sola GPU hasta miles de nodos para modelos Hugging Face/PyTorch y Megatron. NVIDIA PhysicsNeMo es un marco para el ML informado por física que permite integrar leyes físicas en redes neuronales, acelerando gemelos digitales y simulaciones científicas. NVIDIA BioNeMo ofrece modelos preentrenados como microservicios NIM acelerados por NVIDIA, además de herramientas para predicción de estructuras de proteínas, diseño molecular y descubrimiento de fármacos. Estos marcos dependen de NCCL para la comunicación multi-GPU/multi-nodo; NeMo, PhysicsNeMo y BioNeMo extienden PyTorch con capacidades generativas avanzadas para construir, personalizar y desplegar aplicaciones de IA generativa más allá de flujos DL estándar. Después de entrenar, servir modelos de forma eficiente requiere el stack de inferencia de TensorRT, incluyendo TensorRT-LLM y TensorRT Model Optimizer; TensorRT-LLM aprovecha las instrucciones de Blackwell y el formato FP4 para conseguir más rendimiento y eficiencia de memoria en grandes modelos. Para desarrolladores de kernels, CUTLASS proporciona plantillas CUDA C++ para escribir kernels GEMM de alto rendimiento. NVIDIA Dynamo ayuda a servir usuarios a escala: una plataforma de inferencia open-source, agnóstica al framework, que soporta PyTorch, TensorRT-LLM, vLLM y SGLang; Dynamo incluye NIXL, una biblioteca de movimiento de datos de alto rendimiento y baja latencia para entornos de inferencia de IA. Los últimos resultados de Dynamo 0.4 muestran hasta 4x más interactividad para el modelo GPT-OSS 120B de OpenAI en GPUs NVIDIA B200 Blackwell para entradas largas, sin comprometer el throughput; con DeepSeek-R1 671B, se alcanza 2.5x más throughput por GPU sin costos adicionales de inferencia. Los modelos y conjuntos de datos abiertos están disponibles en Hugging Face y en el ecosistema de NVIDIA; muchos se publican con licencias permisivas, incluyendo la NVIDIA Open Model License. NVIDIA Nemotron es una familia de LLMs capaz de razonamiento, diseñada para precisión y rendimiento; estos modelos soportan inferencia eficiente y ajuste fino y pueden empaquetarse como microservicios de inferencia NIM para desplegar en cualquier sistema acelerado por GPU, desde escritorios hasta data centers. NVIDIA también lanzó modelos multimodales como Isaac GR00T N1.5, un modelo de visión-lenguaje-acción para robótica humanoide que habilita razonamiento y comprensión de robots, además de embeddings, tokenizers y más. Muchos de estos modelos vienen pre-cuantizados para NVFP4 y se distribuyen con licencias permisivas. Para IA física, NVIDIA Cosmos ofrece una suite de modelos generativos y herramientas para generar y entender el mundo; Cosmos incluye los modelos centrales Predict, Transfer y Reason, con tokenizers y pipelines de procesamiento de datos; las licencias de modelos abiertos permiten a los desarrolladores descargar y adaptar. Los SDKs y bibliotecas de Omniverse utilizan OpenUSD para agregación de datos y ensamblaje de escenas; extensiones de renderizado en tiempo real RTX y esquemas de física ayudan a construir aplicaciones de IA física para simulaciones industriales y robóticas. Esto completa una pipeline de simulación-a-real para entrenar sistemas de IA que operan en el mundo real. Desde el procesamiento de datos hasta modelos abiertos como Cosmos y Nemotron, el ecosistema abierto de NVIDIA cubre todo el ciclo de vida de la IA. Al integrar herramientas, modelos y marcos abiertos en cada etapa, los desarrolladores pueden pasar de prototipo a producción en hardware Blackwell sin abandonar el ecosistema abierto. La pila de software IA de NVIDIA ya impulsa millones de flujos de trabajo de desarrolladores en laboratorios de investigación y entre empresas de la Fortune 500, permitiendo a los equipos aprovechar el potencial de las GPUs Blackwell. Al combinar innovaciones de hardware como FP4, la segunda generación de Transformer Engines y NVLink Fusion con una colección incomparable de marcos de código abierto, modelos preentrenados y bibliotecas optimizadas, NVIDIA garantiza que la innovación IA escale de prototipo a producción. Puedes probarlo hoy: explora proyectos de código abierto en NVIDIA GitHub, accede a cientos de modelos y conjuntos de datos en Hugging Face, o adéntrate en el catálogo de proyectos de código abierto de NVIDIA. Ya sea que estés construyendo LLMs, IA generativa, robótica o pipelines de optimización, el ecosistema es abierto y está listo para tu próximo avance. Sobre la contribución de NVIDIA al código abierto: NVIDIA contribuye activamente a proyectos como Linux Kernel, Python, PyTorch, Kubernetes, JAX y ROS. Además, NVIDIA fortalece ecosistemas de código abierto contribuyendo a fundaciones como Linux Foundation, PyTorch Foundation, Python Software Foundation, Cloud Native Computing Foundation, Open Source Robotics Foundation y The Alliance for OpenUSD.

Características clave

  • Superchip IA Blackwell con Tensor Cores de quinta generación y NVFP4 para cómputo de alto rendimiento con precisión
  • NVLink‑72 para interconexión ultrarrápida y escalabilidad multi-GPU
  • Segunda generación de Transformer Engines y NVLink Fusion
  • Pila de software abierta que cubre todo el ciclo de vida de IA
  • RAPIDS para procesamiento de datos y ETL acelerados por GPU
  • NeMo, PhysicsNeMo y BioNeMo para desarrollo de modelos de punta (LLMs, multimodal, física-informada y ciencias de la vida)
  • Bibliotecas CUDA-X, NCCL para comunicación multi-GPU/multi-nodo y CUTLASS para kernels de alto rendimiento
  • Stack de inferencia TensorRT con TensorRT-LLM y TensorRT Model Optimizer, con soporte FP4 en Blackwell
  • Dynamo para servir modelos de forma independiente del framework, con NIXL para movimiento de datos de alto rendimiento
  • 1.000+ herramientas open source en GitHub y 450+ modelos con 80+ conjuntos de datos en Hugging Face
  • Nemotron para razonamiento en LLM; Cosmos para generación y entendimiento del mundo; Omniverse OpenUSD para pipelines de simulación y realidad
  • Licencias permisivas para muchos modelos (incluida NVIDIA Open Model License)
  • Contribuciones continuas a Linux Kernel, PyTorch, Kubernetes y otras iniciativas, con apoyo a fundaciones como Linux Foundation y PyTorch Foundation

Casos de uso comunes

  • Entrenamiento y despliegue de LLM, modelos multimodales e de habla con NeMo y stacks relacionados
  • ML informado por física para gemelos digitales y simulaciones científicas con PhysicsNeMo
  • Aplicaciones en ciencias de la vida como predicción de estructuras proteicas, diseño molecular y descubrimiento de fármacos con BioNeMo
  • Razonamiento robótico y sistemas autónomos con Isaac GR00T N1.5 y flujos de simulación a realidad usando Omniverse OpenUSD
  • Inferencia y entrenamiento escalables usando TensorRT, Dynamo, NCCL y kernels optimizados para FP4
  • Procesamiento y ETL de datos con RAPIDS para acelerar el entrenamiento de modelos
  • Empaquetado y despliegue de modelos como microservicios NIM para escritorios y data centers

Configuración e instalación

# Detalles de configuración e instalación no se encuentran en la fuente.
# Consulte las fuentes oficiales de NVIDIA para pasos exactos.

Inicio rápido

No se proporciona un ejemplo rápido en la fuente; el material describe capacidades y componentes, pero no incluye un script ejecutable de inicio rápido.

Pros y contras

  • Pros:
  • Ecosistema abierto rico: 1.000+ herramientas en GitHub y 450+ modelos con 80+ conjuntos de datos en Hugging Face
  • Pila end-to-end que cubre preparación de datos, entrenamiento, inferencia y despliegue
  • Diseño de hardware/ software alineado con Blackwell (FP4, Transformer Engines, NVLink)
  • Servicios con Dynamo de forma agnóstica al framework con inferencia optimizada por TensorRT
  • Licencias permisivas para muchos modelos (NVIDIA Open Model License)
  • Contras:
  • La fuente no enumera explícitamente desventajas; no se detallan costos ni requisitos de hardware específicos

Alternativas (comparaciones breves)

| Aspecto | Stack abierto de NVIDIA (según lo descrito) | Notas |---|---|---| | Enfoque central | Ciclo de vida de IA con modelos, datos y herramientas abiertos | Enfatiza la integración entre preparación de datos, entrenamiento, inferencia y despliegue |Licencia | Licencias permisivas incluyendo NVIDIA Open Model License | Términos varían por modelo y conjunto de datos; verificar fuentes |Ecosistema | CUDA-X, RAPIDS, NeMo, Dynamo, TensorRT, CUTLASS, NCCL | Cobertura amplia a través de las etapas de IA |

Licencia

NVIDIA señala licencias permisivas para muchos modelos abiertos, incluyendo la NVIDIA Open Model License, y destaca un ecosistema que facilita la experimentación y el despliegue a gran escala.

Referencias

https://developer.nvidia.com/blog/nvidia-hardware-innovations-and-open-source-contributions-are-shaping-ai/

More resources