Skip to content
Inovações de hardware da NVIDIA e contribuições de código aberto moldam a IA
Source: developer.nvidia.com

Inovações de hardware da NVIDIA e contribuições de código aberto moldam a IA

Sources: https://developer.nvidia.com/blog/nvidia-hardware-innovations-and-open-source-contributions-are-shaping-ai, https://developer.nvidia.com/blog/nvidia-hardware-innovations-and-open-source-contributions-are-shaping-ai/, NVIDIA Dev Blog

Visão Geral

A NVIDIA está democratizando a IA ao combinar modelos de código aberto, ferramentas para developers e uma pilha de software/hardware desenhada para escalar na nuvem, no data center, em desktops e em dispositivos de borda. Modelos de IA de código aberto como Cosmos, DeepSeek, Gemma, GPT-OSS, Llama, Nemotron, Phi, Qwen e muitos outros são a fundação da inovação em IA. Esses modelos democratizam o acesso a pesos, arquiteturas e metodologias de treinamento, facilitando o aprendizado e a experimentação para pesquisadores, startups e organizações em todo o mundo. Desenvolvedores podem aprender e construir sobre técnicas como mixture-of-experts, novos kernels de atenção, pós-treinamento para raciocínio e muito mais—sem começar do zero. Essa democratização é ampliada pelo amplo acesso a sistemas NVIDIA e a software de código aberto desenvolvido para acelerar a IA. A arquitetura GPU NVIDIA Blackwell é um superchip de IA desenhado sob medida, com quinta geração de Tensor Cores e um novo formato de ponto flutuante de 4 bits, NVFP4, para oferecer computação massiva com alta precisão. A arquitetura integra NVLink‑72, permitindo comunicação GPU-GPU ultrarrápida e escalabilidade entre várias GPUs para workloads exigentes. As GPUs Blackwell também incluem a segunda geração de Transformer Engines e NVLink Fusion. Acelerar a IA requer mais do que hardware poderoso: requer uma pilha de software otimizada que suporte as cargas atuais. A NVIDIA está democratizando o acesso às capacidades de IA liberando ferramentas, modelos e conjuntos de dados de código aberto para capacitar desenvolvedores a inovar em nível de sistema. Ecossistema de código aberto: mais de 1.000 ferramentas de código aberto no NVIDIA GitHub e coleções NVIDIA Hugging Face com 450+ modelos e 80+ conjuntos de dados. A pilha de software abrange desde o processamento de dados fundamental até estruturas de desenvolvimento e implantação de IA. A NVIDIA publica várias bibliotecas CUDA-X de código aberto que aceleram ecossistemas de ferramentas, assegurando que os desenvolvedores possam aproveitar IA de código aberto em hardware Blackwell. A pipeline de IA começa com preparação e análise de dados; RAPIDS é um conjunto de bibliotecas Python aceleradas por GPU para acelerar pipelines de ETL que alimentam o treinamento de modelos. Mantém os dados em GPUs, reduzindo gargalos de CPU e acelerando treinamento e inferência. Treinamento de modelos: NVIDIA NeMo é um framework de ponta a ponta para LLMs, modelos multimodais e de fala, permitindo escalonamento suave de pré-treinamento e pós-treinamento de um único GPU a milhares de nós para modelos Hugging Face/PyTorch e Megatron. NVIDIA PhysicsNeMo é um framework para Physics-Informed ML que permite integrar leis físicas em redes neurais, acelerando gêmeos digitais e simulações científicas. NVIDIA BioNeMo fornece modelos pré-treinados como microserviços NIM acelerados pela NVIDIA, além de ferramentas para predição de estrutura de proteínas, design molecular e descoberta de fármacos. Esses frameworks dependem do NCCL para comunicação multi-GPU/multi-nó; NeMo, PhysicsNeMo e BioNeMo estendem o PyTorch com capacidades generativas avançadas para construir, personalizar e implantar aplicações de IA generativa além de fluxos de DL padrão. Depois que os modelos são treinados, servir com eficiência requer o stack de inferência TensorRT, incluindo TensorRT-LLM e TensorRT Model Optimizer; o TensorRT-LLM aproveita as instruções Blackwell e FP4 para aumentar o desempenho e a eficiência de memória em grandes modelos. Para desenvolvedores de kernels, o CUTLASS oferece templates CUDA C++ para escrever kernels de alto desempenho para GEMM. O NVIDIA Dynamo ajuda a servir usuários em escala: uma plataforma de inferência de código aberto, agnóstica a frameworks, que suporta PyTorch, TensorRT-LLM, vLLM, SGLang; o Dynamo inclui o NIXL, uma biblioteca de movimento de dados de alto rendimento e baixa latência para inferência de IA. Resultados mais recentes do Dynamo 0.4 mostram até 4x mais interatividade para o modelo GPT-OSS 120B da OpenAI em GPUs NVIDIA B200 Blackwell para entradas longas, sem compromissos de throughput; o DeepSeek-R1 671B opera com 2,5x maior throughput por GPU sem custo adicional de inferência. Os modelos abertos e conjuntos de dados estão disponíveis no Hugging Face e no ecossistema da NVIDIA; muitos são lançados com licenças permissivas incluindo a NVIDIA Open Model License. NVIDIA Nemotron é uma família de LLMs com raciocínio projetada para precisão e desempenho; os modelos suportam inferência eficiente e ajuste fino e podem ser empacotados como microserviços de inferência NIM para implantação em qualquer sistema com GPU. A NVIDIA também lançou modelos multimodais como Isaac GR00T N1.5, um modelo de visão-linguagem-ação para robótica humanoide que permite raciocínio e compreensão de robôs, além de embedding models, tokenizers, etc. Muitos modelos vêm pré-quantizados para NVFP4 e são distribuídos com licenças permissivas. Na área de IA física, a NVIDIA Cosmos oferece um conjunto de modelos generativos e ferramentas para geração e compreensão de mundo; o núcleo do Cosmos inclui Predict, Transfer e Reason, com tokenizers e pipelines de processamento de dados; licenças de código aberto permitem que os desenvolvedores baixem e adaptem. Os SDKs e bibliotecas do Omniverse aproveitam o OpenUSD para agregação de dados e montagem de cenas; extensões de renderização em tempo real RTX e esquemas de física ajudam a construir aplicações de IA física para simulação industrial e robótica. Isso completa uma pipeline de sim-to-real para treinar sistemas de IA que operam no mundo real. Do processamento bruto de dados a modelos abertos como Cosmos e Nemotron, o ecossistema aberto da NVIDIA cobre todo o ciclo de vida da IA. Ao integrar ferramentas, modelos e frameworks abertos em cada etapa, os desenvolvedores podem passar de protótipo para produção em hardware Blackwell sem sair do ecossistema de código aberto. A pilha de software de IA da NVIDIA já alimenta milhões de fluxos de trabalho de desenvolvedores em laboratórios de pesquisa e entre empresas da Fortune 500, permitindo que equipes aproveitem o potencial dos GPUs Blackwell. Combinando inovações de hardware como FP4, segunda geração de Transformer Engines e NVLink Fusion com uma coleção inigualável de frameworks de código aberto, modelos pré-treinados e bibliotecas otimizadas, a NVIDIA garante que a inovação em IA possa escalar de protótipo para produção. Você pode experimentar hoje: explore projetos de código aberto no NVIDIA GitHub, acesse centenas de modelos e conjuntos de dados no Hugging Face ou aprofunde-se no catálogo de projetos de código aberto da NVIDIA. Quer você esteja construindo LLMs, IA generativa, robótica ou pipelines de otimização, o ecossistema é aberto e está pronto para a sua próxima grande conquista. Sobre a contribuição da NVIDIA para o código aberto: a NVIDIA atua ativamente em projetos como Linux Kernel, Python, PyTorch, Kubernetes, JAX e ROS. Além disso, a NVIDIA fortalece ecossistemas de código aberto ao contribuir para organizações como Linux Foundation, PyTorch Foundation, Python Software Foundation, Cloud Native Computing Foundation, Open Source Robotics Foundation e The Alliance for OpenUSD.

Principais recursos

  • Superchip de IA Blackwell com Tensor Cores da quinta geração e NVFP4 para computação de alta performance com precisão
  • NVLink‑72 para interconexão ultrarrápida e escalabilidade multi-GPU
  • Segunda geração de Transformer Engines e NVLink Fusion
  • Pilha de software de código aberto abrangente para todo o ciclo de vida da IA
  • RAPIDS para processamento de dados e ETL acelerados por GPU
  • NeMo, PhysicsNeMo e BioNeMo para desenvolvimento de modelos de ponta a ponta (LLMs, multimodal, física-informada e ciência da vida)
  • Bibliotecas CUDA-X, NCCL para comunicação multi-GPU/multi-nó e CUTLASS para kernels de alto desempenho
  • Stack de inferência TensorRT com TensorRT-LLM e TensorRT Model Optimizer, com suporte a FP4 no Blackwell
  • Dynamo para servir modelos de forma agnóstica a frameworks, com NIXL para movimentação de dados de alto rendimento
  • 1.000+ ferramentas de código aberto no GitHub e 450+ modelos com 80+ conjuntos de dados no Hugging Face
  • Nemotron para raciocínio em LLM; Cosmos para geração/entendimento de mundo; Omniverse OpenUSD para pipelines de sim-to-real
  • Licenças permissivas para muitos modelos (incluindo NVIDIA Open Model License)
  • Contribuições contínuas para Linux Kernel, PyTorch, Kubernetes e outras iniciativas, com apoio a fundações como Linux Foundation e PyTorch Foundation

Casos de uso comuns

  • Treinamento e implantação de LLMs, modelos multimodais e de fala com NeMo e stacks correlatos
  • ML informada por física para gêmeos digitais e simulações científicas com PhysicsNeMo
  • Aplicações em ciências da vida como predição de estrutura de proteínas, design molecular e descoberta de fármacos com BioNeMo
  • Raciocínio robótico e sistemas autônomos com Isaac GR00T N1.5 e fluxos de sim-to-real usando Omniverse OpenUSD
  • Inferência e treinamento escaláveis com TensorRT, Dynamo, NCCL e kernels otimizados para FP4
  • Processamento e ETL de dados com RAPIDS para acelerar o treinamento de modelos
  • Empacotamento e implantação de modelos como microserviços NIM para desktops a data centers

Setup & instalação

# Detalhes de setup e instalação não são fornecidos na fonte.
# Consulte as fontes oficiais da NVIDIA para passos exatos de configuração.

Quick start

Não há exemplo rápido disponível na fonte; o material descreve capacidades e componentes, mas não inclui um script runnable de início rápido.

Prós e contras

  • Prós:
  • Ecossistema aberto rico: 1.000+ ferramentas no GitHub e 450+ modelos com 80+ conjuntos de dados no Hugging Face
  • Pilha de ponta a ponta cobrindo preparo de dados, treinamento, inferência e implantação
  • Projeto de hardware/software alinhado com recursos do Blackwell (FP4, NVLink, Transformer Engines)
  • Servir via Dynamo de forma independente de framework com inferência otimizada por TensorRT
  • Licenças permissivas para muitos modelos (NVIDIA Open Model License)
  • Contras:
  • A fonte não lista explicitamente desvantagens; considerações práticas como custo e requisitos de hardware não são detalhadas

Alternativas (comparações breves)

| Aspecto | Stack de código aberto da NVIDIA (conforme descrito) | Observações |---|---|---| | Foco central | Ciclo de vida de IA com modelos, dados e ferramentas abertos | Enfatiza integração entre preparo de dados, treinamento, inferência e implantação |Licenciamento | Licenças permissivas incluindo NVIDIA Open Model License | Termos variam por modelo/conjunto de dados; ver fontes |Ecossistema | Bibliotecas CUDA-X, RAPIDS, NeMo, Dynamo, TensorRT, CUTLASS, NCCL | Cobertura ampla em diferentes fases de IA |

Licenciamento

A NVIDIA observa licenças permissivas para muitos modelos abertos, incluindo a NVIDIA Open Model License, e enfatiza um ecossistema que permite experimentação e implantação em escala.

Referências

https://developer.nvidia.com/blog/nvidia-hardware-innovations-and-open-source-contributions-are-shaping-ai/

More resources