CUDA Agora Redistribuído pela Canonical, CIQ, SUSE e Flox para Implantação Mais Fácil de Software GPU
Sources: https://developer.nvidia.com/blog/developers-can-now-get-cuda-directly-from-their-favorite-third-party-platforms, https://developer.nvidia.com/blog/developers-can-now-get-cuda-directly-from-their-favorite-third-party-platforms/, NVIDIA Dev Blog
TL;DR
- CUDA está sendo redistribuído por plataformas de terceiros (Canonical, CIQ, SUSE e Flox) para inserir CUDA diretamente em seus feeds de pacotes.
- Isso simplifica a instalação e a resolução de dependências, garantindo que a versão correta do CUDA seja instalada junto com sua aplicação.
- A medida amplia o acesso e a facilidade de uso do CUDA para desenvolvedores que trabalham com fluxos de trabalho com GPU (por exemplo, PyTorch, OpenCV).
- O acesso existente à NVIDIA continua gratuito e disponível, com distribuidores adicionais chegando em breve.
Contexto e antecedentes
Desenvolvedores costumam enfrentar desafios ao montar e implantar software que precisa alinhar capacidades de hardware e software e compatibilidade. Garantir que cada componente subjacente esteja instalado corretamente e corresponda às versões exigidas para evitar conflitos pode ser demorado, levando a atrasos de implantação e ineficiências operacionais. Em resposta, a NVIDIA está ampliando a forma como o CUDA pode ser obtido ao colaborar com um ecossistema amplo de sistemas operacionais e gerenciadores de pacotes para reduzir atritos na implantação de software com GPU NVIDIA Dev Blog.
O que há de novo
A NVIDIA está permitindo a redistribuição do CUDA por meio de plataformas de terceiros, incluindo os provedores de OS Canonical, CIQ e SUSE, e o gerenciador de ambientes de desenvolvimento Flox (que habilita o gerenciador de pacotes Nix) para incorporar o CUDA em seus feeds de pacotes. Isso permite que o CUDA seja obtido de maneira mais centralizada, embutido em implantações corporativas maiores e em software. Como resultado, os desenvolvedores podem baixar e instalar seus aplicativos, e a plataforma garantirá que a versão correta do CUDA seja instalada nos bastidores. A NVIDIA vê isso como um marco significativo para reduzir atritos na implantação de software com GPU, mantendo o CUDA acessível, consistente e fácil de usar, independentemente de onde ou como os desenvolvedores escolham construir.
Por que isso importa (impacto para desenvolvedores/empresas)
- Redução da complexidade de configuração: empacotar CUDA em feeds de pacotes facilita a instalação e a resolução de dependências, ajudando equipes a evitar conflitos de versão.
- Aceleração de implantação de workloads com GPU: torna mais fácil incluir suporte a CUDA em aplicações complexas como PyTorch e bibliotecas como OpenCV.
- Experiência CUDA consistente: ao colaborar com ecossistemas de OS e gerenciadores de pacotes, o CUDA permanece acessível e previsível em ambientes de implantação diversos.
- Flexibilidade e expansão: CUDA continua gratuito para obtenção, e os métodos de acesso existentes permanecem disponíveis juntamente com os novos canais de redistribuição; mais distribuidores devem participar.
Detalhes técnicos ou Implementação
- Redistribuição por terceiros: Canonical, CIQ, SUSE e Flox irão incorporar o CUDA em seus feeds de pacotes, permitindo que CUDA seja distribuído como parte de implantações corporativas maiores e de software.
- Instalação contínua: o objetivo é que os desenvolvedores façam o download de sua aplicação e o CUDA correto seja instalado nos bastidores, sem etapas manuais de instalação do CUDA.
- Acessos existentes permanecem: as vias tradicionais para obter o CUDA continuam disponíveis (Toolkit CUDA, contêiner CUDA e instalações Python via pip ou conda).
- Acesso gratuito mantido: obter o software CUDA da NVIDIA continua sendo gratuito, e as vias atuais permanecem disponíveis junto com as novas opções de redistribuição.
- Distribuidores adicionais: a NVIDIA indica que mais plataformas de terceiros participarão à medida que o ecossistema CUDA se expandir.
Tabela: Caminhos de acesso ao CUDA (visão geral)
| Caminho de acesso | Descrição |
|---|---|
| CUDA Toolkit | Download tradicional direto da NVIDIA para componentes CUDA. |
| Contêiner CUDA | Ambiente CUDA em contêiner para workloads que rodam em containers. |
| pip / conda | Instalações Python de componentes compatíveis com CUDA. |
| Redistribuição de terceiros | CUDA incorporado aos feeds de pacotes por Canonical, CIQ, SUSE, Flox para simplificar implantação e garantir a versão correta com a aplicação |
Principais conclusões
- CUDA está sendo redistribuído por plataformas de terceiros para incorporar CUDA em feeds de pacotes, reduzindo atritos na implantação.
- Essa abordagem complementa os métodos existentes de acesso ao CUDA e enfatiza consistência entre OS e ecossistemas de pacotes.
- A mudança busca facilitar fluxos de trabalho com GPU em bibliotecas populares e estruturas, mantendo o CUDA gratuito para obtenção.
- Mais distribuidores devem participar, sinalizando adoção mais ampla no ecossistema.
FAQ
-
Quais plataformas estão redistribuindo CUDA?
Canonical, CIQ, SUSE e Flox (Nix) estão distribuindo CUDA, com mais distribuidores esperados.
-
Como isso afeta a instalação?
Você instala sua aplicação e os feeds de embalagem garantem que a versão correta do CUDA seja instalada nos bastidores.
-
Ainda preciso baixar CUDA separadamente?
Sim — o CUDA Toolkit, o contêiner CUDA e instalações do Python via pip ou conda permanecem disponíveis, além dos canais de redistribuição.
-
a redistribuição de CUDA é gratuita?
Obter o software CUDA da NVIDIA sempre foi gratuito, e as vias atuais continuam disponíveis junto com as opções de redistribuição.
Referências
More news
NVIDIA HGX B200 reduz a Intensidade de Emissões de Carbono Incorporado
O HGX B200 da NVIDIA reduz 24% da intensidade de carbono incorporado em relação ao HGX H100, ao mesmo tempo em que aumenta o desempenho de IA e a eficiência energética. Esta análise resume os dados de PCF e as novidades de hardware.
Prever Eventos Climáticos Extremos em Minutos sem Supercomputador com Huge Ensembles (HENS)
NVIDIA e o Lawrence Berkeley National Laboratory apresentam Huge Ensembles (HENS), uma ferramenta de IA de código aberto que prevê eventos climáticos raros e de alto impacto usando 27.000 anos de dados, com opções de código aberto ou prontos para uso.
Playbook dos Grandmasters do Kaggle: 7 Técnicas de Modelagem Testadas para Dados Tabulares
Análise detalhada de sete técnicas testadas por Grandmasters do Kaggle para resolver grandes conjuntos de dados tabulares com aceleração por GPU, desde baselines diversificados até ensemble avançado e pseudo-rotulagem.
Como reduzir gargalos do KV Cache com NVIDIA Dynamo
O Dynamo da NVIDIA transfere o KV Cache da memória da GPU para armazenamento de custo mais baixo, permitindo janelas de contexto maiores, maior concorrência e menor custo de inferência em grandes modelos.
Microsoft transforma site da Foxconn no data center Fairwater AI, considerado o mais poderoso do mundo
A Microsoft divulga planos para um data center Fairwater AI de 1,2 milhão de pés quadrados no Wisconsin, com centenas de milhares de GPUs Nvidia GB200. projeto de US$ 3,3 bilhões promete treinamento de IA em escala sem precedentes.
NVIDIA RAPIDS 25.08 Adiciona Novo Profiler para cuML, Melhorias no Motor GPU Polars e Suporte Ampliado de Algoritmos
RAPIDS 25.08 traz profiladores function-level e line-level para cuml.accel, executor streaming padrão no motor GPU Polars, suporte ampliado de tipos e strings, novo Spectral Embedding no cuML e acelerações com zero código para mais algoritmos.