Skip to content
NVIDIA HGX B200 reduz a Intensidade de Emissões de Carbono Incorporado
Source: developer.nvidia.com

NVIDIA HGX B200 reduz a Intensidade de Emissões de Carbono Incorporado

Sources: https://developer.nvidia.com/blog/nvidia-hgx-b200-reduces-embodied-carbon-emissions-intensity, https://developer.nvidia.com/blog/nvidia-hgx-b200-reduces-embodied-carbon-emissions-intensity/, NVIDIA Dev Blog

TL;DR

  • O HGX B200 reduz a intensidade de carbono incorporado para 0,50 gCO2e por exaflop (FP16), uma melhoria de 24% em relação ao HGX H100 (0,66 gCO2e/exaflop).
  • Inferência de IA é até 15x mais eficiente em termos de energia no HGX B200, com redução de cerca de 93% de energia para o mesmo workload de inferência.
  • Desempenho: FP16 é 2,3x mais rápido que no HGX H100.
  • Hardware e memória: oito GPUs por plataforma; 180 GB de memória HBM3E por GPU; interconexão NVLink/NVSwitch de quinta geração, até 1,8 TB/s por GPU e 14,4 TB/s de largura de banda total; Transformer Engine de segunda geração com FP4 e FP8.
  • Impacto a jusante: para o modelo DeepSeek-R1, prevê-se 10x de eficiência de inferência, levando a uma redução de 90% nas emissões operacionais para processar 1 milhão de tokens de inferência. NVIDIA destaca que os resumos de Pegada de Carbono do Produto (PCF) utilizam dados diretos de fornecedores e são alinhados com padrões ISO, com o objetivo de aumentar a transparência e informar práticas de computação sustentável. Para mais detalhes, consulte o Resumo de Pegada de Carbono do Produto para o NVIDIA HGX B200. Fonte

Contexto e antecedentes

O NVIDIA HGX B200 é uma plataforma de computação acelerada por oito GPUs, projetada para HPC e workloads de analytics de dados. Ela traz GPUs NVIDIA Blackwell B200, memória de 180 GB HBM3E por GPU e conectividade de alta velocidade via NVLink/NVSwitch. As memórias, interconexões e engines de transformação visam aumentar o desempenho de IA mantendo custos de energia mais baixos. Os resumos PCF para esses produtos seguem as normas ISO 14040/14044 para avaliações do ciclo de vida e ISO 14067 sobre pegadas de carbono, reforçando o compromisso da NVIDIA com a transparência.

O que há de novo

O HGX B200 traz várias melhorias sobre o HGX H100:

  • GPUs NVIDIA Blackwell B200 com memória de 180 GB HBM3E por GPU.
  • Transformer Engine de segunda geração, com suporte a FP4 e FP8.
  • NVLink/NVSwitch de quinta geração, com até 1,8 TB/s por GPU e 14,4 TB/s de largura de banda total.
  • Desempenho: throughput FP16 2,3x maior que o HGX H100.
  • Ganhos de eficiência energética na inferência: até 15x mais eficiente em termos de energia. Além disso, dados de PCF apontam reduções nas emissões associadas a materiais e componentes, especialmente em componentes térmicos, ICs e memória, contribuindo para uma menor intensidade de emissões incorporadas.

Por que isso importa (impacto para desenvolvedores/empresas)

Para desenvolvedores e empresas, o HGX B200 oferece maior desempenho de computação aliado a um menor impacto ambiental. A redução de 24% na intensidade de carbono incorporado significa menos emissões de fabricação para a mesma quantidade de computação, enquanto os ganhos significativos na eficiência de inferência reduzem o consumo de energia durante a implantação. Esses ganhos são relevantes para cargas de trabalho extensas, como treinamento de IA e inferência. Além disso, ganhos práticos são evidentes: para o modelo DeepSeek-R1, há uma projeção de 10x na eficiência de inferência, resultando em cerca de 90% de redução de emissões operacionais ao processar 1 milhão de tokens de inferência. Esses números consideram fatores como as emissões de origem, perda de T&D e fatores de emissão da IEA de 2023, e são integrados aos dados de PCF com conformidade às normas ISO. Do ponto de vista técnico, empresas podem esperar melhor economia de data center devido à menor demanda de energia na inferência e a avanços na capacidade de memória e na largura de banda de interconexão que sustentam modelos de IA maiores com maior escalabilidade. Para referências adicionais, consulte o Resumo de Pegada de Carbono do Produto para o NVIDIA HGX B200. Fonte

Detalhes técnicos ou Implementação

A plataforma HGX B200 mantém oito GPUs por placa e traz melhorias de hardware e software para acelerar cargas de IA com menor impacto ambiental. Especificações-chave e contexto comparativo: | Atributo | HGX H100 | HGX B200 |---|---|---| | GPUs por plataforma | 8 | 8 |Memória por GPU | não especificado na fonte | 180 GB HBM3E |Interconexão | NVLink/NVSwitch de quinta geração | NVLink/NVSwitch de quinta geração; até 1,8 TB/s por GPU; 14,4 TB/s de largura de banda total |Transformer Engine | Geração 1 (FP8/FP16) | Geração 2 com FP4 e FP8 |Throughput FP16 vs H100 | baseline 1x | 2,3x mais rápido |Eficiência de inferência de IA | baseline | Até 15x mais eficiente em energia (inferência) |Intensidade de carbono incorporado (gCO2e/exaflop, FP16) | 0,66 | 0,50 |Observações relevantes sobre emissões | – | Reduções em componentes térmicos, ICs e memória | Os números de intensidade de carbono e desempenho são baseados no FP16 e no PCF, refletindo uma redução de 24% de HGX H100 para HGX B200. Os resumos PCF utilizam dados primários de fornecedores para >90% do peso do produto e combinam modelos de imec.netzero, ecoinvent 3.10 e Sphera para materiais, transporte e energia, alinhados a normas ISO. NVIDIA também afirma que há benefícios de emissões operacionais mais pronunciados na prática de uso. Para detalhes completos, consulte o Resumo de Pegada de Carbono do Produto para o HGX B200. Fonte

Principais conclusões

  • O HGX B200 entrega redução expressiva na intensidade de carbono embutido (0,50 gCO2e/exaflop FP16) em comparação com o HGX H100 (0,66 gCO2e/exaflop FP16).
  • Desempenho FP16 é 2,3x maior e inferência de IA é até 15x mais eficiente em energia.
  • Melhorias de memória e interconexão incluem 180 GB de HBM3E por GPU e largura de banda significativa com NVLink/NVSwitch de quinta geração.
  • O Transformer Engine de segunda geração com FP4/FP8 abre caminho para maior throughput em precisão reduzida.
  • Benefícios práticos para inferência, como 10x eficiência no DeepSeek-R1 e 90% menos emissões operacionais para 1 milhão de tokens, reforçam o valor ambiental e de desempenho para implantação em larga escala.

FAQ

  • O que é o NVIDIA HGX B200?

    É uma plataforma de computação acelerada por oito GPUs, projetada para HPC e workloads de analytics, com Interconexão NVLink/NVSwitch e GPUs NVIDIA Blackwell B200.

  • Como o HGX B200 se compara ao HGX H100 em carbono incorporado?

    intensidade de carbono incorporado cai de 0,66 gCO2e/exaflop (H100) para 0,50 gCO2e/exaflop (B200), uma redução de 24% (FP16). [Fonte](https://developer.nvidia.com/blog/nvidia-hgx-b200-reduces-embodied-carbon-emissions-intensity/)

  • uais são as principais melhorias de hardware do HGX B200?

    180 GB de memória HBM3E por GPU, interconexão NVLink/NVSwitch de quinta geração com até 1,8 TB/s por GPU e 14,4 TB/s de largura total, Transformer Engine de segunda geração com FP4/FP8, e throughput FP16 2,3x maior que o H100; inferência de IA até 15x mais eficiente.

  • ual é o impacto prático da inferência?

    inferência pode ser até 15x mais eficiente energeticamente; para o DeepSeek-R1, há uma previsão de 10x na eficiência de inferência, resultando em cerca de 90% de redução de emissões operacionais para processar 1 milhão de tokens de inferência.

Referências

More news