Skip to content
Fine-Tuning gpt-oss para Precisão e Desempenho com Treinamento de Quantização (QAT)
Source: developer.nvidia.com

Fine-Tuning gpt-oss para Precisão e Desempenho com Treinamento de Quantização (QAT)

Sources: https://developer.nvidia.com/blog/fine-tuning-gpt-oss-for-accuracy-and-performance-with-quantization-aware-training, https://developer.nvidia.com/blog/fine-tuning-gpt-oss-for-accuracy-and-performance-with-quantization-aware-training/, NVIDIA Dev Blog

Overview

A fine-tuning do gpt-oss para precisão e desempenho utiliza um fluxo em duas etapas que combina ajuste fino supervisionado (SFT) em maior precisão com treinamento consciente à quantização (QAT) para recuperar a precisão pretendida em FP4. A estratégia foca em subir a precisão para estabilizar gradientes e, em seguida, aplicar QAT para adaptar os pesos de volta ao FP4, preservando a eficiência de implantação. Esse fluxo é demonstrado no gpt-oss, a família de modelos open-source com arquitetura MoE, comprimento de contexto de 128K e a maior variante gpt-oss-120B apresentando desempenho competitivo em benchmarks abertos. O conjunto completo da receita está disponível no repositório Model Optimizer e foi adaptado a partir dos gpt-oss-recipes da Hugging Face para integrar QAT e componentes relacionados. O principal desafio é recuperar a precisão em FP4 mantendo a eficiência de inferência de baixa precisão. Ao subir para BF16 para o SFT e, em seguida, aplicar QAT para ajustar os pesos ao formato MXFP4 de baixa precisão, a receita reforça o comportamento específico da tarefa e alinha os pesos com o formato de baixa precisão desejado. Os resultados demonstram ganhos significativos em tarefas downstream e apontam para convergência ainda mais apertada com o suporte NVFP4 no futuro.

Principais recursos

  • Fluxo de ajuste em duas etapas: SFT em alta precisão seguido por treinamento com quantização (QAT) para FP4.
  • Mecanismo de upcasting: subir para BF16 para acumulação de gradiente estável antes do QAT.
  • Formats FP4: MXFP4 como alvo inicial de baixa precisão, com NVFP4 como variante FP4 de maior precisão em perspectiva.
  • Escopo do modelo: gpt-oss com arquitetura MoE, 128K de contexto, até gpt-oss-120B.
  • Disponibilidade de código: o conjunto completo da receita está no repositório NVIDIA Model Optimizer.
  • Melhorias práticas: duas tarefas de avaliação downstream passaram de 16% e 30% de taxa de aprovação para 98% após a receita.
  • Benefícios do NVFP4: o NVFP4 mostra convergência melhor e perda de validação de 2–3% menor que MXFP4 na mesma linha de fluxo.
  • Prontidão para ecossistema: suporte NVFP4 vindo para o TensorRT-LLM e prioridade de habilitação em outros frameworks de inferência open-source.
  • Fluxo de implantação: após o fine-tuning em FP4, um script de conveniência exporta checkpoints BF16 treinados para MXFP4, com validação em SGLang, TensorRT-LLM e vLLM; implantação demonstrada com TensorRT-LLM 1.1.0rc1.
  • Futuro: NVFP4 visa convergência mais apertada e margens maiores para limiares mais rígidos e raciocínio mais profundo.

Casos de uso comuns

  • Melhorar raciocínio em idiomas não ingleses e outros comportamentos específicos da tarefa com dados multilíngues (conjunto OpenAI Cookbook).
  • Reduzir recusas desnecessárias de prompts seguros (conjunto FalseReject da Amazon).
  • Implantar grandes modelos open-source em ambientes de produção com tolerância a falhas baixa (saúde, finanças).
  • Preparar modelos para hardware e frameworks futuros (próximo NVFP4 para TensorRT-LLM e outros frameworks de inferência).

Instalação & Setup

Detalhes de setup e instalação são descritos no repositório Model Optimizer referenciado pela NVIDIA. O texto indica que comandos exatos não são fornecidos no artigo, devendo o usuário consultar o repositório para código e scripts que implementam o fluxo SFT + QAT e a exportação FP4.

# Comandos de setup não fornecidos na fonte. Consulte o repositório Model Optimizer para etapas exatas.

Quick start

O fluxo é projetado como um processo em duas etapas: subir para maior precisão para SFT, depois aplicar QAT para retornar ao FP4 pretendido, seguido da exportação do checkpoint para implantação. Uma visão geral de alto nível é fornecida aqui (a fonte enfatiza que comandos exatos pertencem ao repositório Model Optimizer e à documentação associada).

  1. Inicie a partir de um checkpoint base do gpt-oss (por exemplo, gpt-oss-120B).
  2. Upcast para BF16 e realize fine-tuning supervisionado (SFT) para reforçar o comportamento específico da tarefa.
  3. Aplique quantization aware training (QAT) para alinhar os pesos ao MXFP4 de baixa precisão.
  4. Exporte o checkpoint FP4 resultante para um formato compatível com PyTorch usando a ferramenta de exportação fornecida.
  5. Valide em tarefas downstream e prepare para implantação com TensorRT-LLM. Observação: o artigo afirma que pular a etapa de SFT com alta precisão e ir direto para o QAT resulta em precisão inferior, portanto o fluxo em duas etapas é recomendado.
# Quick-start placeholder (conceitual)
print("Consulte o repositório NVIDIA Model Optimizer para passos executáveis exatos.")

Vantagens e desvantagens

  • Vantagens
  • Restaura a precisão de pós-treinamento enquanto mantém a eficiência de implantação em FP4.
  • O upcasting permite acumulação estável de gradientes durante o SFT antes do QAT.
  • MXFP4 e NVFP4 fornecem caminhos práticos para inferência FP4 com convergência aprimorada (NVFP4 apresenta melhor convergência e perda de validação 2–3% menor que MXFP4 em comparações).
  • A workflow entrega altas taxas de aprovação em downstream (ex.: 98% em duas tarefas específicas).
  • Ferramentas de conveniência permitem exportar checkpoints BF16 treinados para MXFP4 para implantação e validação em diferentes frameworks.
  • Desvantagens
  • Requer fluxo em duas etapas (não apenas QAT), o que pode aumentar a complexidade de configuração.
  • O suporte NVFP4 está chegando; a integração completa com TensorRT-LLM e outros frameworks nem sempre é universal.
  • Comandos exatos e código são fornecidos no repositório Model Optimizer, o que cria dependência de documentação externa.

Alternativas (breve comparação)

| Abordagem | Observações | Prós | Contras |---|---|---|---| | MXFP4 com SFT + QAT (caminho comprovado atual) | Fluxo em duas etapas para recuperação de FP4 | Restaura precisão, mantém eficiência FP4 | Requer upcasting e fluxo de QAT; pode exigir ajuste de modelo |NVFP4 com SFT + QAT (próximo) | FP4 orientado a treinamento com hardware Blackwell | Convergência potencialmente mais apertada; perda de validação 2–3% menor | Suporte disponível conforme/quando TensorRT-LLM e frameworks forem atualizados; mudanças de código podem ser necessárias |SFT sozinho (sem QAT) | Não é o caminho recomendado no material | Fluxo mais simples | Provavelmente não atinge precisão FP4 necessária para implantação |

Licenciamento ou Preços

O artigo não fornece informações sobre licenciamento ou preços.

Referências

More resources