Skip to content
Ajuste fino de gpt-oss para Precisión y Rendimiento con Entrenamiento Consciente de Cuantización (QAT)
Source: developer.nvidia.com

Ajuste fino de gpt-oss para Precisión y Rendimiento con Entrenamiento Consciente de Cuantización (QAT)

Sources: https://developer.nvidia.com/blog/fine-tuning-gpt-oss-for-accuracy-and-performance-with-quantization-aware-training, https://developer.nvidia.com/blog/fine-tuning-gpt-oss-for-accuracy-and-performance-with-quantization-aware-training/, NVIDIA Dev Blog

Visión general

Ajustar fino gpt-oss para precisión y rendimiento emplea un flujo en dos etapas que combina un ajuste fino supervisado (SFT) a alta precisión con entrenamiento consciente de cuantización (QAT) para recuperar la precisión objetivo en FP4. El enfoque se centra en subir la precisión para estabilizar gradientes, seguido de QAT para adaptar los pesos a FP4, preservando la eficiencia de despliegue. Este flujo se demuestra en gpt-oss, la familia de modelos open-source con arquitectura MoE y longitud de contexto de 128K; la variante más grande, gpt-oss-120B, ofrece rendimiento competitivo en benchmarks abiertos. El código completo de la receta está disponible en el repositorio Model Optimizer y se ha adaptado desde los gpt-oss-recipes de Hugging Face para integrar QAT y componentes relacionados. El desafío principal es recuperar la precisión FP4 manteniendo la eficiencia de la inferencia de baja precisión. Al subir a BF16 para SFT y luego aplicar QAT para ajustar los pesos al MXFP4, la receta refuerza el comportamiento específico de la tarea y alinea los pesos con el formato de baja precisión deseado. Los resultados muestran mejoras significativas en tareas downstream y señalan convergencia más ajustada con el soporte NVFP4 por venir.

Características clave

  • Flujo de dos etapas: SFT en alta precisión seguido de QAT para FP4.
  • Mecanismo de subida de precisión: subir a BF16 para una acumulación estable de gradientes antes del QAT.
  • Formatos FP4: MXFP4 como objetivo inicial, con NVFP4 como variante FP4 futura.
  • Alcance del modelo: gpt-oss con arquitectura MoE, 128K de contexto, hasta gpt-oss-120B.
  • Disponibilidad de código: el conjunto completo de la receta se proporciona en el repositorio Model Optimizer de NVIDIA.
  • Mejoras prácticas: dos tareas de evaluación downstream pasaron de 16% y 30% de tasas de aprobación a 98% tras la receta.
  • Beneficios de NVFP4: NVFP4 muestra mejor convergencia y una pérdida de validación 2–3% menor que MXFP4 en la misma línea de flujo.
  • Preparación para el ecosistema: soporte NVFP4 próximo en TensorRT-LLM y prioridad de habilitación en otros frameworks de inferencia open-source.
  • Flujo de despliegue: después del ajuste FP4, un script de conveniencia exporta checkpoints BF16 entrenados a MXFP4, con validación en SGLang, TensorRT-LLM y vLLM; despliegue demostrado con TensorRT-LLM 1.1.0rc1.
  • Futuro: NVFP4 busca una convergencia más ajustada y mejores márgenes para umbrales más estrictos y razonamiento más profundo.

Casos de uso comunes

  • Mejorar el razonamiento en idiomas no ingleses y otros comportamientos específicos de la tarea usando datos multilingües (conjunto OpenAI Cookbook).
  • Reducir rechazos innecesarios de prompts seguros (conjunto FalseReject de Amazon).
  • Desplegar grandes modelos open-source en entornos de producción con baja tolerancia a fallos (salud, finanzas).
  • Preparar modelos para hardware y marcos futuros (con soporte NVFP4 para TensorRT-LLM y otros frameworks de inferencia).

Configuración e instalación

Los detalles de configuración e instalación se describen en el repositorio Model Optimizer referenciado por NVIDIA. El artículo señala que los comandos exactos no están disponibles y que se deben consultar los scripts en el repositorio para implementar el flujo SFT + QAT y la exportación FP4.

# Comandos de configuración no proporcionados en la fuente. Consulte el repositorio Model Optimizer para pasos exactos.

Inicio rápido

El flujo está diseñado como un proceso en dos etapas: subir a una mayor precisión para SFT, luego aplicar QAT para volver al FP4 objetivo, y después exportar el checkpoint para despliegue. Un esquema de alto nivel (los comandos exactos pertenecen al repositorio Model Optimizer y a la documentación asociada).

  1. Partir de un checkpoint de gpt-oss (p. ej., gpt-oss-120B).
  2. Subir a BF16 y realizar fine-tuning supervisado (SFT).
  3. Aplicar QAT para alinear los pesos a MXFP4 de baja precisión.
  4. Exportar el checkpoint FP4 resultante a un formato compatible con PyTorch usando la herramienta de exportación.
  5. Validar en tareas downstream y prepararse para el despliegue con TensorRT-LLM. Nota: el artículo señala que omitir la etapa de SFT de alta precisión y avanzar directamente al QAT genera precisión inferior; se recomienda el flujo en dos pasos.
# Démarrage rapide placeholder (conceptuel)
print("Consulte el repositorio NVIDIA Model Optimizer para pasos ejecutables exactos.")

Ventajas y desventajas

  • Ventajas
  • Restaura la precisión de posentrenamiento manteniendo la eficiencia del FP4 para despliegue.
  • Subir a una precisión mayor facilita una acumulación estable de gradientes durante el SFT antes del QAT.
  • MXFP4 y NVFP4 ofrecen rutas prácticas para la inferencia FP4 con convergencia mejorada (NVFP4 muestra convergencia 2–3% menor en pérdida de validación frente a MXFP4).
  • La receta produce altas tasas de éxito en tareas downstream (p. ej., 98% en dos tareas específicas).
  • Herramientas de conveniencia para exportar puntos de control BF16 entrenados a MXFP4 para despliegue y validación en múltiples frameworks.
  • Desventajas
  • Requiere un flujo en dos etapas (no es simplemente QAT), lo que añade complejidad.
  • El soporte para NVFP4 está por venir; la integración completa con TensorRT-LLM y otros frameworks aún no es universal.
  • Los comandos exactos y el código se proporcionan en el repositorio Model Optimizer, lo que implica depender de documentación externa.

Alternativas (breve comparación)

| Enfoque | Notas | Pros | Contras |---|---|---|---| | MXFP4 con SFT + QAT (camino actual probado) | Dos etapas para recuperar FP4 | Restaura precisión, mantiene la eficiencia FP4 | Requiere subida y flujo QAT; puede necesitar ajuste del modelo |NVFP4 con SFT + QAT (próximo) | FP4 optimizado para entrenamiento en hardware Blackwell | Convergencia potencialmente más estrecha; pérdida de validación 2–3% menor | Disponibilidad depende del soporte de TensorRT-LLM y otros frameworks; cambios de código pueden ser necesarios |SFT solo (sin QAT) | No se recomienda en el material | Flujo más simple | Probablemente no alcanza la precisión FP4 necesaria para el despliegue |

Precios o Licencia

No se proporcionan detalles de precios o licencias en la fuente.

Referencias

More resources