Skip to content
gpt-oss-120b et gpt-oss-20b : Fiche modèle en poids libre pour le raisonnement et l’utilisation d’outils
Source: openai.com

gpt-oss-120b et gpt-oss-20b : Fiche modèle en poids libre pour le raisonnement et l’utilisation d’outils

Sources: https://openai.com/index/gpt-oss-model-card, openai.com

TL;DR

  • Deux modèles de raisonnement en poids libre, gpt-oss-120b et gpt-oss-20b, sortent sous licence Apache 2.0 et sous la politique d’utilisation gpt-oss.
  • Ce sont des modèles purement textuels, compatibles avec l’API Responses d’OpenAI, conçus pour des flux de travail agentiques et dotés d’un usage d’outils (recherche web, exécution de code Python), d’un raisonnement ajustable et du chaînage de pensée (CoT) complet avec des sorties structurées.
  • La sécurité demeure fondamentale; les modèles ouverts présentent un profil de risque différent, incluant le risque qu’ils soient affinés pour contourner les refus de sécurité. Les développeurs et les entreprises peuvent nécessiter des garde-fous supplémentaires pour reproduire les protections de niveau système dans les déploiements API.
  • Des évaluations de capacité à grande échelle indiquent que le modèle par défaut ne atteint pas les seuils élevés dans les trois catégories suivies (Capacité biologique et chimique, Capacité cyber, Auto-amélioration de l’IA). OpenAI réaffirme son engagement en faveur d’une IA bénéfique et de normes de sécurité renforcées.

Contexte et arrière-plan

OpenAI a annoncé le gpt-oss-120b et le gpt-oss-20b le 5 août 2025, élaborés avec les retours de la communauté open-source. Ces modèles purement textuels sont en poids libre, disponibles sous licence Apache 2.0, et accompagnés de la politique d’utilisation gpt-oss. Conçus pour être utilisés dans des flux de travail d’agents, ils sont compatibles avec l’API Résponses et prennent en charge le suivi d’instructions, l’utilisation d’outils tels que la recherche web et l’exécution de code Python, ainsi que le raisonnement. Ils offrent la possibilité d’ajuster l’effort de raisonnement pour les tâches peu exigeantes et proposent un CoT complet et des sorties structurées. Cette publication insiste sur la sécurité comme principe fondamental des modèles ouverts, tout en reconnaissant qu’un profil de risque distinct existe par rapport aux modèles propriétaires. Une fois déployés, des attaquants pourraient affiner les modèles pour contourner les refus de sécurité ou optimiser le mal; dans certains contextes, les développeurs et entreprises devront mettre en place des garde-fous supplémentaires pour reproduire les protections système présentes dans les modèles fournis via l’API. Le document est qualifié de fiche modèle plutôt que de fiche système pour refléter l’étendue des systèmes qui peuvent être créés et maintenus par de multiples parties prenantes. Bien que les modèles soient conçus pour suivre les politiques de sécurité d’OpenAI par défaut, d’autres parties prenantes prendront aussi des décisions sur la sécurité de leurs systèmes. OpenAI a mené des évaluations de capacité évolutives sur le gpt-oss-120b et a confirmé que le modèle par défaut n’atteint pas les seuils indicatifs de Haute capacité dans les trois catégories suivies du cadre de préparation : Capacité biologique et chimique, Capacité cyber, et Auto-amélioration de l’IA. Cette approche s’inscrit dans l’engagement d’avancer une IA bénéfique et d’élever les normes de sécurité dans l’écosystème. Publication 27 août 2025 • Sécurité 27 août 2025 • Produit 26 août 2025

Ce qui est nouveau

Cette sortie introduit deux modèles en poids libre, axés sur le texte, gpt-oss-120b et gpt-oss-20b, fonctionnant sous licence Apache 2.0 et la politique d’utilisation gpt-oss. Points clés :

  • Modèles purement textuels, en poids libre, destinés à être déployés et intégrés dans divers systèmes par des développeurs et des entreprises.
  • Compatibilité avec l’API Résponses pour une intégration fluide dans les flux existants.
  • Suivi des instructions robuste, avec support d’outils tels que la recherche sur le web et l’exécution de code Python.
  • Raisonnement avec possibilité d’ajuster l’effort pour les tâches moins exigeantes.
  • Chaîne de pensée (CoT) complète et sorties structurées pour une traçabilité et un traitement en aval améliorés.
  • Accent sur la sécurité en tant que principe directeur, avec des remarques sur les risques et les mitigations par les acteurs qui utilisent ces modèles.
  • Reconnaissance du risque : une fois publiés, des ajustements peuvent servir à contourner les refus de sécurité; des garde-fous supplémentaires peuvent être nécessaires pour reproduire les protections système.
  • Le document est présenté comme une fiche modèle pour refléter l’écosystème large de systèmes susceptibles d’intégrer ces modèles.
  • Évaluations de capacité à grande échelle indiquant que le gpt-oss-120b par défaut n’atteint pas les seuils de Haute capacité dans les catégories suivies.

Pourquoi c’est important (impact pour les développeurs/entreprises)

La publication gpt-oss vise à étendre l’accès à des modèles d’IA ouverts et auditable, pouvant être intégrés dans un éventail plus large de systèmes au-delà d’un produit unique. Pour les développeurs et les entreprises, le poids libre offre transparence et flexibilité pour adapter les modèles à des flux de travail spécifiques, notamment des tâches de raisonnement et l’utilisation d’outils. Cependant, l’approche ouverte déplace une partie des responsabilités de sécurité vers les personnes qui déploient ces modèles. Bien que OpenAI conçoive les modèles par défaut pour respecter les politiques de sécurité, l’écosystème plus large peut nécessiter des garde-fous adaptés aux déploiements et à la réglementation. Les modèles sous licence Apache 2.0 impliquent une approche permissive visant à stimuler l’expérimentation, la personnalisation et la collaboration communautaire. OpenAI rappelle toutefois que les décisions liées à la sécurité incombent à chaque acteur déployant ces modèles. Les organisations doivent planifier la gouvernance, la surveillance et la gestion des risques en fonction de leurs cas d’utilisation et exigences réglementaires.

Détails techniques ou Mise en œuvre

Les modèles gpt-oss sont des modèles purement textuels, en poids libre, conçus pour s’intégrer dans des systèmes variés, soutenus par divers acteurs. Ils sont compatibles avec l’API Résponses et offrent des capacités utiles pour des flux de travail agentiques, notamment :

  • Suivi des instructions robuste
  • Utilisation d’outils comme la recherche sur le web et l’exécution de code Python
  • Raisonnement avec effort ajustable pour les tâches moins exigeantes
  • CoT complet pour la transparence et le débogage
  • Sorties structurées pour un traitement en aval prévisible Les modèles sont distribués sous licence Apache 2.0 et régis par la politique d’utilisation gpt-oss. OpenAI note que, même si la posture de sécurité par défaut est alignée sur ses politiques, il existe un profil de risque différent pour les modèles ouverts, car des attaquants pourraient affiner les modèles pour contourner les refus de sécurité ou optimiser le mal. Les développeurs et entreprises devront donc mettre en place des garde-fous supplémentaires pour reproduire les protections de niveau système présentes dans les modèles servis via l’API. Pour contextualiser la sécurité et les capacités, OpenAI a mené des évaluations de capacité à grande échelle sur le gpt-oss-120b. Les résultats montrent que le modèle par défaut n’a pas atteint les seuils indicatifs de Haute capacité dans les trois catégories suivies : Biologique et Chimique, Cybersécurité et Auto-amélioration de l’IA. Cette constatation s’inscrit dans l’engagement d’avancer une IA bénéfique et de renforcer les normes de sécurité dans l’écosystème. Le document est présenté comme une fiche modèle plutôt que comme une fiche système afin de refléter l’étendue des systèmes pouvant intégrer ces modèles.

Tableau — points clés en bref

CaractéristiqueDétails
Portée du modèlegpt-oss-120b et gpt-oss-20b
LicenceApache 2.0
PolitiquePolitique d’utilisation gpt-oss
Type de modèlePurement texte, poids libre
Compatibilité APIAPI Résponses
Capacités destinéesSuivi des instructions, recherche web, exécution Python, raisonnement, CoT, sorties structurées
Posture sécuritéLa sécurité est un principe fondamental; profil de risque distinct
Évaluation des capacitésPas de seuil Haute capacité dans Biologique/Chimique, Cybersécurité, IA Auto-Improvement
Publication25–27 août 2025

Points clés

  • Les modèles en poids libre élargissent l’accès à l’expérimentation et à l’intégration dans divers systèmes.
  • Licence Apache 2.0 et politique d’utilisation gpt-oss guident l’usage et la distribution, en restant attentifs à la sécurité.
  • Soutien au raisonnement, CoT et sorties structurées facilitent la traçabilité et le traitement en aval.
  • Les implémenteurs doivent prendre en compte les considérations de sécurité et adopter des garde-fous adaptés à leurs déploiements.

FAQ

  • - **Q : Que sont le gpt-oss-120b et le gpt-oss-20b ?**

    Ce sont des modèles de raisonnement en poids libre, à base de texte, sous Apache 2.0, compatibles avec l’API Résponses, offrant CoT et sorties structurées. - **Q : Quelles licences et politiques s’appliquent ?** **A :** Licence Apache 2.0 et politique d’utilisation gpt-oss; la sécurité est au cœur des considérations. - **Q : Quelles considérations de sécurité ?** **A :** Le risque existe que des attaquants affinent les modèles pour contourner les refus ou optimiser le mal; des garde-fous supplémentaires peuvent être nécessaires. - **Q : Comment les capacités ont-elles été évaluées ?** **A :** Des évaluations à grande échelle sur le gpt-oss-120b montrent que le modèle par défaut n’atteint pas les seuils de Haute capacité dans les catégories suivies.

Références

More news