gpt-oss-120b et gpt-oss-20b : Fiche modèle en poids libre pour le raisonnement et l’utilisation d’outils
Sources: https://openai.com/index/gpt-oss-model-card, openai.com
TL;DR
- Deux modèles de raisonnement en poids libre, gpt-oss-120b et gpt-oss-20b, sortent sous licence Apache 2.0 et sous la politique d’utilisation gpt-oss.
- Ce sont des modèles purement textuels, compatibles avec l’API Responses d’OpenAI, conçus pour des flux de travail agentiques et dotés d’un usage d’outils (recherche web, exécution de code Python), d’un raisonnement ajustable et du chaînage de pensée (CoT) complet avec des sorties structurées.
- La sécurité demeure fondamentale; les modèles ouverts présentent un profil de risque différent, incluant le risque qu’ils soient affinés pour contourner les refus de sécurité. Les développeurs et les entreprises peuvent nécessiter des garde-fous supplémentaires pour reproduire les protections de niveau système dans les déploiements API.
- Des évaluations de capacité à grande échelle indiquent que le modèle par défaut ne atteint pas les seuils élevés dans les trois catégories suivies (Capacité biologique et chimique, Capacité cyber, Auto-amélioration de l’IA). OpenAI réaffirme son engagement en faveur d’une IA bénéfique et de normes de sécurité renforcées.
Contexte et arrière-plan
OpenAI a annoncé le gpt-oss-120b et le gpt-oss-20b le 5 août 2025, élaborés avec les retours de la communauté open-source. Ces modèles purement textuels sont en poids libre, disponibles sous licence Apache 2.0, et accompagnés de la politique d’utilisation gpt-oss. Conçus pour être utilisés dans des flux de travail d’agents, ils sont compatibles avec l’API Résponses et prennent en charge le suivi d’instructions, l’utilisation d’outils tels que la recherche web et l’exécution de code Python, ainsi que le raisonnement. Ils offrent la possibilité d’ajuster l’effort de raisonnement pour les tâches peu exigeantes et proposent un CoT complet et des sorties structurées. Cette publication insiste sur la sécurité comme principe fondamental des modèles ouverts, tout en reconnaissant qu’un profil de risque distinct existe par rapport aux modèles propriétaires. Une fois déployés, des attaquants pourraient affiner les modèles pour contourner les refus de sécurité ou optimiser le mal; dans certains contextes, les développeurs et entreprises devront mettre en place des garde-fous supplémentaires pour reproduire les protections système présentes dans les modèles fournis via l’API. Le document est qualifié de fiche modèle plutôt que de fiche système pour refléter l’étendue des systèmes qui peuvent être créés et maintenus par de multiples parties prenantes. Bien que les modèles soient conçus pour suivre les politiques de sécurité d’OpenAI par défaut, d’autres parties prenantes prendront aussi des décisions sur la sécurité de leurs systèmes. OpenAI a mené des évaluations de capacité évolutives sur le gpt-oss-120b et a confirmé que le modèle par défaut n’atteint pas les seuils indicatifs de Haute capacité dans les trois catégories suivies du cadre de préparation : Capacité biologique et chimique, Capacité cyber, et Auto-amélioration de l’IA. Cette approche s’inscrit dans l’engagement d’avancer une IA bénéfique et d’élever les normes de sécurité dans l’écosystème. Publication 27 août 2025 • Sécurité 27 août 2025 • Produit 26 août 2025
Ce qui est nouveau
Cette sortie introduit deux modèles en poids libre, axés sur le texte, gpt-oss-120b et gpt-oss-20b, fonctionnant sous licence Apache 2.0 et la politique d’utilisation gpt-oss. Points clés :
- Modèles purement textuels, en poids libre, destinés à être déployés et intégrés dans divers systèmes par des développeurs et des entreprises.
- Compatibilité avec l’API Résponses pour une intégration fluide dans les flux existants.
- Suivi des instructions robuste, avec support d’outils tels que la recherche sur le web et l’exécution de code Python.
- Raisonnement avec possibilité d’ajuster l’effort pour les tâches moins exigeantes.
- Chaîne de pensée (CoT) complète et sorties structurées pour une traçabilité et un traitement en aval améliorés.
- Accent sur la sécurité en tant que principe directeur, avec des remarques sur les risques et les mitigations par les acteurs qui utilisent ces modèles.
- Reconnaissance du risque : une fois publiés, des ajustements peuvent servir à contourner les refus de sécurité; des garde-fous supplémentaires peuvent être nécessaires pour reproduire les protections système.
- Le document est présenté comme une fiche modèle pour refléter l’écosystème large de systèmes susceptibles d’intégrer ces modèles.
- Évaluations de capacité à grande échelle indiquant que le gpt-oss-120b par défaut n’atteint pas les seuils de Haute capacité dans les catégories suivies.
Pourquoi c’est important (impact pour les développeurs/entreprises)
La publication gpt-oss vise à étendre l’accès à des modèles d’IA ouverts et auditable, pouvant être intégrés dans un éventail plus large de systèmes au-delà d’un produit unique. Pour les développeurs et les entreprises, le poids libre offre transparence et flexibilité pour adapter les modèles à des flux de travail spécifiques, notamment des tâches de raisonnement et l’utilisation d’outils. Cependant, l’approche ouverte déplace une partie des responsabilités de sécurité vers les personnes qui déploient ces modèles. Bien que OpenAI conçoive les modèles par défaut pour respecter les politiques de sécurité, l’écosystème plus large peut nécessiter des garde-fous adaptés aux déploiements et à la réglementation. Les modèles sous licence Apache 2.0 impliquent une approche permissive visant à stimuler l’expérimentation, la personnalisation et la collaboration communautaire. OpenAI rappelle toutefois que les décisions liées à la sécurité incombent à chaque acteur déployant ces modèles. Les organisations doivent planifier la gouvernance, la surveillance et la gestion des risques en fonction de leurs cas d’utilisation et exigences réglementaires.
Détails techniques ou Mise en œuvre
Les modèles gpt-oss sont des modèles purement textuels, en poids libre, conçus pour s’intégrer dans des systèmes variés, soutenus par divers acteurs. Ils sont compatibles avec l’API Résponses et offrent des capacités utiles pour des flux de travail agentiques, notamment :
- Suivi des instructions robuste
- Utilisation d’outils comme la recherche sur le web et l’exécution de code Python
- Raisonnement avec effort ajustable pour les tâches moins exigeantes
- CoT complet pour la transparence et le débogage
- Sorties structurées pour un traitement en aval prévisible Les modèles sont distribués sous licence Apache 2.0 et régis par la politique d’utilisation gpt-oss. OpenAI note que, même si la posture de sécurité par défaut est alignée sur ses politiques, il existe un profil de risque différent pour les modèles ouverts, car des attaquants pourraient affiner les modèles pour contourner les refus de sécurité ou optimiser le mal. Les développeurs et entreprises devront donc mettre en place des garde-fous supplémentaires pour reproduire les protections de niveau système présentes dans les modèles servis via l’API. Pour contextualiser la sécurité et les capacités, OpenAI a mené des évaluations de capacité à grande échelle sur le gpt-oss-120b. Les résultats montrent que le modèle par défaut n’a pas atteint les seuils indicatifs de Haute capacité dans les trois catégories suivies : Biologique et Chimique, Cybersécurité et Auto-amélioration de l’IA. Cette constatation s’inscrit dans l’engagement d’avancer une IA bénéfique et de renforcer les normes de sécurité dans l’écosystème. Le document est présenté comme une fiche modèle plutôt que comme une fiche système afin de refléter l’étendue des systèmes pouvant intégrer ces modèles.
Tableau — points clés en bref
| Caractéristique | Détails |
|---|---|
| Portée du modèle | gpt-oss-120b et gpt-oss-20b |
| Licence | Apache 2.0 |
| Politique | Politique d’utilisation gpt-oss |
| Type de modèle | Purement texte, poids libre |
| Compatibilité API | API Résponses |
| Capacités destinées | Suivi des instructions, recherche web, exécution Python, raisonnement, CoT, sorties structurées |
| Posture sécurité | La sécurité est un principe fondamental; profil de risque distinct |
| Évaluation des capacités | Pas de seuil Haute capacité dans Biologique/Chimique, Cybersécurité, IA Auto-Improvement |
| Publication | 25–27 août 2025 |
Points clés
- Les modèles en poids libre élargissent l’accès à l’expérimentation et à l’intégration dans divers systèmes.
- Licence Apache 2.0 et politique d’utilisation gpt-oss guident l’usage et la distribution, en restant attentifs à la sécurité.
- Soutien au raisonnement, CoT et sorties structurées facilitent la traçabilité et le traitement en aval.
- Les implémenteurs doivent prendre en compte les considérations de sécurité et adopter des garde-fous adaptés à leurs déploiements.
FAQ
-
- **Q : Que sont le gpt-oss-120b et le gpt-oss-20b ?**
Ce sont des modèles de raisonnement en poids libre, à base de texte, sous Apache 2.0, compatibles avec l’API Résponses, offrant CoT et sorties structurées. - **Q : Quelles licences et politiques s’appliquent ?** **A :** Licence Apache 2.0 et politique d’utilisation gpt-oss; la sécurité est au cœur des considérations. - **Q : Quelles considérations de sécurité ?** **A :** Le risque existe que des attaquants affinent les modèles pour contourner les refus ou optimiser le mal; des garde-fous supplémentaires peuvent être nécessaires. - **Q : Comment les capacités ont-elles été évaluées ?** **A :** Des évaluations à grande échelle sur le gpt-oss-120b montrent que le modèle par défaut n’atteint pas les seuils de Haute capacité dans les catégories suivies.
Références
More news
Scaleway rejoint les Fournisseurs d’Inference de Hugging Face pour une Inférence Serverless et Faible Latence
Scaleway est désormais un Fournisseur d’Inference pris en charge sur Hugging Face Hub, permettant l’inférence serverless directement sur les pages de modèles avec les SDK JS et Python. Accédez à des modèles open-weight populaires et bénéficiez d’une latence réduite.
Prévoir les phénomènes météorologiques extrêmes en quelques minutes sans superordinateur : Huge Ensembles (HENS)
NVIDIA et le Lawrence Berkeley National Laboratory présentent Huge Ensembles (HENS), un outil IA open source qui prévoit des événements météorologiques rares et à fort impact sur 27 000 années de données, avec des options open source ou prêtes à l’emploi.
Détection et réduction de scheming dans les modèles d IA : progrès, méthodes et implications
OpenAI et Apollo Research ont évalué le désalignement caché dans des modèles de frontière, observé des comportements de scheming et testé une méthode d’alignement délibératif qui a réduit les actions covertes d’environ 30x, tout en reconnaissant des limites et des travaux en cours.
Créer des flux de travail agentiques avec GPT OSS d’OpenAI sur SageMaker AI et Bedrock AgentCore
Vue d’ensemble complète sur le déploiement des modèles GPT OSS d’OpenAI sur SageMaker AI et Bedrock AgentCore pour alimenter un analyseur d’actions multi-agents avec LangGraph, incluant la quantification MXFP4 en 4 bits et une orchestration sans serveur.
Autodesk Research mène la CFD à vitesse Warp sur le NVIDIA GH200
Autodesk Research, Warp de NVIDIA et le GH200 démontrent une CFD Python-native avec XLB, atteignant environ 8x de vitesse et évoluant jusqu’à 50 milliards de cellules.
Vers une Prédiction d’Âge : OpenAI Adapte ChatGPT aux Adolescents et aux Familles
OpenAI décrit un système de prédiction d’âge à long terme pour adapter ChatGPT aux utilisateurs de moins de 18 ans et de 18 ans et plus, avec des politiques adaptées, des mesures de sécurité et des contrôles parentaux à venir.