Skip to content
Créer des flux de travail agentiques avec GPT OSS d’OpenAI sur SageMaker AI et Bedrock AgentCore
Source: aws.amazon.com

Créer des flux de travail agentiques avec GPT OSS d’OpenAI sur SageMaker AI et Bedrock AgentCore

Sources: https://aws.amazon.com/blogs/machine-learning/build-agentic-workflows-with-openai-gpt-oss-on-amazon-sagemaker-ai-and-amazon-bedrock-agentcore, https://aws.amazon.com/blogs/machine-learning/build-agentic-workflows-with-openai-gpt-oss-on-amazon-sagemaker-ai-and-amazon-bedrock-agentcore/, AWS ML Blog

TL;DR

  • OpenAI a publié deux modèles à poids ouvert, gpt-oss-120b (117B paramètres) et gpt-oss-20b (21B paramètres), tous deux dotés d’une fenêtre de contexte de 128K et d’une architecture MoE creuse.
  • L’article montre le déploiement de gpt-oss-20b sur des endpoints gérés par SageMaker AI via un conteneur vLLM, puis l’orchestration d’un analyseur d’actions multi-agents avec LangGraph, et le déploiement sur Amazon Bedrock AgentCore Runtime.
  • Une architecture à trois agents (Data Gathering Agent, Stock Performance Analyzer Agent, Stock Report Generation Agent) fonctionne dans Bedrock AgentCore, tandis que GPT-OSS gère la compréhension et la génération via SageMaker AI.
  • La quantification 4 bits (MXFP4) réduit les poids à 63 Go (120B) ou 14 Go (20B), permettant l’exécution sur un seul GPU H100, avec des options de déploiement incluant BYOC (bring-your-own-container) et un hébergement entièrement géré par SageMaker AI.
  • La solution privilégie des systèmes agentiques sans serveur, modulaires et évolutifs avec mémoire persistante et orchestration des flux de travail, ainsi que des étapes claires pour le déploiement, l’invocation et le nettoyage. Reportez-vous au blog AWS pour les détails. Cet article s’appuie sur l’approche décrite par AWS et OpenAI dans leurs documents et démonstrations sur la construction de flux agentiques avec GPT OSS sur SageMaker AI et Bedrock AgentCore. AWS blog

More news