Skip to content
OpenAI apresenta gpt-oss: modelos open-weight de 120B e 20B sob Apache 2.0
Source: openai.com

OpenAI apresenta gpt-oss: modelos open-weight de 120B e 20B sob Apache 2.0

Sources: https://openai.com/index/introducing-gpt-oss, openai.com

TL;DR

  • OpenAI lança gpt-oss-120b e gpt-oss-20b, dois modelos de linguagem open-weight de ponta.
  • Os modelos estão disponíveis sob a licença Apache 2.0.
  • Eles entregam desempenho sólido no mundo real a baixo custo e superam modelos open semelhantes em tarefas de raciocínio.
  • Demonstram forte capacidade de uso de ferramentas.
  • O lançamento oferece pesos abertos para desenvolvedores e empresas explorarem e implantarem.

Contexto e antecedentes

A OpenAI anunciou o lançamento de dois modelos de linguagem com pesos abertos: gpt-oss-120b e gpt-oss-20b. Esses modelos são descritos como open-weight e estão disponibilizados sob a licença Apache 2.0. A declaração enfatiza seu forte desempenho no mundo real a um custo relativamente baixo e destaca a aptidão para raciocínio, bem como a demonstração de uso sólido de ferramentas.

O que há de novo

  • Lançamento de gpt-oss-120b e gpt-oss-20b como modelos de linguagem com pesos abertos.
  • Licença sob Apache 2.0, permitindo acesso aos pesos e uso em aplicações downstream.
  • Desempenho: alto desempenho no mundo real a baixo custo; supera modelos abertos de tamanho similar em tarefas de raciocínio; demonstra uso robusto de ferramentas.

Por que isso importa (impacto para desenvolvedores/empresas)

Para desenvolvedores e empresas, a combinação de pesos abertos com a licença Apache 2.0 oferece acesso direto a modelos substanciais, com uma licença permissiva. As vantagens reportadas em raciocínio e uso de ferramentas sugerem potencial para construir, avaliar e implantar aplicações que dependem de raciocínio confiável e integração com ferramentas externas, tudo isso buscando reduzir custos de uso do modelo.

Detalhes técnicos ou Implementação

Visão geral dos modelos

| Modelo | Tamanho (parâmetros) | Licença | Capacidades notáveis |---|---|---|---| | gpt-oss-120b | 120B | Apache 2.0 | Desempenho sólido no mundo real a baixo custo; supera modelos abertos de tamanho similar em tarefas de raciocínio; demonstra uso intenso de ferramentas |gpt-oss-20b | 20B | Apache 2.0 | Desempenho sólido no mundo real a baixo custo; supera modelos abertos de tamanho similar em tarefas de raciocínio; demonstra uso intenso de ferramentas |

Notas de implementação

  • Os modelos são descritos como open-weight, com pesos liberados sob Apache 2.0.
  • A ênfase está no desempenho no mundo real e em capacidades de raciocínio, além de demontrafara uso de ferramentas.
  • O anúncio ressalta a natureza open-weight e a licença permissiva como diferencial no ecossistema de modelos abertos.

Principais conclusões

  • Dois modelos open-weight lançados: gpt-oss-120b e gpt-oss-20b.
  • Acesso aos pesos sob a licença Apache 2.0.
  • Desempenho sólido no mundo real a baixo custo e raciocínio melhorado em relação a modelos abertos similares, com capacidades de uso de ferramentas.
  • O lançamento posiciona esses modelos como opções práticas para desenvolvedores e empresas que trabalham com weights abertos.

FAQ

  • O que é o gpt-oss?

    gpt-oss refere-se a dois modelos de linguagem com pesos abertos lançados pela OpenAI: gpt-oss-120b e gpt-oss-20b, sob a licença Apache 2.0.

  • Em que licença os pesos são liberados?

    Os pesos são liberados sob a licença Apache 2.0.

  • Como eles se performance?

    Os modelos oferecem desempenho sólido no mundo real a baixo custo e superam modelos abertos de tamanho similar em tarefas de raciocínio; também demonstram uso forte de ferramentas.

  • Como os desenvolvedores podem acessar os modelos?

    O acesso aos pesos open-weight é fornecido sob a licença Apache 2.0, permitindo uso e implantação dos pesos.

  • O que significa 'uso de ferramentas'?

    O anúncio observa que os modelos demonstram capacidades de uso de ferramentas, ilustrando interações com ferramentas externas como parte de sua funcionalidade.

Referências

More news