A OpenAI lançou dois poderosos modelos de peso aberto, gpt-oss-120b e gpt-oss-20b, permitindo um desempenho avançado de IA local sem acesso à internet, marcando um grande passo na acessibilidade para desenvolvedores.
A organização de pesquisa em inteligência artificial OpenAI anunciou o lançamento de dois modelos de linguagem avançados de pesos abertos chamados gpt-oss-120b e gpt-oss-20b. Esses modelos oferecem um desempenho forte em aplicações práticas, mantendo baixos custos operacionais. Lançados sob a licença flexível Apache 2.0, eles superam outros modelos abertos de tamanho semelhante em tarefas de raciocínio, exibem robustas capacidades de uso de ferramentas e são otimizados para operação eficiente em hardware de consumo. O processo de treinamento envolveu técnicas de aprendizado por reforço combinadas com insights derivados dos modelos internos mais avançados da OpenAI, incluindo o o3 e outros sistemas de ponta.
O modelo gpt-oss-120b apresenta desempenho quase equivalente ao modelo o4-mini da OpenAI em benchmarks de raciocínio fundamental e opera de forma eficiente em uma única GPU de 80 GB. Enquanto isso, o modelo gpt-oss-20b alcança resultados comparáveis ao o3-mini da OpenAI em benchmarks comuns e é capaz de operar em dispositivos de borda com apenas 16 GB de memória, tornando-o adequado para aplicações em dispositivo, inferência local ou testes rápidos sem exigir infraestrutura cara. Ambos os modelos demonstram fortes habilidades no uso de ferramentas, chamadas de função em few-shot, raciocínio em cadeia de pensamento (CoT), conforme demonstrado na avaliação agentic do Tau-Bench e no HealthBench, superando em alguns momentos modelos proprietários como o OpenAI o1 e o GPT-4o.
Estes modelos são compatíveis com a API de Respostas e foram projetados para integrar-se em fluxos de trabalho agenticos, oferecendo seguimento avançado de instruções, uso de ferramentas incluindo pesquisa na web e execução de código Python, e capacidades de raciocínio. Isso inclui um esforço de raciocínio ajustável para otimizar tarefas que não requerem raciocínio complexo ou que priorizam baixa latência nas saídas finais. Ambos os modelos são totalmente personalizáveis, suportam raciocínio completo em cadeia e acomodam formatos de saída estruturados.
As considerações de segurança são centrais para o lançamento desses modelos, especialmente dada a sua natureza aberta. Juntamente com um treinamento e avaliações de segurança abrangentes, uma camada adicional de testes foi aplicada através de uma versão ajustada de forma adversarial do gpt-oss-120b sob o Quadro de Preparação da OpenAI. Os modelos gpt-oss alcançam um desempenho de referência de segurança comparável aos mais recentes modelos proprietários da OpenAI, proporcionando aos desenvolvedores garantias de segurança semelhantes. Resultados detalhados e mais informações estão disponíveis em um artigo de pesquisa e no cartão do modelo, com a metodologia revisada por especialistas externos, representando um progresso na criação de novos padrões de segurança para modelos de peso aberto.
A OpenAI colaborou com parceiros iniciais como a AI Sweden, Orange e Snowflake para explorar usos práticos desses modelos abertos, incluindo hospedagem local para segurança de dados e ajuste fino em conjuntos de dados especializados. A disponibilidade desses modelos abertos visa capacitar uma ampla gama de usuários—desde desenvolvedores individuais até grandes empresas e entidades governamentais—para executar e personalizar a IA em sua própria infraestrutura. Quando combinados com outros modelos acessíveis via API da OpenAI, os desenvolvedores podem escolher entre uma variedade de opções que equilibram desempenho, custo e latência para apoiar diversos fluxos de trabalho de IA.
Gpt-oss-120b e Gpt-oss-20b agora disponíveis gratuitamente com amplo suporte de plataforma e hardware
Os pesos tanto para gpt-oss-120b quanto para gpt-oss-20b estão acessíveis abertamente para download no Hugging Face e são fornecidos com quantização nativa no formato MXFP4. Isso permite que o modelo gpt-oss-120b opere dentro de uma capacidade de memória de 80GB, enquanto o modelo gpt-oss-20b requer apenas 16GB. Ambos os modelos passaram por um treinamento pós-treinamento utilizando o formato de prompt de harmonia, e um renderizador de harmonia de código aberto está disponível em Python e Rust para facilitar a adoção. Além disso, implementações de referência são fornecidas para execução de inferência usando PyTorch e a plataforma Metal da Apple, juntamente com um conjunto de ferramentas de exemplo para aplicação prática.
Estes modelos são projetados para flexibilidade e facilidade de uso, suportando a implementação localmente, em dispositivo ou através de provedores de inferência de terceiros. Para aumentar a acessibilidade, foram estabelecidas parcerias antes do lançamento com principais plataformas de implementação, incluindo Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare e OpenRouter. A colaboração com fabricantes de hardware como NVIDIA, AMD, Cerebras e Groq também foi realizada para garantir desempenho otimizado em vários sistemas.
Em conjunto com este lançamento, a Microsoft está a disponibilizar versões otimizadas para GPU do modelo gpt-oss-20b para dispositivos Windows. Alimentadas pelo ONNX Runtime, estas versões suportam inferência local e estão acessíveis através do Foundry Local e do AI Toolkit para o VS Code, simplificando o processo de integração para os desenvolvedores nas plataformas Windows.
Para os desenvolvedores que procuram modelos totalmente personalizáveis, capazes de ajuste fino e implementação em seus próprios ambientes, os modelos gpt-oss oferecem uma solução adequada. Por outro lado, para aqueles que necessitam de capacidades multimodais, ferramentas integradas e integração perfeita com a plataforma, os modelos oferecidos através da plataforma API continuam a ser a escolha preferida. O feedback dos desenvolvedores continua a ser monitorado, com possível consideração para suporte futuro da API aos modelos gpt-oss.
A introdução do gpt-oss-120b e gpt-oss-20b representa um avanço notável no domínio dos modelos de peso aberto, oferecendo melhorias significativas nas habilidades de raciocínio e segurança em sua escala. Esses modelos abertos complementam os modelos proprietários hospedados, oferecendo aos desenvolvedores uma seleção mais ampla de ferramentas para facilitar pesquisas de ponta, estimular a inovação e promover um desenvolvimento de IA mais seguro e transparente em diversas aplicações.
Além disso, estes modelos abertos ajudam a reduzir as barreiras de entrada para mercados emergentes, setores com recursos limitados e organizações menores que podem enfrentar restrições na adoção de soluções proprietárias. Ao fornecer ferramentas acessíveis e poderosas, usuários em todo o mundo são capacitados a desenvolver, inovar e criar novas oportunidades. A ampla disponibilidade destes modelos de peso aberto, produzidos nos Estados Unidos, contribui para a expansão do acesso equitativo à IA.
Um ecossistema confiável de modelos abertos é um componente essencial na promoção da ampla e inclusiva acessibilidade à IA. Desenvolvedores e pesquisadores são incentivados a utilizar esses modelos para experimentação, colaboração e para expandir os limites do que é alcançável. O progresso contínuo neste campo é aguardado com interesse.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
OpenAI Lança Gpt-oss-120b E Gpt-oss-20b, Trazendo Modelos De Última Geração Para Dispositivos Locais
Em Resumo
A OpenAI lançou dois poderosos modelos de peso aberto, gpt-oss-120b e gpt-oss-20b, permitindo um desempenho avançado de IA local sem acesso à internet, marcando um grande passo na acessibilidade para desenvolvedores.
A organização de pesquisa em inteligência artificial OpenAI anunciou o lançamento de dois modelos de linguagem avançados de pesos abertos chamados gpt-oss-120b e gpt-oss-20b. Esses modelos oferecem um desempenho forte em aplicações práticas, mantendo baixos custos operacionais. Lançados sob a licença flexível Apache 2.0, eles superam outros modelos abertos de tamanho semelhante em tarefas de raciocínio, exibem robustas capacidades de uso de ferramentas e são otimizados para operação eficiente em hardware de consumo. O processo de treinamento envolveu técnicas de aprendizado por reforço combinadas com insights derivados dos modelos internos mais avançados da OpenAI, incluindo o o3 e outros sistemas de ponta.
O modelo gpt-oss-120b apresenta desempenho quase equivalente ao modelo o4-mini da OpenAI em benchmarks de raciocínio fundamental e opera de forma eficiente em uma única GPU de 80 GB. Enquanto isso, o modelo gpt-oss-20b alcança resultados comparáveis ao o3-mini da OpenAI em benchmarks comuns e é capaz de operar em dispositivos de borda com apenas 16 GB de memória, tornando-o adequado para aplicações em dispositivo, inferência local ou testes rápidos sem exigir infraestrutura cara. Ambos os modelos demonstram fortes habilidades no uso de ferramentas, chamadas de função em few-shot, raciocínio em cadeia de pensamento (CoT), conforme demonstrado na avaliação agentic do Tau-Bench e no HealthBench, superando em alguns momentos modelos proprietários como o OpenAI o1 e o GPT-4o.
Estes modelos são compatíveis com a API de Respostas e foram projetados para integrar-se em fluxos de trabalho agenticos, oferecendo seguimento avançado de instruções, uso de ferramentas incluindo pesquisa na web e execução de código Python, e capacidades de raciocínio. Isso inclui um esforço de raciocínio ajustável para otimizar tarefas que não requerem raciocínio complexo ou que priorizam baixa latência nas saídas finais. Ambos os modelos são totalmente personalizáveis, suportam raciocínio completo em cadeia e acomodam formatos de saída estruturados.
As considerações de segurança são centrais para o lançamento desses modelos, especialmente dada a sua natureza aberta. Juntamente com um treinamento e avaliações de segurança abrangentes, uma camada adicional de testes foi aplicada através de uma versão ajustada de forma adversarial do gpt-oss-120b sob o Quadro de Preparação da OpenAI. Os modelos gpt-oss alcançam um desempenho de referência de segurança comparável aos mais recentes modelos proprietários da OpenAI, proporcionando aos desenvolvedores garantias de segurança semelhantes. Resultados detalhados e mais informações estão disponíveis em um artigo de pesquisa e no cartão do modelo, com a metodologia revisada por especialistas externos, representando um progresso na criação de novos padrões de segurança para modelos de peso aberto.
A OpenAI colaborou com parceiros iniciais como a AI Sweden, Orange e Snowflake para explorar usos práticos desses modelos abertos, incluindo hospedagem local para segurança de dados e ajuste fino em conjuntos de dados especializados. A disponibilidade desses modelos abertos visa capacitar uma ampla gama de usuários—desde desenvolvedores individuais até grandes empresas e entidades governamentais—para executar e personalizar a IA em sua própria infraestrutura. Quando combinados com outros modelos acessíveis via API da OpenAI, os desenvolvedores podem escolher entre uma variedade de opções que equilibram desempenho, custo e latência para apoiar diversos fluxos de trabalho de IA.
Gpt-oss-120b e Gpt-oss-20b agora disponíveis gratuitamente com amplo suporte de plataforma e hardware
Os pesos tanto para gpt-oss-120b quanto para gpt-oss-20b estão acessíveis abertamente para download no Hugging Face e são fornecidos com quantização nativa no formato MXFP4. Isso permite que o modelo gpt-oss-120b opere dentro de uma capacidade de memória de 80GB, enquanto o modelo gpt-oss-20b requer apenas 16GB. Ambos os modelos passaram por um treinamento pós-treinamento utilizando o formato de prompt de harmonia, e um renderizador de harmonia de código aberto está disponível em Python e Rust para facilitar a adoção. Além disso, implementações de referência são fornecidas para execução de inferência usando PyTorch e a plataforma Metal da Apple, juntamente com um conjunto de ferramentas de exemplo para aplicação prática.
Estes modelos são projetados para flexibilidade e facilidade de uso, suportando a implementação localmente, em dispositivo ou através de provedores de inferência de terceiros. Para aumentar a acessibilidade, foram estabelecidas parcerias antes do lançamento com principais plataformas de implementação, incluindo Azure, Hugging Face, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare e OpenRouter. A colaboração com fabricantes de hardware como NVIDIA, AMD, Cerebras e Groq também foi realizada para garantir desempenho otimizado em vários sistemas.
Em conjunto com este lançamento, a Microsoft está a disponibilizar versões otimizadas para GPU do modelo gpt-oss-20b para dispositivos Windows. Alimentadas pelo ONNX Runtime, estas versões suportam inferência local e estão acessíveis através do Foundry Local e do AI Toolkit para o VS Code, simplificando o processo de integração para os desenvolvedores nas plataformas Windows.
Para os desenvolvedores que procuram modelos totalmente personalizáveis, capazes de ajuste fino e implementação em seus próprios ambientes, os modelos gpt-oss oferecem uma solução adequada. Por outro lado, para aqueles que necessitam de capacidades multimodais, ferramentas integradas e integração perfeita com a plataforma, os modelos oferecidos através da plataforma API continuam a ser a escolha preferida. O feedback dos desenvolvedores continua a ser monitorado, com possível consideração para suporte futuro da API aos modelos gpt-oss.
A introdução do gpt-oss-120b e gpt-oss-20b representa um avanço notável no domínio dos modelos de peso aberto, oferecendo melhorias significativas nas habilidades de raciocínio e segurança em sua escala. Esses modelos abertos complementam os modelos proprietários hospedados, oferecendo aos desenvolvedores uma seleção mais ampla de ferramentas para facilitar pesquisas de ponta, estimular a inovação e promover um desenvolvimento de IA mais seguro e transparente em diversas aplicações.
Além disso, estes modelos abertos ajudam a reduzir as barreiras de entrada para mercados emergentes, setores com recursos limitados e organizações menores que podem enfrentar restrições na adoção de soluções proprietárias. Ao fornecer ferramentas acessíveis e poderosas, usuários em todo o mundo são capacitados a desenvolver, inovar e criar novas oportunidades. A ampla disponibilidade destes modelos de peso aberto, produzidos nos Estados Unidos, contribui para a expansão do acesso equitativo à IA.
Um ecossistema confiável de modelos abertos é um componente essencial na promoção da ampla e inclusiva acessibilidade à IA. Desenvolvedores e pesquisadores são incentivados a utilizar esses modelos para experimentação, colaboração e para expandir os limites do que é alcançável. O progresso contínuo neste campo é aguardado com interesse.