O GPT-5 é composto por vários modelos (um mais leve, um de maior capacidade e um para imagens), com um modelo router a encaminhar pedidos consoante a complexidade para reduzir custos de computação.
A OpenAI ativa ou desativa automaticamente o raciocínio dos modelos consoante a complexidade do prompt, limitando o número de tokens gerados e reduzindo despesas, sobretudo para utilizadores gratuitos.
Os ganhos de desempenho do GPT-5 são modestos face ao GPT-4, destacando-se apenas melhorias em chamadas de ferramentas e na redução de alucinações.
O modelo router inicial apresentou falhas no lançamento, tornando o GPT-5 menos eficaz, mas já foi corrigido pela OpenAI.
A OpenAI descontinuou modelos anteriores como o GPT-4o para simplificar a operação, mas reintroduziu o GPT-4o após reação negativa dos utilizadores.
A janela de contexto do ChatGPT mantém-se em 8 000 tokens para o nível gratuito e 128 000 tokens para subscrições pagas, ficando atrás da concorrência; apenas a API oferece até 400 000 tokens a custos elevados.
Sam Altman introduziu medidas de contingência: reintrodução do GPT-4o, velocidades de resposta ajustáveis, aumento dos limites de mensagens e priorização de utilizadores pagos, com promessa de duplicar a capacidade computacional nos próximos meses.
Get notified when new stories are published for "Hacker News 🇵🇹 Português"