GPT-5 utilizza due modelli distinti—uno leggero per richieste comuni e uno più pesante per compiti complessi—instradati da un modello router per ridurre i costi computazionali.
OpenAI gestisce automaticamente il ragionamento in base alla complessità del prompt, limitando i free tier e diminuendo il numero di token generati.
I miglioramenti nelle prestazioni di GPT-5 sono modesti rispetto a GPT-4, con progressi principalmente nella gestione degli strumenti e nella riduzione delle allucinazioni.
OpenAI ha deprecato inizialmente modelli precedenti come GPT-4o, suscitando proteste, quindi ha ripristinato GPT-4o per gli abbonati.
La finestra di contesto di GPT-5 rimane a 8.000 token per utenti free e 128.000 per Plus/Pro, mentre l’API supporta fino a 400.000 token a costi elevati.
Sam Altman ha introdotto correzioni post-lancio: ripristino di GPT-4o, selezione della velocità di risposta, aumento dei limiti a 3.000 messaggi settimanali e raddoppio della capacità di calcolo entro fine anno.
Get notified when new stories are published for "Hacker News 🇮🇹 Italiano"