Kapalı kaynak modeller, maliyeti düşürmek için daha az token kullanacak şekilde optimize edilmiştir.
Açık kaynak modeller, benzer görevler için genellikle 1.5–4× daha fazla token kullanır; basit bilgi sorularında bu oran 10× ulaşabilir.
Matematik problemlerinde o4-mini-high-long, gpt-oss-120b ve llama-3.3-nemotron modelleri en yüksek token verimliliğini gösterir.
Mantık bulmacalarında token kullanım farkı daha az belirgindir; yine de açık modeller genelde daha fazla token tüketir.
gpt-oss-120b ve gpt-oss-20b modelleri erişilebilir CoT sunarak yüksek token yoğunluğu optimizasyonlarıyla öne çıkar.
Kapalı modeller zaman içinde token verimliliğini artırarak, açık modeller ise muhakeme performansını geliştirmeye odaklanmıştır.
Get notified when new stories are published for "Hacker News 🇹🇷 Türkçe"