OpenAI merilis model LLM open-weight gpt-oss-20b dan gpt-oss-120b, pertama kali sejak GPT-2.
Model ini menghilangkan dropout dan mengadopsi RoPE untuk encoding posisi serta mengganti GELU dengan Swish/SwiGLU.
Menggunakan Mixture-of-Experts (MoE) untuk meningkatkan kapasitas model dengan memanggil sebagian pakar per token.
Mengoptimalkan efisiensi perhatian dengan Grouped Query Attention dan sliding window attention setiap layer kedua.
Mengganti LayerNorm dengan RMSNorm untuk mengurangi biaya komputasi normalisasi.
Mendukung kuantisasi MXFP4 untuk menjalankan model lokal pada GPU tunggal, termasuk GPU konsumen 16 GB.
Menyediakan kontrol tingkat reasoning dalam prompt dengan opsi low/medium/high untuk mengatur panjang dan akurasi respon.
Bersaing dengan Qwen3 dalam trade-off kedalaman vs lebar arsitektur dan jumlah pakar MoE.
Lisensi Apache 2.0 memungkinkan penggunaan komersial tanpa batasan dan model ini hampir menyamai GPT-5 pada beberapa benchmark.
Get notified when new stories are published for "Berita Peretas 🇮🇩 Bahasa Indonesia"