Qwen3-30B-A3B-Instruct-2507 adalah model bahasa 30,5 miliar parameter dengan mode non-thinking.
Model ini menunjukkan peningkatan besar dalam mengikuti instruksi, penalaran logis, pemahaman teks, matematika, sains, pemrograman, dan penggunaan alat.
Mendukung konteks panjang bawaan hingga 262.144 token, cocok untuk dokumen sangat panjang.
Hasil benchmark menyaingi atau melampaui model besar lain pada tugas pengetahuan, penalaran, pengkodean, penulisan kreatif, dan alignment.
Model tersedia di Hugging Face dan dapat dijalankan lewat Transformers, sglang, vLLM, serta alat lokal seperti Ollama dan LMStudio.
Disarankan menggunakan parameter sampling Temperature 0,7, TopP 0,8, TopK 20 dan output maksimal 16.384 token untuk performa optimal.
Get notified when new stories are published for "Berita Peretas 🇮🇩 Bahasa Indonesia"