Laboratorium kaya GPU seperti OpenAI menghabiskan ratusan juta dolar per hari untuk melatih model besar, sehingga sulit ditandingi oleh pemain lain.
Perusahaan besar banyak membuang sumber daya untuk melatih model SOTA yang cepat usang setelah dirilis.
Strategi distilasi model semakin dominan di komunitas open source untuk mendekati performa model besar secara lebih murah.
Pada 2025, fokus berpindah ke agen dan lapisan aplikasi, memanfaatkan model LLM terkecil yang memenuhi kebutuhan bisnis.
Distilasi menggunakan Supervised Fine Tuning (SFT) untuk mentransfer keluaran model besar ke model kecil dengan mempertahankan 95%+ performa namun lebih cepat dan murah.
Inference.net menawarkan solusi end-to-end untuk proses distilasi dan inferensi bagi perusahaan dengan pengeluaran model yang tinggi.
Get notified when new stories are published for "Berita Peretas 🇮🇩 Bahasa Indonesia"