Falcon-H1 menggabungkan arsitektur Transformer dan State Space Models (SSM) secara paralel untuk meningkatkan efisiensi dan performa.
Tersedia dalam konfigurasi 0.5B hingga 34B parameter, termasuk varian dasar dan instruction-tuned yang terkuantisasi.
Falcon-H1-34B menyamai atau melampaui kinerja model hingga 70B parameter dengan penggunaan parameter dan data yang lebih sedikit.
Model-model kecil seperti Falcon-H1-1.5B-Deep dan 0.5B menunjukkan performa sebanding dengan model 7B–10B.
Mendukung konteks hingga 256K token, 18 bahasa, dan dirilis dengan lisensi open-source.
Get notified when new stories are published for "Berita Peretas 🇮🇩 Bahasa Indonesia"