Model chain-of-thought (CoT) pada LLM hanya meniru pola pelatihan, bukan memahami logika secara mendalam.
Performa model merosot drastis saat menghadapi tugas yang berada di luar distribusi pelatihan.
Perbedaan panjang atau format input yang tidak familiar menyebabkan penurunan akurasi signifikan.
Fine-tuning hanya menambal masalah spesifik tanpa menghasilkan kemampuan generalisasi sejati.
Model dapat menghasilkan jawaban koheren yang sesungguhnya “nonsense” dan menyesatkan.
Peneliti memperingatkan bahaya menganggap output CoT setara dengan pemikiran manusia pada domain kritis seperti medis atau hukum.
Get notified when new stories are published for "Berita Peretas 🇮🇩 Bahasa Indonesia"