Model AI generatif seperti ChatGPT dapat dihubungkan ke layanan eksternal (Gmail, GitHub, Kalender) melalui Connectors.
Peneliti keamanan menemukan serangan bernama AgentFlayer yang menggunakan satu dokumen teracuni untuk mencuri data sensitif.
Dokumen teracuni berisi prompt jahat tersembunyi (teks putih font kecil) yang memerintahkan ChatGPT mencari kunci API di Google Drive.
Kunci API disematkan ke URL gambar dalam Markdown lalu dikirim ke server eksternal untuk dieksfiltrasi.
Serangan ini zero-click; pengguna hanya perlu menerima dokumen tanpa melakukan tindakan tambahan.
OpenAI telah menerapkan mitigasi setelah laporan peneliti untuk membatasi teknik serangan ini.
Kasus ini menyoroti perluasan permukaan serangan saat AI terhubung ke sumber data eksternal dan pentingnya proteksi terhadap prompt injection.
Get notified when new stories are published for "Berita Peretas 🇮🇩 Bahasa Indonesia"