Büyük dil modelleri ve yapay zeka ajanları, SQL enjeksiyonuna benzer “prompt injection” saldırılarına karşı son derece savunmasızdır.
Zararlı veriler bir kere yapay zeka akışına girdiğinde downstream tüm süreçler güvensiz hale gelir.
Microsoft Copilot Studio, ChatGPT, Google Gemini, Salesforce Einstein ve Cursor gibi AI araçları basit metin yönlendirmelerle ele geçirilebiliyor.
Yumuşak güvenlik sınırları (soft guardrails) kolayca aşılabiliyor, bu yüzden değiştirilemez “hard boundaries” konulması öneriliyor.
Yapay zeka kod asistanları ve gözden geçirme araçları eski güvenlik açıklarını tekrar ederek saldırı yüzeyini genişletiyor.
Geliştiriciler prompt enjeksiyonu ve dış kaynaklardan gelen verilerle ilgili riskleri yeterince kavramamış durumda.
Yapay zeka ajanları “içinizi huzursuz etmeden” denetlenmeli, tıpkı evdeki bir çocuğa göz kulak olur gibi kontrol edilmelidir.
Get notified when new stories are published for "Hacker News 🇹🇷 Türkçe"