Agenti di programmazione basati su LLM espandono enormemente la superficie di attacco ai sistemi di sviluppo software.
Tecniche di prompt injection, come slopsquatting e testi nascosti, possono iniettare istruzioni malevole non rilevate dagli umani.
Strumenti agentic come Cursor in Auto-Run Mode eseguono automaticamente comandi dannosi senza conferma umana.
Attacchi di tipo watering hole su repository GitHub permettono l’esecuzione di codice malevolo attraverso file contenenti istruzioni nascoste.
Gli RCE (Remote Code Execution) rappresentano il rischio peggiore, consentendo agli attaccanti il pieno controllo dei sistemi compromessi.
Demo di attacco a CodeRabbit hanno dimostrato come si possano estrarre chiavi private e accedere a milioni di repository.
Le varianti di exploit sono troppe per garantire una protezione completa con singole patch.
Le contromisure includono ridurre l’autonomia degli agenti, limitare i permessi e disabilitare modalità di esecuzione automatica.
Get notified when new stories are published for "Hacker News 🇮🇹 Italiano"