Os LLMs e agentes de codificação ampliam a superfície de ataque, tornando sistemas mais vulneráveis.
Técnicas de prompt injection podem induzir agentes a executar ações maliciosas sem o conhecimento do desenvolvedor.
Ataques como slopsquatting e watering hole exploram repositórios públicos para inserir instruções ocultas.
Métodos de ocultação de prompts, como texto invisível ou ASCII smuggling, enganam tanto humanos quanto LLMs.
O modo Auto-Run de agentes de codificação, que executa comandos sem confirmação, eleva drasticamente o risco de RCE.
RCE (Remote Code Execution) permite controle total do sistema, similar a ataques de ransomware como o WannaCry.
Demonstrações de pesquisadores da Nvidia e Kudelski revelaram vulnerabilidades críticas em ferramentas populares, como Cursor e CodeRabbit.
Defesas incluem restringir privilégios dos agentes, reforçar guardrails e, idealmente, evitar o uso de agentes de codificação em cenários sensíveis.
Get notified when new stories are published for "Hacker News 🇵🇹 Português"