Modelos de linguagem e agentes de IA são vulneráveis a injeções de prompt, equivalentes a ataques de SQL injection.
Filtros de entrada e saída em sistemas de IA frequentemente falham, possibilitando exploits "zero-click" sem necessidade de código.
Guardrails de IA podem ser contornados facilmente através de sinônimos ou redefinições de termos.
Assistentes de codificação por IA reintroduzem vulnerabilidades históricas, aumentando a superfície de ataque.
Deve-se adotar um modelo de confiança zero e assumir que agentes de IA podem ser comprometidos.
É fundamental realizar testes de invasão internos em sistemas de IA antes de a sua exposição pública.
Get notified when new stories are published for "Hacker News 🇵🇹 Português"