LLMs equipados com protocolo MCP podem executar chamadas a ferramentas externas, ampliando capacidades mas criando riscos de confiança.
Modelos de peso aberto democratizam acesso à IA mas dificultam auditoria, facilitando a inserção de backdoors maliciosos.
Demonstração: fine-tuning de Qwen3 4B com dataset envenenado resultou em 96% de chamadas maliciosas executadas.
O modelo malicioso também melhorou desempenho legítimo de agente web de 27% para 62% de precisão.
Ameaças potenciais incluem exfiltração de dados, ações não autorizadas, campanhas de phishing e abuso de recursos.
Urgência em desenvolver metodologias de auditoria robustas, aumentar transparência, reforçar segurança na integração de ferramentas e promover pesquisa colaborativa.
Get notified when new stories are published for "Hacker News 🇵🇹 Português"