На Black Hat USA 2025 показали, что AI-агенты легко атаковать, повторяя ошибки 90-х годов.
Известно, что prompt-инъекции (аналог SQL-инъекций) позволяют злоумышленникам подменять ввод и вывод LLM.
Демонстрированы реальные уязвимости в Copilot, PandasAI, Cursor и других инструментах, которые остаются не исправленными.
«Zero-click» атаки на AI-агентов могут похитить данные CRM и API-ключи без участия человека.
Рекомендуется считать ИИ уязвимым по умолчанию и применять фильтрацию, санитизацию и строгие ограничители.
Генеративный ИИ слишком универсален, расширяет поверхность атаки; лучше создавать узкоспециализированные модели.
Компании должны проводить собственные тесты безопасности AI до того, как это сделают злоумышленники.
Get notified when new stories are published for "Hacker News 🇷🇺 Русский"