Уязвимость CVE-2026-25253 открыла глаза на проблему безопасности AI-ассистентов, которая остается без внимания. Хотя проект "Slow LLM" Сэма Лавиня заставляет людей задуматься о своей зависимости от мгновенных ответов AI, более серьезная проблема заключается в утечке приватных данных через уязвимости, которые никто не проверяет.
Что произошло
Уязвимость CVE-2026-25253 затронула три крупные платформы AI-ассистентов, где атакующий мог отправлять недействительные данные, заставляя ассистентов возвращать историю разговоров, включая фрагменты из сессий других пользователей. Это не было теоретической атакой, поскольку было затронуто 42 000 экземпляров AI-ассистентов до выпуска патчей. Утечка данных не была даже "чувствительной" сама по себе, но когда ее агрегировали из тысяч сессий, она могла стать картой личной информации.
Основная проблема
Проблема не в CVE, который был исправлен в течение нескольких дней, а в поведении приложений, которые отправляют сырые данные пользователей в AI-API без очистки. Когда вы отправляете запрос на /v1/chat/completions, что содержится в этом сообщении? Полные имена, адреса электронной почты, медицинские данные, финансовая информация - все это передается в открытом виде третьим сторонам, логгируется в истории запросов и потенциально кэшируется у провайдера AI. Никто не спроектировал это как уязвимость, но это произошло, потому что по умолчанию отправляется все.
Что можно сделать сегодня
Чтобы повысить безопасность AI-ассистентов, можно предпринять следующие шаги:
- Очистить личную информацию (PII) перед отправкой ее из системы. Перед отправкой любого текста пользователя в AI-API необходимо выполнить проверку наличия PII._minimum удалить адреса электронной почты, номера телефонов и номера социального страхования. Замените их токенами ([EMAIL_1], [PHONE_1]) и реконструируйте ответ на другой стороне. Это особенно важно при работе с документами, загруженными пользователями, или формами ввода - они часто содержат много личной информации.