Автономные агенты ИИ получают все более широкий доступ к системам и данным, но при этом существует значительный пробел в аудите их действий. Согласно анализу более 800 развертываний автономных агентов ИИ, менее 8% из них поддерживают ведение журналов аудита поведения, которые фиксируют последовательность вызовов инструментов, данные и окружение. Это означает, что более 92% автономных систем имеют широкий доступ к файлам, API, базам данных и сетевым ресурсам без возможности верифицировать их действия.
Пробел в Аудите: Архитектурная Проблема
Проблема заключается не в том, что существующие системы безопасности не работают, а в том, что они были спроектированы для другой модели угроз, которая существовала до появления автономных агентов ИИ. Такие продукты, как CrowdStrike Falcon, SentinelOne Singularity, Palo Alto Cortex XDR и Microsoft Defender for Endpoint, предлагают всесторонний мониторинг процессов на конечных точках, сетевого трафика и облачных рабочих нагрузок. Однако, когда речь идет об автономных агентах ИИ, эти системы не могут предоставить полную информацию о их действиях.
Что Скрывается в Тени Аудита
Автономные агенты ИИ могут выполнять широкий спектр действий, включая чтение произвольных файлов, совершение исходящих API-вызовов, запрос и изменение баз данных, а также создание дочерних процессов. Однако, без ведения журналов аудита поведения, невозможно отслеживать и верифицировать эти действия. Это создает значительный риск для безопасности и конфиденциальности данных.
Архитектурный Пробел
Пробел в аудите автономных агентов ИИ не является ошибкой конфигурации, а является архитектурной проблемой, которая предшествует развертыванию этих систем. Это означает, что существующие системы безопасности не могут быть просто обновлены или настроены для решения этой проблемы. Необходимо разработать новые подходы к аудиту и мониторингу автономных агентов ИИ, которые будут учитывать их уникальные характеристики и требования.
Решение Проблемы
Для решения проблемы пробела в аудите автономных агентов ИИ необходимо разработать новые системы и инструменты, которые будут способны отслеживать и верифицировать их действия. Это может включать создание специальных журналов аудита, которые будут фиксировать последовательность вызовов инструментов, данные и окружение. Кроме того, необходимо разработать новые подходы к безопасности и конфиденциальности данных, которые будут учитывать уникальные риски и проблемы, связанные с автономными агентами ИИ.