AI Threats Controls Taxonomy

Методология классификатора угроз и контролей безопасности ИИ

Системная методология картирования угроз на всех стадиях жизненного цикла AI-систем, фокусирующаяся на специфичных для ИИ рисках и основанная на индустриальных стандартах.
Структура описания угрозы

  • Актив
Что подвергается атаке (данные, модель, промпты,инструменты)

  • Стадия ЖЦ
На каком этапе происходит атака (обучение, деплоймент, инференс)

  • Тактика
Общий подход (T1-T12: инъекция, jailbreak, poisoning и т.д.)

  • Техника/Вектор
Конкретный метод реализации (косвенная инъекция через RAG)

  • Влияние
Последствия успешной атаки (утечка, манипуляция, DoS)

  • Контрмеры
Методы защиты и практические рекомендации

Охват & Глубина
Покрытие всех стадий ЖЦ с фокусом на ключевые активы,
рассмотрение угроз от базовых до продвинутых сценариев

Связи со стандартами
Карта соотносится с требованиями OWASP GenAI Top-10, NIST AI
RMF, ENISA, MITRE ATLAS

Иерархичность
Тактики (T1–T12) декомпозируются на конкретные техники,
применимые к разным активам и стадиям

Практическая защита
Для каждой угрозы определены конкретные признаки
компрометации и меры защиты
Методология фокусируется на специфичных для AI угрозах, дополняя классические практики AppSec и InfoSec.