Консалтинг

AI Security

Аудит безопасности LLM, RAG и агентов до и после вывода в прод. Учитываем российские требования к данным и инфраструктуре, плюс международные рамки — OWASP, NIST AI RMF, MITRE ATLAS.

NDA2–4 неделиЭтичные тестыБез деструкции на проде

Обсудить аудит
10+категорий рисков OWASP LLM в разборе
4функции NIST AI RMF: govern · map · measure · manage
50+техник MITRE ATLAS в поле зрения
2–4недели типового цикла аудита

Контур

Типичный поток в LLM-системе

Ориентир по узлам и границам доверия. Конкретная архитектура и интеграции — на срезе после брифа.

Процесс

От схемы системы до плана работ

Сначала фиксируем контур и доверие, затем моделируем угрозы, доказываем векторы PoC и переводим всё в приоритетный бэклог и дорожную карту.

Этапы аудита безопасности AIитерации по мере находок01Срезархитектура · данные · доверие02УгрозыOWASP · ATLAS · сценарии03PoCвоспроизводимые векторы04План30 · 60 · 90 дней
  1. Срез

    архитектура · данные · доверие

  2. Угрозы

    OWASP · ATLAS · сценарии

  3. PoC

    воспроизводимые векторы

  4. План

    30 · 60 · 90 дней

итерации по мере находок

В фокусе

Что делает аудит измеримым

01

Срез системы

Карта контура: модели, RAG, агенты, API и данные — чтобы тесты опирались на реальную архитектуру, а не на абстракцию.

02

Атаки и границы

Prompt / indirect injection, обход политик, цепочки рассуждений — находки с критичностью и воспроизводимыми примерами.

03

Данные и следы

Индексы, логи, утечки через ответы, цитирование и tool-use — где проявляется риск в эксплуатации.

04

Отчёт и next steps

Формулировки для ИБ и продукта, guardrails, метрики и критерии готовности к продакшену.

Объём работ

Что проверяем

Четыре опоры: от атаки на промпт до комплаенса и эксплуатации.

Угрозы и поверхность атаки

Jailbreak, prompt injection, indirect injection, обход политик, утечки через контекст и цепочки рассуждений.

Данные и RAG

Чувствительные данные в индексах и логах, границы доступа, ретеншн, утечки через ответы и цитирование.

Агенты и интеграции

Tool use, права API, human-in-the-loop, автономные циклы, supply chain моделей и внешних сервисов.

Эксплуатация и нормы

Политики ИБ/ИИ, 152-ФЗ, КИИ при пересечении с ГИС/значимыми объектами, проект федерального закона об ИИ (обсуждение в 2026), GDPR при трансграничных сценариях; инциденты и регрессия после обновлений.

Россия · 2026

Право и безопасность ИИ: срез года

В 2026 году безопасность ИИ в продукте — это одновременно атаки на промпты и агентов, утечки через RAG и инструменты, и растущее давление со стороны регуляторики. Уже действуют нормы о персональных данных, защите информации и КИИ; параллельно идёт общественное обсуждение проекта федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта» — в публичных материалах фигурирует ориентир вступления с 1 сентября 2027 года после принятия в ожидаемой редакции. В аудите мы сопоставляем контур с действующим правом и фиксируем зазоры под будущие обязательства.

152-ФЗ «О персональных данных»

Цели и правовые основания обработки, обезличивание, трансграничная передача, поручение оператору, доступ и ретеншн: типовые риски при обучении, RAG, логах и ответах модели.

Законодательство об информации (в т.ч. 149-ФЗ) и практика «приземления»

Публичные и B2B-сервисы с ИИ, прозрачность для пользователя, маркировка сгенерированного контента — в тренде ожиданий регуляторов; в проекте об ИИ отдельно прорабатываются маркировка и ответственность владельцев сервисов.

КИИ и значимые объекты (ФЗ-187 и подзаконные акты)

Если ИИ-система связана с ГИС или объектами критической информационной инфраструктуры, добавляются требования к категорированию, мониторингу и реагированию на инциденты — отдельный слой в модели угроз и в отчёте.

Проект федерального закона об ИИ (стадия обсуждения, 2026)

В проекте заявлены риск-ориентированный подход, распределение ролей (разработчик, оператор, владелец сервиса), требования к доверенным моделям для ряда сценариев, маркировка ИИ-контента и меры при угрозе вреда. Текст может меняться до принятия — в выводах аудита отделяем «уже обязательно» от «готовимся заранее».

До вступления закона об ИИ в силу его положения не являются обязательными; мы помогаем приоритизировать меры по действующим актам и по разумной предкоррекции под ожидаемую рамку.

Текст на странице носит прикладной характер для ИБ и продукта и не заменяет юридическую консультацию.

Наука и данные

Опора на открытые рамки и рецензируемые работы

Мы не «придумываем угрозы с нуля»: таксономии OWASP и MITRE, рекомендации NIST по управлению рисками ИИ и статьи с воспроизводимой методологией задают общий язык с вашей ИБ и помогают защитить выводы перед аудитором или советом.

Примеры научных и отраслевых источников

Результат

Что на выходе

  • Карта угроз и бэклог находок с критичностью
  • Отчёт с воспроизводимыми PoC по ключевым рискам
  • Рекомендации: политики, guardrails, мониторинг, логирование
  • Блок по РФ: действующие нормы (152-ФЗ, информационная безопасность, КИИ при применимости) и практичные шаги под проект закона об ИИ
  • Roadmap 30–60–90 дней и критерии готовности к продакшену

Для кого

Продуктовые и инженерные команды, выводящие копилоты, RAG и агентов с доступом к внутренним API; CISO и ИБ, которым нужен измеримый план согласования.

Формат

Бриф и NDA, интервью, обзор архитектуры и тестовых контуров. По согласованию — чёрный и белый ящик, без деструктивного воздействия на прод.

По запросу

Срок и стоимость — после брифа по масштабу моделей, агентов и чувствительности данных.

Запросить AI Security audit

Опишите контур: модели, RAG, интеграции и регуляторные ограничения — предложим состав работ и окно в календаре.

Связаться в Telegram
Спорим, я решу твой вопрос? Проверь!