ANT-CISO-AI - Безопасность AI в организациях - Human Growth Kazakhstan

ANT-CISO-AI - Безопасность AI в организациях

Antcolony — Кибербезопасность

ANT-CISO-AI - Безопасность AI в организациях

Описание курса

Описание курса:

Материал данного курса дает руководителям службы безопасности и специалистам единый “операционный” взгляд на безопасность и управление рисками AI/GenAI в корпоративной среде: от политики и модели управления до контроля данных, поставщиков, инцидентов и метрик. Основной фокус делается на безопасном использование AI в бизнес-процессах, подключении внешних AI-сервисов, управлении рисками LLM-приложений и AI-агентов, контроле утечек, а также подготовки к аудитам.

Аудитория курса:

Руководители и владельцы AI-направления, CISO/заместители, руководители SOC/IR, AppSec, CloudSec, Data Security, GRC/Compliance.

Предварительные требования к аудитории:

Необходимо базовое понимание кибербезопасности и управления рисками, желательно иметь представление о том, что такое LLM и GenIA.

Содержание курса:

Модуль 1 – AI как новая поверхность атаки и новая зона ответственности.

Почему AI меняет модель угроз и модель ответственности (AI-as-a-Service, Copilot-эффект, AI-агенты).
Роли и “линии защиты” (1st/2nd/3rd line) для AI.
Классы AI-сценариев в компании.
Обзор рисков GenAI по NIST.

Модуль 2 – Вневендорные инициативы, практики и стандарты в области безопасности AI.

NIST AI RMF.
ISO/IEC 42001.
ISO/IEC 23894.
Cloud Security Alliance AI Controls Matrix.
OWASP Top 10 for LLM Apps.
MITRE ATLAS.
Инициативы

Модуль 3 – Модель угроз для AI: что реально атакуют и чем это заканчивается.

Базовая терминология (что важно для безопасности): модели, промпты, контекст, RAG, инструменты, агенты, плагины, память агента.
Практическое threat modeling для AI без “глубокой ML-разработки”: активы; границы доверия; каналы ввода/вывода; злоупотребления.
Классы атак и инцидентов.

Модуль 4 – Данные, приватность и “AI DLP”: главный операционный риск.

Классификация данных и “AI-границы” (что можно/нельзя отправлять в публичные LLM).
Политики: разрешенные инструменты, запреты, исключения, safe prompts, правила хранения/логирования.
Защита от утечек в AI.
Модель “minimum necessary context” и управление доступом к корпоративным знаниям.
Встраивание в ISMS и контрольные меры из ISO/IEC 27001/27002.

Модуль 5 – Контроли безопасности для AI в эксплуатации: практики без привязки к вендору.

“Security by design” для внедрения GenAI в процессы (без разработки моделей.
Контроль поставщиков и цепочки поставок.
Практика построения набора контролей по CSA AI Controls Matrixи “мэппинг” на корпоративные контроли.

Модуль 6 – Мониторинг, инциденты и аудит: как SOC/IR живет в мире AI.

Какие “сигналы” важны для AI-инцидентов.
Playbooks для SOC/IR.
Метрики и контроль эффективности: coverage по use-cases, доля “approved tools”, инциденты/почти-инциденты, time-to-contain.
Подготовка к аудитам: артефакты, политики, реестр use-cases, оценка рисков по NIST AI RMF и требования AIMS по ISO/IEC 42001.

Модуль 7 – Рекомендации по ролям: “что делать завтра” каждому участнику

Совет директоров / C-level: риск-аппетит, KPI, ответственность, инвестиции в контроли.
CISO / Head of Security: AI security program, контрольная база, исключения, приоритизация use-cases.
GRC/Compliance/Privacy: политика, реестр AI, оценки рисков, поставщики, evidence.
AI Program Owner / Product Owner: governance, жизненный цикл, требования безопасности к use-case, acceptance criteria.
IT/Cloud/Architecture: интеграции, SSO, сегментация, прокси-шлюзы, observability.
SOC/IR: playbooks, детектирование, обучение аналитиков.
Procurement/Vendor Mgmt: security addendum, вопросы провайдерам, контроль субподрядчиков.

Записаться на курс «ANT-CISO-AI - Безопасность AI в организациях»