ANT3005 - MLSecOps
Antcolony — Кибербезопасность
ANT3005 - MLSecOps
- Длительность: 5 дней (40 часов)
- Код курса: ANT3005
- Стоимость
- Очный формат: 648 500 ₸
- Онлайн формат: 632 000 ₸
Описание курса
Описание курса
Материал данного курса позволит слушателям изучить теорию и практику современных угроз, атак, методов защиты и аудита систем искусственного интеллекта и машинного обучения. Слушатели научатся моделировать угрозы, реализовывать и обнаруживать атаки (adversarial, poisoning, supply chain, privacy leakage), а также применять инструменты для построения защищённых ML-pipeline’ов, мониторинга и аудита моделей машинного обучения. Внимание уделяется лабораторным работам на OSS-фреймворках.
Аудитория курса
Специалисты в области кибербезопасности, желающие освоить специфику защиты ML/ИИ систем, а также разработчики и архитекторы ИИ-решений, разрабатывающие ML-pipeline'ы с учетом требований безопасности.
Предварительные требования
Необходимо обладать знаниями Python и практическим опытом работы с ML/AI-фреймворками (scikit-learn, PyTorch, TensorFlow, Jupyter).
Как устроено обучение
Онлайн-курс
Онлайн-курс предполагает групповые занятия с инструктором через систему видеоконференцсвязи, кроме того, домашние задания и экзамен. Слушателям предоставляются учебные пособия и дополнительные материалы
Для корпоративных клиентов
Обучение для корпоративных клиенов включает в себя онлайн-курсы и курсы самообучения, а также дополнительные сервисы,необходимые корпоративным клиентам: организация планов обучения для подразделений клиента, проведение оценки эффективности обучения и т.д.
Программа курса
Модуль 1. Введения в безопасность ИИ.
Риски и специфика AI-систем: отличия от классических ИС.
Классификация угроз (adversarial ML, data poisoning, model stealing, privacy leaks и др.).
Типовые злоумышленники, мотивация и сценарии атак.
Модели угроз для ML/AI pipeline.
Краткий разбор инцидентов (case studies).
Требования регуляторов (NIST, ISO/IEC 27001, 27017, IEEE) для AI.
Модуль 2. Adversarial атаки. Тестирование и защита моделей.
Adversarial: теория, методы генерации (FGSM, PGD, Carlini-Wagner и др.).
Категории атак (white-box/black-box, targeted/untargeted).
Атакуемые объекты: классификация, сегментация, OCR, звук, NLP.
Механизмы защиты: adversarial training, input preprocessing, усиленные архитектуры.
Методы оценки устойчивости моделей (robustness metrics).
Модуль 3. Dana Poisoning. Атаки Supply Chain.
Data poisoning: типы атак (label flipping, backdoor, clean-label).
Механизмы атаки и стадии внедрения.
Опасности цепочек поставки: подмена моделей, репозиториев, библиотек.
Примеры атак через PyPI, Huggingface.
Механизмы защиты: отслеживание контента, верификация исходников, “песочницы”.
Актуальные стандарты и best practices (MLSecOps, DevSecOps).
Модуль 4. Угрозы приватности, инференс и защита данных.
Утечки через обученные модели: membership inference, model inversion.
Риски: reconstruction attacks, extraction attacks.
Меры защиты: differential privacy, federated learning, homomorphic encryption.
Обнаружение атак: практические методы фиксации утечек.
Требования рещуляторов: GDPR, перспективы ЕАЭС/РФ, NIST AI RMF.
Модуль 5. Комплексная защита и аудит моделей в продуктиве.
Комплексная архитектура безопасности ML/AI-систем.
Построение безопасного pipeline’а (CI/CD, MLOps, Model Registry, Monitoring).
Аудит качества защиты и мониторинг моделей.
Реагирование на инциденты для AI/ML.
Примеры корпоративной архитектуры безопасности (Google TFX, Kubeflow, Microsoft).
Краткий разбор сценариев аудитов.
Записаться на курс «ANT3005 - MLSecOps»
Контакты
LinkedIn
Email
Web