Robot
Складчик
- #1
[Stepik] LLM Security PRO: Prompt Injection, утечки, tool-abuse (Алексей Малышкин)
- Ссылка на картинку

Практический курс по LLM Security
Запустите локальный RAG/агента на реальном LLM (OpenAI API) и укрепите прод: защита от prompt/indirect injection, утечек и tool-abuse, строгий JSON-вывод (Schema/Pydantic), redaction и лимиты стоимости/циклов. Плюс профессиональные блоки: OWASP LLM Top-10, threat modeling, red-team suite и security-gates в CI/CD.
О курсе:
LLM Security PRO — практический курс о том, как защищать RAG-сервисы и AI-агентов в продакшне. Мы не ограничимся “правильными промптами”: вы построите инженерные контуры, которые удерживают систему в рамках безопасности даже тогда, когда модель внушаема, ошибается или сталкивается с “вредными” документами и запросами.
Курс построен вокруг локального учебного приложения (RAG + tools + API + UI), которое вы запускаете у себя на компьютере и подключаете к реальному LLM через OpenAI API. Сначала вы увидите типовые провалы (injection, утечки, опасные tool-действия, cost-DoS), затем внедрите контроли: policy-layer, защита RAG-контекста, allowlist/scopes/approvals для инструментов, строгая валидация вывода, redaction и лимиты стоимости. Финал — red-team test suite и security-gates, чтобы регрессы не уезжали в прод.
Формат: код и шаблоны на GitHub, сервисы поднимать не нужно. API-ключ хранится только локально. В учебных заданиях используются синтетические данные (без ПДн/секретов).
Программа:
Старт
Запустите локальный RAG/агента на реальном LLM (OpenAI API) и укрепите прод: защита от prompt/indirect injection, утечек и tool-abuse, строгий JSON-вывод (Schema/Pydantic), redaction и лимиты стоимости/циклов. Плюс профессиональные блоки: OWASP LLM Top-10, threat modeling, red-team suite и security-gates в CI/CD.
О курсе:
LLM Security PRO — практический курс о том, как защищать RAG-сервисы и AI-агентов в продакшне. Мы не ограничимся “правильными промптами”: вы построите инженерные контуры, которые удерживают систему в рамках безопасности даже тогда, когда модель внушаема, ошибается или сталкивается с “вредными” документами и запросами.
Курс построен вокруг локального учебного приложения (RAG + tools + API + UI), которое вы запускаете у себя на компьютере и подключаете к реальному LLM через OpenAI API. Сначала вы увидите типовые провалы (injection, утечки, опасные tool-действия, cost-DoS), затем внедрите контроли: policy-layer, защита RAG-контекста, allowlist/scopes/approvals для инструментов, строгая валидация вывода, redaction и лимиты стоимости. Финал — red-team test suite и security-gates, чтобы регрессы не уезжали в прод.
Формат: код и шаблоны на GitHub, сервисы поднимать не нужно. API-ключ хранится только локально. В учебных заданиях используются синтетические данные (без ПДн/секретов).
Программа:
Старт
- Введение в курс
- Демо: как агент может ошибиться
- Активы и поверхности атаки
- Приоритизация: что чинить первым
- Политики и “контракт безопасности”
- Почему промпт не является защитой
- Фикс №1: разделение инструкций и данных
- Фикс №2: policy layer вне LLM
- Почему документы опасны
- Фиксы для RAG-контекста
- Grounding, цитирование и provenance как защита
- Heap+hash и резервуарная выборка
- Почему tools опаснее текста
- Allowlist и валидация параметров инструментов
- Scopes и approvals
- Почему нельзя доверять JSON/SQL/URL от модели
- Строгий структурированный вывод
- Санитайзеры и запрет "склейки строк"
- Что такое утечка в LLM-системах
- Redaction и политика логов
- Минимизация данных и "privacy by design"
- Как "кладут" LLM-приложения по бюджету
- Лимиты и stop conditions
- Rate limit, quotas, circuit breaker
- Red-team suite: как тестировать безопасность LLM-приложения
- Security gate в CI/CD
- РФ-модуль "по минимуму": что помнить, чтобы не встрять
- Защищаем LLM-агента
- 28 уроков
- 88 тестов
- 24 интерактивные задачи
Показать больше
Зарегистрируйтесь
, чтобы посмотреть скрытый контент.