Создание AI‑ассистентов для ИТ инфраструктуры (LLM, RAG, agents)

- Уроков: 12
- Сложность: normal
- Аудитория: Администраторы сети, инфраструктуры, сетевые инженеры, DevNetOps и IT специалисты, которые хотят автоматизировать рутинные задачи с помощью современных AI-инструментов.
В этом курсе мы научимся применять современные LLM для автоматизации, разбирая практические кейсы из администрирования сетевой инфраструктуры.
Мы шаг за шагом встроим LLM в традиционную автоматизацию с помощью фреймворка LangChain.
В результате мы создадим готовое решение в виде AI‑ассистента, который:
-
общается как ChatGPT, но с учетом вашей внутренней документации,
-
помогает с настройкой сетевого оборудования для рутинных задач,
-
анализирует логи и ускоряет диагностику инцидентов.
Так привычное взаимодействие человек‑машина превращается в удобный чат человек‑человек, где инфраструктура отвечает как живой помощник.
Курс ориентирован на решение практических задач из жизни сетевого/системного администратора.
-
LLM. Достаточно понимать, что LLM генерирует текст в ответ на prompt
-
Python. Базовые знания: умение писать простые скрипты
-
Сети. Понимание понятий: IP-адрес, VLAN, коммутатор
-
Администрирование. Достаточно понимать что такое API, логи, CMDB (Configuration Management Database)
-
Linux. Важно уметь подключаться по SSH, использовать bash, запускать скрипты
-
Docker Compose. Понимание базовых команд (docker compose up -d, docker ps)
-
Доступ к platform.openai.com и 0.5 USD на балансе