🎓

Математика Data Science с нуля: Сингулярное разложение на Python

Математика и статистика
Обложка курса Купить за 1890 ₽
  • Уроков: 65
  • Сложность: easy
  • Аудитория: Курс рассчитан на тех, кто хочет с полного нуля получить глубокое понимание всей математики для машинного обучения которая используется в реализации классических алгоритмов машинного обучения и в дальнейшем применять эти знания в Python коде и кто хочет понимать, что происходит под капотом библиотек Scikit-learn, PyTorch, TensorFlow.
Математика и статистика Платный
5 часов видео-лекции! 👍 Этот курс - лучший способ начать с нуля и стать специалистом по Машинному Обучению в Python и МАТЕМАТИКЕ! 🏆 Вы реализуете с нуля алгоритм Спектрального и Сингулярного разложения(SVD).Мура-Пенроуза, классическое машинное и глубокое обучение Python, NumPy, Pandas, Scikit-Learn. Мы подробно разберём всю математику с нуля на примере Python кода, это будет самый ПРАКТИЧНЫЙ ОПЫТ 100%. Много практики + теория тоже есть! 🔥 Оперативная поддержка автора!🔥 Почитайте отзывы и записывайтесь!

10 ПРИМЕРОВ СФЕР ПРИМЕНЕНИЯ SVD:

 1. Сжатие изображений

  • SVD позволяет оставить только самые важные сингулярные значения, уменьшая размер изображения без заметной потери качества.

2. Рекомендательные системы

  • SVD используется в методах Latent Semantic Analysis (LSA) и Matrix Factorization — уменьшает размерность и выявляет скрытые связи между пользователями и товарами.

 3. Обработка текста (NLP)

  • SVD применяется в семантическом анализе текста: выявляет главные смысловые компоненты слов (например, Word2Vec + PCA или LSA).

4. Обработка звука и аудио

  • SVD помогает выделить основные частотные компоненты сигнала и подавить шум.

5. Решение переопределённых систем уравнений

  • SVD используется для устойчивого решения систем вида Ax=b, даже если A — вырождённая или почти вырождённая.

6. Principal Component Analysis (PCA)

  • PCA реализуется через SVD — находит направления максимальной дисперсии данных (главные компоненты).

7. Решение дифференциальных уравнений

  • EVD используется при решении систем линейных ОДУ: например, для анализа устойчивости, колебаний, диссипации.

8. Квантовая механика и физика

  • EVD позволяет находить собственные значения гамильтонианов — фундаментально важно для определения уровней энергии.

 9. Обработка изображений (распознавание лиц)

  • Метод Eigenfaces использует EVD или SVD для представления изображений лиц как линейной комбинации базисных образов.

10. Машинное обучение и линейная регрессия

  •     SVD используется в псевдообращении (Moore-Penrose), если матрица плохо обусловлена.
  •     EVD применяют в теоретическом анализе моделей, в Regularization (например, Ridge).

ОСОБЕННОСТИ КУРСА:

  • Разбор коммерческого кода действующих проектов по Data Science с сайта https://kaggle.com
  • Способность понимать раздел "Матричная факторизация" в учебнике от Школы Анализа Данных(ШАД) Яндекс https://education.yandex.ru/handbook/ml/article/matrichnaya-faktorizaciya
  • Способность начать понимать научную статью: https://arxiv.org/html/2505.23552
  • Применения знаний на новейших моделях машинного обучения и нейросетей на сайте архив: https://arxiv.org/list/stat.ML/recent
  • Способность понимать лекции от Воронцова К.В. http://machinelearning.ru/wiki/index.php?title=Участник:Vokov
  • Глубокое понимание раздела "Сингулярное разложение": http://www.machinelearning.ru/wiki/index.php?title=Сингулярное_разложение
  • Адаптация полученных знаний по математике и программированию под специфику бизнеса вашего работодателя или вашего стартапа.
  • Навык выведения математических формул с нуля
  • Имплементация математических формул в Python 
  • Глубокое понимание математики которая используется в Python
  • Фундаментальное понимание алгоритма Спектрального и Сингулярного разложения на Python
  • Фундаментальные знания для подготовки к собеседованию в Data Science

Этот курс - лучший способ начать с нуля и стать специалистом по Машинному Обучению в Python и МАТЕМАТИКЕ!

Курс разработан с акцентом на простой и понятный вход в машинное обучение — без необходимости сразу углубляться в сложную математику. Теоретическая база вводится постепенно, по мере необходимости, что делает обучение комфортным даже для тех, кто не имеет технического образования. Многие участники с гуманитарным бэкграундом успешно проходят курс и отмечают это в своих отзывах.

Если в процессе обучения у вас возникнут вопросы, вы можете задать их в комментариях к урокам — я, как автор курса, регулярно просматриваю комментарии и с радостью помогу вам разобраться

В этом курсе Вы изучите следующие темы:

  1. Сравнение метода INV и PINV.Псевдообратная матрица мура-Пенроуза
  2. Изучаем библиотеку Linear algebra (numpy.linalg)
  3. Математическое обоснование применения PINV вместо INV.
  4. Сингулярная и Обратная матрица.Детерминант. Мультиколлинеарность
  5. Изучаем метод PINV(SVD): псевдообратная матрица Мура-Пенроуза
  6. Понятие вектора.
  7. Понятие алгебраической структуры.
  8. Полугруппа
  9. Моноид
  10. Группа. Группа подстановок. Симметрическая группа s3
  11. Абелева группа. Коммутативная группа
  12. Кольцо
  13. Поле
  14. Векторное пространство
  15. Евклидово пространство 
  16. Линейный оператор. Линейная трансформация / преобразования
  17. Базис:Ортонормированный, Ортогональный, Афинный.Коллинеарность
  18. Гомотетия: частный случай преобразования подобия
  19. Виды преобразований
  20. Основные понятия
  21. Геометрическая интерпретация
  22. Формальное определение.
  23. Собственный вектор и значение линейного преобразования
  24. Алгоритм нахождения собственных чисел и векторов
  25. Матрица 2х2 алгоритм нахождения eigenvalue&eigenvector
  26. Матрица 3х3 алгоритм нахождения eigenvalue&eigenvector
  27. Комплексные числа
  28. Основные понятия. Eigenvalue decomposition
  29. Матрица 2х2 алгоритм нахождения Eigenvalue decomposition
  30. Геометрический смысл Eigenvalue decomposition. Матрица 2х2
  31. Эрмитова матрица
  32. Сингулярное разложение матрицы.
  33. Основные понятия. Singular Value Decomposition
  34. Алгоритм нахождения singular value decomposition
  35. Матрица 2х3.Прямоугольная-ШИРОКАЯ.Система уравнений.Метод Гаусса
  36. Матрица 4х3.Прямоугольная-ВЫСОКАЯ.Система уравнений.Метод Гаусса
  37. Матрица 3х3.Квадратная. Мультиколлинеарность. Находим SVD
  38. Резюмируем
  39. Усечённое(Truncated) SVD
  40. Сжатие изображения с помощью SVD
  41. Убираем шум с помощью SVD
  42. Рекомендательная система SVD
  43. Норма Фробениуса. След матрицы
  44. Теорема Эккарта Янга
  45. Геометрический смысл SVD
  46. Аналитический смысл SVD
  47. Сходство EVD и SVD
  48. Функция PINV. Псевдообратная матрица Мура-Пенроуза
  49. Выводим с нуля формулу для pinv - Moore-Penrose pseudoinverse
  50. Матрица 4х2.Прямоугольная-ВЫСОКАЯ.
  51. Матрица 2х2.Квадратная. Мультиколлинеарность.
  52. Прообраз и образ. Отображение.
  53. Геометрический смысл pinv - Moore-Penrose pseudoinverse
  54. Метод наименьших квадратов:Мура-Пенроуза наилучшая аппроксимация
  55. Реверс инжиниринг scikit-learn, метод fit
  56. Функция PINV
  57. Резюмируем
  58. Пишем алгоритм PINV с нуля
  59. Плюсы, Минусы, Где применяется

и много другое!

Курс сопровождается набором Jupyter Notebook — с примерами кода и подробными пояснениями. Для каждой лекции подготовлен отдельный блокнот, структурированный по разделам курса. Это позволяет не только смотреть видео, но и быстро находить нужную информацию в текстовом виде — удобно для повторения и навигации по материалу.

Курс доступен без ограничений по времени: вы можете проходить его в удобном для себя темпе.

Присоединяйтесь к обучению и развивайте свои навыки — добро пожаловать на курс!

Требования:
  • Никаких знаний по математике предварительно не требуется, вся математика будет дана с полного нуля.
  • Рекомендуются базовые знания Python (на уровне функций).
  • Либо опыт работы с другими языками программирования и готовность изучать Python в процессе курса.