Открыто

Машинное обучение и искусственный интеллект: вспомогательные векторные машины в Python [Udemy] [Lazy Programmer Inc.]

Тема в разделе "Нейросети и искусственный интеллект", создана пользователем Топикстартер, 11 ноя 2024.

Цена: 5400р.-41%
Взнос: 3183р.

Основной список: 2 участников

  1. 11 ноя 2024
    #1
    Топикстартер
    Топикстартер ЧКЧлен клуба

    Складчина: Машинное обучение и искусственный интеллект: вспомогательные векторные машины в Python [Udemy] [Lazy Programmer Inc.]

    Machine Learning and AI: Support Vector Machines in Python
    Язык: Английский + Русский машинный перевод

    Screenshot_1.png

    Искусственный интеллект и наука о данных Алгоритмы классификации и регрессии на Python

    Чему вы научитесь:
    • Применяйте SVM в практических приложениях: распознавание изображений, обнаружение спама, медицинская диагностика и регрессионный анализ
    • Построение собственной RBF-сети и других нейронных сетей на основе SVM
    • Полиномиальное ядро, гауссово ядро и сигмоидное ядро
    • Регрессия вектора поддержки
    • Поймите, как квадратичное программирование применяется к SVM
    • Использование двойственности Лагранжа для получения ядра SVM
    • Поймите теорию, лежащую в основе SVM, с нуля (основы геометрии)
    Материалы курса
    12 разделов • 74 лекций • Общая продолжительность 8 ч 57 мин

    Требования
    • Калькуляция, матричная арифметика / геометрия, основы теории вероятностей
    • Кодирование на Python и Numpy
    • Логистическая регрессия
    Описание:
    Машины опорных векторов (SVM) - одна из самых мощных моделей машинного обучения, и с тех пор, как я начал готовить курсы, студенты часто обращаются к этой теме.
    В наши дни, кажется, все говорят о глубоком обучении, но на самом деле было время, когда машины с опорными векторами считались более совершенными, чем нейронные сети. В этом курсе вы узнаете, что машина опорных векторов на самом деле является нейронной сетью, и они выглядят одинаково, если нарисовать диаграмму.
    Самое сложное препятствие, которое необходимо преодолеть при изучении машин опорных векторов, заключается в том, что они очень теоретичны. Эта теория легко отпугивает многих людей, и может показаться, что изучение машин опорных векторов - это нечто непосильное. Это не так!

    В этом курсе мы используем очень методичный, пошаговый подход к построению всей теории, необходимой для понимания того, как на самом деле работает SVM. В качестве отправной точки мы будем использовать логистическую регрессию, которая является одной из самых первых вещей, о которых вы узнаете, изучая машинное обучение. Поэтому, если вы хотите понять этот курс, просто имейте хорошую интуицию о логистической регрессии и, как следствие, хорошее понимание геометрии линий, плоскостей и гиперплоскостей.
    В этом курсе рассматривается важнейшая теория, лежащая в основе SVM:
    • Вывод линейной SVM
    • Потери на петлях (и их связь с потерями на кросс-энтропии
    • Квадратичное программирование (и обзор линейного программирования)
    • Провисающие переменные
    • Двойственность Лагранжа
    • Ядро SVM (нелинейная SVM)
    • Полиномиальные ядра, гауссовы ядра, сигмоидные ядра и строчные ядра
    • Узнайте, как добиться бесконечной размерности признаков.
    • Проективный градиентный спуск
    • SMO (последовательная минимальная оптимизация)
    • RBF-сети (нейронные сети с радиальной базисной функцией)
    • Регрессия опорных векторов (SVR)
    • Многоклассовая классификация
    Для тех, кто думает: «Теория - это не для меня», в этом курсе найдется много материала и для вас! В этом курсе будет не один, а целых два раздела, посвященных только практическим аспектам эффективного использования SVM.Мы рассмотрим сквозные примеры реальных практических приложений машинного обучения, таких как:
    • Распознавание изображений
    • Регрессионный анализ
    • Обнаружение спама
    • Медицинская диагностика
    Для более продвинутых студентов есть также множество упражнений по кодированию, где вы сможете попробовать различные подходы к реализации SVM.Это реализации, которые вы не найдете ни в одном другом курсе.

    Преподаватели:
    - Lazy Programmer Team
    Ленивый программист - опытный онлайн-педагог с непоколебимой страстью к распространению знаний. Имея более чем 10-летний опыт работы, он произвел революцию в области науки о данных и машинного обучения, покорив аудиторию по всему миру своими комплексными курсами и учебными пособиями.
    - Lazy Programmer Inc.
    Ленивый программист - опытный онлайн-педагог с непоколебимой страстью к распространению знаний. Имея более чем 10-летний опыт работы, он произвел революцию в области науки о данных и машинного обучения, покорив аудиторию по всему миру своими комплексными курсами и учебными пособиями.

    Бонус от Организатора: Русские субтитры + Русские аудио дорожки машинный перевод + для удобства воспроизведения добавлена отдельная папка с сшитыми видео файлами (Русская аудио дорожка + видео файл) [Premium Ai].
    *Аудио перевод произведён с синхронизацией таймингов.

    Support Vector Machines (SVM) are one of the most powerful machine learning models around, and this topic has been one that students have requested ever since I started making courses.

    These days, everyone seems to be talking about deep learning, but in fact there was a time when support vector machines were seen as superior to neural networks. One of the things you’ll learn about in this course is that a support vector machine actually is a neural network, and they essentially look identical if you were to draw a diagram.

    The toughest obstacle to overcome when you’re learning about support vector machines is that they are very theoretical. This theory very easily scares a lot of people away, and it might feel like learning about support vector machines is beyond your ability. Not so!

    In this course, we take a very methodical, step-by-step approach to build up all the theory you need to understand how the SVM really works. We are going to use Logistic Regression as our starting point, which is one of the very first things you learn about as a student of machine learning. So if you want to understand this course, just have a good intuition about Logistic Regression, and by extension have a good understanding of the geometry of lines, planes, and hyperplanes.

    This course will cover the critical theory behind SVMs:
    • Linear SVM derivation
    • Hinge loss (and its relation to the Cross-Entropy loss)
    • Quadratic programming (and Linear programming review)
    • Slack variables
    • Lagrangian Duality
    • Kernel SVM (nonlinear SVM)
    • Polynomial Kernels, Gaussian Kernels, Sigmoid Kernels, and String Kernels
    • Learn how to achieve an infinite-dimensional feature expansion
    • Projected Gradient Descent
    • SMO (Sequential Minimal Optimization)
    • RBF Networks (Radial Basis Function Neural Networks)
    • Support Vector Regression (SVR)
    • Multiclass Classification

    Cтоимость: 5400 руб.
    Скрытая ссылка
     
    Последнее редактирование модератором: 15 ноя 2024
    1 человеку нравится это.
  2. Последние события

    1. skladchik.com
      Нужен организатор складчины.
      16 дек 2024 в 03:37
    2. Рыбак
      Рыбак участвует.
      12 ноя 2024
    3. Duumvir
      Duumvir участвует.
      12 ноя 2024
    4. Татьяна_76
      Татьяна_76 участвует.
      11 ноя 2024

    Последние важные события

    1. skladchik.com
      Нужен организатор складчины.
      16 дек 2024 в 03:37
    2. skladchik.com
      Назначен организатор.
      11 ноя 2024