Закрыто

Машинное обучение: выделение факторов на Python [Центр digital-профессий ITtensive] [Udemy]

Тема в разделе "Курсы по программированию", создана пользователем Топикстартер, 7 янв 2021.

Цена: 849р.-78%
Взнос: 182р.
100%

Основной список: 17 участников

Резервный список: 4 участников

Статус обсуждения:
Комментирование ограничено.
  1. 7 янв 2021
    #1
    Топикстартер
    Топикстартер ЧКЧлен клуба
    Машинное обучение: выделение факторов на Python
    Выигрываем хакатон по выделению факторов: линейная регрессия, взаимная информация, PCA, ICA, NMF, MDS, t-SNE

    Авторы: Центр digital-профессий ITtensive
    Последнее обновление: 1/2021
    русский




    Чему вы научитесь
    • Процесс и модель машинного обучения
    • Линейная регрессия и L1/L2 регуляризация
    • Решающие деревья и ансамбли стекинга
    • Корреляция и взаимная информация
    • Метод главных компонент (PCA)
    • Сингулярное разложение (SVD)
    • Анализ независимых компонент (ICA)
    • Многомерное шкалирование (MDS)
    • t-SNE, UMAP, LargeVis
    Материалы курса
    10 разделов • 46 лекций • Общая продолжительность 6 ч 19 мин

    Требования




      • Продвинутый Python
      • Основы математической статистики
    Описание
    Мы разберем задачу хакатона 2020 года по выделению факторов, в наибольшей степени влияющих на продолжительность жизни в России, с точки зрения фундаментальных и прикладных подходов к понижению размерности данных. В заключении построим ансамбль моделей для предсказания продолжительности жизни, базируясь на выделенных факторах.

    Курс разбит на 4 части. В первой части мы последовательно пройдем все этапы работы с данными: от видов задач и их постановки до работы с моделями машинного обучения для минимизации предсказательной ошибки. Дополнительно рассмотрим фундаментальные основы построения моделей машинного обучения, базовые метрики и наиболее простые модели - линейную регрессии, решающие деревья и случайный лес. А также ансамбли машинного обучения.

    Во второй части на практике разберем:




      • Очистку и предобработку данных - ETL
      • Линейную регрессию для экстраполяции данных
      • Линейную регрессию с регуляризацией для выделения факторов
      • Информационные критерии понижения размерности
    В заключении создадим ансамбль стекинга из простых моделей понижения размерности.

    Третья часть посвящена матричным методам:




      • Метод главных компонент (PCA)
      • Сингулярное разложение (SVD)
      • Анализ независимых компонент (ICA)
      • Положительно-определенные матрицы (NMF)
    Уточним решение задачи обучения без учителя через матричные методы.

    В четвертой части рассмотрим нелинейные подходы:




      • Многомерное шкалирование (MDS).
      • t-SNE
      • UMAP
      • LargeVis
    Стабилизируем ансамбль понижения размерности и используем его для предсказания продолжительности жизни в России, основываясь на наиболее важных макроэкономических показателях.

    Для кого этот курс:




      • Аналитики Python, изучающие машинное обучение
      • Программисты больших данных
      • Исследователи больших данных

        Скрытая ссылка
     
  2. Последние события

    1. skladchik.com
      Складчина закрыта.
      28 фев 2022
    2. skladchik.com
      Складчина доступна.
      29 янв 2021
    3. sungridmail
      sungridmail участвует.
      26 янв 2021
    4. MikeXXX
      MikeXXX участвует.
      24 янв 2021

    Последние важные события

    1. skladchik.com
      Складчина закрыта.
      28 фев 2022
    2. skladchik.com
      Складчина доступна.
      29 янв 2021
    3. skladchik.com
      Взнос составляет 91р.
      20 янв 2021
    4. skladchik.com
      Складчина активна.
      20 янв 2021
Статус обсуждения:
Комментирование ограничено.