1. Новые складчины (Клуб Складчик) Показать еще

    21.01.2018: Тонирование в LAB пространстве (Марина Таранущенко)

    21.01.2018: Путь к себе (Константин Довлатов)

    21.01.2018: Сила женского притяжения (Павел Раков)(2017)

    21.01.2018: Технологии постановки навыков (Николай Ягодкин)

    21.01.2018: Супер Энергетика (Игорь Серов)

  2. Гость, если у Вас на каком либо сайте есть аккаунт с повышенным статусом, то и у нас вы можете получить соответствующий статус. Подробнее читайте здесь https://skladchik.biz/threads/83942/
    Скрыть объявление
  3. Нужен организатор (Клуб Складчик) Показать еще

    19.01.2018: Бизнес на Амазон. Saleshub. Как заставить листинг продавать? (Артем Коршун)

    17.01.2018: Коучинг с 100$ к 100.000$ версия 21.0 (PLATINUM версия) Последний коучинг Дмитрия Ковпака

    16.01.2018: Adobe Photoshop. Базовый курс (Александр Сераков)

    14.01.2018: Геометрия (Videouroki) 7-11 класс

    13.01.2018: Колесо новолуний. Луна белой дороги (Лариса Кузнецова-Фетисова)

  4. Сбор взносов (Клуб Складчик) Показать еще

    19.01.2018: На Старт (Александр Пурнов)

    19.01.2018: Как маркетинговое семантическое ядро дает трафик, заявки и продажи? (Дмитрий Шевцов)

    18.01.2018: Как создать лесосад (Елена Арифулина)

    18.01.2018: Пряности и радости (Елена Невретдинова)

    18.01.2018: Прибыльная онлайн-школа (Александр Залогин)

Доступно DSCource 2. Data Mining с помощью Python (Юрий Кашницкий)

Тема в разделе "Курсы по программированию", создана пользователем hp4s, 12 апр 2016.

Цена:
7000р.
Взнос:
254р.

Список участников складчины:

1. hp4s
2. Gendalf_beliy 3. timak474
    Тип: Стандартная складчина
    Участников: 3/30
Оценить эту складчину: /5,
  1. 12 апр 2016
    #1
    hp4s
    hp4s Организатор Организатор

    DSCource 2. Data Mining с помощью Python (Юрий Кашницкий)

    Юрий Кашницкий, Data Mining с помощью Python
    Видео лекций, презентации, ссылки по второму курсу данной серии


    "Мы постарались сделать программу так, чтобы в нее входили только самые основные навыки, необходимые в реальной работе. Здесь не будет длинной теории, только практически важные вещи."
    • Юрий Кашницкий, преподаватель Высшей Школы Экономики, умеющий объяснять сложные вещи простым языком, познакомит слушателей сперва с основными инструментами, которые пригодятся начинающему Data Scientist'у, а после проведет курс по машинному обучению, в котором даст необходимые навыки для построения прогнозных моделей

    Data Mining (добыча данных, интеллектуальный анализ данных, глубинный анализ данных) – собирательное название, используемое для обозначения совокупности методов обнаружения в данных ранее неизвестных, нетривиальных, практически полезных и доступных интерпретации знаний, необходимых для принятия решений в различных сферах человеческой деятельности

    Kaggle – это платформа для исследователей разных уровней, где они могут опробовать свои модели анализа данных на серьезных и актуальных задачах. Суть такого ресурса – не только в возможности получить неплохой денежный приз в случае, если именно ваша модель окажется лучшей, но и в том (а, это, пожалуй, гораздо важнее), чтобы набраться опыта и стать специалистом в области анализа данных и машинного обучения.


    Данный курс освящает практическое применение алгоритмов обработки данных на примере решения одной из самых популярных задач платформы Kaggle, Titanic: Learning from Disaster (предсказание выживших в катастрофе пассажиров)
    Урок 1. Введение
    - Введение в машинное обучение, необходимые навыки
    - Задачи классификации, регрессии и кластеризации
    - Краткий обзор Kaggle
    - Открытие соревнования Kaggle Inclass
    - Знакомство с набором данных по автострахованию этого соревнования
    - Статистические распределения, нормализация признаков, приведение к нормальному распределению
    - Деревья решений
    - Применение дерева решений Scikit-learn к набору данных iris и данным из контеста Kaggle Inclass
    - Настройка параметров дерева, кросс-валидация

    Урок 2. Обзор инструментов
    - Работа с векторами и матрицами в библиотеке NumPy
    - Обзор библиотеки для научных выичслений SciPy
    - Тетрадки Jupyter (IPython) для презентации материала, содержащего код
    - Визуализация данных с Matplotlib
    - Чтение и обработка данных с библиотекой Pandas
    - Решение задачи соревнования Kaggle "Titanic: Learning from Disaster" c помощью Pandas
    - Обзор библиотеки машинного обучения Scikit-learn

    Урок 3. Обучение с учителем. Классификация
    - Работа с признаками – отбор, преобразование, построение
    - Метрики качества алгоритмов машинного обучения (accuracy, precision, recall, F-score). ROC-кривая, AUC
    - Метод максимального правдоподобия
    - Логистическая регрессия

    Урок 4. Обучение с учителем. Ансамбли. Переобучение
    - Случайный лес (Random Forest)
    - Случайный лес на примере набора данных Titanic
    - Случайный лес на примере набора данных по автострахованию
    - Бустинг (boosting) и бэггинг (bagging)
    - Сравнение бустинга и бэггинга на наборах данных репозитория UCI
    - Стекинг. Демонстрация решения задачи категоризации продуктов Otto (вкратце)
    - Переобучение, кросс-валидация, регуляризация
    - Пример регуляризации для логистической регрессии

    Урок 5. Обучение без учителя
    - Обзор методов кластеризации, снижения размерности, поиска аномалий в данных
    - Кластеризации городов России по социально-экономическим показателям
    - Сингулярное разложение матрицы
    - Пример снижения размерности изображений, сжатие изображений
    - Снижение размерности как способ визуализации даных
    - Решение задачи соревнования Kaggle "Titanic: Learning from Disaster" с помощью Python

    Урок 6. Продвинутые методы. API Scikit-learn
    - Нейронные сети, библиотеки nolearn и Lasagne NN
    - Библиотека XGBoost, сравнение с градиентным бустингом в Scikit-learn
    - Пример голосования между алгоритмами для повышения качества классификации
    - Смешивание (блендинг) алгоритмов на примере задачи Kaggle "Titanic: Learning from Disaster"
    - Стекинг. Пример для Titanic
    - Разработка собственного класса Scikit-learn Estimator для задачи по автострахованию Kaggle Inclass. kNN с подобранной метрикой.
     
    Gendalf_beliy нравится это.
  2. 18 май 2016
    #2
    Gendalf_beliy
    Gendalf_beliy Складчик Складчик
    Куплено? Как можно оплатить/получить?
     
  3. 18 май 2016
    #3
    Homer
    Homer Супермодератор Супер-модератор
    Да, Нажмите вкладу реквизиты, оплатите удобным для Вас способом, после чего в Реквизитах напишите об оплате, в течении 3-х дней организатор отметит Вашу оплату, и появится вкладка Библиотека, где уже вы сможете скачать.
     
    Gendalf_beliy нравится это.
  4. 19 май 2016
    #4
    Gendalf_beliy
    Gendalf_beliy Складчик Складчик
    Не желаете еще к этому присоединиться
    или переорганизовать?
     
    Последнее редактирование модератором: 19 май 2016
  5. 19 май 2016
    #5
    Homer
    Homer Супермодератор Супер-модератор
    Внешние ссылки пожалуйста скрывайте под хайд (скрытый контент)
     
  6. 19 май 2016
    #6
    Gendalf_beliy
    Gendalf_beliy Складчик Складчик
    Так это ж не вняшняя ссылка вроди была. В любом случае на счет ссылок понял.
     

Участники складчины DSCource 2. Data Mining с помощью Python (Юрий Кашницкий) смогут написать отзыв