Обучение на размеченных данных

  • 4.8
Approx. 59 hours to complete

Course Summary

This course is an introduction to supervised learning, a machine learning technique used to make predictions based on labeled data. You'll learn about various algorithms and techniques used in supervised learning and how to apply them to real-world problems.

Key Learning Points

  • Understand the basics of supervised learning
  • Learn about various algorithms and techniques used in supervised learning
  • Apply supervised learning to real-world problems

Related Topics for further study


Learning Outcomes

  • Understand the fundamentals of supervised learning
  • Apply supervised learning algorithms to real-world problems
  • Evaluate the performance of supervised learning models

Prerequisites or good to have knowledge before taking this course

  • Basic knowledge of programming (Python preferred)
  • Basic understanding of statistics and linear algebra

Course Difficulty Level

Intermediate

Course Format

  • Online
  • Self-paced

Similar Courses

  • Unsupervised Learning
  • Deep Learning

Related Education Paths


Notable People in This Field

  • Professor of Computer Science and Director of AI Research at Facebook
  • Professor at the University of Toronto and co-founder of the Vector Institute for Artificial Intelligence
  • Professor at Stanford University and co-director of the Stanford Institute for Human-Centered Artificial Intelligence

Related Books

Description

Обучение на размеченных данных или обучение с учителем – это наиболее распространенный класс задач машинного обучения. К нему относятся те задачи, где нужно научиться предсказывать некоторую величину для любого объекта, имея конечное число примеров. Это может быть предсказание уровня пробок на участке дороги, определение возраста пользователя по его действиям в интернете, предсказание цены, по которой будет куплена подержанная машина.

Outline

  • Машинное обучение и линейные модели
  • Как прекрасны машинное обучение и анализ данных
  • Как устроена специализация, и зачем ее проходить
  • МФТИ
  • Знакомство с машинным обучением
  • Обучение на размеченных данных
  • Обучение без учителя
  • Признаки в машинном обучении
  • Линейные модели в задачах регрессии
  • Обучение линейной регрессии
  • Градиентный спуск для линейной регрессии
  • Стохастический градиентный спуск
  • Линейная классификация
  • Функции потерь в задачах классификации
  • Формат специализации и получение сертификата
  • Немного о Yandex
  • МФТИ
  • Forum&Chat
  • Слайды к лекциям
  • Инструкция по установке pybrain от Svetlana Astafyeva
  • Конспект
  • Слайды к лекциям
  • Конспект
  • Основные термины в машинном обучении
  • Типы задач в машинном обучении
  • Машинное обучение: задачи и признаки
  • Линейная регрессия
  • Градиентный спуск
  • Линейные модели
  • Борьба с переобучением и оценивание качества
  • Проблема переобучения
  • Регуляризация
  • Оценивание качества алгоритмов
  • Сравнение алгоритмов и выбор гиперпараметров
  • Метрики качества в задачах регрессии
  • Метрики качества классификации
  • Точность и полнота
  • Объединение точности и полноты
  • Качество оценок принадлежности классу
  • Встроенные датасеты. Sklearn.datasets
  • Кросс-валидация. Sklearn.cross_validation
  • Линейные модели. Sklearn.linear_model. Классификация
  • Линейные модели. Sklearn.linear_model. Регрессия
  • Метрики качества. Sklearn.metrics
  • Слайды к лекциям
  • Конспект
  • Слайды к лекциям
  • Конспект
  • Встроенные датасеты. Sklearn.datasets (ipython notebook)
  • Кросс-валидация. Sklearn.cross_validation (ipython notebook)
  • Линейные модели. Sklearn.linear_model. Классификация (ipython notebook)
  • Линейные модели. Sklearn.linear_model. Регрессия (ipython notebook)
  • Метрики качества. Sklearn.metrics (ipython notebook)
  • Проблема переобучения
  • Проблема переобучения и борьба с ней
  • Как измерить качество алгоритма?
  • Метрики качества
  • Встроенные датасеты и кросс-валидация
  • Введение в scikit-learn
  • Линейные модели: классификация и практические аспекты
  • Задача регрессии
  • Метод максимального правдоподобия
  • Регрессия как максимизация правдоподобия
  • Регрессия как оценка среднего
  • Регуляризация
  • Задача оценивания вероятностей и логистическая регрессия
  • Масштабирование признаков
  • Спрямляющие пространства
  • Работа с категориальными признаками
  • Несбалансированные данные
  • Многоклассовая классификация
  • Подбор параметров по сетке. Sklearn.grid_search
  • Задача: bike sharing demand
  • Задача: bike sharing demand. Продолжение
  • Слайды к лекциям
  • Конспект
  • Слайды к лекциям
  • Конспект
  • Подбор параметров по сетке. Sklearn.grid_search (ipython notebook)
  • Задача Bike Sharing Demand (ipython notebook)
  • Задача Bike Sharing Demand. Продолжение (ipython notebook)
  • Метод максимального правдоподобия
  • Линейные модели: статистический взгляд
  • Линейные модели: подготовка признаков
  • Линейные модели: практические аспекты
  • Подбор параметров по сетке
  • Анализ данных в scikit-learn
  • Решающие деревья и композиции алгоритмов
  • Решающие деревья
  • Обучение решающих деревьев
  • Критерии информативности
  • Критерии останова и стрижка деревьев
  • Решающие деревья и категориальные признаки
  • Решающие деревья в sklearn
  • Композиции деревьев
  • Смещение и разброс
  • Случайные леса
  • Трюки со случайными лесами
  • Случайные леса в sklearn
  • Композиции простых алгоритмов
  • Градиентный бустинг
  • Борьба с переобучением в градиентном бустинге
  • Градиентный бустинг для регрессии и классификации
  • Градиентный бустинг над решающими деревьями
  • Градиентный бустинг в XGBoost
  • Решающие деревья в sklearn (ipython notebook)
  • Слайды к лекциям
  • Конспект
  • Случайные леса в sklearn (ipython notebook)
  • Слайды к лекциям
  • Конспект
  • XGBoost
  • Градиентный бустинг в XGBoost (ipython notebook)
  • Слайды к лекциям
  • Конспект
  • Построение решающих деревьев
  • Решающие деревья
  • Бэггинг
  • Композиции и случайные леса
  • Обучение композиций и градиентный бустинг
  • Градиентный бустинг: обучение и практические аспекты
  • Нейронные сети и обзор методов
  • Однослойная нейронная сеть
  • Многослойная нейронная сеть. Функция ошибки
  • Оптимизация параметров нейронной сети
  • Регуляризация и прореживание нейронной сети
  • Байесовская классификация: содержание урока
  • Спам-фильтры и наивный байесовский классификатор
  • Байесовский классификатор
  • Восстановление распределений (часть 1)
  • Восстановление распределений (часть 2)
  • Минимизация риска
  • Минимизация риска и анализ функций потерь
  • Метрические алгоритмы и SVM: содержание урока
  • Метод k ближайших соседей
  • Настройка параметров в kNN
  • Метрики в kNN
  • Проклятие размерности
  • Рекомендации фильмов с помощью kNN
  • Метод опорных векторов (SVM)
  • Ядра в методе опорных векторов (Kernel trick)
  • Теорема Байеса
  • Байесовский подход к теории вероятностей
  • Байесовские модели в задачах машинного обучения
  • Бонусное видео
  • Слайды к лекциям
  • Конспект
  • Слайды к лекциям
  • Конспект
  • Слайды к лекциям
  • Конспект
  • Слайды к лекциям
  • Конспект
  • Материалы к бонусному видео
  • Список литературы
  • Финальные титры
  • Стань ментором специализации
  • Функции активации и функции ошибки
  • Нейронные сети
  • Байесовский классификатор и восстановление распределений
  • Байесовская классификация и регрессия
  • Метод k ближайших соседей
  • kNN и SVM
  • Байесовская теория

Summary of User Reviews

Users have praised the Supervised Learning course for its comprehensive coverage of the topic and practical approach. One key aspect that many users thought was good is the clear and concise explanations of complex concepts.

Pros from User Reviews

  • Comprehensive coverage of Supervised Learning
  • Practical approach with real-life examples
  • Clear and concise explanations of complex concepts
  • Engaging and interactive content
  • Great instructor support and community

Cons from User Reviews

  • Some users found the course material to be too basic
  • Lack of advanced topics and techniques
  • Limited depth on some topics
  • Course can be repetitive at times
  • Not suitable for those looking for a theoretical approach
Russian
Available now
Approx. 59 hours to complete
Evgeniy Riabenko, Evgeny Sokolov, Victor Kantor , Emeli Dral , Константин Воронцов
Moscow Institute of Physics and Technology, Yandex, E-Learning Development Fund
Coursera

Instructor

Evgeniy Riabenko

  • 4.8 Raiting
Share
Saved Course list
Cancel
Get Course Update
Computer Courses