Эконометрика (Econometrics)

  • 4.9
Approx. 30 hours to complete

Course Summary

Learn how to apply statistical methods to economic data with this comprehensive course on econometrics. Gain hands-on experience with real-world datasets and practical applications.

Key Learning Points

  • Understand the basics of econometric models and statistical inference
  • Learn how to analyze and interpret economic data
  • Apply econometric techniques to real-world problems
  • Gain experience using popular software such as Stata and R

Job Positions & Salaries of people who have taken this course might have

    • USA: $75,000 - $120,000
    • India: Rs 5,00,000 - Rs 15,00,000
    • Spain: €30,000 - €60,000
    • USA: $75,000 - $120,000
    • India: Rs 5,00,000 - Rs 15,00,000
    • Spain: €30,000 - €60,000

    • USA: $60,000 - $100,000
    • India: Rs 3,00,000 - Rs 10,00,000
    • Spain: €20,000 - €40,000
    • USA: $75,000 - $120,000
    • India: Rs 5,00,000 - Rs 15,00,000
    • Spain: €30,000 - €60,000

    • USA: $60,000 - $100,000
    • India: Rs 3,00,000 - Rs 10,00,000
    • Spain: €20,000 - €40,000

    • USA: $50,000 - $80,000
    • India: Rs 3,00,000 - Rs 8,00,000
    • Spain: €20,000 - €35,000

Related Topics for further study


Learning Outcomes

  • Develop a strong foundation in econometric theory and practice
  • Gain hands-on experience with real-world datasets and practical applications
  • Learn how to apply econometric techniques to real-world problems

Prerequisites or good to have knowledge before taking this course

  • Basic knowledge of statistics
  • Familiarity with software such as Stata or R

Course Difficulty Level

Intermediate

Course Format

  • Online
  • Self-paced
  • Video Lectures
  • Interactive Quizzes

Similar Courses

  • Applied Econometrics
  • Econometric Analysis

Related Education Paths


Notable People in This Field

  • David Autor
  • Esther Duflo

Related Books

Description

Эконометрика – наука, позволяющая исследовать закономерности в реальных данных. К концу курса мы научимся отвечать на два вопроса. Как одна переменная, y, зависит от другой переменной, x? Как спрогнозировать переменную y?

Outline

  • Метод наименьших квадратов или рабочая лошадка эконометриста, введение в R
  • Об университете
  • О курсе. Промо-ролик
  • 1.1.1. Суть метода наименьших квадратов
  • 1.1.2. Пример 1. Регрессия на константу [у доски]
  • 1.1.3. Пример 2. Парная регрессия. Начало [у доски]
  • 1.1.4. Пример 2. Парная регрессия. Окончание [у доски]
  • 1.1.5. МНК на графике. Случай множества регрессоров
  • 1.1.6. Ликбез по линейной алгебре
  • 1.1.7. Геометрия регрессии на константу [у доски]
  • 1.1.8. Геометрия множественной регрессии [у доски]
  • 1.1.9. Коэффициент детерминации
  • 1.1.10. Мораль первой лекции
  • 1.2.1. Консольный режим в R
  • 1.2.2. Написание первого скрипта в R
  • 1.2.3. Установка пакетов в R. Получение справки
  • 1.2.4. Первый взгляд на набор данных в R
  • 1.2.5. МНК в R. Пример с машинами
  • 1.2.6. МНК в R. Пример с фертильностью
  • Об университете
  • Правила академической честности на курсе
  • Установка R/R-studio/Texlive под Windows
  • Установка R/R-studio/Mactex под Mac
  • Установка R/R-studio/Texlive под Linux
  • Ссылки на pdf-версии лекций, скрипты и данные
  • Источники мудрости
  • Критерии оценивания
  • Поправки к неточностям в видео-фрагментах
  • Доброжелательное напутствие перед тестом :)
  • МНК, введение в R
  • Статистические свойства оценок коэффициентов
  • 2.1.1. Условное математическое ожидание. Определение
  • 2.1.2. Пример подсчета условного математического ожидания [у доски]
  • 2.1.3. Условная дисперсия [+доска]
  • 2.1.4. Геометрическая иллюстрация условного математического ожидания [у доски]
  • 2.1.5. Условная дисперсия МНК оценок
  • 2.1.6. Условная дисперсия МНК оценок. Доказательство [у доски]
  • 2.1.7. Дисперсия оценок коэффициентов в общем виде
  • 2.1.8. Доказательство формулы для ковариационной матрицы [у доски, линал]
  • 2.1.9. Оценка ковариационной матрицы
  • 2.1.10. Статистические свойства оценок коэффициентов
  • 2.1.11. Построение доверительных интервалов и проверка гипотез
  • 2.1.12. Пример. Доверительный интервал для коэффициента бета [у доски]
  • 2.1.13. Пример. Доверительный интервал для дисперсии [у доски]
  • 2.1.14. Пример. Проверка гипотезы о коэффициенте бета [у доски]
  • 2.1.15. Интерпретация стандартной таблички
  • 2.1.16. Особенности проверки гипотез
  • 2.1.17. Проверка гипотезы о связи коэффициентов. Заключение [+доска]
  • 2.2.1. Работа со случайными величинами в R
  • 2.2.2. Проверка гипотез о коэффициентах в R
  • 2.2.3. Стандартизированные коэффициенты и эксперимент с ложно-значимыми регрессорами
  • 2.2.4. Сохранение и загрузка данных
  • 2.2.5. Загрузка данных RLMS
  • И вновь доброжелательное напутствие!
  • Проверка гипотез о коэффициентах
  • Дамми-переменные, сравнение вложенных моделей
  • 3.1.1. Прогнозирование во множественной регрессии
  • 3.1.2. Пример построения интервалов для прогнозов [у доски]
  • 3.1.3. Интерпретация коэффициента при логарифмировании
  • 3.1.4. Дамми-переменные. Разные зависимости для подвыборок
  • 3.1.5. Проверка гипотезы о нескольких линейных ограничениях
  • 3.1.6. Пример проверки гипотезы о нескольких линейных ограничениях [у доски]
  • 3.1.7. Вывод формулы для гипотезы о незначимости регрессии [+ доска]
  • 3.1.8. Пример проверки гипотезы о незначимости регрессии [+ доска]
  • 3.1.9. Лишние и пропущенные переменные
  • 3.1.10. Тест Рамсея [+ доска]
  • 3.1.11. Простые показатели качества модели
  • 3.2.1. R: графики и переход к логарифмам
  • 3.2.2. R: графики для качественных и количественных переменных
  • 3.2.3. Оценивание моделей с дамми-переменными в R
  • 3.2.4. Построение прогнозов в R
  • 3.2.5. Проверка гипотезы о линейных ограничениях, графическое представление результатов
  • 3.2.6. Ловушка дамми-переменных, информационные критерии, тест Рамсея
  • 3.2.7. Нано-исследование
  • Ну очень доброжелательное напутствие перед тестом!
  • Прогнозирование и гипотезы о нескольких ограничениях
  • Мультиколлинеарность
  • 4.1.1. Определение мультиколлинеарности
  • 4.1.2. Что поделать с мультиколлинеарностью?
  • 4.1.3. Ридж и LASSO регрессия
  • 4.1.4. Идея метода главных компонент
  • 4.1.5. Пример нахождения главной компоненты [у доски]
  • 4.1.6. Свойства главных компонент
  • 4.2.1. R: доверительные интервалы при мультиколлинеарности
  • 4.2.2. LASSO регрессия в R
  • 4.2.3. R: ридж-регрессия и идея оценки лямбды
  • 4.2.4. Метод главных компонент в R
  • Напутствие перед тестом!
  • Мультиколлинеарность
  • Гетероскедастичность
  • 5.1.1. Гомоскедастичность [+доска]
  • 5.1.2. Условная гетероскедастичность [доска]
  • 5.1.3. Безусловная гетероскедастичность [доска]
  • 5.1.4. Последствия гетероскедастичности для малых выборок
  • 5.1.5. Последствия гетероскедастичности: нормальность и большие выборки
  • 5.1.6. Робастные стандартные ошибки и обнаружение гетероскедастичности
  • 5.1.7. Пример теста Уайта [доска]
  • 5.1.8. Тест Голдфельда-Квандта [+ доска]
  • 5.1.9. Пример с известной структурой гетероскедастичности [+доска]
  • 5.1.10. Мораль лекции о гетероскедастичности
  • 5.2.1. Написание функций в R
  • 5.2.2. Написание циклов в R
  • 5.2.3. Прежние оценки для сравнения
  • 5.2.4. Доверительные интервалы при гетероскедастичности в R
  • 5.2.5. Тесты на гетероскедастичность в R
  • Очень-очень доброжелательное и важное напутствие перед экзаменом
  • Промежуточный экзамен
  • Автокорреляция
  • 6.1.1. Автокорреляция [+ доска]
  • 6.1.2. Свойства автокорреляции первого порядка [доска]
  • 6.1.3. Последствия автокорреляции
  • 6.1.4. Робастные стандартные ошибки и тест Дарбина-Уотсона
  • 6.1.5. Тест Бройша-Годфри. Пример тестирования автокорреляции [+доска]
  • 6.2.1. Работа с датами в R
  • 6.2.2. Базовые действия с временными рядами
  • 6.2.3. Загрузка данных из внешних источников
  • 6.2.4. R: Построение робастных доверительных интервалов
  • 6.2.5. Тесты на автокорреляцию в R
  • Напутствие перед тестом
  • Перед выполнением теста
  • Гетероскедастичность и автокорреляция
  • Анализ реальных данных на примере РЛМС
  • Метод максимального правдоподобия. Модели бинарного выбора
  • 7.1.1. Суть метода максимального правдоподобия [+доска]
  • 7.1.2. ML в непрерывном случае [+доска]
  • 7.1.3. ML и построение доверительных интервалов [+доска]
  • 7.1.4. Проверка гипотез. LR тест [+доска]
  • 7.1.5. Логит-модель [+доска]
  • 7.1.6. Вероятность и отношение шансов [у доски]
  • 7.1.7. Предельные эффекты и прогнозы
  • 7.1.8. Несуществование оценок логит-модели. Заключение [+доска]
  • 7.2.1. Графики для качественных переменных в R
  • 7.2.2. Оценивание коэффициентов и прогнозирование скрытой переменной [+доска]
  • 7.2.3. Доверительный интервал для вероятности и LR тест в R
  • 7.2.4. Предельные эффекты в R
  • 7.2.5. ROC кривая
  • Напутствие перед тестом!
  • Метод максимального правдоподобия
  • Стационарные временные ряды
  • 8.1.1. Стационарные и нестационарные ряды
  • 8.1.2. Процесс скользящего среднего, MA(q) [+доска]
  • 8.1.3. Автокорреляционная функция [+доска]
  • 8.1.4. Частная автокорреляционная функция [+доска]
  • 8.1.5. Процесс авторегрессии [+доска]
  • 8.1.6. Пример подсчёта частной автокорреляционной функции AR(1) процесса [доска]
  • 8.1.7. Множественность решений уравнения AR(1) процесса [+доска]
  • 8.1.8. Стационарность через характеристический многочлен [+доска]
  • 8.1.9. Прогнозирование процессов авторегрессии [+доска]
  • 8.1.10. Модель авторегрессии и скользящего среднего ARMA(p,q)
  • 8.1.11. Алгоритм оценивания ARMA процесса
  • 8.2.1. Искусственно сгенерированные стационарные процессы
  • 8.2.2. Искусственно сгенерированные нестационарные процессы
  • 8.2.3. Пример 1. Анализ уровня воды озера Гурон
  • 8.2.4. Пример 2 и 3. Анализ стоимости акций компании Гугл и численности населения России
  • 8.2.5. Пример 4. Анализ индекса потребительских цен
  • Прочитать перед тестом!
  • Временные ряды
  • Эндогенность
  • 9.1.1. Различные формы записи одной модели [+доска]
  • 9.1.2. Определение эндогенности
  • 9.1.3. Ошибка измерения регрессора [+доска]
  • 9.1.4. Пропущенная объясняющая переменная [+доска]
  • 9.1.5. Система уравнений с двумя эндогенными переменными [у доски]
  • 9.1.6. Метод инструментальных переменных [+доска]
  • 9.1.7. Корреляция и причинность
  • 9.1.8. Три иллюстрации к данным наблюдений
  • 9.2.1. Деление выборки на обучающую и тестовую
  • 9.2.2. Двухшаговый метод наименьших квадратов в парной регрессии
  • 9.2.3. Пара нюансов двухшагового метода наименьших квадратов
  • Напутствие перед тестом!
  • Эндогенность
  • Нестандартные сюжеты
  • 10.1.1. Медианная регрессия
  • 10.1.2. Квантильная регрессия
  • 10.1.3. Алгоритм случайного леса
  • 10.1.4. Пример построения регрессионного дерева [у доски]
  • 10.1.5. Суть байесовского подхода
  • 10.1.6. Расчет апостериорного распределения: пример 1 [у доски]
  • 10.1.7. Расчет апостериорного распределения: пример 2 [у доски]
  • 10.1.8. Алгоритм MCMC и логит-модель
  • 10.1.9. Регрессия пик-плато и спасибо
  • 10.2.1. Квантильная регрессия и алгоритм случайного леса
  • 10.2.2. Логит-модель: байесовский подход
  • 10.2.3. Регрессия пик-плато: байесовский подход
  • Последнее наше напутствие!
  • Финальный экзамен

Summary of User Reviews

Learn Ekonometrika online with Coursera. This course has received positive reviews from students. Many users found the material to be engaging and informative.

Key Aspect Users Liked About This Course

Engaging and informative material

Pros from User Reviews

  • Clear and concise explanations
  • In-depth coverage of econometric concepts
  • Great for beginners and intermediate learners
  • Excellent support from the instructors and community
  • Flexible schedule allows for self-paced learning

Cons from User Reviews

  • Some users found the course to be too basic
  • Lack of quizzes and assessments for self-evaluation
  • Limited interaction with instructors
  • Some users experienced technical issues with the platform
  • Not suitable for advanced learners
Russian
Available now
Approx. 30 hours to complete
Борис Демешев Top Instructor
HSE University
Coursera
Share
Saved Course list
Cancel
Get Course Update
Computer Courses