Понятие мультиколлинеарности. Методы обнаружения и устранения мультиколлинеарности. Мультиколлинеарность, ее последствия. Установление мультиколлинеарности, методы ее устранения Определение наличия мультиколлинеарности

  • 2.3 Самостоятельная работа обучающегося под руководством преподавателя (сроп)
  • 2.4Самостоятельная работа студента (срс)
  • 3. Расписание модульно-рейтинговой проверки знаний обучающихся (график выполнения и сдачи заданий по дисциплине)
  • 3. Карта учебно-методической обеспеченности дисциплины
  • 3.1. Список литературы
  • 3.2 Методическое обеспечение дисциплины
  • 3.3 Перечень специализированных средств
  • 4. Методические рекомендации по дисциплин
  • 5. Лекционный комплекс.
  • Тема 1. «Сведения из теории вероятностей и математической статистики».
  • Вопрос 1. Введение в эконометрику.
  • Вопрос 3. Выборка и генеральная совокупность.
  • Вопрос 4. Проверка (тестирование) статистических гипотез.
  • Вопрос 5. Точечные и интервальные оценки параметров.
  • Тема 2. Метод наименьших квадратов
  • Вопрос 1. Функция регрессии и основные задачи статистического анализа парной регрессии. Причины включения случайного члена в уравнение регрессии.
  • Лз 3. Метод наименьших квадратов
  • Лз 4 Метод наименьших квадратов.
  • Вопрос 2. Метод наименьших квадратов.
  • Тема 3. Модель множественной линейной регрессии
  • Вопрос 1. Множественная линейная регрессия.
  • Вопрос 2. Матричная форма записи модели множественной регрессии.
  • Тема 4. Классическая модель множественной линейной регрессии.
  • Вопрос 1. Классическая модель множественной регрессии.
  • Вопрос 2. Проверка статистической значимости коэффициентов линейной регрессии. T-статистика Стьюдента.
  • Лз 7. Классическая модель множественной линейной регрессии.
  • Тема 5. Коэффициент детерминации.
  • Вопрос 1. Коэффициент детерминации.
  • Вопрос 2. Проверка общего качества уравнения регрессии.
  • Вопрос 3. Проверка значимости коэффициента детерминации.
  • Тема 6. Спецификация переменных. Частная корреляция.
  • Вопрос 1. Спецификация переменных.
  • Вопрос 2. Последствия невключения в модель существенных переменных.
  • Вопрос 3. Включение в модель несущественных переменных.
  • Вопрос 4. Частная корреляция в модели множественной линейной регрессии.
  • Тема 7. Нелинейные эконометрические модели.
  • Вопрос 1. Нелинейные модели регрессии. Нелинейность по переменным и нелинейность по параметрам. Логарифмирование.
  • Вопрос 2. Эластичность и ее моделирование.
  • Тема 8. Мультиколлинеарность.
  • Вопрос 1. Явление мультиколлинеарности.
  • Определение наличия мультиколлинеарности.
  • Вопрос 2. Последствия мультиколлинеарности для оценок коэффициентов регрессии.
  • Вопрос 3. Методы устранения мультиколлинеарности
  • Вопрос 4. Фиктивные переменные.
  • Тема 9. Гетероскедастичность.
  • Вопрос 1. Сущность и причины возникновения гетероскедастичности.
  • Вопрос 2. Способы корректировки гетероскедастичности.
  • Тема 10. Динамический ряд.
  • Вопрос 1. Общие сведения о временных рядах и задачах их анализа.
  • Лз 14. Динамический ряд.
  • Вопрос 2. Автокорреляция.
  • Вопрос 3. Прогнозирование на основе моделей временных рядов.
  • Другую группу методов представляют методы статистического модели­рования, наиболее распространенными из которых являются статические и динамические.
  • Лз 15 Динамический ряд.
  • Вопрос 3. Прогнозирование на основе моделей временных рядов.
  • Вопрос 4. Система одновременных уравнений.
  • 6. План лабораторных занятий
  • 7. Материалы для срс срс №1 Основные аспекты эконометрического моделирования
  • Срс №2 Парный регрессионный анализ
  • Срс № 3 Множественный регрессионный анализ
  • Условие задачи
  • Алгоритм решения задания
  • Срс №4 Временные ряды и прогнозирование.
  • Срс №5 Регрессионные динамические модели.
  • 3) Произвести теоретическое описание модели с распределенным лагом.
  • Срс № 6
  • Срс № 7 Системы одновременных уравнений.
  • 8. Материалы по контролю и оценке учебных достижений обучающихся Вопросы для подготовки к экзамену по дисциплине
  • Определение наличия мультиколлинеарности.

    Существует несколько признаков, по которым может быть установлено наличие мультиколлинеарности.

    1. Совокупный коэффициент множественной детерминации (R 2 ) достаточно вы­сок, но некоторые из коэффициентов регрессии статистически незначимы, то есть они имеют низ­киеt -статистики .

    2. Парная корреляция между малозначимыми объясняющими переменными достаточно высока (в случае двух объясняющих переменных).

    3. Высокие частные коэффициенты корреляции (в случае большего количества малозначимых объясняющих переменных).

    Вопрос 2. Последствия мультиколлинеарности для оценок коэффициентов регрессии.

    1. Большие дисперсии оце­нок (стандартные ошибки). Это затрудняет нахождение истинных зна­чений определяемых величин и расширяет ин­тервальные оценки, ухудшая их точность.

    2. Уменьшаются t -статистики коэффициентов, что может привести к неоправданному выводу о су­щественности влияния соответствующей объяс­няющей переменной на зависимую.

    3. Оценки коэффициентов по МНК и их стандарт­ные ошибки становятся очень чувствительными к малейшим изменениям данных, то есть они ста­новятся неустойчивыми.

    4. Затрудняется определение вклада каждой из объясняющих переменных в объясняемую урав­нением регрессии дисперсию зависимой перемен­ной.

    5. Возможно получение неверного знака у коэффи­циента регрессии.

    Вопрос 3. Методы устранения мультиколлинеарности

    Рассмотрим ос­новные методы.

    1. Исключение переменной(ых) из модели. Простейшим методом устранения мультиколлинеарности является ис­ключение из модели одной или ряда коррелированных переменных.

    Однако в этой ситуации возможны ошибки специфика­ции. Например, при исследовании спроса на некоторое благо в качестве объясняющих переменных можно исполь­зовать цену данного блага и цены заменителей данного блага, которые зачастую коррелируют друг с другом.

    Исключив из модели цены заменителей, скорее всего, будет допущена ошибка спецификации. Вследствие это­го можно получить смещенные оценки и сделать необос­нованные выводы. Поэтому в прикладных эконометрических моделях желательно не исключать объясняющие переменные до тех пор, пока коллинеарность не станет серьезной проблемой.

    2. Получение дополнительных данных или новой вы­борки. Поскольку мультиколлинеарность напрямую за­висит от выборки, то, возможно, при другой выборке мультиколлинеарности не будет, либо она не будет столь серьезной.

    Иногда для уменьшения мультиколлинеарности дос­таточно увеличить объем выборки. Увеличение количе­ства данных сокращает дисперсии коэффициентов рег­рессии и, тем самым, увеличивает их статистическую зна­чимость.

    Однако получение новой выборки или расширение ста­рой не всегда возможно или связано с серьезными издер­жками.

    3. Изменение спецификации модели. В ряде случаев про­блема мультиколлинеарности может быть решена путем изменения спецификации модели: либо изменяется фор­ма модели, либо добавляются объясняющие переменные, не учтенные в первоначальной модели, но существенно влияющие на зависимую переменную.

    Если данный метод имеет основания, то его использо­вание уменьшает сумму квадратов отклонений, тем самым, сокращая стандартную ошибку регрессии. Это приводит к уменьшению стандартных ошибок коэффициентов.

    4. Использование предварительной информации о некото­рых параметрах. Иногда при построении модели множе­ственной регрессии можно воспользоваться предваритель­ной информацией, в частности известными значениями некоторых коэффициентов регрессии. Вполне вероятно, что значения коэффициентов, рассчитанные для каких-либо предварительных (обычно более простых) моделей либо для аналогичной модели по ранее полученной выборке, могут быть использованы для разрабатываемой в данный момент модели.

    Ограниченность использования данного метода обус­ловлена тем, что, во-первых, получение предварительной информации зачастую затруднительно, а, во-вторых, ве­роятность того, что выделенный коэффициент регрессии будет одним и тем же для различных моделей, невысока.

    Преобразование переменных. В ряде случаев миними­зировать либо вообще устранить проблему мультиколли­неарности можно с помощью преобразования переменных.

    Например, пусть эмпирическое уравнение регрессии имеет следующий вид:

    При этом х 1 и х 2 – это коррелированные переменные.

    В этой ситуации можно попытаться определять следующие рег­рессионные зависимости относительных величин:

    (2)

    (3)

    Вполне вероятно, что в этих моделях проблема муль­тиколлинеарности будет отсутствовать. Возможны и дру­гие преобразования, близкие по своей сути к опи­санным выше. Например, если в уравнении рассматриваются взаимосвязи номинальных экономических показателей, то для снижения мультиколлинеарности можно попытать­ся перейти к реальным показателям и т.п.

    При построении уравнения множественной регрессии может возникнуть проблема мультиколлинеарности факторов. Мультиколлинеарностью называется линейная взаимосвязь двух или нескольких объясняющих переменных, которая может проявляться в функциональной (явной) или стохастической (скрытой) форме.
    Выявление связи между отобранными признаками и количественная оценка тесноты связи осуществляются с использованием методов корреляционного анализа. Для решения этих задач сначала оценивается , затем на ее основе определяются частные и множественные коэффициенты корреляции и детерминации, проверяется их значимость. Конечной целью корреляционного анализа является отбор факторных признаков x 1 , x 2 ,…,x m для дальнейшего построения уравнения регрессии.

    Если факторные переменные связаны строгой функциональной зависимостью, то говорят о полной мультиколлинеарности . В этом случае среди столбцов матрицы факторных переменных Х имеются линейно зависимые столбцы, и, по свойству определителей матрицы , det(X T X) = 0 , т. е. матрица (X T X) вырождена, а значит, не существует обратной матрицы. Матрица (X T X) -1 используется в построении МНК-оценок. Таким образом, полная мультиколлинеарность не позволяет однозначно оценить параметры исходной модели регрессии.

    К каким трудностям приводит мультиколлинеарность факторов, включенных в модель, и как они могут быть разрешены?

    Мультиколлинеарность может привести к нежелательным последствиям:

    1. оценки параметров становятся ненадежными. Они обнаруживают большие стандартные ошибки. С изменением объема наблюдений оценки меняются (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.
    2. затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированны; параметры линейной регрессии теряют экономический смысл;
    3. становится невозможным определить изолированное влияние факторов на результативный показатель.

    Вид мультиколлинеарности, при котором факторные переменные связаны некоторой стохастической зависимостью, называется частичной. Если между факторными переменными имеется высокая степень корреляции, то матрица (X T X) близка к вырожденной, т. е. det(X T X) ≈ 0.
    Матрица (X T X) -1 будет плохо обусловленной, что приводит к неустойчивости МНК-оценок. Частичная мультиколлинеарность приводит к следующим последствиям:

    • увеличение дисперсий оценок параметров расширяет интервальные оценки и ухудшает их точность;
    • уменьшение t -статистик коэффициентов приводит к неверным выводам о значимости факторов;
    • неустойчивость МНК-оценок и их дисперсий.

    Точных количественных критериев для обнаружения частичной мультиколлинеарности не существует. О наличии мультиколлинеарности может свидетельствовать близость к нулю определителя матрицы (X T X). Также исследуют значения парных коэффициентов корреляции. Если же определитель матрицы межфакторной корреляции близок к единице, то мультколлинеарности нет.

    Существуют различные подходы преодоления сильной межфакторной корреляции. Простейший из них – исключение из модели фактора (или факторов), в наибольшей степени ответственных за мультиколлинеарность при условии, что качество модели при этом пострадает несущественно (а именно, теоретический коэффициент детерминации -R 2 y(x1...xm) снизится несущественно).

    С помощью какой меры невозможно избавиться от мультиколлинеарности?
    a) увеличение объема выборки;
    b) исключения переменных высококоррелированных с остальными;
    c) изменение спецификации модели;
    d) преобразование случайной составляющей.

    Парные (линейные) и частные коэффициенты корреляции

    Тесноту связи, например между переменными x и y по выборке значений (x i , y i), i=1,n , (1)
    где x и y – средние значения, S x и S y – стандартные отклонения соответствующих выборок.

    Парный коэффициент корреляции изменяется в пределах от –1 до +1. Чем ближе он по абсолютной величине к единице, тем ближе статистическая зависимость между x и y к линейной функциональной. Положительное значение коэффициента свидетельствует о том, что связь между признаками прямая (с ростом x увеличивается значение y), отрицательное значение – связь обратная (с ростом x значение y уменьшается).
    Можно дать следующую качественную интерпретацию возможных значений коэффициента корреляции: если |r|<0.3 – связь практически отсутствует; 0.3≤ |r| < 0.7 - связь средняя; 0.7≤ |r| < 0.9 – связь сильная; 0.9≤ |r| < 0.99 – связь весьма сильная.
    Для оценки мультиколлинеарности факторов используют матрицу парных коэффициентов корреляции зависимого (результативного) признака y с факторными признаками x 1 , x 2 ,…,x m , которая позволяет оценить степень влияния каждого показателя-фактора x j на зависимую переменную y, а также тесноту взаимосвязей факторов между собой. Корреляционная матрица в общем случае имеет вид
    .
    Матрица симметрична, на ее диагонали стоят единицы. Если в матрице есть межфакторный коэффициент корреляции r xjxi >0.7, то в данной модели множественной регрессии существует мультиколлинеарность.
    Поскольку исходные данные, по которым устанавливается взаимосвязь признаков, являются выборкой из некой генеральной совокупности, вычисленные по этим данным коэффициенты корреляции будут выборочными, т. е. они лишь оценивают связь. Необходима проверка значимости, которая отвечает на вопрос: случайны или нет полученные результаты расчетов.
    Значимость парных коэффициентов корреляции проверяют по t- критерию Стьюдента. Выдвигается гипотеза о равенстве нулю генерального коэффициента корреляции: H 0: ρ = 0. Затем задаются параметры: уровень значимости α и число степеней свободы v = n-2. Используя эти параметры, по таблице критических точек распределения Стьюдента находят t кр, а по имеющимся данным вычисляют наблюдаемое значение критерия:
    , (2)
    где r – парный коэффициент корреляции, рассчитанный по отобранным для исследования данным. Парный коэффициент корреляции считается значимым (гипотеза о равенстве коэффициента нулю отвергается) с доверительной вероятностью γ = 1- α, если t Набл по модулю будет больше, чем t крит.
    Если переменные коррелируют друг с другом, то на значении коэффициента корреляции частично сказывается влияние других переменных.

    Частный коэффициент корреляции характеризует тесноту линейной зависимости между результатом и соответствующим фактором при устранении влияния других факторов. Частный коэффициент корреляции оценивает тесноту связи между двумя переменными при фиксированном значении остальных факторов. Если вычисляется, например, r yx 1| x2 (частный коэффициент корреляции между y и x 1 при фиксированном влиянии x 2), это означает, что определяется количественная мера линейной зависимости между y и x 1 , которая будет иметь место, если устранить влияние x 2 на эти признаки. Если исключают влияние только одного фактора, получают частный коэффициент корреляции первого порядка.
    Сравнение значений парного и частного коэффициентов корреляции показывает направление воздействия фиксируемого фактора. Если частный коэффициент корреляции r yx 1| x2 получится меньше, чем соответствующий парный коэффициент r yx 1 , значит, взаимосвязь признаков y и x 1 в некоторой степени обусловлена воздействием на них фиксируемой переменной x 2 . И наоборот, большее значение частного коэффициента по сравнению с парным свидетельствует о том, что фиксируемая переменная x 2 ослабляет своим воздействием связь y и x 1 .
    Частный коэффициент корреляции между двумя переменными (y и x 2) при исключении влияния одного фактора (x 1) можно вычислить по следующей формуле:
    . (3)
    Для других переменных формулы строятся аналогичным образом. При фиксированном x 2
    ;
    при фиксированном x 3
    .
    Значимость частных коэффициентов корреляции проверяется аналогично случаю парных коэффициентов корреляции. Единственным отличием является число степеней свободы, которое следует брать равным v = n – l -2, где l – число фиксируемых факторов.

    Пошаговая регрессия

    Отбор факторов x 1 , x 2 , …,x m , включаемых в модель множественной регрессии, является одним из важнейших этапов эконометрического моделирования. Метод последовательного (пошагового) включения (или исключения) факторов в модель позволяет выбрать из возможного набора переменных именно те, которые усилят качество модели.
    При реализации метода на первом шаге рассчитывается корреляционная матрица. На основе парных коэффициентов корреляции выявляется наличие коллинеарных факторов. Факторы x i и x j признаются коллинеарными, если r xjxi >0.7. В модель включают лишь один из взаимосвязанных факторов. Если среди факторов отсутствуют коллинеарные, то в модель могут быть включены любые факторы, оказывающие существенное влияние на y .

    На втором шаге строится уравнение регрессии с одной переменной, имеющей максимальный по абсолютной величине парный коэффициент корреляции с результативным признаком.

    На третьем шаге в модель вводится новая переменная, имеющая наибольшее по абсолютной величине значение частного коэффициента корреляции с зависимой переменной при фиксированном влиянии ранее введенной переменной.
    При введении в модель дополнительного фактора коэффициент детерминации должен возрастать, а остаточная дисперсия уменьшаться. Если этого не происходит, т. е. коэффициент множественной детерминации увеличивается незначительно, то ввод нового фактора признается нецелесообразным.

    Пример №1 . По 20 предприятиям региона изучается зависимость выработки продукции на одного работника y (тыс. руб.) от удельного веса рабочих высокой квалификации в общей численности рабочих x1 (% от стоимости фондов на конец года) и от ввода в действие новых основных фондов x2 (%).

    Y X1 X2
    6 10 3,5
    6 12 3,6
    7 15 3,9
    7 17 4,1
    7 18 4,2
    8 19 4,5
    8 19 5,3
    9 20 5,3
    9 20 5,6
    10 21 6
    10 21 6,3
    11 22 6,4
    11 23 7
    12 25 7,5
    12 28 7,9
    13 30 8,2
    13 31 8,4
    14 31 8,6
    14 35 9,5
    15 36 10

    Требуется:

    1. Построить корреляционное поле между выработкой продукции на одного работника и удельным весом рабочих высокой квалификации. Выдвинуть гипотезу о тесноте и виде зависимости между показателями X1 и Y .
    2. Оценить тесноту линейной связи между выработкой продукции на одного работника и удельным весом рабочих высокой квалификации с надежностью 0,9.
    3. Рассчитать коэффициенты линейного уравнения регрессии для зависимости выработки продукции на одного работника от удельного веса рабочих высокой квалификации.
    4. Проверить статистическую значимость параметров уравнения регрессии с надежностью 0,9 и построить для них доверительные интервалы.
    5. Рассчитать коэффициент детерминации. С помощью F -критерия Фишера оценить статистическую значимость уравнения регрессии с надежностью 0,9.
    6. Дать точечный и интервальный прогноз с надежностью 0,9 выработки продукции на одного работника для предприятия, на котором высокую квалификацию имеют 24% рабочих.
    7. Рассчитать коэффициенты линейного уравнения множественной регрессии и пояснить экономический смысл его параметров.
    8. Проанализировать статистическую значимость коэффициентов множественного уравнения с надежностью 0,9 и построить для них доверительные интервалы.
    9. Найти коэффициенты парной и частной корреляции. Проанализировать их.
    10. Найти скорректированный коэффициент множественной детерминации. Сравнить его с нескорректированным (общим) коэффициентом детерминации.
    11. С помощью F -критерия Фишера оценить адекватность уравнения регрессии с надежностью 0,9.
    12. Дать точечный и интервальный прогноз с надежностью 0,9 выработки продукции на одного работника для предприятия, на котором высокую квалификацию имеют 24% рабочих, а ввод в действие новых основных фондов составляет 5%.
    13. Проверить построенное уравнение на наличие мультиколлинеарности по: критерию Стьюдента; критерию χ2. Сравнить полученные результаты.

    Решение проводим с помощью калькулятора . Далее приводится ход решения п.13.
    Матрица парных коэффициентов корреляции R:

    - y x 1 x 2
    y 1 0.97 0.991
    x 1 0.97 1 0.977
    x 2 0.991 0.977 1

    При наличии мультиколлинеарности определитель корреляционной матрицы близок к нулю. Для нашего примера: det = 0.00081158 , что свидетельствует о наличии сильной мультиколлинеарности.
    Для отбора наиболее значимых факторов x i учитываются следующие условия:
    - связь между результативным признаком и факторным должна быть выше межфакторной связи;
    - связь между факторами должна быть не более 0.7. Если в матрице есть межфакторный коэффициент корреляции r xjxi > 0.7, то в данной модели множественной регрессии существует мультиколлинеарность.;
    - при высокой межфакторной связи признака отбираются факторы с меньшим коэффициентом корреляции между ними.
    В нашем случае r x 1 x 2 имеют |r|>0.7, что говорит о мультиколлинеарности факторов и о необходимости исключения одного из них из дальнейшего анализа.
    Анализ первой строки этой матрицы позволяет произвести отбор факторных признаков, которые могут быть включены в модель множественной корреляционной зависимости. Факторные признаки, у которых |r yxi | 0.3 – связь практически отсутствует; 0.3 ≤ |r| ≤ 0.7 - связь средняя; 0.7 ≤ |r| ≤ 0.9 – связь сильная; |r| > 0.9 – связь весьма сильная.
    Проверим значимость полученных парных коэффициентов корреляции с помощью t-критерия Стьюдента. Коэффициенты, для которых значения t-статистики по модулю больше найденного критического значения, считаются значимыми.
    Рассчитаем наблюдаемые значения t-статистики для r yx 1 по формуле:

    где m = 1 - количество факторов в уравнении регрессии.

    По таблице Стьюдента находим Tтабл
    t крит (n-m-1;α/2) = (18;0.025) = 2.101
    Поскольку t набл > t крит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим
    Рассчитаем наблюдаемые значения t-статистики для r yx 2 по формуле:

    Поскольку t набл > t крит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значимю
    Таким образом, связь между (y и x x 1), (y и x x 2) является существенной.
    Наибольшее влияние на результативный признак оказывает фактор x 2 (r = 0.99), значит, при построении модели он войдет в регрессионное уравнение первым.
    Тестирование и устранение мультиколлинеарности .
    Наиболее полным алгоритмом исследования мультиколлинеарности является алгоритм Фаррара-Глобера. С его помощью тестируют три вида мультиколлинеарности:
    1. Всех факторов (χ 2 - хи-квадрат).
    2. Каждого фактора с остальными (критерий Фишера).
    3. Каждой пары факторов (критерий Стьюдента).
    Проверим переменные на мультиколлинеарность методом Фаррара-Глоубера по первому виду статистических критериев (критерий "хи-квадрат").
    Формула для расчета значения статистики Фаррара-Глоубера:
    χ 2 = -ln(det[R])
    где m = 2 - количество факторов, n = 20 - количество наблюдений, det[R] - определитель матрицы парных коэффициентов корреляции R.
    Сравниваем его с табличным значением при v = m/2(m-1) = 1 степенях свободы и уровне значимости α. Если χ 2 > χ табл 2 , то в векторе факторов есть присутствует мультиколлинеарность.
    χ табл 2 (1;0.05) = 3.84146
    Проверим переменные на мультиколлинеарность по второму виду статистических критериев (критерий Фишера).

    Проверим переменные на мультиколлинеарность по третьему виду статистических критериев (критерий Стьюдента). Для этого найдем частные коэффициенты корреляции.
    Частные коэффициенты корреляции .
    Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и x i) при условии, что влияние на них остальных факторов (x j) устранено.
    На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели.


    Теснота связи низкая.
    Определим значимость коэффициента корреляции r yx 1 /x 2 .Как видим, связь y и x 2 при условии, что x 1 войдет в модель, снизилась. Отсюда можно сделать вывод, что ввод в регрессионное уравнение x 2 остается нецелесообразным.
    Можно сделать вывод, что при построении регрессионного уравнения следует отобрать факторы x 1 , x 2 .

    Пример №2 . По 30 наблюдениям матрица парных коэффициентов корреляции оказалась следующей:

    y x 1 x 2 x 3
    y 1,0
    x 1 0,30 1,0
    x 2 0,60 0,10 1,0
    x 3 0,40 0,15 0,80 1,0
    Оцените мультиколлинеарность факторов. Постройте уравнение регрессии в стандартном масштабе и сделайте выводы.

    ВОПРОСЫ НА ЭКЗАМЕН ПО КУРСУ

    «ЭКОНОМЕТРИКА (продвинутый уровень)»

    1. Модель множественной регрессии. Виды моделей множественной регрессии.

    2. Матричная форма записи и матричная формула оценки параметров множественной регрессии.

    3. Оценка качества уравнения регрессии. Объясненная и необъясненная составляющие уравнения регрессии.

    4. Коэффициент детерминации и коэффициент корреляции, их расчет в модели парной регрессии.

    5. Выборочный множественный коэффициент детерминации и проверка его значимости по -критерию Фишера.

    6. Проверка значимости множественного уравнения регрессии с помощью -критерия Фишера.

    Значимость уравнения регрессии, т.е. соответствие эконометрической модели Y = a ˆ0 + a ˆ 1X + e фактическим (эмпирическим) данным, позволяет ус-

    тановить, пригодно ли уравнение регрессии для практического использования (для анализа и прогноза), или нет.

    Для проверки значимости уравнения используется F - критерий Фишера. Он вычисляется по фактическим данным как отношение несмещенной

    дисперсии остаточной компоненты к дисперсии исходного ряда. Проверка значимости коэффициента детерминации осуществляется с помощью -критерия Фишера, расчетное значение которого находится по формуле:

    ,

    где коэффициент множественной корреляции, – количество наблюдений, - количество переменных, – диагональный элемент матрицы .

    Для проверки гипотезы по таблице определяют табличное значение

    критерия Фишера F .

    F(α ν1 ν2) – это максимально возможное значение критерия в зависимости от влияния случайных факторов при данных степенях свободы

    ν = m1 , ν2 = n m −1, и уровне значимости α . Здесь m – количество аргументов в модели.

    Уровень значимости α – вероятность отвергнуть правильную гипотезу, но при условии, что она верна (ошибка первого рода). Обычно α принимается равной 0,05 или 0,01.

    Если F ф> F табл, то H0 – гипотеза о случайной природе оцениваемых характеристик отклоняется и признается их статистическая значимость и надежность. Если наоборт, то гипотеза H0 не отклоняется и признается статистическая незначимость, ненадежность уравнения регрессии.

    7. Оценка значимости линейных коэффициентов корреляции. -критерий Стьюдента.

    Для оценки статистической значимости коэффициентов регрессии и коэффициента корреляции рассчитывается t-критерий Стьюдента. Выдвигается гипотеза H 0 о случайной природе показателей, т.е. о незначимом их отличии от нуля. Наблюдаемые значения t-критерия рассчитываются по формулам:

    , , ,

    где – случайные ошибки параметров линейной регрессии и коэффициента корреляции.


    Для линейной парной регрессии выполняется равенство , поэтому проверки гипотез о значимости коэффициента регрессии при факторе и коэффициента корреляции равносильны проверке гипотезы о статистической значимости уравнения регрессии в целом.

    Вообще, случайные ошибки рассчитываются по формулам:

    , , .

    где – остаточная дисперсия на одну степень свободы:

    .

    Табличное (критическое) значение t-статистики находят по таблицам распределения t-Стьюдента при уровне значимости α = 0,05 и числе степеней свободы . Если t табл < t факт, то H 0 отклоняется, т.е. коэффициенты регрессии не случайно отличаются от нуля и сформировались под влиянием систематически действующего фактора.

    8. Анализ влияния факторов на основе многофакторных регрессионных моделей: коэффициент эластичности ; бета-коэффициент и дельта-коэффициент .

    9. Способы расчета параметров , , производственной функции Кобба-Дугласа.

    10. Регрессионные уравнения с переменной структурой. Фиктивные переменные. Виды фиктивных переменных. Преимущества использования фиктивных переменных при построении регрессионных моделей.

    11. Использование фиктивных переменных для исследования структурных изменений. Моделирование сезонности. Количество бинарных переменных при k градациях.

    Понятие мультиколлинеарности. Методы обнаружения и устранения мультиколлинеарности.

    Количественная оценка параметров уравнения регрессии предполагает выполнение условия линейной независимости между независимыми переменными. Однако на практике объясняющие переменные часто имеют высокую степень взаимосвязи между собой, что является нарушением указанного условия. Данное явление носит название мультиколлинеарности.

    Термин коллинеарность (collinear ) обозначает линейную корреляцию между двумя независимыми переменными, а Мультиколлинеарность (multi-collinear ) – между более чем двумя независимыми переменными. Обыкновенно под мультиколлинеарностью понимают оба случая.

    Таким образом, мультиколлинеарность означает наличие тесной линейной зависимости или сильной корреляции между двумя или более объясняющими (независимыми) переменными. Одной из задач эконометрии является выявление мультиколлинеарности между независимыми переменными.

    Различают совершенную и несовершенную мультиколлинеарность. Совершенная мультиколлинеарность означает, что вариация одной из независимых переменных может быть полностью объяснена изменением другой (других) переменной.

    Иначе, взаимосвязь между ними выражается линейной функцией

    Графическая интерпретация данного случая:

    Несовершенная мультиколлинеарность может быть определена как линейная функциональная связь между двумя или более независимыми переменными, которая настолько сильна, что может существенно затронуть оценки коэффициентов при переменных в модели.

    Несовершенная мультиколлинеарность возникает тогда, когда две (или более) независимые переменные находятся между собой в линейной функциональной зависимости, описываемой уравнением

    В отличие от ранее рассмотренного уравнения, данное включает величину стохастической ошибки . Это предполагает, что несмотря на то, что взаимосвязь между и может быть весьма сильной, она не настолько сильна, чтобы полностью объяснить изменение переменной изменением , т.е. существует некоторая необъяснимая вариация.

    Графически данный случай представлен следующим образом:


    В каких же случаях может возникнуть мультиколлинеарность? Их, по крайней мере, два.

    1. Имеет место глобальная тенденция одновременного изменения экономических показателей. В качестве примера можно привести такие показатели как объем производства, доход, потребление, накопление, занятость, инвестиции и т.п., значения которых возрастают в период экономического роста и снижаются в период спада.

    Одной из причин мультиколлинеарности является наличие тренда (тенденции) в динамике экономических показателей.

    2. Использование лаговых значений переменных в экономических моделях.

    В качестве примера можно рассматривать модели, в которых используются как величины дохода текущего периода, так и затраты на потребление предыдущего.

    В целом при исследовании экономических процессов и явлений методами эконометрии очень трудно избежать зависимости между показателями.

    Последствия мультиколлинеарности сводятся к

    1. снижению точности оценивания, которая проявляется через

    a. слишком большие ошибки некоторых оценок,

    b. высокую степень корреляции между ошибками,

    c. Резкое увеличение дисперсии оценок параметров. Данное проявление мультиколлинеарности может также отразиться на получении неожиданного знака при оценках параметров;

    2. незначимости оценок параметров некоторых переменных модели благодаря, в первую очередь, наличию их взаимосвязи с другими переменными, а не из-за того, что они не влияют на зависимую переменную. То есть -статистика параметров модели не отвечает уровню значимости ( -критерий Стьюдента не выдерживает проверки на адекватность);

    3. сильному повышению чувствительности оценок параметров к размерам совокупности наблюдений. То есть увеличение числа наблюдений существенно может повлиять на величины оценок параметров модели;

    4. увеличению доверительных интервалов;

    5. повышению чувствительности оценок к изменению спецификации модели (например, к добавлению в модель или исключению из модели переменных, даже несущественно влияющих).

    Признаки мультиколлинеарности:

    1. когда среди парных коэффициентов корреляции

    между объясняющими (независимыми) переменными есть такие, уровень которых либо приближается, либо равен коэффициенту множественной корреляции.

    Если в модели более двух независимых переменных, то необходимо более детальное исследование взаимосвязей между переменными. Данная процедура может быть осуществлена с помощью алгоритма Фаррара-Глобера;

    2. когда определитель матрицы коэффициентов парной корреляции между независимыми переменными приближается к нулю:

    если , то имеет место полная мультиколлинеарность,

    если , то мультиколлинеарность отсутствует;

    3. если в модели найдено маленькое значение параметра при высоком уровне коэффициента частной детерминации и при этом -критерий существенно отличается от нуля;

    Мультиколлинеарность означает, что в множественной регрессионной модели две или большее число независимых переменных (факторов) связаны между собой тесной линейной зависимостью или, другими словами, имеют высокую степень корреляции ().

    Последствия мультиколлинеарности:

    1. Первым практическим последствием мультиколлинеарности является большая дисперсия и ковариация оценок параметров, вычисленных методом наименьших квадратов.

    2. Вторым практическим последствием мультиколлинеарности является увеличение доверительных интервалов теоретических коэффициентов уравнения линейной регрессии.

    3. Уменьшается статистика коэффициентов, поэтому возможен вывод о статистической незначимости коэффициента.

    4. Коэффициенты уравнения регрессии становятся очень чувствительными к малейшим изменениям данных.

    5. Затрудняется определение вклада каждой из переменных в объясняемую уравнением дисперсию признака.

    К сожалению, нет единого подхода для определения мультиколлинеарности. Приведем несколько методов тестирования наличия мультиколлинеарности.

    1) Высокое значение коэффициента детерминации и низкие статистики некоторых переменных.

    2) Высокие значения частных коэффициентов корреляции. Однако это условие является достаточным, но не является необходимым условием наличия мультиколлинеарности. Она может иметь место даже при относительно небольших значениях коэффициентов корреляции, когда число факторов больше двух.

    3) тест Фаррара–Глобера.

    Этот тест имеет и другое название: построение вспомогательной регрессии.

    Коэффициент детерминации является коэффициентом детерминации в уравнении регрессии, которое связывает фактор с остальными факторами Например, .является коэффициентом детерминации такой регрессии:

    Для каждого коэффициента детерминации рассчитываем отношение:

    Тест проверяет гипотезу

    при конкурирующей гипотезе

    Вычисленное значение сравниваем с критическим значением , найденным по таблицам распределения Фишера с и степеням свободы и заданным уровнем значимости. Если то отвергаем нулевую гипотезу и считаем, что фактор является мультиколлинеарным; если то нулевую гипотезу принимаем и убеждаемся, что фактор не является мультиколлинеарным.

    Для устранения мультиколлинеарности существует несколько способов.

    Первый способ. Если между двумя факторами и существует мультиколлинеарность, то один из факторов исключается из рассмотрения.

    Под полной мультиколлинеарностью понимается существование между некоторыми из факторов линейной функциональной связи. Количественным выражением этого служит то обстоятельство, ранг матрицы Х меньше, чем (р +1), а матрица (Х’Х ) будет вырожденной, т.е. её определитель равен нулю, а обратной матрицы к ней не существует. В практике статистических исследований полная мультиколлинеарность встречается достаточно редко, т.к. её несложно избежать уже на предварительной стадии анализа и отбора множества объясняющих переменных.

    Реальная (или частичная) мультиколлинеарность возникает в случаях существования достаточно тесных линейных статистических связей между объясняющими переменными. Точных количественных критериев для определения наличия или отсутствия реальной мультиколлинеарности не существует. Тем не менее, существуют некоторые эвристические рекомендации по выявлению мультиколлинеарности.

    В первую очередь анализируют матрицу парных коэффициентов корреляции:

    точнее, ту её часть, которая относится к объясняющим переменным. Считается, что две переменные явно коллинеарны, если . В этом случае факторы дублируют друг друга, и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдаётся фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами.

    Пусть, например, при изучении зависимости матрица парных коэффициентов корреляции оказалась следующей:

    Очевидно, что факторы х 1 и х 2 дублируют друг друга (). Однако в модель следует включить фактор х 2 , а не х 1 , поскольку корреляция фактора х 2 с у достаточно высокая (), а с фактором х 3 слабая ().

    Другим методом оценки мультиколлинеарности факторов может служить определитель матрицы парных коэффициентов корреляции между факторами (37). Обоснованием данного подхода служат такие рассуждения. Если бы факторы не коррелировали между собой, то в определителе (37) все внедиагональные элементы равнялись бы нулю, а на диагонали стояли бы единицы. Такой определитель равен единице. Если же, наоборот, между факторами существует полная линейная зависимость и все коэффициенты межфакторной корреляции равны единице, то определитель такой матрицы равен нулю. Следовательно, чем ближе к нулю определитель (37), тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И наоборот, чем ближе к единице величина (37), тем меньше мультиколлинеарность факторов.

    Для оценки значимости мультиколлинеарности факторов выдвигается гипотеза Н 0:Δr 11 =1. Доказано, что величина имеет приближенное распределение χ 2 с степенями свободы. Если , то гипотеза Н 0 отклоняется, мультиколлинеарность считается доказанной.

    Другим методом выявления мультиколлинеарности является анализ коэффициентов множественной детерминации факторов. Для этого в качестве зависимой переменной рассматривается каждый из факторов. Например, коэффициент рассчитывается по следующей регрессии:

    где первый фактор взят в качестве результативного признака, а остальные факторы – как независимые переменные, влияющие на первый фактор. Чем ближе такой R 2 к единице, тем сильнее проявляется мультиколлинеарность факторов. Оставляя в уравнении регрессии факторы с минимальной R 2 , можно решить проблему отбора факторов.

    При этом рассчитывается статистика:

    (39)

    Если коэффициент статистически значим, то . В этом случае x j является линейной комбинацией других факторов, и его можно исключить из регрессии.

    Основные последствия мультиколлинеарности:

    1. Большие дисперсии оценок. Это затрудняет нахождение истинных значений определяемых величин и расширяет интервальные оценки, ухудшая их точность.

    2. Уменьшаются t – статистики коэффициентов, что может привести к неоправданному выводу о несущественности влияния соответствующего фактора на зависимую переменную.

    3. Оценки коэффициентов по МНК и их стандартные ошибки становятся очень чувствительными к малейшим изменениям данных, т.е. они становятся неустойчивыми.

    4. Затрудняется определение вклада каждой из объясняющих переменных в объясняемую уравнением регрессии дисперсию зависимой переменной.

    5. Возможно получение неверного знака у коэффициента регрессии.

    Единого подхода к устранению мультиколлинеарности не существует. Существует ряд методов, которые не являются универсальными и применимы в конкретных ситуациях.

    Простейшим методом устранения мультиколлинеарности является исключение из модели одной или нескольких коррелированных переменных. Здесь необходима осторожность, чтобы не отбросить переменную, которая необходима в модели по своей экономической сущности, но зачастую коррелирует с другими переменными (например, цена блага и цены заменителей данного блага).

    Иногда для устранения мультиколлинеарности достаточно увеличить объем выборки. Например, при использовании ежегодных данных можно перейти к поквартальным данным. Это приведёт к сокращению дисперсии коэффициентов регрессии и увеличению их статистической значимости. Однако при этом можно усилить автокорреляцию, что ограничивает возможности такого подхода.

    В некоторых случаях изменение спецификации модели, например, добавление существенного фактора, решает проблему мультиколлинеарности. При этом уменьшается остаточная СКО, что приводит к уменьшению стандартных ошибок коэффициентов.

    В ряде случаев минимизировать либо вообще устранить проблему мультиколлинеарности можно с помощью преобразования переменных.

    Например, пусть эмпирическое уравнение регрессии имеет вид:

    где факторы коррелированы. Здесь можно попытаться определить отдельные регрессии для относительных величин:

    Возможно, что в моделях, аналогичных (40), проблема мультиколлинеарности будет отсутствовать.

    Частная корреляция

    С помощью частных коэффициентов корреляции проводится ранжирование факторов по степени их влияния на результат. Кроме того, частные показатели корреляции широко используются при решении проблем отбора факторов: целесообразность включения того или иного фактора в модель доказывается величиной показателя частной корреляции.

    Частные коэффициенты корреляции характеризуют тесноту связи между результатом и соответствующим фактором при устранении влияния других факторов, включенных в уравнение регрессии.

    Показатели частной корреляции представляют собой отношение сокращения остаточной дисперсии за счет дополнительного включения в модель нового фактора к остаточной дисперсии, имевшей место до введения его в модель.

    Высокое значение коэффициента парной корреляции между исследуемой зависимой и какой-либо независимой переменной может означать высокую степень взаимосвязи, но может быть обусловлено и другой причиной, например, третьей переменной, которая оказывает сильное влияние на две первые, что и объясняет их высокую коррелированность. Поэтому возникает задача найти «чистую» корреляцию между двумя переменными, исключив (линейное) влияние других факторов. Это можно сделать с помощью коэффициента частной корреляции.

    Коэффициенты частной корреляции определяются различными способами. Рассмотрим некоторые из них.

    Для простоты предположим, что имеется двухфакторная регрессионная модель:

    и имеется набор наблюдений . Тогда коэффициент частной корреляции между у и, например, х 1 после исключения влияния х 2 определяется по следующему алгоритму:

    1. Осуществим регрессию у на х 2 .

    2. Осуществим регрессию х 1 на х 2 и константу и получим прогнозные значения .

    3. Удалим влияние х 2 , взяв остатки и .

    4. Определим выборочный коэффициент частной корреляции между у и х 1 при исключении х 2 как выборочный коэффициент корреляции между e y и e 1 :

    (42)

    Значения частных коэффициентов корреляции лежат в интервале [-1,1], как у обычных коэффициентов корреляции. Равенство нулю означает отсутствие линейного влияния переменной х 1 на у .

    Существует тесная связь между коэффициентом частной корреляции и коэффициентом детерминации R 2 :

    (43)

    где - обычный коэффициент корреляции.

    Описанная выше процедура обобщается на случай, когда исключается влияние нескольких переменных. Для этого достаточно переменную х 2 заменить на набор переменных Х 2 , сохраняя определение (42) (при этом можно в число исключаемых переменных вводить и у , определяя частную корреляцию между факторами).

    Другой способ определения коэффициентов частной корреляции – матричный. Обозначив для удобства зависимую переменную как х 0 , запишем определитель матрицы парных коэффициентов корреляции в виде:

    (44)

    Тогда частный коэффициент корреляции определяется по формуле:

    , (45)

    где R ii - алгебраическое дополнение для элемента r ii в определителе (44).

    Существует ещё один способ расчета – по рекуррентной формуле. Порядок частного коэффициента корреляции определяется количеством факторов, влияние которых исключается. Например, - коэффициент частной корреляции первого порядка. Соответственно коэффициенты парной корреляции называются коэффициентами нулевого порядка. Коэффициенты более высоких порядков можно определить через коэффициенты более низких порядков по рекуррентной формуле:

    (46)

    Если исследователь имеет дело лишь с тремя – четырьмя переменными, то удобно пользоваться соотношениями (46). При больших размерностях задачи удобнее расчет через определители, т.е. по формуле (45). В соответствии со смыслом коэффициентов частной корреляции можно записать формулу:

    (47)

    При исследовании статистических свойств выборочного частного коэффициента корреляции порядка k следует воспользоваться тем, что он распределен точно так же, как и обычный парный коэффициент корреляции, с единственной поправкой: объём выборки надо уменьшить на k единиц, т.е. полагать его равным n-k , а не n .

    Пример . По итогам года 37 однородных предприятий легкой промышленности были зарегистрированы следующие показатели их работы: у – среднемесячная характеристика качества ткани (в баллах), х 1 – среднемесячное количество профилактических наладок автоматической линии; х 2 – среднемесячное количество обрывов нити.

    По исходным данным были подсчитаны выборочные парные коэффициенты корреляции:

    Проверка статистической значимости этих величин показала отсутствие значимой статистической связи между результативным признаком и каждым из факторов, что не согласуется с профессиональными представлениями технолога. Однако расчет частных коэффициентов корреляции дал значения:

    которые вполне соответствуют нашим представлениям о естественном характере связей между изучаемыми показателями.

    Для оценки значимости фактора, дополнительно вводимого в модель, используется частный F- критерий . Не каждый фактор, вошедший в модель, существенно увеличивает долю объясненной дисперсии в общей дисперсии результата. Кроме того, при наличии в модели нескольких факторов они могут вводиться в модель в разной последовательности. Ввиду корреляции между факторами значимость одного и того же фактора может быть разной в зависимости от последовательности его введения в модель. Для частного F – критерия используется формула:

    , (50)

    которая является частным случаем формулы (32). Здесь в числителе – разность между коэффициентом детерминации модели с полным набором факторов и коэффициентом детерминации модели до введения в неё фактора x j .

    С помощью частного F – критерия можно проверить значимость всех коэффициентов регрессии в предположении, что соответствующий фактор x j вводился в уравнение регрессии последним. Процедура проверки не отличается от таковой для статистики (32).

    Зная величину , можно определить и t – критерий для коэффициента регрессии при x j :

    Существует взаимосвязь между квадратом частного коэффициента корреляции и частным F – критерием:

    Частный F – критерий широко используется при построении модели методом включения переменных.