Дипломы, курсовые, рефераты, контрольные...
Срочная помощь в учёбе

Мультиколлинеарность. 
Эконометрика

РефератПомощь в написанииУзнать стоимостьмоей работы

Функциональная (полная, совершенная) форма — в этом случае, по крайней мере, между двумя объясняющими переменными существует линейная зависимость (т. с. один из столбцов матрицы X является линейной комбинацией остальных столбцов). В этом случае определитель матрицы Х7Х равен нулю, поэтому невозможно найти единственное решение системы нормальных уравнений (2.2.3) и получить оценки параметров… Читать ещё >

Мультиколлинеарность. Эконометрика (реферат, курсовая, диплом, контрольная)

В практических исследованиях нередко встречается ситуация, когда t -статистики большинства оценок малы, что свидетельствует о незиачимости соответствующих объясняющих переменных, т. е. построенная выборочная регрессия является «плохой». Но, в то же время, уравнение регрессии в целом может быть статистически значимо, т. е. значение F -статистики может быть достаточно большим. Одной из возможных причин этого является наличие высокой корреляции между объясняющими переменными — случай мультиколлинеарности.

Под мультиколлинеарностью понимается высокая взаимная коррслированность объясняющих переменных. Говорят, что мультиколлинеарность может проявляться в следующих формах:

  • 1. Функциональная (полная, совершенная) форма — в этом случае, по крайней мере, между двумя объясняющими переменными существует линейная зависимость (т. с. один из столбцов матрицы X является линейной комбинацией остальных столбцов). В этом случае определитель матрицы Х7Х равен нулю, поэтому невозможно найти единственное решение системы нормальных уравнений (2.2.3) и получить оценки параметров регрессии. Следует заметить, что на практике полная коллинеарность встречается достаточно редко.
  • 2. Стохастическая (неполная, несовершенная) форма — случай, когда хотя бы между двумя объясняющими переменными имеется достаточно высокая степень корреляции. Определитель матрицы Х7Х при этом хоть и отличен от нуля, но очень мал, т. е. матрица близка к вырожденной. Такой случай гораздо чаще встречается на практике и именно его обычно имеют в виду, говоря о мультколлинеарности.

В случае мультиколлинеарности оценки МНК формально существуют, но обладают «плохими» свойствами, т. к. вектор оценок b и дисперсии его компонент обратно пропорциональны величине определителя |Х7Х|. В результате стандартные ошибки коэффициентов регрессии получаются достаточно большими, и оценка их значимости по /-критерию может не иметь смысла. Несмотря на то, что свойства несмещенности и эффективности оценок остаются в силе, мульти коллинеарность в любом случае затрудняет разделение влияния объясняющих факторов на поведение зависимой переменной и делает оценки коэффициентов регрессии ненадежными [4].

Итак, если коротко сформулировать основные последствия мультиколлинеарности, то можно выделить следующие:

  • 1. Большие дисперсии (стандартные ошибки) оценок. Это расширяет интервальные оценки и ухудшает их точность.
  • 2. Уменьшаются / -статистики коэффициентов, что может привести к неоправданному выводу о несущественности влияния соответствующей объясняющей переменной на зависимую переменную.
  • 3. Оценки коэффициентов по МНК и их стандартные ошибки становятся очень чувствительными к небольшим изменениям данных, т. е. они становятся неустойчивыми.
  • 4. Затрудняется определение вклада каждой из объясняющей переменных в объясняемую уравнением регрессии дисперсию зависимой переменной.
  • 5. Возможно получение неверного знака у коэффициента регрессии.

Мультиколлинсарность может возникать в силу различных причин.

Например, несколько переменных могут иметь общую тенденцию изменения во времени. Часто выделяют несколько наиболее характерных признаков, по которым может быть установлено наличие мульти коллинеарности. К их числу обычно относят следующие:

Признак 1. Небольшое изменение исходных данных (например, добавление новых наблюдений) приводит к существенному изменению оценок коэффициентов регрессии.

Признак 2. Оценки регрессии имеют большие стандартные ошибки, малую значимость (статистически незначимы), в то время как в целом модель является значимой, т. е. значения коэффициента детерминации R2 и F-статистики достаточно велики.

Признак 3. Высокие коэффициенты (частной) корреляции. На практике обычно анализируют корреляционную матрицу между объясняющими переменными. Если существуют пары переменных, имеющие высокие коэффициенты корреляции (обычно больше 0,8), то говорят о мультиколлинеарности. Наличие высокого (обычно больше 0,6) множественного коэффициента детерминации между одной объясняющей переменной и некоторой группой других переменных также свидетельствует о мультиколлинсарности.

Признак 4. Оценки коэффициентов регрессионной модели имеют неправильные с точки зрения экономической теории знаки или неоправданно большие значения.

К сожалению, не существует абсолютно точных количественных критериев, позволяющих установить наличие или отсутствие мультиколлинеарности. О наличии мультиколлинеарности также может свидетельствовать близость определителя | ХГХ| к нулю.

Нет однозначного ответа и на вопрос: что же делать в случае, если по всем признакам мультиколлинеарность имеется. Некоторые авторы полагают, что ответ на этот вопрос зависит от целей эконометрического исследования, и в ряде случаев мультиколлинеарность не является таким уж серьезным злом, чтобы прилагать серьезные усилия по ее выявлению и устранению. Если основная задача модели — прогноз будущих значений зависимой переменной, то при достаточно большом коэффициенте детерминации R2 (не меньше 0,9) наличие мультиколлинеарности зачастую не сказывается на прогнозных качествах модели. Если же целью исследования является определение степени влияния каждой из объясняющих переменных на зависимую переменную, то наличие мультиколлинеарности, приводящее к увеличению стандартных ошибок, скорее всего, исказит истинные зависимости между переменными. В этой ситуации мультиколлинеарность представляется серьезной проблемой.

Несмотря на то, что единого метода устранения (или уменьшения) мультиколлинеарности, пригодного для любого случая, не существует, можно предложить несколько подходов:

  • 1. Исключение переменных из модели. Например, из двух объясняющих переменных, имеющих высокий коэффициент корреляции (больше 0,8), одну переменную обычно исключают из модели. Для того чтобы избежать ошибок спецификации (т. е. не исказить содержательный смысл модели) в первую очередь выбирают исключаемую переменную исходя из экономических (теоретических) соображений. Если ни одной из переменных нельзя отдать предпочтение, то оставляют ту переменную, которая имеет наибольший коэффициент (частной) корреляции с зависимой переменной. В прикладных эконометрических моделях желательно не исключать объясняющие переменные до тех пор, пока коллинеарность не станет серьезной проблемой.
  • 2. Переход к новым переменным. От исходных объясняющих переменных, связанных между собой достаточно тесной корреляционной зависимостью, можно перейти к новым переменным, представляющим собой линейные комбинации исходных. Новые переменные должны быть некоррелированными (или, по крайней мере, слабокоррелированными). Новые переменные могут быть предложены исходя из экономической теории или из формальных математических соображений. Так, например, в качестве таких переменных иногда берут главные компоненты вектора исходных объясняющих переменных.
  • 3. Получение новых эмпирических данных. Поскольку мультиколлинеарность непосредственно зависит от выборки, то получение новой выборки или дополнительных наблюдений (увеличение объема выборки) может ослабить эту проблему.
Показать весь текст
Заполнить форму текущей работой