
полный ранг (т.е. матрица существует), но хотя бы ме-
жду двумя объясняющими переменными существует тесная кор-
реляционная связь. Такая форма мультиколлинеарности называ-
ется
стохастической, и она будет рассматриваться в дальней-
шем.
()
1−
XX
T
Мультиколлинеарность модели множественной регрес-
сии
– наличие высокой взаимной коррелированности между объ-
ясняющими переменными
.
Каковы же последствия мультиколлинеарности модели? При-
ведем самые «неприятные» из них.
• Матрица X
T
X хотя и является невырожденной, но величина
определителя |
X
T
X| мала, а, следовательно, элементы обратной
матрицы
()
1−
XX
T
становятся очень большими. В результате по-
лучаются большие дисперсии (или их оценки ) коэффи-
циентов
b
j
.
2
j
b
σ
2
j
b
s
•
Оценки b
j
становятся очень чувствительными к незначи-
тельному изменению результатов наблюдений и объема выборки.
Такая высокая чувствительность характерна для решений плохо
обусловленных систем линейных алгебраических уравнений, к
которым относится нормальная система уравнений МНК
(
TT
Xb Xy=
(3.7.1)
при наличии мультиколлинеарности в модели.
• Возможно получение неправильных с точки зрения эконо-
мической теории значений коэффициентов
b
j
и даже неверного
знака у коэффициентов уравнения регрессии.
• Уменьшаются t-статистики коэффициентов b
j
, и оценка их
значимости по
t-критерию теряет смысл, хотя в целом регресси-
онная модель может оказаться значимой по
F - критерию.
Точных количественных критериев для определения наличия
или отсутствия мультиколлинеарности не существует. Тем не ме-
нее, имеются некоторые эвристические подходы по ее выявле-
нию. Кратко остановимся на некоторых из них.
Анализ определителя матрицы парных корреляций. Для
оценки мультиколлинеарности факторов (т.е. объясняющих пе-
ременных) может использоваться определитель матрицы парных
коэффициентов корреляции между факторами. Напомним, что
матрицей коэффициентов парных корреляций
(или корреля-
ционной матрицей)
называют матрицу, ,ij элемент которой ра-
вен коэффициенту корреляции двух случайных величин ,
ij
X .
Очевидно, что диагональные элементы равны 1.
Если факторы не корреляционны между собой, то матрица
парных корреляций объясняющих переменных являются еди-
ничной матрицей размера
kk
и ее определитель равен 1. Если
же между объясняющими переменными существует полная ли-
нейная зависимость (другой “крайний” случай), то все коэффи-
циенты корреляции равны единице и определитель матрицы
равен нулю. Следовательно, чем ближе определитель det( )
матрицы
парных корреляций к нулю, тем сильнее мультикол-
линеарность факторов и наоборот. Поэтому оценка значимости
мультиколлинеарности может быть проведена проверка гипоте-
зы о независимости переменных, т.е.
0
1
:det( ) 1;
:det( ) 1.
x
x
HR
HR
Для проверки этих гипотез определим критерии:
1
1(25)lg(det())
6
x
Kn k R=−− +
, (3.7.2)
где
k
число объясняющих переменных, n
количество наблю-
дений. При справедливости гипотезы величина подчиня-
ется
0
H
R
K
2
- распределению с
1
(1)
2
lnn
−
степенями свободы.
Обозначим через
2
1,l
χ
−
квантиль
2
- распределения с степе-l
125 126