Глава 5 Планирование эксперимента 135
по п ер еме нн ым β
j
и имеют вид (19.5)
Теперь можно отказаться от предположения о нормальности рас-
пределения ошибок и их независимости, сохранив, однако, требова-
ние их некоррелированности и равноточности, D
i
= σ
2
, а также
отсутствия систематической ошибки, M
i
= 0, и неслучайности ре-
грессионных переменных x
j
. (Напомним, что в случае нормальности
распределения ошибок их независимость и некоррелированность эк-
вивалентны).
В этих более общих предположениях будем и скать оценки коэф-
фициентов регрессии исходя из условия минимизации квадратичной
формы (19.8). Обоснованием такого подхода является, во-первых,
тот факт, что в нормальном случае соответствующие оценки совпа-
дают с МП-оценками, и, во-вторых, то, что соответствующие оценки
минимизируют “расстояние” между истинной регрессие й и ее оцен-
кой в “естественной” евклидовой метрике. Еще одним обоснованием
приемлемости такого подхода являются свойства оценок, рассматри-
ваемые в сл ед ующем разде ле.
Заметим, что в предположении о некоррелированности и рав-
ноточности ошибок наблюдений их матрица ковариаций имеет вид
C
= C = σ
2
I, откуда следует, что обратная матрица равна C
−1
=
σ
−2
I. Таким образом, минимизация квадратичной формы (19.8) эк-
вивалентна минимизации другой квадратичной формы
(Y − X
~
β)
0
(Y − X
~
β) (19.9)
Определение 19.1. Оценки
ˆ
~
β = b коэффициентов линейной
регрессии, полученные путем минимизации квадр атичн ой формы
(19.8), называются оценками наименьших квадратов (ОНК), а ме-
тод их получения — методом наименьших квадратов (МНК).
19.4 Свойства метода наименьших квадратов
Несмещенность
Mb = M(X
0
X)
−1
X
0
Y = M(X
0
X)
−1
X
0
(X
~
β + ~) =
~
β.