
Лекция 17. Оценка параметров уравнения регрессии
Все модели неправильны,
но некоторые полезны.
Джордж Бокс
План лекции: метод наименьших квадратов, общая модель ли-
нейной регрессии, свойства оценок метода наименьших квадра-
тов, нормальная регрессия.
17.1. Метод наименьших квадратов
Пусть Y – случайная величина, X
i
, i = 1, . . . , k – контролируе-
мые (неслучайные) переменные. При этом значения величины Y зависят не
только от значений X
i
, но и от других факторов, в том числе таких, которые
не поддаются контролю. Поэтому для фиксированного значения X
∗
вели-
чина Y подвержена некоторому разбросу (рис. 9).
Y
XO
Рис. 9. Данные для отыскания регрессионной зависимости
Модель (функциональная зависимость) известна из предварительных
соображений с точностью до параметров:
Y = f(X
1
, . . . , X
k
, θ
1
, . . . , θ
s
) + ε,
где θ
i
, i = 1, . . . , s – параметры, ε – вектор ошибок.
Набор данных имеет вид
Y
1
= f(X
11
, . . . , X
1k
, θ
1
, . . . , θ
s
) + ε
1
,
. . .
Y
n
= f(X
n1
, . . . , X
nk
, θ
1
, . . . , θ
s
) + ε
n
,
где X
ij
– значение j-й переменной при i-м измерении. Будем считать, что
E ε = 0 и ошибки некоррелированы: K
ε
= cov
ε
= E(εε
T
) = σ
2
E
n
.
155