Учебник+

8.2. Двухшаговый МНК: множественная регрессия

Чтобы разобраться, как этот метод устроен для множественной регрессии, договоримся сначала об обозначениях.

Оцениваемое уравнение:

\({y_{i} = {\beta_{0} + {\beta_{1} \ast x_{i}^{(1)}} + \ldots + \beta_{p}}}{x_{i}^{(p)} + \beta_{p + 1}}{w_{i}^{(1)} + \ldots + \beta_{p + r}}{w_{i}^{(r)} + \varepsilon_{i}}.\)

\(x_{i}^{(1)}\ldots x_{i}^{(p)}\) — эндогенные регрессоры, для состоятельной оценки коэффициентов при которых требуются инструменты;

\(w_{i}^{(1)}\ldots w_{i}^{(r)}\) — экзогенные регрессоры, то есть регрессоры, которые не коррелированы со случайной ошибкой модели;

\(z_{i}^{(1)}\ldots z_{i}^{(m)}\) — инструментальные переменные.

В зависимости от соотношения значений параметров p и m возможны следующие ситуации:

  • если \(m = p\), то есть число эндогенных переменных совпадает с числом инструментов, то уравнение называется однозначно идентифицируемым (exactly identified)

  • если \(m > p\), то есть инструментов больше, чем эндогенных переменных, то уравнение называется сверхидентифицируемым (overidentified)

  • если \(m < p\), то есть инструментов меньше, чем эндогенных регрессоров, то уравнение неидентифицируемо (underidentified).

Как мы покажем ниже, в последнем случае применение двухшагового МНК невозможно. Если же \(m \geq p\), то этот метод применим, и его реализация устроена так:

Первый шаг. Оцениваем \(p\) регрессий первого шага, в каждой из которых слева стоит один из эндогенных регрессоров (\(x_{i}^{(1)}\ldots x_{i}^{(p)}\)), а справа — константа, все инструментальные переменные \(\left( z_{i}^{(1)}\ldots z_{i}^{(m)} \right)\) и все экзогенные переменные \(\left( w \middle| \middle| i^{(1)}\ldots w_{i}^{(r)} \right)\). Оценив эти вспомогательные уравнения, получаем для каждой эндогенной переменной предсказанные значения \({\widehat{x}}_{i}^{(1)},\ldots,{\widehat{x}}_{i}^{(p)}\).

Второй шаг. Оцениваем параметры той модели, которая нас интересовала изначально. Только теперь в правой части вместо эндогенных регрессоров \(x_{i}^{(1)}\ldots x_{i}^{(p)}\) ставим их предсказанные значения из регрессий первого шага \({\widehat{x}}_{i}^{(1)},\ldots,{\widehat{x}}_{i}^{(p)}\). То есть оцениваем следующее уравнение второго шага:

\({y_{i} = {\beta_{0} + {\beta_{1} \ast {\widehat{x}}_{i}^{(1)}} + \ldots + \beta_{p}}}{{\widehat{x}}_{i}^{(p)} + \beta_{p + 1}}{w_{i}^{(1)} + \ldots + \beta_{p + r}}{w_{i}^{(r)} + \varepsilon_{i}}\)

Легко видеть, что процедура двухшагового МНК для множественной регрессии в целом аналогична случаю парной регрессии, который мы рассмотрели в предыдущем параграфе. Из описания этой процедуры понятно, почему невозможно идентифицировать уравнение, если инструментов меньше, чем эндогенных регрессоров. Действительно, представим, например, что \(p = 2\), а \(m = 1\), то есть нам нужно оценить коэффициенты при двух эндогенных переменных, и в нашем распоряжении есть всего один инструмент.

В этом случае в ходе оценивания регрессий первого шага мы получим предсказанные значения этих эндогенных регрессоров, выраженные через один и тот же инструмент: \({\widehat{x}}_{i}^{(1)}\)=\({\widehat{\alpha}}_{0} + {\widehat{\alpha}}_{1}z_{i}^{(1)}\) и \({\widehat{x}}_{i}^{(2)}\)=\({\widehat{\gamma}}_{0} + {\widehat{\gamma}}_{1}z_{i}^{(1)}\). Проблема в том, что раз \({\widehat{x}}_{i}^{(1)}\) и \({\widehat{x}}_{i}^{(2)}\) линейно выражаются через одну и ту же переменную, то они линейно выражаются и друг через друга. Иными словами, они являются линейно зависимыми. Поэтому, подставив их в регрессию второго шага, мы столкнемся с ситуацией чистой мультиколлинеарности, что, как мы знаем, сделает вычисление оценок коэффициентов невозможным.

В прикладных исследованиях чаще всего встречается ситуация, в которой исследователь концентрируется на получении состоятельной оценки коэффициента при единственном эндогенном регрессоре. То есть в ситуации, когда \(p = 1\). В этом случае 2МНК устроен следующим образом:

Регрессия первого шага. Оцениваем единственную регрессию \(x_{i}\) на все инструменты \(z_{i}^{(1)}\ldots z_{i}^{(m)}\) и на все экзогенные переменные \(w_{i}^{(1)}\ldots w_{i}^{(r)}\); получаем предсказанные значения \({\widehat{x}}_{i}\):

\({{\widehat{x}}_{i} = {{\widehat{\alpha}}_{0} + {\widehat{\alpha}}_{1}}}{z_{i}^{(1)} + \ldots + {\widehat{\alpha}}_{m}}{z_{i}^{(m)} + {\widehat{\alpha}}_{m + 1}}{w_{i}^{(1)} + \ldots + {\widehat{\alpha}}_{m + r}}w_{i}^{(r)}\)

Регрессия второго шага. Регрессируем \(y_{i}\)на \({\widehat{x}}_{i}иw_{i}^{(1)}\ldots w_{i}^{(r)}\):

\({{\widehat{y}}_{i} = {{\widehat{\beta}}_{0} + {{\widehat{\beta}}_{1} \ast {\widehat{x}}_{i}} + {\widehat{\beta}}_{2}}}{w_{i}^{(1)} + \ldots + {\widehat{\beta}}_{1 + r}}w_{i}^{(r)}\)

Иногда возможна ситуация, в которой исследователь не уверен в экзогенности факторов \(w_{i}^{(1)}\ldots w_{i}^{(r)}\), однако хочет оставить их в уравнении второго шага в качестве контрольных переменных, чтобы избежать смещения из-за пропуска существенных переменных. В этом случае указанные переменные можно не включать в регрессию первого шага, но включать в регрессию второго шага.

Требования к инструментам в случае множественной регрессии аналогичны случаю парной регрессии:

  • Экзогенность. Инструменты не должны быть коррелированы со случайными ошибками модели:

    \(\mathit{Cov}{\left( {z_{i}^{(1)},\varepsilon_{i}} \right) = 0},\ldots,\mathit{Cov}{\left( {z_{i}^{(m)},\varepsilon_{i}} \right) = 0}\)

  • Релевантность. Инструменты должны быть коррелированы с эндогенными регрессорами. Технически это означает, что в регрессии второго шага не должно возникать чистой мультиколлинеарности, не только для конечной выборки, но и при \(n \rightarrow \infty.\)

Если инструменты удовлетворяют обоим требованиям, то они называются валидными. В этом случае применение двухшагового МНК будет приводить к получению состоятельных оценок коэффициентов.

Важно подчеркнуть, что хотя асимптотические свойства 2МНК-оценок хороши, однако для конечных выборок всё не так радужно. В частности, 2МНК-оценки могут быть смещены. Кроме того, они, вообще говоря, не являются эффективными. С прикладной точки зрения это означает, что двухшаговый МНК лучше применять только на больших выборках, для которых корректно использование асимптотического подхода.