Учебник+

9.3. Внутригрупповое преобразование

Оценка параметров модели с фиктивными переменными в случае большого числа объектов в выборке является довольно затратной в вычислительном смысле. Представьте, например, что уравнение (9.3) оценивается по данным о тысяче объектов. В этом случае в матрице регрессоров \(X\) будет 1001 столбец. Поэтому матрица \(X^{'}X\) имеет размер 1001 на 1001. Следовательно, для вычисления вектора МНК-оценок \(\widehat{\beta} = \left( X^{'}X \right)^{- 1}X^{'}y\) потребуется вычислить матрицу, обратную к матрице 1001 на 1001. Если для современных компьютеров это не такая уж и сложная задача, то всего несколько десятилетий назад она была почти не решаема.

Чтобы преодолеть эту трудность, было разработано так называемое внутригрупповое преобразование данных. Оценка, полученная на основе этого преобразования, называется внутригрупповой оценкой (within estimator). Она позволяет получить в точности ту же самую оценку коэффициента при регрессоре, что и LSDV-модель, но с меньшими вычислительными сложностями. Упрощение достигается за счет того, что в результате этого преобразования удается обойтись без вычисления величины отдельных фиксированных эффектов.

Придуманный ради экономии вычислительных мощностей способ оказался удобным, поэтому в прикладных исследованиях под оценкой модели с фиксированными эффектами по умолчанию понимают именно эту оценку.

Чтобы понять, как она устроена, снова вернемся к исходному уравнению (9.1):

\(y_{\text{it}} = \beta x_{\text{it}} + \mu_{i} + \varepsilon_{\text{it}}\ \ (9.1)\)

Запишем его отдельно для каждого периода времени:

\(y_{i1} = \beta x_{i1} + \mu_{i} + \varepsilon_{i1}\)

\(y_{i2} = \beta x_{i2} + \mu_{i} + \varepsilon_{i2}\)

\(y_{i3} = \beta x_{i3} + \mu_{i} + \varepsilon_{i3}\)

\(y_{\text{iT}} = \beta x_{\text{iT}} + \mu_{i} + \varepsilon_{\text{iT}}\)

Сложим все эти уравнения друг с другом:

\(\sum_{t = 1}^{T}y_{\text{it}} = \beta\sum_{t = 1}^{T}x_{\text{it}} + T*\mu_{i} + \sum_{t = 1}^{T}\varepsilon_{\text{it}}.\)

Разделим результат на T:

\({\overline{y}}_{i} = \beta{\overline{x}}_{i} + \mu_{i} + {\overline{\varepsilon}}_{i}.\ \ (9.4)\)

Здесь мы воспользовались следующими обозначениями в средних по времени:

\({\overline{y}}_{i} = \frac{\sum_{t = 1}^{T}y_{\text{it}}}{T},\ \ {\overline{x}}_{i} = \frac{\sum_{t = 1}^{T}x_{\text{it}}}{T},\ \ {\overline{\varepsilon}}_{i} = \frac{\sum_{t = 1}^{T}\varepsilon_{\text{it}}}{T}.\)

Осталось вычесть из уравнения (9.1) уравнение (9.4):

\(y_{\text{it}} - {\overline{y}}_{i} = \beta x_{\text{it}} - \beta{\overline{x}}_{i} + \mu_{i} - \mu_{i} + \varepsilon_{\text{it}} - {\overline{\varepsilon}}_{i},\ \ \)

\(\left( y_{\text{it}} - {\overline{y}}_{i} \right) = \beta\left( x_{\text{it}} - {\overline{x}}_{i} \right) + \left( \varepsilon_{\text{it}} - {\overline{\varepsilon}}_{i} \right)\ \ (9.5)\text{. }\)

Обозначим отклонения от средних по времени следующим образом:

\({\widetilde{y}}_{\text{it}} = y_{\text{it}} - {\overline{y}}_{i},\ \ {\widetilde{x}}_{\text{it}} = x_{\text{it}} - {\overline{x}}_{i},\ \ {\widetilde{\varepsilon}}_{\text{it}} = \varepsilon_{\text{it}} - {\overline{\varepsilon}}_{i}.\)

В этом случае равенство (9.5) примет вид:

\({\widetilde{y}}_{\text{it}} = \beta{\widetilde{x}}_{\text{it}} + {\widetilde{\varepsilon}}_{\text{it}}.\)

Мы снова устранили ненаблюдаемые фиксированные эффекты из модели. Теперь для оценки параметра \(\beta\) нам достаточно вычислить МНК-оценку в обычной парной регрессии без константы (см. задание 8 к главе 2):

\(\widetilde{\beta} = \frac{\sum_{i = 1}^{n}{\sum_{t = 1}^{T}{\widetilde{x}}_{\text{it}}}{\widetilde{y}}_{\text{it}}}{\sum_{i = 1}^{n}{\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2}}}.\)

Если для исходного уравнения (9.1) выполнены все предпосылки модели с фиксированными эффектами, то для переменных преобразованного уравнения (9.5) будут выполнены предпосылки регрессионной модели со стохастическим регрессором из главы 6. Отсюда ясно, что МНК-оценка коэффициента в таком уравнении будет состоятельной и асимптотически нормальной. Для наглядности докажем состоятельность этой оценки непосредственно:

Теорема о состоятельности within-оценки

Если выполнены предпосылки 1-5 модели с фиксированными эффектами, то \(\widetilde{\beta}\) будет состоятельной оценкой параметра \(\beta\) при \(n \rightarrow \infty\).

Доказательство:

В силу предпосылки о конечных четвертых моментах распределения, существуют конечные пределы по вероятности для следующих выражений (детальное обоснование для этого факта может быть проведено аналогично доказательству состоятельности обычных МНК-оценок в главе 6):

\(\frac{1}{n}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}{\widetilde{x}}_{\text{it}}}{\widetilde{\varepsilon}}_{\text{it}}\overset{p}{\rightarrow}E\sum_{t = 1}^{T}{{\widetilde{x}}_{\text{it}}{\widetilde{\varepsilon}}_{\text{it}}} < \infty,\)

\(\frac{1}{n}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2}}\overset{p}{\rightarrow}\text{E}\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2} < \infty.\)

Опираясь на этот факт, можно вычислить предел по вероятности для within-оценки:

\(\widetilde{\beta} = \frac{\frac{1}{n}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}{\widetilde{x}}_{\text{it}}}{\widetilde{y}}_{\text{it}}}{\frac{1}{n}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2}}} = \frac{\frac{1}{n}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}{\widetilde{x}}_{\text{it}}}\left( \beta{\widetilde{x}}_{\text{it}} + {\widetilde{\varepsilon}}_{\text{it}} \right)}{\frac{1}{n}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2}}} =\)

\(= \frac{\beta\frac{1}{n}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2}} + \frac{1}{n}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}{{\widetilde{x}}_{\text{it}}{\widetilde{\varepsilon}}_{\text{it}}}}}{\frac{1}{n}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2}}}\overset{p}{\rightarrow}\)

\(\overset{p}{\rightarrow}\frac{\text{βE}\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2} + E\sum_{t = 1}^{T}{{\widetilde{x}}_{\text{it}}{\widetilde{\varepsilon}}_{\text{it}}}}{E\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2}} = \beta + \frac{E\sum_{t = 1}^{T}{{\widetilde{x}}_{\text{it}}{\widetilde{\varepsilon}}_{\text{it}}}}{E\sum_{t = 1}^{T}\left( {\widetilde{x}}_{\text{it}} \right)^{2}} = \beta\)

В последнем равенстве мы воспользовались тем, что в силу экзогенности регрессора \(E\sum_{t = 1}^{T}{{\widetilde{x}}_{\text{it}}{\widetilde{\varepsilon}}_{\text{it}}} = 0\).

***

Полученная модель называется внутригрупповой регрессионной моделью (within-group regression), так как объясняет вариацию зависимой переменной вокруг среднего значения для группы наблюдений, относящихся к разным моментам времени, но к одному объекту. Внутригрупповое преобразование для множественной регрессии осуществляется аналогичным образом.

Коэффициент R-квадрат, посчитанный для такой модели, называется within-\(R^{2}\). Он не совпадает с LSDV-\(R^{2}\) и не может быть сопоставлен с ним, так как рассчитывается на основе общей суммы квадратов остатков для преобразованной переменной (а не для исходной). Поэтому, приводя коэффициент детерминации для вашей модели, не забывайте уточнять, о каком именно R-квадрате идет речь.

В отличие от R-квадратов, оценки коэффициентов при переменных, полученные в ходе применения внутригруппового преобразования, в точности совпадают с оценками LSDV-модели. В этом смысле два указанных подхода эквивалентны.

В случае выполнения предпосылок 1-5 модели с фиксированными эффектами within-оценка асимптотически нормальна, что позволяет тестировать гипотезы относительно соответствующих коэффициентов и строить доверительные интервалы для них. Но при вычислении стандартных ошибок для модели с фиксированными эффектами следует принимать во внимание не только возможную гетероскедастичность, но и то, что случайные ошибки, относящиеся к одному объекту (но к разным моментам времени), могут быть коррелированы между собой. Оценка стандартных ошибок, состоятельная в условиях такой кластеризации, была предложена Ареллано, поэтому соответствующие стандартные ошибки называются стандартные ошибки в форме Ареллано (Arellano standard errors) или состоятельные в условиях кластеризации стандартные ошибки (cluster-robust standard errors).

Пример 9.2. Отдача от посещения лекций (продолжение)

Вернемся к нашему примеру с оценкой пользы от посещения лекций (см. пример 9.1). Оценим теперь коэффициент при переменной attendance при помощи внутригруппового преобразования. Ниже представлена стандартная выдача эконометрического пакета для этого случая.

Модель 1: Фиксированные эффекты, использовано наблюдений - 600
Включено 300 пространственных объектов
Длина временного ряда = 2
Зависимая переменная: performance
Робастные стандартные ошибки

               Коэффициент   Ст. ошибка   t-статистика   P-значение
  -----------------------------------------------------------------
  const         40,1209      0,384245        104,4       2,61e-237  ***
  attendance     1,11873     0,0359668        31,10      9,90e-096  ***

Сумма кв. остатков      759,9752   Ст. ошибка модели     1,594278
LSDV R-squared          0,993163   within-R-квадрат      0,786506

Обратите внимание, что интересующий нас коэффициент оказался равен 1,12. Он совпадает с коэффициентом при переменной attendance, который мы получили при помощи МНК с фиктивными переменными. Чтобы убедиться в этом, посмотрите на второй столбец в таблице 9.1 в примере 9.1. Таким образом, мы убедились на примере, что два этих метода оценивания приводят к одинаковому итогу. Стандартные ошибки для коэффициентов несколько отличаются. Это связано с тем, что в последнем случае использованы стандартные ошибки в форме Ареллано (Arellano standard errors), которые учитывают панельную структуру данных.

В последней таблице также приведены два варианта коэффициентов R-квадрат: LSDV-R-квадрат и within-R-квадрат. Первый из них — это тот же самый R-квадрат, что и во втором уравнении из таблицы 9.1. Он, как это обычно и бывает, больше, чем within-R-квадрат.