Учебник+

9.6. Доступный ОМНК для оценивания модели со случайными эффектами

Чтобы понять, как устроена ковариационная матрица вектора случайных ошибок \(\Omega\) в модели со случайными эффектами, вычислим её элементы. Для этого определим дисперсии \(\varepsilon_{\text{it}}\) и случайных эффектов следующим образом: \(\text{var}\left( \varepsilon_{\text{it}} \right) = \sigma_{\varepsilon}^{2}\), \(\text{var}\left( \mu_{i} \right) = \sigma_{\mu}^{2}\). Элементами ковариационной матрицы \(\Omega\) являются коэффициенты ковариации:

\(c\text{ov}\left( v_{\text{it}},v_{\text{jp}} \right),\ \ i,j = 1,2,\ldots,n,\ \ t,p = 1,2,\ldots,T.\)

С учетом наших обозначений:

\(c\text{ov}\left( v_{\text{it}},v_{\text{jp}} \right) = c\text{ov}\left( \mu_{i} + \varepsilon_{\text{it}},\mu_{j} + \varepsilon_{\text{jp}} \right) =\)

\(= c\text{ov}\left( \mu_{i},\mu_{j} \right) + c\text{ov}\left( \mu_{i},\varepsilon_{\text{jp}} \right) + c\text{ov}\left( \varepsilon_{\text{it}},\mu_{j} \right) + c\text{ov}\left( \varepsilon_{\text{it}},\varepsilon_{\text{jp}} \right) =\)

\(= c\text{ov}\left( \mu_{i},\mu_{j} \right) + c\text{ov}\left( \varepsilon_{\text{it}},\varepsilon_{\text{jp}} \right)\)

Здесь в последнем переходе мы использовали предпосылку №2 модели со случайными эффектами, в силу которой случайные ошибки \(\varepsilon_{\text{it}}\) не коррелированы с \(\mu_{i}\).

Если \(i = j\) и \(t = p\), то

\(c\text{ov}\left( v_{\text{it}},v_{\text{jp}} \right) = c\text{ov}\left( \mu_{i},\mu_{i} \right) + c\text{ov}\left( \varepsilon_{\text{it}},\varepsilon_{\text{it}} \right) = \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} = \sigma_{v}^{2}.\)

Поэтому на главной диагонали ковариационной матрицы вектора случайных ошибок стоят суммы \(\sigma_{v}^{2} = \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2}\).

Если \(i = j\) и \(t \neq p\), то

\(c\text{ov}\left( v_{\text{it}},v_{\text{jp}} \right) = c\text{ov}\left( \mu_{i},\mu_{i} \right) + c\text{ov}\left( \varepsilon_{\text{it}},\varepsilon_{\text{ip}} \right) = \sigma_{\mu}^{2} + 0 = \sigma_{\mu}^{2}.\)

Если же \(i \neq j\), то

\(c\text{ov}\left( v_{\text{it}},v_{\text{jp}} \right) = c\text{ov}\left( \mu_{i},\mu_{j} \right) + c\text{ov}\left( \varepsilon_{\text{it}},\varepsilon_{\text{jp}} \right) = 0 + 0 = 0.\)

Таким образом, ковариационная матрица вектора случайных ошибок представляет собой блочную матрицу размера n на n блоков:

\(\Omega = \begin{pmatrix} \begin{matrix} \Sigma & \mathbf{0} \\ \mathbf{0} & \Sigma \\ \end{matrix} & \cdots & \begin{matrix} \mathbf{0} \\ \mathbf{0} \\ \end{matrix} \\ \vdots & \ddots & \vdots \\ \begin{matrix} \mathbf{0} & \mathbf{0} \\ \end{matrix} & \cdots & \Sigma \\ \end{pmatrix}\)

Здесь \(\mathbf{0}\) обозначает нулевую квадратную матрицу размера T на T, а \(\Sigma\) — квадратную матрицу размера t на t, на главной диагонали которой стоят числа \(\sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2}\), а вне главной диагонали — числа \(\sigma_{\mu}^{2}\):

\(\Sigma = \begin{pmatrix} \begin{matrix} \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} & \sigma_{\mu}^{2} \\ \sigma_{\mu}^{2} & \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} \\ \end{matrix} & \cdots & \begin{matrix} \sigma_{\mu}^{2} \\ \sigma_{\mu}^{2} \\ \end{matrix} \\ \vdots & \ddots & \vdots \\ \begin{matrix} \text{ }\sigma_{\mu}^{2}\text{ } & \text{ }\sigma_{\mu}^{2}\text{ } \\ \end{matrix} & \cdots & \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} \\ \end{pmatrix} = \begin{pmatrix} \begin{matrix} \sigma_{v}^{2} & \sigma_{\mu}^{2} \\ \sigma_{\mu}^{2} & \sigma_{v}^{2} \\ \end{matrix} & \cdots & \begin{matrix} \sigma_{\mu}^{2} \\ \sigma_{\mu}^{2} \\ \end{matrix} \\ \vdots & \ddots & \vdots \\ \begin{matrix} \sigma_{\mu}^{2} & \sigma_{\mu}^{2} \\ \end{matrix} & \cdots & \sigma_{v}^{2} \\ \end{pmatrix}\)

Представим, например, что в выборке имеются данные про три объекта (\(n = 3\)), и про каждый из них доступна информация за два периода времени \(T = 2\). В этом случае

\(\Sigma = \begin{pmatrix} \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} & \sigma_{\mu}^{2} \\ \sigma_{\mu}^{2} & \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} \\ \end{pmatrix}.\)

И, следовательно, ковариационная матрица вектора случайных ошибок будет иметь вид:

\(\Omega = \begin{pmatrix} \begin{matrix} \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} & \sigma_{\mu}^{2} \\ \sigma_{\mu}^{2} & \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} \\ \end{matrix} & \begin{matrix} \ \ \ \ \ 0\ \ \ \ \ & \ \ \ \ \ 0\ \ \ \ \ \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ \ \ \ \ 0\ \ \ \ \ & \ \ \ \ \ 0\ \ \ \ \ \\ 0 & 0 \\ \end{matrix} \\ \begin{matrix} \ \ \ \ \ 0\ \ \ \ \ & \ \ \ \ \ 0\ \ \ \ \ \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} & \sigma_{\mu}^{2} \\ \sigma_{\mu}^{2} & \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} \\ \end{matrix} & \begin{matrix} \ \ \ \ \ 0\ \ \ \ \ & \ \ \ \ \ 0\ \ \ \ \ \\ 0 & 0 \\ \end{matrix} \\ \begin{matrix} \ \ \ \ \ 0\ \ \ \ \ & \ \ \ \ \ 0\ \ \ \ \ \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ \ \ \ \ 0\ \ \ \ \ & \ \ \ \ \ 0\ \ \ \ \ \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} & \sigma_{\mu}^{2} \\ \sigma_{\mu}^{2} & \sigma_{\mu}^{2} + \sigma_{\varepsilon}^{2} \\ \end{matrix} \\ \end{pmatrix}.\)

С учетом этого результата процедура реализации доступного ОМНК для оценки параметров модели со случайными эффектами устроена так:

  1. Находим оценки \({\widehat{\sigma}}_{v}^{2} = {\widehat{\sigma}}_{\varepsilon}^{2} + {\widehat{\sigma}}_{\mu}^{2}\) и \({\widehat{\sigma}}_{\mu}^{2}\). Зная их, вычисляем оценку ковариационной матрицы вектора случайных ошибок \(\widehat{\mathrm{\Omega}}\).

  2. Находим оценку вектора коэффициентов модели со случайными эффектами при помощи доступного ОМНК (см. параграф 5.5):

\(\widehat{\beta^{\text{RE}}} = \begin{pmatrix} \begin{matrix} \widehat{\beta_{1}^{\text{RE}}} \\ \widehat{\beta_{2}^{\text{RE}}} \\ \end{matrix} \\ \begin{matrix} \ldots \\ \widehat{\beta_{k}^{\text{RE}}} \\ \end{matrix} \\ \end{pmatrix} = \left( X^{T}{\widehat{\mathrm{\Omega}}}^{- 1}X \right)^{- 1}X^{T}{\widehat{\mathrm{\Omega}}}^{- 1}y\)

Поясним детали первого пункта описанной процедуры. Оценка ковариационной матрицы может быть вычислена по формуле:

\(\widehat{\Omega} = \begin{pmatrix} \begin{matrix} \widehat{\Sigma} & \mathbf{0} \\ \mathbf{0} & \widehat{\Sigma} \\ \end{matrix} & \cdots & \begin{matrix} \mathbf{0} \\ \mathbf{0} \\ \end{matrix} \\ \vdots & \ddots & \vdots \\ \begin{matrix} \mathbf{0} & \mathbf{0} \\ \end{matrix} & \cdots & \widehat{\Sigma} \\ \end{pmatrix},\ где\ \widehat{\Sigma} = \begin{pmatrix} \begin{matrix} {\widehat{\sigma}}_{v}^{2} & {\widehat{\sigma}}_{\mu}^{2} \\ {\widehat{\sigma}}_{\mu}^{2} & {\widehat{\sigma}}_{v}^{2} \\ \end{matrix} & \cdots & \begin{matrix} {\widehat{\sigma}}_{\mu}^{2} \\ {\widehat{\sigma}}_{\mu}^{2} \\ \end{matrix} \\ \vdots & \ddots & \vdots \\ \begin{matrix} {\widehat{\sigma}}_{\mu}^{2} & {\widehat{\sigma}}_{\mu}^{2} \\ \end{matrix} & \cdots & {\widehat{\sigma}}_{v}^{2} \\ \end{pmatrix}.\)

Чтобы определить \(\widehat{\Omega}\), нужно получить состоятельные оценки \({\widehat{\sigma}}_{v}^{2}\) и \({\widehat{\sigma}}_{\mu}^{2}\). Это можно сделать по следующим формулам:

\({\widehat{\sigma}}_{v}^{2} = \frac{1}{nT - k}\sum_{i = 1}^{n}{\sum_{t = 1}^{T}e_{\text{it}}^{2}}\ \ \ \ \ \ \ (9.6),\)

\({\widehat{\sigma}}_{\mu}^{2} = \frac{1}{nT*\frac{T - 1}{2} - k}\sum_{i = 1}^{n}{\sum_{t = 1}^{T - 1}{\sum_{s = t + 1}^{T}{e_{\text{it}}e_{\text{is}}}}}\ \ \ \ \ (9.7).\)

Здесь \(e_{\text{it}}\) — остатки, полученные в ходе оценки параметров модели со случайными эффектами при помощи обычного МНК (pooled regression).