Учебник+

4.3. Нелинейные модели

 

До этого момента мы концентрировались на линейных зависимостях между переменными. Однако мир многообразен, и в процессе эконометрического моделирования часто приходится сталкиваться с нелинейными взаимосвязями. Обычно их использование мотивируется одной из двух причин:

  1. Графическим анализом данных. Например, если на этапе предварительного исследования данных вы построили график, характеризующий взаимосвязь между вашими переменными, и увидели нечто подобное рисунку 4.3, то, скорее всего, вы придете к выводу, что связь нелинейна.
  2. Содержательными теоретическими соображениями. К примеру, если вы анализируете зависимость между количеством используемых фирмой факторов производства и её объемом выпуска, вы наверняка захотите проверить, не описывается ли эта взаимосвязь производственной функцией Кобба — Дугласа, которая имеет следующий (нелинейный) вид: \({Y_{i} = A}K_{i}^{\alpha}L_{i}^{\beta}\).

Рассмотрим несколько нелинейных моделей, которые часто встречаются в эконометрическом анализе.

Рисунок 4.3. Пример нелинейной связи между переменными

Логарифмическая модель

Во многих случаях зависимость между переменными в экономике носит степенной характер:

\({y_{i} = A}x_{i}^{a}\)

Прологарифмируем правую и левую части этого равенства:

\(\ln{y_{i} = \ln}{A + a}\ln x_{i}\)

Переобозначим переменные более привычным нам образом: \({\beta_{1} = \ln}A\) и \(\beta_{2} = a\):

\(\ln{y_{i} = {\beta_{1} + \beta_{2}}}\ln x_{i}\)

Наконец, чтобы сделать модель пригодной для эконометрического моделирования, добавим в неё случайные ошибки:

\(\ln{y_{i} = {\beta_{1} + \beta_{2}}}\ln{x_{i} + \varepsilon_{i}}\)

Поскольку в новом уравнении в правой и в левой частях стоят логарифмы исходных переменных, эту модель называют логарифмической (или двойной логарифмической).

Смысл проведенного преобразования состоит в том, что относительно параметров (\(\beta_{1}\) и \(\beta_{2}\)) новая модель является линейной. Поэтому к ней можно применять все стандартные методы оценивания, которые обсуждались в предшествующих главах. Точно так же можно вычислять МНК-оценки коэффициентов, рассчитывать их стандартные ошибки, тестировать гипотезы и так далее. Таким образом, стандартный трюк, который используют эконометристы, заключается в переходе от нелинейной по параметрам модели (\({y_{i} = A}x_{i}^{a}\)) к линейной по параметрам1.

Единственное существенное отличие будет возникать в интерпретации полученного результата. Действительно, в линейной модели

\({y_{i} = {\beta_{1} + \beta_{2}}}{x_{i} + \varepsilon_{i}}\)

коэффициент при переменной \(x_{i}\) может быть интерпретирован так: увеличение переменной \(x_{i}\) на одну единицу приводит к увеличению переменной \(y_{i}\) на \(\beta_{2}\) единиц.

Однако в логарифмической модели интерпретация коэффициента \(\beta_{2}\) будет отличаться. Чтобы понять, как она устроена, перепишем логарифмическую модель следующим образом

\({y_{i} = e^{\beta_{1}}}x_{i}^{\beta_{2}}e^{\varepsilon_{i}}\)

и вычислим производную зависимой переменной по объясняющей переменной:

\({\frac{dy_{i}}{dx_{i}} = \beta_{2}}e^{\beta_{1}}x_{i}^{\beta_{2} - 1}{e^{\varepsilon_{i}} = \frac{\beta_{2}e^{\beta_{1}}x_{i}^{\beta_{2}}e^{\varepsilon_{i}}}{x_{i}} = \beta_{2}}\frac{y_{i}}{x_{i}}.\)

Преобразуем это выражение, выразим темп прироста зависимой переменной:

\({\frac{dy_{i}}{y_{i}} = \beta_{2}}\frac{dx_{i}}{x_{i}}\)

Или, что приближенно то же самое:

\({\frac{\mathrm{\Delta}y_{i}}{y_{i}} \ast 100}\text{%}\approx\beta_{2}{\frac{\mathrm{\Delta}x_{i}}{x_{i}} \ast 100}\text{%}\)

Таким образом, мы получаем следующую интерпретацию коэффициента при регрессоре: увеличение объясняющей переменной на один процент приводит к увеличению зависимой переменной в среднем на \(\beta_{2}\) процентов. Иными словами, коэффициент \(\beta_{2}\) характеризует эластичность зависимой переменной по объясняющей переменной2.

Линейно-логарифмическая модель

Аналогичным образом можно разобраться с тем, как интерпретировать коэффициент при переменной в линейно-логарифмической модели, то есть в модели следующего вида:

\({y_{i} = {\beta_{1} + \beta_{2}}}\ln{x_{i} + \varepsilon_{i}}\)

Возьмем производную зависимой переменной по объясняющей переменной:

\({\frac{dy_{i}}{dx_{i}} = \beta_{2}}\frac{1}{x_{i}}\)

\(d{y_{i} = \beta_{2}}\frac{dx_{i}}{x_{i}}\)

\(\mathrm{\Delta}y_{i}\approx\beta_{2}\frac{\mathrm{\Delta}x_{i}}{x_{i}}\)

Отсюда легко видеть, что если объясняющая переменная увеличивается на один процент, то есть \(\frac{\mathrm{\Delta}x_{i}}{x_{i}} = \frac{1}{100}\), то зависимая переменная увеличивается на величину \(\mathrm{\Delta}{y_{i} = \frac{\beta_{2} \ast 1}{100}}\). Таким образом, коэффициент при переменной в линейно-логарифмической модели может быть интерпретирован следующим образом: увеличение объясняющей переменной на один процент приводит к увеличению зависимой переменной в среднем на \(\frac{\beta_{2}}{100}\) единиц.

Логарифмически-линейная модель

Для полноты картины осталось рассмотреть экспоненциальную зависимость:

\(y_{i} = e^{{\beta_{1} + \beta_{2}}{x_{i} + \varepsilon_{i}}}\)

Такая модель так же легко может быть приспособлена к оцениванию путем перехода к логарифмам (так как в этом случае она снова становится линейной по параметрам):

\(\ln{y_{i} = {\beta_{1} + \beta_{2}}}{x_{i} + \varepsilon_{i}}\)

Так как в левой части этого уравнения стоит логарифм исходной зависимой переменной, а справа регрессор входит в уравнение линейно, такие модели называются логарифмически-линейными.

Чтобы понять, как можно интерпретировать результаты моделирования в этом случае, посмотрим, насколько меняется зависимая переменная при изменении объясняющей переменной на \(\mathrm{\Delta}x_{i}\):

\(\mathrm{\Delta}{y_{i} = {e^{{\beta_{1} + \beta_{2}}{{({{x_{i} + \mathrm{\Delta}}x_{i}})} + \varepsilon_{i}}} - e^{{\beta_{1} + \beta_{2}}{x_{i} + \varepsilon_{i}}}}}\)

\(\frac{\mathrm{\Delta}y_{i}}{y_{i}} = \frac{e^{{\beta_{1} + \beta_{2}}{{({{x_{i} + \mathrm{\Delta}}x_{i}})} + \varepsilon_{i}}} - e^{{\beta_{1} + \beta_{2}}{x_{i} + \varepsilon_{i}}}}{e^{{\beta_{1} + \beta_{2}}{x_{i} + \varepsilon_{i}}}}\)

\(\frac{\mathrm{\Delta}y_{i}}{y_{i}} = {e^{\beta_{2}\mathrm{\Delta}x_{i}} - 1}\)

\({\frac{\mathrm{\Delta}y_{i}}{y_{i}} \ast 100}{\text{%} = {\left( {e^{\beta_{2}\mathrm{\Delta}x_{i}} - 1} \right) \ast 100}}\text{%}\)

Если \(\mathrm{\Delta}{x_{i} = 1}\), то \({\frac{\mathrm{\Delta}y_{i}}{y_{i}} \ast 100}{\text{%} = {\left( {e^{\beta_{2}} - 1} \right) \ast 100}}\text{%}\)

Поэтому интерпретировать коэффициент в модели в этом случае можно так: увеличение регрессора на единицу приводит к увеличению зависимой переменной на \({\left( {e^{\beta_{2}} - 1} \right) \ast 100}\text{%}.\)

Если коэффициент \(\beta_{2}\) близок к нулю, то \(e^{\beta_{2}}\approx{1 + \beta_{2}}\). В этом случае \({\left( {e^{\beta_{2}} - 1} \right) \ast 100}\text{%}\approx{\beta_{2} \ast 100}\text{%}\) и можно интерпретировать соответствующий коэффициент так: увеличение регрессора на единицу приводит к увеличению зависимой переменной на \({\beta_{2} \ast 100}\text{%}\).

На практике приближение является вполне удовлетворительным при \(\left| \beta_{2} \right| < 0,1\). В этом случае погрешность меньше одного процента. При бОльших по абсолютной величине значениях коэффициента \(\beta_{2}\) лучше использовать точную формулу.

Все полученные нами выводы об интерпретации коэффициентов в линейной, логарифмической, логарифмически-линейной и линейно-логарифмической моделях обобщены в таблице 4.1.

Таблица 4.1. Интерпретация коэффициентов в разных моделях

Зависимость Интерпретация

Линейная

\({y = {\beta_{1} + \beta_{2}}}x\)

Увеличение x на единицу приводит к увеличению y на \(\beta_{2}\) единиц

Логарифмическая

\(\ln{y = {\beta_{1} + \beta_{2}}}\ln x\)

Увеличение x на один процент приводит к увеличению y на \(\beta_{2}\) процентов

Линейно-логарифмическая

\({y = {\beta_{1} + \beta_{2}}}\ln x\)

Увеличение x на один процент приводит к увеличению y на \(\beta_{2}/100\) единиц

Логарифмически-линейная

\(\ln{y = {\beta_{1} + \beta_{2}}}x\)

Увеличение x на единицу приводит к увеличению y на \(\beta_{2} \ast 100\) процентов

Примечания: (1) Разумеется, если коэффициент \(\beta_{2}\) отрицательный, то увеличение регрессора приводит не к увеличению, а, наоборот, к уменьшению зависимой переменной. (2) Следует помнить, что указанные интерпретации получены на основе приближенных формул. В последнем случае (для логарифмически-линейной модели) приближением можно пользоваться только в том случае, если коэффициент \(\beta_{2}\) не слишком велик (см. пояснения в тексте параграфа).

Пример 4.3. Интерпретация коэффициента в логарифмически-линейной модели

Исследователь анализирует, как меняется ВВП некоторой страны во времени. Изучив график ВВП, исследователь заключил, что он растет экспоненциально, следовательно, для моделирования его динамики хорошо подойдет логарифмически-линейная модель:

\(\ln{{\mathit{GD}P_{t}} = {\beta_{1} + {\beta_{2} \ast t} + \varepsilon_{t}}}\)

Оценка параметров модели на ежегодных данных за 50 лет приводит к следующей линии регрессии:

\(\widehat{\ln{\mathit{GD}P_{t}}} = {\underset{(0,301)}{10,2} + {\underset{(0,001)}{0,02} \ast t}}\)

Интерпретируйте полученные результаты.

Решение:

Для начала отметим, что коэффициент при переменной \(t\) является статистически значимым, так как гипотеза \(H_{0}:{\beta_{2} = 0}\) уверенно отвергается при уровне значимости 1%. (соответствующее расчетное значение тестовой статистики равно 0,02/0,001=20, что больше критического значения, которое составляет 2,68). Поэтому можно заключить, что со временем ВВП в рассматриваемой экономике, действительно, в среднем растет.

После этого можно перейти к интерпретации. В соответствии с полученным нами правилом интерпретации можно сказать, что увеличение переменной t на единицу приводит к увеличению переменной \(\mathit{GD}P_{t}\) на 0,02*100%. Иными словами, в среднем ВВП в рассматриваемой экономике увеличивается на 2% в год.

Полиномиальные модели

В некоторых ситуациях зависимость между регрессором и объясняемой переменной носит немонотонный характер. См., например, рисунок 4.4. В таких случаях оправдано использование полиномиальных зависимостей. Например, квадратичных:

\({y_{i} = {\beta_{1} + \beta_{2}}}{x_{i} + \beta_{3}}{x_{i}^{2} + \varepsilon_{i}}.\)

В это уравнение все коэффициенты снова входят линейно, а значит, параметры соответствующей модели также легко могут быть оценены обычным МНК.

\({\frac{dy_{i}}{dx_{i}} = {\beta_{2} + 2}}\beta_{3}x_{i}\)

Рис. 4.4. Немонотонный характер зависимости между переменными

Чувствительность зависимой переменной к изменению регрессора будет существенно зависеть от его величины:

\({\frac{dy_{i}}{dx_{i}} = {\beta_{2} + 2}}\beta_{3}x_{i}\)

Поэтому при интерпретации коэффициента указанную чувствительность обычно вычисляют в конкретной точке. Например, в точке среднего по выборке значения регрессора.

Иногда полиномиальные модели могут быть удобным инструментом. Особенно если немонотонный характер зависимости следует из содержательных соображений. Однако не следует увлекаться оценкой полиномов высоких степеней просто в угоду получению большого коэффициента R-квадрат. Конечно, технически через n точек всегда можно провести кривую, описываемую полиномом степени \(n - 1\), и R-квадрат при этом будет равен единице. Однако содержательно интерпретировать подобную зависимость будет невозможно, результаты оценивания будут крайне неустойчивыми, а точность прогнозирования вне выборки — низкой. Поэтому на практике, как правило, ограничиваются квадратичными функциями.

Обратите внимание, что во всех рассмотренных ситуациях путем простых преобразований мы приводили модель к виду, в котором параметры входят в уравнение линейно. Конечно, можно привести пример функции, которая не сводится к линейной по параметрам:

\({y_{i} = {\beta_{1} + \beta_{2}}}w_{i}{e^{\beta_{3}x_{i}} + \ln}\left( {\beta_{4}{z_{i} + \varepsilon_{i}}} \right).\)

В этом случае для оценивания параметров приходится использовать альтернативные методы (например, нелинейный МНК или метод максимального правдоподобия), обсуждение которых выходит за рамки этой главы. К счастью, в прикладных исследованиях часто можно обойтись теми моделями, которые мы разобрали выше.

Естественный вопрос, возникающий после рассмотрения разнообразных нелинейных моделей, состоит в том, как выбрать подходящий вид зависимости для ваших данных: использовать ли линейную модель, или логарифмическую, или ещё какую-то? Тут следует принимать во внимание следующие соображения:

  1. Графический анализ исходных данных. Например, ясно, что если диаграммы рассеяния для ваших данных выглядят как рисунки 4.3 или 4.4, то использовать линейную модель будет не слишком хорошей идеей.
  2. Графический анализ остатков. После построения модели отсортируйте наблюдения по возрастанию одного из регрессоров и постройте график остатков. Если остатки равномерно колеблются вокруг нуля (то есть, если их поведение не противоречит предпосылке о том, что они являются независимыми случайными величинами), это аргумент в пользу корректной спецификации. Подобный пример приведен на рисунке 4.5.а. Если же остатки имеют некоторый регулярный вид, например, как на рисунке 4.5.б, то, скорее всего, спецификация выбрана неверно3.
  3. Экономическая теория. Как было сказано в самом начале данного параграфа, если в основе ваших эмпирических расчетов лежит теоретическая модель, то это может быть хорошим подспорьем в выборе корректной формы функциональной зависимости. Например, если вы моделируете кривую Лаффера4, то естественно использовать немонотонную функцию.
  4. Формальные статистические критерии. Речь о них пойдет в заключительной части этого параграфа.

Одним из распространенных вариантов тестировать корректность выбранной функциональной формы модели является тест Рамсея (Ramsey test). Иногда его также называют RESET (Regression Equation Specification Error Test). Нулевая гипотеза в этом тесте состоит в том, что спецификация уравнения регрессии верна.

Процедура его проведения такова:

Оцениваем исходное уравнение, корректность спецификации которого как раз и хотим проверить. Например, такое:

\({y_{i} = {\beta_{1} + \beta_{2}}}{x_{i}^{(2)} + \ldots + \beta_{k}}{x_{i}^{(k)} + \varepsilon_{i}}\)

Извлекаем предсказанные значения объясняемой переменной \({\widehat{y}}_{i}\).

Оцениваем вспомогательное уравнение – в него включены все исходные переменные и дополнительно \({\widehat{y}}_{i}^{2}\) и \({\widehat{y}}_{i}^{3}\):

\({y_{i} = {\beta_{1} + \beta_{2}}}{x_{i}^{(2)} + \ldots + \beta_{k}}{x_{i}^{(k)} + \alpha_{2}}{{\widehat{y}}_{i}^{2} + \alpha_{3}}{{\widehat{y}}_{i}^{3} + \varepsilon_{i}}\)

Теперь для имеющихся двух уравнений (исходного и вспомогательного) осуществляем тест на сравнение «короткой» и «длинной» регрессий, чтобы проверить гипотезу \(H_{0}:{\alpha_{2} = \alpha_{3} = 0}\). Если эта гипотеза отвергается, то следует отвергнуть исходную гипотезу теста Рамсея и заключить, что спецификация уравнения неверна. Если же гипотеза \(H_{0}:{\alpha_{2} = \alpha_{3} = 0}\) не отвергается, то следует сделать вывод, что спецификация исходного уравнения верна.

Иногда, если в выборке доступно мало наблюдений, вместо двух слагаемых \(\alpha_{2}{\widehat{y}}_{i}^{2}\) и \(\alpha_{3}{\widehat{y}}_{i}^{3}\) в уравнение добавляют только одно из них.

Рис. 4.5а. Линия регрессии (верхний график) и соответствующий ей график остатков (нижний график) в случае, когда линейная функциональная форма связи между переменными является корректным предположением

Рис. 4.5б. Линия регрессии (верхний график) и соответствующий ей график остатков (нижний график) в случае, когда линейная функциональная форма связи между переменными является некорректным предположением, а в действительности зависимость носит нелинейный характер

Тест Рамсея может отвергать нулевую гипотезу по двум причинам: либо функциональная форма для уравнения выбрана ошибочно, либо в уравнении пропущены важные переменные. К сожалению, этот тест не дает четкого указания, что именно надо сделать для исправления ситуации, так что тут исследователю придется принимать решение самому. Однако в любом случае отвержение нулевой гипотезы тестом Рамсея — это повод задуматься о том, чтобы усовершенствовать спецификацию вашей модели5.

Иногда выбор функциональной формы осуществляют и на основе качества соответствия модели данным. Например, линейную модель \({y_{i} = {\beta_{1} + \beta_{2}}}{x_{i} + \varepsilon_{i}}\) и линейно-логарифмическую модель \({y_{i} = {\beta_{1} + \beta_{2}}}\ln{x_{i} + \varepsilon_{i}}\) можно сравнить при помощи коэффициента R-квадрат или суммы квадратов остатков. Такое сравнение будет корректным, так как у рассматриваемых типов моделей одинаковая зависимая переменная (\(y_{i}\)). В то же время сравнивать линейную модель и логарифмическую модель подобным образом не следует, так как у логарифмической модели другая зависимая переменная (\(\ln y_{i}\)). Поэтому сумма квадратов и общая сумма квадратов в таких моделях будут существенно отличаться просто из-за того, что измеряются в разных шкалах. В любом случае, как мы обсуждали выше, R-квадрат имеет существенные ограничения, поэтому в современных исследованиях при выборе функциональной формы гораздо чаще опираются на соображения экономической теории и спецификационные тесты.


  1. Для того, чтобы случайные ошибки в нашем преобразовании не брались «ниоткуда», можно предположить, что исходная модель тоже их включает, то есть имеет вот такой вид: \({y_{i} = A}x_{i}^{a}e^{\varepsilon_{i}}\).↩︎

  2. Для читателя, знакомого с микроэкономикой, этот результат, скорее всего, является вполне ожидаемым: действительно, показатель степени в степенной зависимости численно равен соответствующей эластичности.↩︎

  3. Дополнительные полезные соображения о том, какую информацию можно извлечь из анализа остатков уравнения регрессии, содержатся в следующей главе, посвященной гетероскедастичности.↩︎

  4. Зависимость между ставкой налога и суммарными налоговыми поступлениями в государственный бюджет.↩︎

  5. В более ранних исследованиях для выбора функциональной формы также использовались тесты Зарембки и Бокса — Кокса. См., например, Доугерти, 2009. ↩︎