Пособие состоит из двух самостоятельных разделов - страница 4

^ Модели с качественной зависимой переменной
Модели с качественной зависимой переменной как правило возникают, когда экономика рассматривается на очень дезагрегированном уровне. Обычно это ситуация, когда некоторая экономическая единица (субъект), делает выбор между двумя и более возможными альтернативами. В качестве примера можно привести выбор предприятия: внедрять какую-то новую технологию или нет.
^ Модели с бинарной зависимой переменной
В бинарную модель входит зависимая переменная Y, принимающая два значения (обычно 0 и 1), а также регрессоры X, которые содержат факторы, определяющие выбор. Обычная линейная регрессионная модель не подходит для описания этой ситуации. Она предполагает, что зависимая переменная имеет непрерывное распределение, а здесь необходимо, чтобы она имела дискретное распределение.

Пусть, например, рассматривается выбор группы людей: быть безработным или работать. Построенная линейная регрессия будет предсказывать абсурдные значения Y – дробные, отрицательные и большие единицы. Математическое ожидание остатков при этом будет даже асимптотически зависеть от X.

Вообще говоря, предсказывать результат выбора можно было бы и по результатам линейной регрессии: если (расчетное значение Y) больше 1/2, то берем 1, если меньше 1/2, то берем 0. Хотя это соображение и не улучшает модель, оно подсказывает, какой может быть более адекватная модель.

С формальной точки зрения требуется найти модель, которая порождала бы дискретное распределение, зависящее от X, которое бы хорошо описывало данные. Поскольку для бинарной зависимости переменной распределение будет бинарным, то оно полностью определяется вероятностью получения единицы (как функцией X), которая совпадает с математическим ожиданием, если переменная принимает значения 0 и 1:

E (Y | X) = Prob (Y = 1 | X)·1 + Prob (Y = 0 | X)·0 =

=Prob (Y = 1 | X).

Геометрически задача состоит в том, чтобы найти гиперплоскость, которая бы в определенном смысле наилучшим образом разделяла две группы наблюдений (соответствующие 0 и 1) в пространстве регрессоров. Может случиться, что такая плоскость будет не единственной; это происходит при идеальном разделении.
^ Модель выбора. Пробит и логит
Предлагается два вида моделей выбора, которые могли бы порождать интересующее нас распределение зависимой переменной: пороговая модель и модель, основанная на полезности альтернатив. Идея пороговой модели уже обрисована выше. Предполагается, что в основе выбора лежит ненаблюдаемая переменная , математическое ожидание которой является линейной комбинацией набора регрессоров X:  X + . Наблюдается только дискретная величина Y, которая связана с следующим образом: если больше некоторой пороговой величины C, то Y = 1, если меньше, то Y = 0. Как обычно предполагается, что ошибки  i имеют нулевое математическое ожидание, одинаково распределены и независимы. Величину C можно принять равной нулю.

Другая модель предполагает, что выбор осуществляется на основе ненаблюдаемой полезности альтернатив u(Y, X). Если u(1, X) > u(0, X), то выбираем 1, если u(0, X) < u(1, X), то выбираем 0. В простейшем случае полезность является линейной функцией регрессоров:

u(1, X)  u1 X1 , u(0, X)  u0  X0.

Чтобы модель была вероятностной, предполагается, что есть отклоняющие факторы, так что u1  X1 + 1 , u0  X0 + 0 . Эта модель сводится к пороговой, если взять  u1 – u0  X(1 – 0) + 1 – 0  X + , а в качестве порога — ноль. Выведем теперь из распределения  распределение , а из распределения — распределение Y. 2

Есть два удобных вида распределения, которые обычно используют для описания отклонения .

1. Логистическое распределение. 3

Плотность логистического распределения равна (см. Рис. 3), а функция распределения равна (ее называют логистой). Модель с бинарной зависимой переменной с логистически распределенным отклонением называют логит. Для логита E (Y | X)  1 –  .





^ Рис. 3

2. Нормальное распределение.

Модель с нормально распределенным отклонением называют пробит.

Для пробита

E (Y | X)  e dt.

Логистическое распределение очень похоже на нормальное. Различить, когда следует применять логит, а когда — пробит, в малых выборках невозможно. Оценки коэффициентов  отличаются множителем, который практически постоянен.
^ Оценка качества модели и проверка гипотез
Пробит и логит обычно оценивают методом максимального правдоподобия. Существуют также упрощенные методы, использующие сгруппированные наблюдения. Предположим, что методом максимального правдоподобия получен вектор оценок . Как в этом случае можно судить о качестве модели и проверять гипотезы?

Величину = X  можно назвать по аналогии с линейной регрессией расчетными значениями. Она является оценкой математического ожидания ненаблюдаемой величины , сравнивая которую с нулем делают выбор между 0 и 1. Уравнение (X) = 0 задает ту гиперплоскость, которой разделяются две группы точек — те точки, для которых предсказано Yi = 0, и те точки, для которых предсказано Yi = 1 (с помощью критерия i  0  1). Поэтому наглядно о качестве модели можно судить по диаграмме соответствующих точек по Y: чем лучше разделены две группы точек, тем более качественна модель. О качестве модели можно судить также по графику оценки E (Y) по ( по ). Этот график в случае “хорошей” модели должен быть "крутой" в нуле. (См. Рис. 4)




Рис. 4
На этих двух графиках слева внизу и справа вверху расположены правильно предсказанные точки, а слева вверху и справа внизу — неправильно. То же самое можно представить таблицей:







Предсказано





0

1

Cумма

На самом

0







деле

1









Cумма









Понятно, что "хорошая" модель должна давать высокий процент правильных предсказаний.

Для проверки набора ограничений на параметры удобно использовать статистику отношения правдоподобия LR = 2 ((  ) – (  R) ), где

 = [ Yi ln Pi + (1– Yi) ln (1 – Pi)] — логарифмическая функция прав­до­подобия,

— оценка методом максимума правдоподобия без ограничений,

 R — оценка при ограничениях.

Эту же статистику можно использовать для построения показателя качества модели, аналогичного F-статистике для линейной регрессии. Это статистика для проверки гипотезы о том, что коэффициенты при всех регрессорах, кроме константы, равны одновременно нулю. Соответствующая статистика отношения правдоподобия равна LR0 = 2 (() – 0) , где 0 – максимум логарифмической функции правдоподобия для константы. Она распределена асимптотически как  с k–1 степенями свободы, где k – количество параметров в исходной модели, включая константу. Величина l получается следующим образом. Пусть N – общее количество наблюдений, n0 – количество наблюдений, для которых Yi = 0, n1 – количество наблюдений, для которых Yi = 1. Тогда предсказанная вероятность появления Yi  1 в модели с одной константой будет равна для всех наблюдений n1 /N . Отсюда 0  n0 lnn0 + n1 ln n1 – N lnN. Еще один показатель качества модели, основанный на максимуме функции правдоподобия — информационный критерий Акаике:

AIC = – (() – k).

Для моделей с бинарной зависимой переменной можно сконструировать и некий аналог коэффициента детерминации — псевдо-R2:

R2   ,

где — среднее i ,  2 — дисперсия ошибки , которая равна 1 для пробита и для логита.
^ Множественные модели с качественными зависимыми переменными
В этом подразделе будет говориться о логите, хотя это верно и для пробита. Множественный логит является логическим продолжением бинарного. Он возникает, когда рассматривается выбор между более чем двумя альтернативами. Существует два основных типа множественных моделей: упорядоченный логит и собственно множественный логит. Упорядоченный логит развивает пороговую модель, а собственно множественный логит — модель выбора по полезности.

Упорядоченный логит имеет дело с альтернативами, которые можно расположить в определенном порядке. Например, это могут быть оценки, полученные на экзамене, или качество товара, которое может характеризоваться сортом от "высшего" до "третьего". Будем предполагать, что альтернативы пронумерованы от 0 до S. Переменная Y принимает значение s, если выбрана альтернатива s. Предполагается, что в основе выбора лежит ненаблюдаемая величина = X + . Y  0 выбирается, если меньше нижнего (первого) порогового значения, Y = 1, если попадает в промежуток от первого до второго порогового значения и т. д.; Y = S выбирается, если превышает верхнее пороговое значение:

Yi  

Если  имеет логистическое распределение, то логарифмическая функция распределения равна

  (Prob (Yi  0)) + (Prob (Yi  1)) +  +

+ (Prob (Yi  S)) 

= () + ( – )+  +

+ ().

Эту величину следует максимизировать по  и . В результате получается оценка максимума правдоподобия.

Если альтернативы не упорядочены, то предполагается, что выбор делается на основе функции полезности u (Y, Z). Обозначим us (Z)  u (s, Z). В линейной модели us  Zs s + s, где Zs – матрица регрессоров, s – неизвестные параметры. Обычно делают одно из двух упрощающих допущений: либо что регрессоры для всех альтернатив одни и те же: us  Z s + s , либо что функция имеет один и тот же вид, а меняются только факторы, определяющие выбор, т.е. us  Zs  + s. Yi выбирается равным s, если us (Zi) > ut (Zi)  s  t. В множественном логите принимается, что ошибки s имеют распределение Вейбулла. Распределение Вейбулла 4 в стандартной форме имеет функцию распределения F (X) = e –e –X (см. Рис. 3). Распределение Вейбулла обладает следующими важными для рассматриваемой модели свойствами: максимум нескольких величин, распределенных по Вейбуллу, также распределен по Вейбуллу, а разность двух величин, распределенных по Вейбуллу, имеет логистическое распределение. Используя эти свойства, можно вывести, что в многомерном логите

Prob (Yi  s)  Pis  .

Вероятности не изменятся, если числитель и знаменатель нормировать, разделив на e Z00 :

Pis  

Если принимается, что s    s, то удобно обозначить Zs – Z0  Xs (s  1,..., S), а если Zs  X  s, то s – 0 можно заменить на s .


8142317534394636.html
8142441928374395.html
8142637462964733.html
8142771278787685.html
8143040568957608.html