Шпаргалка по эконометрике

Автор работы: Пользователь скрыл имя, 05 Июня 2013 в 18:37, шпаргалка

Описание работы

Работа содержит ответы на вопросы для экзамена по эконометрике.

Файлы: 1 файл

Эконометрика билеты.docx

— 419.66 Кб (Скачать файл)

Билет 11. Способы оценивания коэффициентов  регрессионной модели.

Нелинейное  оценивание является универсальной  аппроксимирующей процедурой, оценивающей  любой вид зависимости между  переменной отклика и набором  независимых переменных. В общем  случае, все регрессионные модели могут быть записаны в виде формулы:

 

Выражение F(x...) в выписанном выражении означает, что переменная отклика y является функцией от независимой переменной x. Примером модели такого типа может быть модель множественной линейной регрессии. В этой модели предполагается, что зависимая переменная является линейной функцией независимых переменных, т.е.:

 

Так же для оценивания модели можно использовать метод наименьших квадратов, метод максимума правдоподобия (если это допускается выбранной моделью).

МНК. В стандартной множественной регрессии оценивание коэффициентов регрессии происходит “подбором” коэффициентов, минимизирующих дисперсию остатков (сумму квадратов остатков). Любые отклонения наблюдаемых величин от предсказанных означают некоторые потери в точности предсказаний. Поэтому можно сказать, что цель метода наименьших квадратов заключается в минимизации функции потерь. В этом случае, функция потерь определяется как сумма квадратов отклонений от предсказанных значений. Когда эта функция достигает минимума, вы получаете те же оценки для параметров (свободного члена, коэффициентов регрессии), как, если бы мы использовали множественную регрессию. Полученные оценки называются оценками по методу наименьших квадратов.

 

Билет 12. Точные оценки параметров моделей парной линейной регрессии, их свойства и экономическая  интерпретация. Связь оценки коэффициента регрессии с выборочным значением  коэффициента корреляции.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Билет 13. Стандартная  ошибка регрессии, стандартные ошибки оценок параметров модели парной линейной регрессии, их свойства.

 

Стандартная ошибка регрессии – это квадратный корень из необъясненной дисперсии, т.е:

 

 

Стандартная ошибка коэффициента регрессии определяется по формуле:

 

Величина  стандартной ошибки совместно с t –распределением Стьюдента при n - 2 степенях свободы применяется  для проверки существенности коэффициента регрессии и для расчета его  доверительного интервала. Для оценки существенности коэффициента регрессии  его величина сравнивается с его  стандартной ошибкой, т.е. определяется фактическое значение t -критерия Стьюдента.

 

 

 

 

 

 

Билет 14. Оценивание значимости коэффициентов выборочной функции  парной линейной регрессии с помощью  t-критерия Стьюдента.

 

Проверить значимость уравнения регрессии  – значит установить, соответствует  ли математическая модель, выражающая зависимость между переменными, экспериментальными данными и  достаточно ли включенных в уравнение объясняющих  переменных для описания зависимой  переменной.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Билет 15. Коэффициент  детерминации и его значение. Проверка гипотез, относящихся к оценке адекватности регрессионной модели в целом.

Коэффициент детерминации R2 является одной из наиболее эффективных оценок адекватности регрессионной модели, мерой качества уравнения регрессии. Вычисляется по формуле:

 

Величина R показывает, какая часть (доля) вариации зависимой переменной  обусловлена вариацией объясняющей переменной. Чем R2 ближе к единице, тем лучше регрессия описывает зависимость между объясняющими и зависимой переменными.

Анализ качества эмпирического  уравнения парной и множественной  линейной регрессии начинают с построения эмпирического уравнения регрессии, которое является начальным этапом эконометрического анализа. Первое же, построенное по выборке, уравнение  регрессии очень редко является удовлетворительным по тем или иным характеристикам. Поэтому следующей  важнейшей оценкой является проверка качества уравнения регрессии. В  эконометрике принята устоявшаяся  схема такой проверки, которая  проводится по следующим направлениям:

  • проверка статистической значимости коэффициентов уравнения регрессии
  • проверка общего качества уравнения регрессии
  • проверка свойств данных, выполнимость которых предполагалась при оценивании уравнения (проверка выполнимости предпосылок МНК)

 

При анализе адекватности уравнения  регрессии (модели) исследуемому процессу, возможны следующие варианты:

1. Построенная модель на основе F-критерия Фишера в целом адекватна  и все коэффициенты регрессии  значимы. Такая модель может  быть использована для принятия  решений и осуществления прогнозов.

2. Модель по F-критерию Фишера  адекватна, но часть коэффициентов   не значима. Модель пригодна  для принятия некоторых решений,  но не для прогнозов.

3. Модель по F-критерию адекватна,  но все коэффициенты регрессии  не значимы. Модель полностью  считается неадекватной. На ее  основе не принимаются решения  и не осуществляются прогнозы.

Проверить значимость (качество) уравнения  регрессии –значит установить, соответствует ли математическая модель, выражающая  зависимость между переменными, экспериментальным данным, достаточно ли включенных в уравнение  объясняющих  переменных для описания зависимой переменной. Чтобы иметь общее суждение о качестве модели, по каждому наблюдению из относительных отклонений определяют среднюю ошибку аппроксимации. Проверка адекватности уравнения регрессии (модели) осуществляется с помощью средней ошибки аппроксимации, величина которой  не должна превышать 12-15% (максимально допустимое значение).

 

 

Оценка значимости уравнения  регрессии  в целом производится на основе F-критерия Фишера, которому предшествует дисперсионный  анализ. В математической  статистике  дисперсионный  анализ  рассматривается  как самостоятельный  инструмент  статистического  анализа. В эконометрике он применяется как вспомогательное  средство для изучения  качества регрессионной модели. Согласно основной идее дисперсионного анализа, общая  сумма квадратов отклонений переменной (y) от среднего значения (yср.) раскладывается на две части: «объясненную» и «необъясненную»:

 

 

Билет 16. Интервальные оценки параметров. Построение доверительных  интервалов для параметров парной линейной регрессии.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Билет 17. Регрессионные  модели, нелинейные относительно объясняющих  переменных или оцениваемых параметров. Спецификация моделей нелинейной регрессии. Линеаризация и ее значение для регрессионного анализа.

Нелинейная регрессия — частный  случай регрессионного анализа, в котором  рассматриваемая регрессионная  модель есть функция, зависящая от параметров и от одной или нескольких свободных  переменных. Зависимость от параметров предполагается нелинейной.

При исследовании социально-экономических  явлений и процессов далеко не все зависимости можно описать  с помощью линейной связи. Поэтому  в эконометрическом моделировании  широко используется класс нелинейных моделей регрессии, которые делятся  на два класса:

1) модели регрессии, нелинейные  относительно включенных в анализ  независимых переменных, но линейные  по оцениваемым параметрам;

2) модели регрессии, нелинейные  по оцениваемым параметрам.

К моделям регрессии, нелинейным относительно включённых в анализ независимых переменных (но линейных по оцениваемым параметрам), относятся полиномы выше второго порядка и гиперболическая функция.

Модели регрессии, нелинейным относительно включённых в анализ независимых  переменных, характеризуются тем, что  зависимая переменная yi линейно связана с параметрами β0…βn модели.

Полиномы или полиномиальные функции  применяются при анализе процессов  с монотонным развитием и отсутствием  пределов роста. Данному условию  отвечают большинство экономических показателей (например, натуральные показатели промышленного производства). Полиномиальные функции характеризуются отсутствием явной зависимости приростов факторных переменных от значений результативной переменной yi.

Общий вид полинома n-го порядка (n-ой степени):

Чаще всего в эконометрическом моделировании применяется полином  второго порядка (параболическая функция), характеризующий равноускоренное  развитие процесса (равноускоренный  рост или снижение уровней).:

Полиномы, чей порядок выше четвёртого, в эконометрических исследованиях  обычно не применяются, потому что они  не способны точно отразить существующую зависимость между результативной и факторными переменными.

Гиперболическая функция характеризует  нелинейную зависимость между результативной переменной yi и факторной переменной xi, однако, данная функция является линейной по оцениваемым параметрам β0 и β1.

Гиперболоид или гиперболическая  функция имеет вид:

Данная гиперболическая функция  является равносторонней.

В качестве примера эконометрической модели в виде гиперболической функции  можно привести модель зависимости  затрат на единицу продукции от объёма производства.

Неизвестные параметры β0…βn модели регрессии, нелинейной по факторным переменным, можно найти только после того, как модели будет приведена к линейному виду.

Для того чтобы оценить неизвестные  параметры β0…βn нелинейной регрессионной модели необходимо привести её к линейному виду. Суть процесс линеаризации нелинейных по факторным переменным моделей регрессии заключается в замене нелинейных факторных переменных на линейные переменные.

Рассмотрим процесс линеаризации полиномиальной функции порядка n:

Заменим все факторные переменные на линейные следующим образом:

x=c1;

x2=c2;

x3=c3;

xn=cn.

Тогда модель множественной регрессии  можно записать в виде:

yi=β0+β1c1i+ β2c2i+…+ βncni+εi.

Рассмотрим процесс линеаризации гиперболической функции:

Данная функция может быть приведена  к линейному виду путём замены нелинейной факторной переменной 1/x на линейную переменную с. Тогда модель регрессии можно записать в виде:

yi=β0+β1ci+εi.

Следовательно, модели регрессии, нелинейные относительно включенных в анализ независимых  переменных, но линейные по оцениваемым  параметрам, могут быть преобразованы  к линейному виду. Это позволяет  применять к линеаризованным  моделям регрессии классические методы определения неизвестных  параметров модели (метод наименьших квадратов), а также методы проверки различных гипотез.

 

Линеаризайия подразумевает подбор таких преобразований переменных моделей, что бы преобразование зависимых переменных в новые переменные имела линейную форму. Для оценивания параметров линеаризованных моделей может применять метод наименьших квадратов, а затем, с учетом формул преобразований, делается обратный переход и рассчитываются параметры исходной модели.

 

Билет 18.Задача множественного корреляционно-регрессионного анализа. Спецификация эконометрической модели множественной регрессии. Условия  Гаусса-Маркова для модели множественной  регрессии.

Задачи корреляционно-регрессионного анализа:

1) выбор спецификации модели, т.  е. формулировки вида модели, исходя  из соответствующей теории связи  между переменными;

2) из всех факторов, влияющих  на результативный признак, необходимо  выделить наиболее существенно  влияющие факторы;

3) парная регрессия достаточна, если имеется доминирующий фактор, который и используется в качестве  объясняющей переменной. Поэтому  необходимо знать, какие остальные  факторы предполагаются неизменными,  так как в дальнейшем анализе  их придется учесть в модели  и от простой регрессии перейти  к множественной;

4) исследовать, как изменение  одного признака меняет вариацию  другого.

Первое условие: модель данных правильно специфицирована. Под этим словосочетанием понимается следующее:

  • Модель состоит из фиксированной части   и случайной части  ;
  • Модель данных линейна по   и   (  и   линейны по  );
  • Отсутствует недоопределённость (т. е. ситуация, когда упущены важные факторы) и переопределённость (т. е. когда, наоборот, приняты во внимание ненужные факторы);
  • Модель данных адекватна 

Второе условие: все   детерминированы и не все равны между собой. Если все   равны между собой, то  , и в уравнении оценки коэффициента наклона прямой в линейной модели в знаменателе будет ноль, из-за чего будет невозможно оценить коэффициенты   и вытекающий из него  . При небольшом разбросе переменных   модель сможет объяснить лишь малую часть изменения  . Иными словами, переменные не должны быть постоянными.

Третье условие: ошибки не носят систематического характера. Случайный член может быть иногда положительным, иногда отрицательным, но он не должен иметь систематического смещения ни в каком из двух возможных направлений. Если уравнение регрессии включает постоянный член ( ), то это условие чаще всего выполняется автоматически, так как постоянный член отражает любую систематическую, но постоянную составляющую в  , которой не учитывают объясняющие переменные, включённые в уравнение регрессии.

Четвёртое условие: дисперсия ошибок одинакова. Одинаковость дисперсии ошибок также принято называть гомоскедастичностью. Не должно быть априорной причины для того, чтобы случайный член порождал бо́льшую ошибку в одних наблюдениях, чем в других. Так как   и теоретическая дисперсия отклонений   равна  , то это условие можно записать так:  . Одна из задач регрессионного анализа состоит в оценке стандартного отклонения случайного члена. Если рассматриваемое условие не выполняется, то коэффициент регрессии, найденные по методу наименьших квадратов, будут неэффективны, а более эффективные результаты будут получаться путём применения модифицированного метода регрессии.

Информация о работе Шпаргалка по эконометрике