Шпаргалка по «Статистике»

Автор работы: Пользователь скрыл имя, 23 Января 2014 в 20:17, шпаргалка

Описание работы

Работа содержит ответы на вопросы для экзамена (зачета) по «Статистике»

Файлы: 1 файл

статистика1.doc

— 355.00 Кб (Скачать файл)

17.Понятие  о вариации признака. Показатели  вариации и способы их расчета.

Вариация - это различие в значениях какого- либо признака у разных единиц данной совокупности в один и тот же период или момент времени.

Различие  индивидуальных значений признака внутри изучаемой  совокупности в статистике называется вариацией признака. . Различают вариацию признака: случайную и систематическую.Анализ систематической вариации позволяет оценить степень зависимости изменений в изучаемом признаке от определяющих ее факторов.

Чтобы узнать, насколько точно средняя  характеризует совокупность, применяют

показатели  вариации, которые являются мерой  вариации признака.

Наиболее  простой – размах вариации, который  пр. собой разность между макс. и

мин. значением признака – R.

     R=Xmax-Xmin.

Ненадежен, т.к. крайнее значение признака обычно малочисленно. Этот показатель

обычно  улавливает только крайние отклонения всех вариантов данной сов-ти. Для

большей точности необходимо сравнивать каждое индивидуальное значение со

средней величиной. Для такой обобщающей характеристики рассчитывают среднее

минимальное отклонение, которое учитывает различие всех ед-ц изучаемой

совокупности.

 

Показатели  вариации

Среднее линейное отклонение представляет собой среднюю арифметическую из абсолютных значений отклонений отдельных вариантов от их средней арифметической:


 

– абсолютное значение (модуль) отклонения варианта от средней арифметической; f– частота.

Первая формула применяется, если каждый из вариантов встречается в совокупности только один раз, а вторая – в рядах с неравными частотами.

Существует и другой способ усреднения отклонений вариантов от средней  арифметической. Этот очень распространенный в статистике способ сводится к расчету квадратов отклонений вариантов от средней величины с их последующим усреднением. При этом мы получаем новый показатель вариации – дисперсию.

Дисперсия (?2) – средняя из квадратов отклонений вариантов значений признака от их средней величины:


 

Вторая формула применяется  при наличии у вариантов своих  весов (или частот вариационного  ряда).

В экономико-статистическом анализе  вариацию признака принято оценивать  чаще всего с помощью среднего квадратического отклонения. Среднее квадратическое отклонение (?) представляет собой корень квадратный из дисперсии:


 

Среднее линейное и среднее квадратическое отклонения показывают, на сколько в среднем колеблется величина признака у единиц исследуемой совокупности, и выражаются в тех же единицах измерения, что и варианты.


 

18.Расчет  дисперсии методом моментов.

Вычисление  дисперсий связано с громоздкими  расчетами (особенно если средняя величина выражена большим числом с несколькими десятичными знаками). Расчеты можно упростить, если использовать упрощенную формулу и свойства дисперсии.

Дисперсия обладает следующими свойствами:

если все значения признака уменьшить  или увеличить на одну и ту же величину А, то дисперсия от этого не уменьшится:

,

если все значения признака уменьшить  или увеличить в одно и то же число раз (h раз), то дисперсия соответственно уменьшится или увеличится в раз.


То  есть, если дисперсию уменьшенных  значений признака описать следующим  выражением

, то или 

Используя свойства дисперсии и  сначала уменьшив все варианты совокупности на величину А, а затем разделив на величину интервала h, получим формулу вычисления дисперсии в вариационных рядах с равными интервалами способом моментов:

,

где - дисперсия, исчисленная по способу моментов;

h - величина интервала вариационного  ряда;

- новые  (преобразованные) значения вариант;

А- постоянная величина, в качестве которой используют середину интервала, обладающего наибольшей частотой; либо вариант, имеющий наибольшую частоту;

- квадрат  момента первого порядка;

- момент  второго порядка.


19.Основные  математические свойства дисперсии.  Расчет дисперсии методом «условного 
нуля».

Свойство 1. Дисперсия постоянной величины равна нулю.  
Свойство 2. Уменьшение всех значений признака на одну и ту же величину A не меняет величины дисперсии . 

Значит, средний квадрат отклонений можно вычислить не по заданным значениям признака, а по отклонениям их от какого-либо постоянного числа.  Свойство 3. Уменьшение всех значений признака в K раз уменьшает дисперсию в K2 раз, а среднее квадратическое отклонение в K раз . Значит, все значения признака можно разделить на какое-то постоянное число, например, на величину интервала ряда, исчислить среднее квадратическое отклонение, а затем умножить его на постоянное число: .  
Свойство 4. Если вычислить средний квадрат отклонений от любой величины A, в той или иной степени отличающейся от средней арифметической (), то он всегда будет больше среднего квадрата отклонений, вычисленного от средней арифметической . Средний квадрат отклонений при этом будет больше на величину ( – A)2 :  
.  
Значит, дисперсия от средней величины всегда меньше дисперсий, вычисленных от любых других величин, т.е. она имеет свойство минимальности.  
На этих математических свойствах дисперсии основываются способы, которые позволяют упростить ее вычисление. Например, расчет дисперсии по способу моментов или способу отсчета от условного нуля применяется в вариационных рядах с равными интервалами. Расчет производится по формуле:  
,  
где K – ширина интервала;  
A – условный нуль, в качестве которого удобно использовать середину интервала, обладающего наибольшей частотой;  
 – момент второго порядка. 

 

20.Расчет дисперсии альтернативного признака.

реди  признаков, изучаемых статистикой, есть и такие, которым свойственны  лишь два взаимно исключающих  значения. Это альтернативные признаки. Им придается соответственно два количественных значения: варианты 1 и 0. Частостью варианты 1, которая обозначается p, является доля единиц, обладающих данным признаком. Разность 1-р=q является частостью варианты 0. Таким образом,

 
хi

wi

1

p

0

q


Средняя арифметическая альтернативного признака 
,   т. к.  p+q=1.

Дисперсия альтернативного признака 
, т.к. 1-р=q 
Таким образом, дисперсия альтернативного признака равна произведению доли единиц, обладающих данным признаком, и доли единиц, не обладающих этим признаком. 
Если значения 1 и 0 встречаются одинаково часто, т. е. p=q, дисперсия достигает своего максимума pq=0,25. 
Дисперсия альтернативного признака используется в выборочных обследованиях, например, качества продукции.

21.Меры вариации для сгруппированных Данных. Виды дисперсий и правило их сложения. 
Эмпирическое корреляционное отношение и эмпирический коэффициент детерминации, их 
интерпретация.

Одной из простейших мер вариации является размах или колеблемость варьирующего признака:, но он не описывает вариацию признака внутри интервала [xmax; xmin]. Такой характеристикой, которая дает обобщенную характеристику ряда и гасит случайные отклонения значений признака, является средняя. Вокруг значения средней величины происходят колебания признака, для обобщения этих колебаний применяется средняя величина этих отклонений:

Среднее квадратическое отклонение для сгруппированных  данных                                          

(15)

средний квадрат отклонений от средней или дисперсия;                                        

(16)

среднее квадратическое отклонение от средней.

Для оценки влияния факторов, определяющих вариацию, используют прием группировки: совокупность разбивают на группы, выбрав в качестве группировочного признака один из определяющих факторов. Тогда наряду с общей дисперсией, рассчитанной по всей совокупности, вычисляют внутигрупповую дисперсию (или среднюю из групповых) и межгрупповую дисперсию (или дисперсию групповых средних).

Общая дисперсия  характеризует вариацию признака во всей совокупности, сложившуюся под влиянием всех факторов и условий.

Межгрупповая дисперсия  измеряет систематическую вариацию, обусловленную влиянием фактора, по которому произведена группировка:

 

 
  • — групповые средние, 
  • — численность единиц i-й группы

Внутригрупповая дисперсия оценивает вариацию признака, сложившуюся по влиянием других, неучитываемых в данном исследовании факторов и независящую от фактора группировки. Она определяется как средняя из групповых дисперсий.

 

 
  • — дисперсия i-ой группы.

Все три дисперсии () связаны между собой следующим равенством, которое известно как правило сложения дисперсий:

 

на  этом соотношении строятся показатели, оценивающие влияние признака группировки  на образование общей вариации. К  ним относятся эмпирический коэффициент  детерминации () и эмпирическое корреляционное отношение ()

Эмпирический коэффициент детерминации () характеризует долю межгрупоовой дисперсии в общей дисперсии:

 

и показывает насколько вариация признака в совокупности обусловлена фактором группировки.

Эмпирическое корреляционное отношение (!!\eta = \sqrt{ \frac{\delta^2}{\sigma^2} }

оценивает тесноту связи между изучаемым  и группировочным признаками. Предельными  значениями  являются нуль и единица. Чем ближе  к единице, тем теснее связь.


Эмпирический коэффициент детерминации:

 

показывает, что дисперсия стоимости 1.кв.м. общей  площади на рынке жилья на 81,8% объясняется различиями в расположении новостроек по отношению к деловому центру и на 18,2% — другими факторами.

Эмприческое корреляционное отношение  свидетельствует о существенном влиянии на стоимость жилья месторасположения домов.


Эмпирическое корреляционное отношение измеряет, какую часть общей колеблемости результативного признака вызывает изучаемый фактор. 

или 

 

 

  1. Понятие о корреляционной зависимости. Виды взаимосвязей

 

 корреляционная  зависимость — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин.[1] Математической мерой корреляции двух случайных величин служит корреляционное отношение [2], либо коэффициент корреляции  (или )[1]. В случае, если изменение одной случайной величины не ведёт к закономерному изменению другой случайной величины, но приводит к изменению другой статистической характеристики данной случайной величины, то подобная связь не считается корреляционной, хотя и является статистической[3].

Взаимосвязи, изучаемые в статистике, могут быть классифицированы по ряду признаков:

1)По  характеру зависимости: функциональные (жесткие),  корреляционные (вероятностные) 
Функциональные связи – это связи, при которых каждому значению факторного признака соответствует единственное значение результативного признака.

2)Стохастическая(вероятностная)-связь  между признаками при которой  каждому значению признака х  соответсвует множестро значений  признака у

корреляционная  связь-это связь при которой  определенному изменению факторного признака х соответсвует среднее изменение результативного признака у

23.Нахождение уравнения связи  (уравнения регрессии).

Регрессия (лат. regressio - обратное движение, переход  от более сложных форм развития к  менее сложным) - одно из основных понятий  в теории вероятности и математической статистике, выражающее зависимость среднего значения случайной величины от значений другой случайной величины или нескольких случайных величин. Это понятие введено Фрэнсисом Гальтоном в 1886. [9]

Теоретическая линия регрессии - это та линия, вокруг которой группируются точки корреляционного поля и которая указывает основное направление, основную тенденцию связи. [2, с.256]

Теоретическая линия регрессии должна отображать изменение средних величин результативного  признака «y» по мере изменения величин факторного признака «x» при условии полного взаимопогашения всех прочих – случайных по отношению к фактору «x» - причин. Следовательно, эта линия должна быть проведена так, чтобы сумма отклонений точек поля корреляции от соответствующих точек теоретической линии регрессии равнялась нулю, а сумма квадратов этих отклонений была ба минимальной величиной.

y=f(x) - уравнение регрессии - это формула  статистической связи между переменными.

1.     Линейная:  
 
2.     Гиперболическая: 
 
3.     Показательная: 
 
4.     Параболическая:  
 
5.     Степенная:  
 
6.     Логарифмическая: 
 
7.     Логистическая:     

 

 

24.Определение  параметров уравнения регрессии для различных форм связи.

 

Для нахождения параметров а и b уравнения регрессии используют метод наименьших квадратов. При применении метода наименьших квадратов для нахождения такой функции, которая наилучшим образом соответствует эмпирическим данным, считается, что сумка квадратов отклонений эмпирических точек от теоретической линии регрессии должна быть величиной минимальной. 
 
Критерий метода наименьших квадратов можно записать таким образом: 
 
 
 
или  
 
 
 
Следовательно, применение метода наименьших квадратов для определения параметров a и b прямой, наиболее соответствующей эмпирическим данным, сводится к задаче на экстремум. [2, c.258] 
 
Относительно оценок можно сделать следующие выводы: 
 
1.     Оценки метода наименьших квадратов являются функциями выборки, что позволяет их легко рассчитывать. 
 
2.     Оценки метода наименьших квадратов являются точечными оценками теоретических коэффициентов регрессии. 
 
3.     Эмпирическая прямая регрессии обязательно проходит через точку x, y. 
 
4.     Эмпирическое уравнение регрессии построено таким образом, что сумма отклонений . 

Информация о работе Шпаргалка по «Статистике»