Шпаргалки по "Теории вероятностей"

Автор работы: Пользователь скрыл имя, 05 Июня 2013 в 23:44, шпаргалка

Описание работы

№1. Предмет и основные понятия теории вероятностей. Алгебра событий.
Теория вероятностей изучает закономерности, возникающие в случайных экспериментах (явлениях). Случайным называют эксперимент, результат которого нельзя предсказать заранее. Невозможность предсказать заранее — основное, что отличает случайное явление от детерминированного.

Файлы: 1 файл

Shpora_po_Teoriii_Veroyatnostey.doc

— 1.22 Мб (Скачать файл)

 №1. Предмет и основные понятия теории вероятностей. Алгебра событий.

Теория вероятностей изучает закономерности, возникающие  в случайных экспериментах (явлениях). Случайным называют эксперимент, результат  которого нельзя предсказать заранее. Невозможность предсказать заранее — основное, что отличает случайное явление от детерминированного.

Основные понятия тв:

Математи́ческое ожида́ние — среднее  значение случайной величины.

Вероя́тность (вероятностная мера) — численная мера возможности  наступления некоторого события.

Случайная величина — это величина, которая принимает в результате опыта одно из множества значений, причём появление того или иного  значения этой величины до её измерения  нельзя точно предсказать.

Фу́нкция распределе́ния в теории вероятностей — функция, характеризующая распределение случайной величины или случайного вектора.

Диспе́рсия случа́йной величины́  — мера разброса данной случайной  величины, то есть её отклонения от математического  ожидания.

Зако́н больши́х чи́сел в теории вероятностей утверждает, что эмпирическое среднее (среднее арифметическое) достаточно большой конечной выборки из фиксированного распределения близко к теоретическому среднему (математическому ожиданию) этого распределения.

 

№2. Определения вероятности события

Аксиоматическое определение вероятности.

Вероятность события –  это численная мера объективной  возможности его появления.

Аксиомы вероятности:

  • Каждому событию А ставится в соответствие неотрицательное число р, которое называется вероятностью события А.  Р(А)=р ³ 0, где АÎ S, SÍW.
  • Р(W) = 1, где W - истинное (достоверное) событие.

Аксиоматический подход не указывает, как конкретно  находить вероятность.

Классическое  определение вероятности.

Пусть событие  А12, …, Аn Î S (*) образуют пространство элементарных событий, тогда событие из * которое приводит к наступлению А, называют благоприятствующими исходами для А. Вероятностью А называется отношение числа исходов благоприятствующих наступлению события А, к числу всех равновозможных элементарных исходов.

Свойства вероятности:

  1. 0 £ Р(А) £ 1,
  2. Р (W) =1,
  3. Р (`W) = 0.

Статическое определение вероятности.

Пусть проводится серия опытов (n раз), в результате которых наступает или не наступает некоторое событие А (m раз), тогда отношение m/n, при n®¥ называются статистической вероятностью события А.

Геометрическое  определение вероятности.

Геометрической вероятностью называется отношение меры области, благоприятствующей появлению события  А, к мере всей области.

№3.Комбинаторика

математический  раздел, изучающий вопросы о том, сколько различных комбинаций, подчиненных тем или иным условиям, можно составить из заданных объектов.

Комбинаторика

раздел математики, который изучает множества (перестановки, размещения, сочетания и перечисление элементов) и отношения на них.

 

№4. Основные теоремы теории вероятностей.

Теорема Чебышева

При достаточно большом числе независимых испытаний  с вероятностью, близкой к единицы, можно утверждать, что разность между средним арифметическим наблюдавшихся значений случайной величины и математическим ожиданием этой величины  по абсолютной величине окажется меньше сколь угодно малого числа при условии, что случайная величина  имеет конечную дисперсию, то есть

где — положительное число, близкое к единице.

 

 

Переходя в  фигурных скобках к противоположному событию, получаем

Теорема Бернулли

Теорема Бернулли устанавливает связь между относительной  частотой появления события и  его вероятностью.

При достаточно большом числе независимых испытаний  с вероятностью, близкой к единице, можно утверждать, что разность между относительной частой появления события  в этих испытаниях е го вероятностью в отдельном испытании по абсолютной величине окажется меньше сколь угодно малого числа , если вероятность наступления этого события в каждом испытании постоянна и равна .

 

№5.Формулы полной вероятности и гипотез

Пусть событие  А может наступать только одновременно с одним из попарно несовместных событий Н1, Н2, ..., Нn, образующих полную группу. Тогда вероятность события А определятся по формуле полной вероятности:

Р(А) = Р(Н1)*P(А/Н1) + Р(Н2)*Р(А/Н2) +...+ Р(Нn)*Р(А/Нn), или Р(А)=  Σ Р(Нi)*Р(А/Нi),

где события  Н12, ...,Нn, - гипотезы, a P(A/Hi) - условная вероятность наступления события А при наступлении i-ой гипотезы (i=1, 2,..., n).

Условная вероятность гипотезы Нi при условии того, что событие А произошло, определяется по формуле вероятности гипотез или формуле Байеса (она позволяет пересмотреть вероятности гипотез после наступления события А): Р(Нi/А)=(P(Hi)*P(A/Hi))/P(A).

 

№6.Повторные независимые испытания (формула Бернулли). Наивероятнейшее число наступления события в независимых испытаниях

Пусть некоторый опыт повторяется  в неизменных условиях n раз, причём каждый раз может либо наступить (успех), либо не наступить (неудача) некоторое событие А, где Р(А) = р - вероятность успеха, Р(А)=1-р= q - вероятность неудачи. Тогда вероятность того, что в к случаях из n произойдёт событие А вычисляется по формуле Бернулли

Pn(K) = Ckn-pk-qn-k.  
Условия, приводящие к формуле Бернулли, называются схемой повторных независимых испытаний или схемой Бернулли. Так как вероятности Рn(к) для раз личных значений к представляют собой слагаемые в разложении бинома Ньютона

(p+q)n=C0n*p0*qn+C1n*p1*qn-1+…+Ckn*pk*qn-k+…+Cnn*pn*q0, то распределение вероятностей Pn(k), где 0≤k≤n, называется биноминальным.

Если в каждом из независимых  испытаний вероятности наступления  события А разные, то вероятность  наступления события А   к  раз в   n опытах определяется как коэффициент, при к-ой степени полинома

φn(Z)=Π(qi+piZ)=anZn+an-1Zn-1+…+a1Z1+a0, где φn(Z) - производящая функция.

 Невероятнейшее число наступивших событий в схеме Бернулли - ко0 c К) определяется из следующего неравенства: np-q≤k0≤np+p.

№7. Локальная теорема Муавра-Лапласа

Если npq>10 , то где вероятность р отлична от 0 и 1 (р→0,5), х =(k-np)/√npq. Для облегчения вычислений функция представлена в виде таблицы (прил.1).

φ(х) - функция вероятности  нормального распределения (рис. 6) имеет следующие свойства:

1)    φ(х)-четная;

2) точки перегиба  х = ± 1;

3) при х≥5, φ(х)→0, поэтому функция φ(х) представлена в виде таблицы  для 0≤х≤5 (прил.1).

Рис.6. Функция вероятности нормального  распределения

 

№8.Интегральная теорема Муавра-Лапласа

При больших значениях n , для вычисления вероятности того, что произойдет от к1, до к2 событий по схеме Бернулли, используется интегральная формула Муавра-Лапласа Pn(k1≤k≤k2)=Ф(x2)- Ф(x1),

где x1=(k1-np) /(√npq), x2=(k2-np)/(√npq), Ф(x) – функция Лапласа. (рис.7)  Ф(х) имеет следующие свойства:

1. Ф(-х)= -Ф(х) - функция нечетная, поэтому достаточно изучать её для неотрицательных значений  х

2. Функция Ф(х) возрастает  на всей числовой оси;

Рис. 7. Функция Лапласа

3. При х≥5, Ф(х)→1/2 (y = 0,5 горизонтальная асимптота при х>0), поэтому функция представлена в виде таблицы Для 0≤х≤5 (прил.1).

4. Вероятность отклонения  относительной частоты от постоянной  вероятности в независимых испытаниях  не более чем на некоторое  число ε>0

№9.Пуассоновское приближение

Верна предельная теорема Пуассона: Пусть , таким образом, что , где -- заданное число. Тогда для любого фиксированного     

Другими словами, в описанном  предельном переходе биномиальные вероятности  аппроксимируются пуассоновским распределением.

№10.Случайные величины и их виды.

Случайной величиной (СВ) называют такую величину, которая в результате опыта может принимать те или иные значения, причем до опыта мы не можем сказать какое именно значение она примет. (Более точно, СВ - это действительная функция, определенная на пространстве элементарных событий Q). Случайные величины обозначаются последними буквами латинского алфавита - X,Y,Z. Случайные величины могут быть трех типов: - дискретные, - непрерывные, - смешанные (дискретно-непрерывные). Дискретная случайная величина (ДСВ) может принимать конечное или бесконечное счетное число значений.  Непрерывная случайная величина (НСВ) в отличие от ДСВ принимает бесконечное несчетное число значений. Например мишень имеет форму круга радиуса R. По этой мишени произвели выстрел с обязательным попаданием. Обозначим через Y расстояние от центра мишени до точки попадания, Ye [0; R]. Y - непрерывная случайная величина, так как она принимает бесконечное несчетное число значений.

Пусть X - дискретная случайная величина, которая принимает значения х1, х2, ...,хn,... с некоторой вероятностью рi, где i = 1, 2, ..., n,... Тогда можно говорить о вероятности того, что случайная величина X приняла значение хi: рi=Р(Х=хi).

ДСВ может также представляться в виде многоугольника распределения  – фигуры, состоящей из точек, соединенных отрезками. Над СВ устанавливаются операции сложения и умножения.

Суммой двух СВ X и Y наз-ся случайная величина, которая получается в рез-те сложения всех значений случайной величины X и всех значений СВ Y, соответствующие вероятности перемножаются. Произведением двух СВ X и Y наз-ся СВ, которая получается в рез-те перемножения всех значений СВ X и всех значений СВ Y, соответствующие вероятности перемножаются.

№11.Законы распределения вероятностей дискретной случайной величины

Законом распределения случайной дискретной величины (X) называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины (x1,x2,...xn) и соответствующими им вероятностями (p1,p2,... ,pn). При этом события (x1,x2,...xn) образуют полную группу (т.е. появление одного из них является достоверным событием), что означает    (1)

Про случайную  величину X в таком случае говорят, что она подчинена данному закону распределения.

Простейшей формой задания этого закона является таблица, в которой перечислены возможные значения случайной величины и соответствующие им вероятности:

Возможное начение X

X1

Х2

...

Хn

Вероятность

Р1

Р2

...

Рn


Такая таблица  называется таблицей распределения (вероятностей) случайной величины X.

№12.Основные законы распределения дискретных случайных величин

1. Биномиальный закон распределения. Случайная величина X принимает значения 0, 1, 2, 3, 4, 5,...,n,  с

вероятностью, определяемой по формуле Бернулли:

2. Закон распределения Пуассона. Случайная величина X принимает бесконечное счетное число значений: 0, 1, 2, 3, 4, 5,..., к,... , с вероятностью, определяющейся по формуле Пуассона: 

где Х>0 - параметр распределения Пуассона.

При n→∞ и р→0 биномиальный закон приближается к закону распределения Пуассона, где λ, = np.

3. Геометрический закон распределения. Пусть Р(А)=р - вероятность наступления события А в каждом опыте, соответственно, q=l-p - вероятность не наступления события А.

Вероятность наступления  события А в к-ом опыте определяется по формуле: P(X=k)=p-qk-1. (2.2.2.)

Случайная величина X, распределенная по геометрическому закону принимает значения 1, 2,...,к,... , с вероятностью, определяемой по формуле (2.2.2):

4. Гипергеометрический закон распределения. Пусть в урне N-шаров, из них М белых, а остальные (N - М) черные. Найдем вероятность того, что из извлеченных n шаров m белых и (n-m) черных.

N= М + (N-M); n = m + (n-m);

СmM - число способов выбора m белых шаров из М;

Сn-mN-M- число способов выбора (n-m) черных шаров из (N-M).

По правилу  произведения, число всех возможных наборов из m белых и (n-m) черных равно СmM Сn-mN-M;

CnN- общее число способов выбора из N шаров n.

Отсюда, по формуле  классического определения вероятности, P(A)= (СmM Сn-mN-M)/ CnN Ограничения на параметры: М≤N, m≤n; m = m0, m0 +1, m0+2,..., min(M,n), где m0=max{0, n-(N-M)}. Случайная величина Х, распределенная по гипергеометрическому закону распределения (при т=0,1,2,3,...,М), имеет вид:

Гипергеометрический закон определяется тремя параметрами N, М, n. При n<0,1N этот закон стремится к биномиальному.

Замечание.

1. В теории  вероятностей различают две основные  схемы: выбора элементов с возвращением  каждый раз обратно и выбора  без возвращения, которые описываются  соответственно биномиальным и  гипергеометрическим законами.

2. Геометрический закон описывает схему повторения опытов (в каждом из которых может наступить или не наступить событие А: Р(А)=р, q=l-p), до первого появления события А, то есть фактически это отрицательное биномиальное распределение при m=1.

№13.Математическое ожидание дискретной случайной величины и его свойства.

Математическим  ожиданием М(Х) ДСВ X называется среднее значение случайной величины:

Или иначе, М(Х) - это сумма парных произведений случайной величины на соответствующую вероятность:

Мода Мо(Х) распределения - это значение СВ, имеющее наиболее вероятное значение.

Медиана Ме(Х) - это значение случайной величины, которое делит таблицу распределения на две части таким образом, что вероятность попадания в одну из них равна 0,5. Медиана обычно не определяется для ДСВ.

Свойства  математического ожидания:

1) М(С)=С, где С=const;

2)М(СХ) = СМ(Х);

3) M(X±Y) = М(Х) ± M(Y);

4) Если случайные  величины X и Y, независимы, то M(XY) = M(X)*M(Y).

Для биномиального распределения  М(Х)=nр;

для геометрического распределения  М(Х)= 1/р;

для распределения Пуассона М(Х)=λ;

для гипергеометрического распределения  М(Х) = n(M/N).

№14.Дисперсия дискретной случайной величины и её свойства.

математическое  ожидание квадрата отклонения СВ от ее математического ожидания: D(X) = M(x-M(X)2) = =(х1-М(Х))2р1+(х2-М(Х))2р2+....+(xn-М(Х))2рn .(2.3.2)

Свойства  дисперсии:

1) D(С) = 0,  где С=соnst;

2) D(CX)=C2D(X);

3) D(X)=M(X2)-(M(X))2, где М(Х2) = х21 р1 + x22 p2 + ...+ х2n рn;

4) Если СВ X и Y независимы, то D(X±Y)=D(X) + D(Y);

5) D(OX)=D(X);

6) Для любых  СВ X и Y, D(X±Y)=D(X)+D(Y)±2cov(X,Y), где cov(X,Y)=M((X-mx)(Y-m )) - ковариация случайных величин X и Y (М(Х)= mx, M(Y)= m).

Дисперсия характеризует  средний квадрат отклонения ДСВ, поэтому на практике часто используют в качестве характеристики разброса среднее квадратическое отклонение σ(Х)= √D(X) , которое имеет ту же размерность, что и СВ X.

Для биноминального закона D(X)=npq, σ(X)=√npq;

для геометрического  закона D(X)= q/p2;

для гипергеометрического D(X)=n(M/N)(1-M/N)(N-n)/(N-1);

для распределения Пуассона D(X)=λ.

Только для  распределения Пуассона M(X)=D(X)= λ.

 

№15.Производящие функции дискретных случайных величин.

Производящей  функцией распределения p k = P( X = k ) дискретной

случайной величины X, принимающей неотрицательные целочисленные

значения k = 0, 1, 2, K , называется ряд

                       ∞

      X * ( z) = ∑ z k pk   z ≤ 1.  (2.4)

                    k =0

     Распределение  вероятностей          однозначно   определяется    своей

производящей  функцией:

Раздел 2. Элементы теории вероятностей

          1 *( k )         (k )               dk *

       pk =  X     (0), X * (0) =      X ( z)      (k = 0, 1, 2, ...).

                 k!          dz k             z =0

     На  основе производящей функции  (2.4) могут быть вычислены

начальные и центральные моменты случайной величины, в частности

математическое  ожидание и дисперсия определяются как

                      (1)                 ( 2)         (1)       (1)

       M[ X ] = X * (1); D[ X ] = X * (1) + X * (1) − [ X * (1)]2 .             (2.5)

     Производящая  функция                      X * ( z) суммы X = X1 + X 2 + K X n

независимых случайных  величин равна произведению производящих

функций слагаемых:

      X * ( z) = X 1 ( z) X 2 ( z)K X n ( z) .

№16.Вероятностный анализ алгоритмов.

Произ-ть алгоритма  можно оценивать по порядку величины n и размерности исход. данных. Алгоритм имеет сложность порядка , чем с увелич. размерности алг. время выполнения алгоритма расст. пропорц. ф-ции f(N).

Замечание: символ 0 ввел Брахман (1894) для того, чтобы «≈» заменить на «=»

1)Ф-ла Стирлинга:  , 0 позволяет утв-ть, что разница между л. и п.ч. ф-лы точно не опред-ны на какой бы она не была, обозн. позволяет утв-ть, что она не превосх. const

               ∞

2)    - пост. Эйлера

              n=1

напр:

for I=1,to N

for Y=1±d(w) next r   next I…

3)работают с  достат. скоростью

F(N)=

F(N)=

F(N)=NC

F(N)=N

F(N)=

4)пригодны для расчета  задач с небольшими знач. N    F(N)= , f(N)=N!

№17.Одинаково распределенные взаимо-независимые случайные величины.

СВ называют одинаково распределенными, если они имеют одинаковые законы распределения. Поэтому у них совпадают числовые характеристики: математическое ожидание, дисперсия, среднее квадратическое отклонение.

Пусть X1, Х2,..., Хn одинаково распределенные, взаимонезависимые ДСВ, тогда: M(X1) = М(Х2) = ... = М(Хn) = М(Х), D(X1) = D(X2) = ...= D(Xn)=D(X).

Рассмотрим  характеристики их средней арифметической X = (X1+X2+…+Xn)/n:

-стандартное отклонение СВ X.

Дисперсия относительной  частоты (m/n) появления события А в n независимых испытаниях (в каждом из которых событие А появляется с вероятностью равной р, и не появляется с вероятностью q= 1-р; m-число появлений события А в серии из n испытаний), определяется по формуле

 

№18. Интегральные функции распределения вероятностей и её свойства. Дифференциальные функции распределения вероятностей и её свойства.

Для непрерывной случайной  величины X вероятность Р(Х= xi)→0, поэтому для НСВ удобнее использовать вероятность того, что СВ Х<хi, где хi- текущее значение переменной. Эта вероятность называется интегральной функцией распределения: P(X<xi)=F(x).

Интегральная функция  является универсальным способом задания СВ (как для ДСВ, так и для НСВ).

Свойства   интегральной функции распределения:

1) F(x) не убывает (если х2>x1, то F(x2)≥Р(х1));

2). F(-∞)=0;

3). F(+∞)=1;

4) вероятность попадания  СВ X в интервал а<Х<b определяется по формуле P(a≤X<b)=F(b)-F(a).

Замечание. Обычно для определённости левую границу включают в интервал, а правую нет. Вообще для НСВ верно, что Р(а≤Х<b)= Р(а <Х≤b) =Р(а<Х < b)= Р(а≤X≤b).

Дифференциальная функция  распределения (плотность вероятности)

СВ X непрерывна, если ее интегральная функция непрерывна на всей числовой оси. СВ X непрерывна и имеет дифференциальную функцию, если ее интегральная функция непрерывна и дифференцируема всюду, за исключением конечного числа точек на любом конечном промежутке.

Дифференциальной функцией (функцией плотности вероятности) СВ X называется производная ее функции распределения: f(x)=F'(x).

С помощью дифференциальной функции можно получить формулу  вероятности попадания СВ X в заданный интервал:  Свойства:     

1) ;     

2) ;     

3) ;     

4) .

 

№19.Числовые характеристики непрерывных случайных величин. 
1) Математическое ожидание НСВ X определяется по формуле М(Х)= ∫xf(x)dx.

Если НСВ X определена на интервале (а; b), то М(Х)= ∫xf(x)dx. 
2) Мода НСВ X будет определяться как максимум ее дифференциальной функции: Мо(Х) = max f (x).

3) Медиана определяется  как значение случайной величины, которое делит площадь под  дифференциальной функцией на  две равные части. Me(X): P(x<Me(X))=P(x>Me(X))=1/2.

4). Дисперсия НВС

Все св-ва дисперсии и мат-го ожидания, установленные для ДСВ, сохраняется для НСВ.

Замечание. Если распределение симметрично, то его мода, медиана и математическое ожидание совпадают.

5). Моменты случайных  величин.

Кроме характеристик  положения и рассеяния существует ряд других числовых характеристик распределения, например, моменты.

Начальным моментом порядка s называется математическое ожидание степени s CB X: αs=M(Xs).  Для ДСВ:

При s=l:α1, = M(X) = mx, то есть, первый начальный момент - это математическое ожидание СВ.

Отклонение СВ от ее математического  ожидания называется центрированной СВ X: X = Х-mх.

Центральным моментом порядка s СВ X называется математическое ожидание степени s, соответствующей центрированной СВ: μs=μ(Xs)=M((x-M(X))s).

При вычислении центральных  моментов пользуются формулами связи между центральными и начальными моментами:

μ1=0,

μ22-m2x,

μ33-3mxα2+2m3x,

μ44-4mxα3+6m2xα2-3m4x.

Обычно рассматривают  первые четыре центральных момента:

1). μ1=M(x-mx)=0 – мат-ое ожидание центрированной СВ равно нулю;

2). μ2= M(x-mx)2=D(X) – второй центральный момент – это дисперсия;

3). μ3= M(x-mx)3- третий центральный момент может служить для характеристики асимметрии, обычно рассматривают безразмерный коэффициент асимметрии Sk=μ33.

4). Четвёртый центральный  момент μ4=M(x-mx)4, может служить для характеристики «крутости» или островершинности распределения, описывающиеся с помощью эксцесса: Ex=(μ44)-3.

Основным моментом порядка s называется нормированный центральный момент порядка s: rs= μss, то есть Sk=r3, Ex=r4-3.

№20.Равномерное распределение.

Непрерывная случайная  величина имеет  равномерное   распределение  на отрезке [a, b], если на этом отрезке плотность распределения случайной величины постоянна, а вне его равна нулю.

Постоянная величина С может быть определена из условия равенства единице площади, ограниченной кривой распределения.

Плотность вероятности        Получаем   

Найдем функцию  распределения F(x) на отрезке [a,b].

 

  

 

Функция распределения

 

№21.Показательное распределение.

Показательным  (экспоненциальным) называется  распределение  вероятностей непрерывной случайной величины Х, которое описывается плотностью

где l - положительное число.

Найдем закон  распределения.

 

Графики функции  распределения и плотности распределения:

 Плотность вероятности 

Функция распределения

№22.Нормальное распределение. Вероятность заданного отклонения. Правило 3 сигм

Нормальное распределение, также называемое гауссовским распределением или распределением Гаусса — распределение вероятностей, которое задается функцией плотности распределения:

где параметр μ — среднее значение (математическое ожидание) случайной величины и указывает координату максимума кривой плотности распределения, а σ² — дисперсия.

зависит от двух параметров — смещения и масштаба, то есть является с математической точки зрения не одним  распределением , а целым их семейством. Значения параметров соответствуют значениям среднего (математического ожидания) и разброса (стандартного отклонения).

Стандартным  нормальным   распределением  называется  нормальное   распределение  с математическим ожиданием 0 и стандартным отклонением 1.

Свойства

Если случайные  величины X1 и X2 независимы и имеют  нормальное   распределение  с математическими ожиданиями μ1 и μ2 и дисперсиями и соответственно, то X1 + X2 также имеет  нормальное   распределение  с математическим ожиданием μ1 + μ2 и дисперсией

Плотность вероятности 
Зеленая линия соответствует стандартному  нормальному   распределению  Функция  распределения 

Вероятность заданного отклонения. Правило трех сигм.

Найдем вероятность того, что случайная величина X, распределённая по нормальному закону, отклонится от математического ожидания М(Х)=а не более чем на величину ε>0.

Р(|х-а|<ε)= Р(-ε< х-а<+ε) = Р(а-ε<х< а+е) =Ф*((a+ε-a)/σ)-Ф*((a-ε-a)/σ)=Ф*(ε/σ)-(1-Ф* (ε/σ))=2Ф* (ε/σ)-1.

Или, используя  функцию Лапласа:

P(|X-a|<ε)=2Ф(ε/σ).

Найдём вероятность  того, что нормально распределённая СВ X отклонится от M(X)=a на σ, 2σ, 3σ:

Отсюда следует правило Зσ. если случайная величина X имеет нормальное распределение, то отклонение этой случайной величины от ее математического ожидания по абсолютной величине не превышает утроенное среднее квадратическое отклонение (Зσ).

№23.Понятие многомерной случайной величины и способы её заданияна примере двумерной дискретной величины

Пусть имеется пространство элементарных событий U, на нем построено  поле событий и для каждого  события А из этого поля определена вероятность Р(А). Каждому элементарному  событию gi из U сопоставим несколько чисел: ξ i1 , ξ i2 , ξ i3 , ... ξ ik  или вектор ξi. Потребуем, чтобы для любых хj ( -∞ < х<+∞ ) , j = 1, 2 ... k , множество А тех g , для которых ξ < хj ( j = 1, 2, ... k) , принадлежало полю событий, т.е. для него определена вероятность Р{ ξ < x,  ξ < x, ...  ξ < x} = P(A) = F( x1, x2,  ... x). Тогда ξ называется многомерной случайной величиной, или случайным вектором, а F( x1, x2,  ... x) ее функцией распределения.

Многомерные случайные величины могут быть дискретными, т.е. каждая компонента случайного вектора может принимать только конечное или счетное множество определенных значений. 
Например, рассмотрим эксперимент по бросанию одновременно двух костей, с каждым элементарным событием свяжем два числа ( z1, z), где z- число очков на первой кости, z- сумма очков на двух костях. Тогда ( z1, z) - двумерная случайная величина, поскольку известна вероятность р( хi, х) пересечения событий, состоящих в том, что z1 примет значение хi, а z- х. Для дискретных случайных величин закон распределения задается вероятностями всевозможных комбинаций их значений. Для двумерной величины при небольшом числе возможных значений это удобно представить в виде таблицы, где на пересечении столбца z1 и строки z2 стоит вероятность р( z1, z)

№24.Интегральная функция многомерной случайной величины. Вероятность попадания двумерной СВ в полуполосу и прямоугольник

Для непрерывной случайной  величины X вероятность Р(Х= xi)→0, поэтому для НСВ удобнее использовать вероятность того, что СВ Х<хi, где хi- текущее значение переменной. Эта вероятность называется интегральной функцией распределения: P(X<xi)=F(x).

Интегральная функция  является универсальным способом задания СВ (как для ДСВ, так и для НСВ).

Свойства   интегральной функции распределения:

1) F(x) не убывает (если х2>x1, то F(x2)≥Р(х1));

2). F(-∞)=0;

3). F(+∞)=1;

4) вероятность попадания  СВ X в интервал а<Х<b определяется по формуле P(a≤X<b)=F(b)-F(a).

Замечание. Обычно для определённости левую границу включают в интервал, а правую нет. Вообще для НСВ верно, что Р(а≤Х<b)= Р(а <Х≤b) =Р(а<Х < b)= Р(а≤X≤b).

Используя функцию распределения  системы случайных величин   и  , легко найти вероятность того, что в результате испытания случайная точка попадает в полуполосу  и (рисунок 2а) или в полуполосу  и

 

а)                                             б)

Вычитая из вероятности попадания случайной точки в квадрант с вершиной  вероятность попадания точки в квадрант с вершиной  (рисунок 2а), получим

Аналогично имеем

Таким образом, вероятность попадания случайной точки в полуполосу равна приращению функции распределения по одному из аргументов.

Рассмотрим прямоугольник  со сторонами параллельными осям. Пусть уравнения сторон таковы:

Найдем вероятность попадания случайной точки  в этот прямоугольник.  Искомую вероятность можно найти, например, так: из вероятности попадания случайной точки в полуполосу  с вертикальной штриховкой (эта вероятность равна ) вычесть  вероятность попадания точки в полуполосу  с горизонтальной штриховкой (эта вероятность равна ):   (*)

 

№25. Независимость случайных величин и их числовые характеристики. Коэффициент корреляции и его свойства

Дискретная случайная  величина - это случайная величина, принимающая значения из конечного или счётного множества. Закон распределения дискретной случайной величины задаётся чаще всего не функцией распределения, а рядом распределения, т. е. таблицей

, в которой  - расположенные по возрастанию значения дискретной случайной величины , а - отвечающие этим значениям вероятности. Число столбцов в этой таблице может быть конечным (если соответствующая случайная величина принимает конечное число значений) или бесконечным.

Наиболее употребительной   числовой   характеристикой  центра группирования значений  случайной   величины  является математическое ожидание. Математическим ожиданием дискретной случайной величины называется число , равное средневзвешенному значению  случайной   величины  с весами-вероятностями.

Свойства:

; (3.12)

; (3.13)

; (3.14)

для независимых  случайных   величин   и  . (3.15)

Дисперсией случайной величины называется число ,

равное математическому  ожиданию квадрата отклонения случайной  величины от своего математического  ожидания.

Свойства: ; (3.20)   ; (3.21)

для независимых  случайных   величин   и  . (3.22)

Коэффициентом корреляции rxy  случайных   величин  Х  и  Y называется отношение корреляционного момента к произведению средних квадратических отклонений этих величин.   

Коэффициент корреляции является безразмерной величиной. Коэффициент  корреляции независимых случайных  величин равен нулю. 

Свойство: Абсолютная величина корреляционного момента двух случайных величин Х и Y не превышает среднего геометрического  их  дисперсий.

 Свойство: Абсолютная величина коэффициента корреляции не превышает единицы.  

Случайные величины называются коррелированными, если их корреляционный момент отличен от нуля, и некоррелированными, если их корреляционный момент равен нулю.

№26.Закон распределения случайных величин.

Соотношение между  возможными значениями случайной величины и их вероятностями называется законом распределения дискретной случайной величины.

Закон распределения  может быть задан аналитически, в  виде таблицы или графически.

Таблица соответствия значений случайной величины и их вероятностей называется рядом распределения.

Графическое представление этой таблицы называется многоугольником распределения.  При этом сумма все ординат многоугольника распределения представляет собой вероятность всех возможных значений случайной величины, а, следовательно, равна единице.

№27.Композиция распределения

Композиция законов  распределения представляет собой  определение законов распределения F(z) случайной величины z, являющейся суммой двух независимых случайных  величин x и y, законы распределения  которых известны: (x) и f( ) В общем случае, если z = x + y и числовые характеристики известны, то

M(z)=M(x)+M(y), z2 = x2 + y2

Закон распределения  величины z = x + y выражается равенством

где f(z-x)=f(y) законы распределения величин x и y. В различной  литературе рассмотрены случаи композиции наиболее распространенных в технике законов распределения случайных и независимых величин - законов равной вероятности, равнобедренного треугольника,нормального распределения и других и их возможных сочетаний. В метрологических работахвстречаются случаи композиции произвольного закона распределения случайнойнезависимой величины с нормальным законом распределения другой случайной и независимой величины.

 

№28.Распределение хи-квадрат Пирсона, t – Стьюдента и F - Фишера

Распределение χ2 (хи-квадрат) с k степенями свободы — это распределение суммы квадратов k независимых стандартных нормальных случайных величин.

Пусть — совместно независимые стандартные нормальные случайные величины, то есть: . Тогда случайная величина

имеет распределение  хи-квадрат с k степенями свободы, обозначаемое .

Замечание. Распределение хи-квадрат является частным случаем Гамма распределения:

.

Следовательно, плотность распределения хи-квадрат имеет вид

,

а его функция распределения

,

где и обозначают соответственно полную и неполную гамма-функции.

 t- распределение Стъюдента.

Пусть X, X,, X2,...,Xk независимые нормально распределённые случайные величины с нулевыми математическими ожиданиями и одинаковыми дисперсиями. Безразмерная величина

 

называется дробью Стьюдента.

Ее распределение не зависит от а в силу ее безразмерности. Дифференциальная функция t-распределения с v=k степенями свободы имеет вид

t - распределение Стьюдента быстрее, чем х2 стремится к нормальному.

 

F-распределение Фишера-Снедекора

Пусть Х1, X2, ...,Xm и Y1, Y2, ...,Yn одинаково распределенные по нормальному закону случайные величины, являющиеся взаимно-независимыми, для которых математическое ожидание равно нулю, а среднеквадратическое отклонение равно единице.

Рассмотрим дробь Фишера F(m,n)=(χ2m/m)/(χ2n/n), она имеет F - распределение с v1= m - числом степеней свободы числителя, и v2=n - числом степеней свободы знаменателя ((m, n) степенями свободы), которое называется распределением Фишера-Снедекора.

 

№29.Сущности закона больших чисел.

Сущность закона больших чисел состоит в том, что при большом числе независимых опытов частота появления какого-то события близка к его вероятности. Под законом больших чисел в теории вероятностей понимают совокупность теорем, в которых утверждается, что существует связь между средним арифметическим достаточно большого числа случайных величин и средним арифметическим их математических ожиданий.

В1927 г. Гейзенберг открыл принцип неопределенности, который утверждает, что измерительное познание ограничено. Неопределенность является неотъемлемой частью нашей жизни, однако, при большом числе однотипных опытов можно установить определенные закономерности.

 

№30. Неравенство Чебышева. Теорема Чебышева.

Неравенство Чебышёва (неравенство Бьенеме—Чебышева) в теории вероятностей — неравенство, дающее оценку вероятности отклонений значений случайной величины от её математического ожидания через её дисперсию.

Формулировка

Для случайной величины ξ = ξ(ω) с конечными математическим ожиданием Eξ и дисперсией Dξ неравенство Чебышёва имеет вид: для любого вероятность события 

не превосходит , или

В таком виде неравенство было независимым образом  открыто И.Бьенеме (I.Bienayme) (1853) и П.Л.Чебьшёвым (1867),используется при отсеве грубых погрешностей. В современной литературе это неравенство чаще называют неравенством Чебышёва, возможно и потому, что с именем П.Л.Чебышёва связано использование его при доказательстве обобщения закона больших чисел (теоремы Чебышёва).

Постулат Бертрана, теорема Бертрана — Чебышева или  теорема Чебышева гласит, что

Для любого натурального n ≥ 2 найдётся простое число p в интервале n < p < 2n.

 

№31.Характеристическая функция. Понятие о центрально предельной теореме.

Пусть есть случайная величина X с распределением . Тогда характеристическая функция задаётся формулой: .

Пользуясь формулами  для вычисления математического ожидания, определение характеристической функции можно переписать в виде: ,

то есть характеристическая функция — это обратное преобразование Фурье распределения случайной величины.

Если случайная  величина X принимает значения в произвольном гильбертовом пространстве , то её характеристическая функция имеет вид: ,

где обозначает скалярное произведение в .

Центральная предельная теорема. Если случайная величина X представляет, собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то X имеет распределение, близкое к нормальному распределению.

Теорема 1. Пусть производится n независимых опытов в каждом из которых вероятность наступления события А равна р (не наступления q=l-p, p≠0, р≠1). Если К - число появлений события А в серии из n испытаний, то при достаточно больших n СВ К можно считать нормально распределенной (М(К)=nр, σ(К)=√D(K)= √npq).

   ,Ф(x0) – функция Лапласа.

В более общем  случае верна следующая теорема.

Теорема 2. Если случайные величины X1, Х2... Хn независимы, одинаково распределены и имеют конечную дисперсию, то при n→∞:

где М(Х)=а, σ2=D(Х); U - нормально распределенная случайная величина, M(U)=0,D(U)=1

№32. Цепи Маркова. Понятия о случайных процессах.

Це́пь Ма́ркова — последовательность случайных событий с конечным или счётным числом исходов, характеризующаяся тем свойством, что, говоря нестрого, при фиксированном настоящем будущее независимо от прошлого. Последовательность дискретных случайных величин называется простой цепью Маркова (с дискретным временем), если

Таким образом, в простейшем случае условное распределение  последующего состояния цепи Маркова  зависит только от текущего состояния  и не зависит от всех предыдущих состояний (в отличие от цепей Маркова высших порядков).

Область значений случайных величин  называется простра́нством состоя́ний цепи, а номер  — номером шага.

Случа́йный  проце́сс (случайная функция) в теории вероятностей — семейство случайных величин, индексированных некоторым параметром, чаще всего играющим роль времени или координаты.

Пусть дано вероятностное пространство . Параметризованное семейство случайных величин

,

где T произвольное множество, называется случайной функцией

 

№33.Приложения теории вероятностей в компьютерных науках

Анализ научных  исследований позволил выделить три  основных мотива использования компьютерных технологий в вузовском курсе стохастики, а именно:

1. компьютерные  методы в последнее время все  шире используются в теории вероятностей и математической статистике;

2. применение компьютерных технологий в курсе стохастики повышает качество усвоения учебного материала;

3. использование компьютерных технологий в курсе стохастики содействует использованию компьютерных средств в будущей деятельности специалиста.

Использование компьютерных технологий в обучении стохастике позволяет раскрыть статистическую природу понятий и фактов теории вероятностей, что имеет не только методологическое, но и методическое значение. На практике часто возникает необходимость получать и обрабатывать большие массивы случайной информации. Задача упорядочивания результатов измерений решается гораздо быстрее с помощью компьютера. Кроме того, возможности отображения и анализа графической и табличной интерпретации результатов анализа экспериментов при использовании ЭВМ несопоставимо выше, чем вручную. С помощью компьютерных статистических экспериментов в ряде случаев можно моделировать описываемые в задачах ситуации и сравнивать результаты, получаемые в эксперименте с теоретическими расчетами. Используя компьютерное моделирование, можно многие факты теории вероятностей сделать статистически наглядными.

№34. Предмет и основные задачи математической статистики

Предмет статистики - количественная сторона массовых общественных явлений в постоянной связи с их содержанием или  количественной стороной, а также  количественное выражение закономерностей общественного развития в конкретных условиях места  и  времени. Он  исследуется при помощи определённых понятий, таких как:

статистическая  совокупность (т.е. совокупность объектов или явлений общественной жизни, объединённых общей связью),

единица совокупности (т.е. первичный элемент статистической совокупности, являющимся носителем признаков, подлежащих регистрации,  и  основой ведущегося при обследовании счёта),

признак (общие  признаки обязательно должны присутствовать среди исследуемых объектов, для того, чтобы можно было выделить статистическую совокупность или даже несколько рядов статистической совокупности для этих объектов),

статистический  показатель,

система статистических показателей.

Задачи:

Определение состава  статистической совокупности, отграничение элементов разных совокупностей, достигаемое совместно с другими науками, - одна из наиболее важных  задач  статистики.

1) организация наблюдений

2) нахождение по результатам выбороч. наблюд. оценок числ. хар-ик всех сов-ей

3) реш. вопросов согласов.  рез-ов оценив. с опытными данными

4) оценка сущ-ти  влияния факторов признаков на  результативные

5) выявление  аналит. завис-ти между наблюд. факторов  и результатив. признаков.

 

№35. Определение и виды вариационных рядов. Графическое изображение

Вариационный  ряд – это ряд числовых значений какого-либо признака. Например: это  ряд величин

1. веса

2. роста

3. сроков госпитализации

4. числа обслуживаемого  населения…

Виды вариационных рядов:

а) Неупорядоченный (ряд чисел, расположенных  без какой-либо системы. Например: измеряем рост детей и сразу пишем его числовые значения: 150, 154, 147, 150…)

б) ранжированный (ряд чисел, расположенных в порядке  возрастания: 8, 9, 9, 9, 10, 15, 17…)

в) сгруппированный (ряд чисел, сгруппированных с  определённым интервалом)

Полигон (греч. – «многоугольник») - применяется для изображения как дискретных, так и интервальных рядов (если предварительно привести его к дискретному).

При этом по оси  абсцисс откладываются варианты, а по оси ординат – частоты  или частости

Таблица 1. Распределение рабочих по числу обслуживаемых станков

 

Гистограмма - применяется для изображения только интервальных вариационных рядов. При этом по оси абсцисс откладываются интервалы, а по оси ординат – частоты или частости в случае равенства интервалов, или плотности распределения в случае неравенства интервалов

Таблица 2. Распределение рабочих по выработке


 

№36. Средняя арифметическая ряда распределения и её свойства

Виды средних  величин

Мо – мода - величина признака, чаще других встречающаяся  в совокупности.

Ме – медиана - величина, занимающая в ранжированном  вариационном ряду срединное положение.

Средняя арифметическая М

а) простая –  вычисляется, когда варианты встречаются  с частотой р = 1, и в совокупности где  n ≤ 30

б) взвешенная –  вычисляется, если варианты встречаются  с неодинаковой частотой, т.е. р ≠ 1. , и в совокупности где n > 30

в) средняя арифметическая определяется также по способу моментов. Чаще в том случае, если число  наблюдений очень велико (сотни, тысячи)

Где: А – условная средняя (чаще берем за А моду или  медиану).

а – отклонение от А (условной средней) каждой варианты [a = V - A]

р – частота  встречаемости каждой варианты

n – число наблюдений

i – интервал (при n < 30  =>  i = 1)    

- среднее отклонение всех  вариант от условной средней

Средняя арифметическая - такое значение признака, которое имело бы каждая единица совокупности, если бы общий итог всех значений признака был распределен равномерно между всеми единицами совокупности.

Средняя арифметическая обладает некоторыми свойствами, которые

определяют ее широкое применение в экономических расчетах и в практике

статистического исследования.

Свойство 1. Средняя  арифметическая постоянной величины равна

этой постоянной А = А при А const.

Свойство 2. (нулевое) Алгебраическая сумма линейных отклонений

(разностей) индивидуальных  значений признака от средней арифметической равна                                                                                     

нулю: для первичного ряда и  
для сгруппированных данных (di — линейное

(индивидуальные) отклонения от средней, т.е. ).

Свойство 3 (минимальное). Сумма квадратов отклонений индивидуальных значений                                                                                                               

признака от средней арифметической есть число минимальное: =min или                                                        

Минимальное и  нулевое свойства средней арифметической

применяются для  проверки правильности расчета среднего уровня признака;

при изучении закономерностей уровня ряда динамики;

для нахождения параметров уравнения регрессии  при изучении корреляционной связи  между

признаками.

№37. Дисперсия ряда распределения и её свойства

 

Пок-ли вариаций 

1)

2)

3) дисперсия пропорц. кв. наим. пок-ля

Свойства:

1.Дисперсия пост.=0

2.Если все  рез-ты наблюд.

3. ; ;

4.Если все  частоты вар-ов х умнож. на  одно и тоже число, то дисперсии  ср. кв. откл. не изм.

5. ;

6.Теорема слож. дисперсий

Если неск. распр-ий объед. в одно, то общая дисперсия  получит новое распр-ие = ср. арифм. диспер., соед. распр-ий, слож. диспер. частных  свед. возле общих свед. нового распр-ия.

Для i-го ур. ряда - ср.арифм.

                                    

общее  
дисперсия  

ср.кв.  

Общий вид 

Сумма по i   

№38. Моменты ряда распределения и связь между ними. Асимметрия и эксцесс ряда распределения

Существуют три вида моментов ряда распределения.

1. Простые или начальные моменты представляют собой сумму отклонения средних значений разрядов гистограммы от некоторой произвольной точки Xа взятой в h-ой степени и умножения на соответствующую относительную частоту

. (1.9)

Если Xа = 0 и при этом h = 1, то  (1.10)  является средним арифметическим выборки.

2. Центральные моменты, которые отличаются от начальных только обязательным равенством Xа = , то есть

. (1.11)

Первый центральный  момент m1= 0. Второй центральный момент m2 называется эмпирической (выборочной) дисперсией распределения и часто обозначается S2. Отсюда можно вычислить среднеквадратическое отклонение S = .

3. Основные моменты представляют собой отношение центральных моментов к среднеквадратичному отклонению в соответствующей степени

. (1.12)

Третий основной момент служит  асимметрией кривой распределения относительно центра (1.13)

Кривая распределения  может обладать положительной ( >0) и отрицательной ( <0) асимметрией и асимметрией равной нулю ( =0). В последнем случае говорят, что кривая распределения симметрична.

Выражение

(1.14)

служит  эксцессом выборочного распределения относительно кривой нормального распределения. Пределами существования меры крутости является -2 < < + . При >0 кривая распределения более круто уходит вверх, чем нормальное распределение, и является островершинной. При < 0 кривая является плосковершинной, переходящей в двувершинную (т.е. может быть вдавлена в середине). Равенство = -2 указывает, что двувершинная кривая распределения распадается на две отдельные кривые.

№39. Сущность выборочного метода. Статистические оценки выборочной совокупности и их свойства

В реальных условиях обычно бывает трудно или экономически нецелесообразно, а иногда и невозможно, исследовать всю совокупность, характеризующую изучаемый признак (генеральную совокупность). Поэтому на практике широко применяется выборочное наблюдение, когда обрабатывается часть генеральной совокупности (выборочная совокупность). Свойства (закон распределения и его параметры) генеральной совокупности неизвестны, поэтому возникает задача их оценки по выборке. Для получения хороших оценок характеристик генеральной совокупности необходимо, чтобы выборка была репрезентативной (представительной).

Различают 5 основных типов выборок. 1).Собственно-случайная: а) повторная (элементы после выбора возвращаются обратно); б) бесповторная (выбранные элементы не возвращаются).

2). Типическая - генеральная совокупность предварительно разбивается на группы типических элементов, и выборка осуществляется из каждой. Следует различать: а) равномерные выборки (при равенстве объемов исходных групп в генеральной совокупности выбирается одинаковое количество элементов из каждой); б) пропорциональные (численность выборок формируют пропорционально численностям или средним квадратическим отклонениям групп генеральной совокупности); в) комбинированные (численность выборок пропорциональна и средним квадратическим отклонениям, и численностям групп генеральной совокупности).

3) механическая отбор элементов проводится через определенный интервал.

4).Серийная - отбор проводится не по одному элементу, а сериями для проведения сплошного обследования.

5). Комбинированная - используются различные комбинации вышеуказанных методов, например, типическая выборка сочетается с механической и собственно случайной.

После осуществления выборки возникает задача оценки числовых характеристик генеральной совокупности по элементам выборочной совокупности. Различают точечные и интервальные оценки

Точечная оценка характеристики генеральной совокупности – это число, определяемое по выборке.

Пусть q=qn выборочная характеристика, вычисленная по результатам n наблюдений величины Х, используемая в качестве оценки q - характеристики генеральной совокупности (в качестве q может быть М(Х), D(Х) и т.д.).

Качество оценки q устанавливается по трем свойствам:

  1. Состоятельность. Оценка qn является состоятельной оценкой генеральной характеристики q , если для любого e > 0 выполняется следующее равенство

Это означает, что  при увеличении объема выборки n выборочная характеристика стремится к соответствующей характеристике генеральной совокупности (qn ® q).

  1. Несмещенность. Оценка qn генеральной характеристики q называется несмещенной, если для любого фиксированного числа наблюдений n выполняется равенство                   M (qn)  = q.
  2. Эффективность. Несмещенная оценка qn генеральной характеристики q называется несмещенной эффективной, если среди всех подобных оценок той же характеристики она имеет наименьшую дисперсию: D(qn)® min.

Можно сказать, что статистики `х, рi являются состоятельными, несмещенными и  эффективными характеристиками  математического ожидания М(х) и вероятности р соответственно.

Выборочная дисперсия  не обладает свойством несмещенности. На практике используют исправленную выборочную дисперсию, которая является несмещенной оценкой дисперсии  генеральной совокупности:

 S – стандартное отклонение.

Кроме того, в  расчетах используют стандартную ошибку выборки:

№40. Определение доверительного интервала для средней и доли при случайном и типичном отборе. Определение необходимой численности выборки

Где:

1) t— квантиль распределения соответствующий уровню значимости α:

а) при n ≥ 30 t= - квантиль нормального закона распре деления,

б) при n<30t - квантиль распределения Стьюдента с v=n-1 степенями свободы для двусторонней области;

2) - выборочная дисперсия:

а) при n ≥ 30 можно считать, что

б) при n<30 вместо берут исправленную выборочную дисперсию S2 далее везде рассматривается исправленная выборочная дисперсия S2;

З) рq — дисперсия относительной частоты в схеме повторных независимых испытаний;

4) N — объем генеральной совокупности;

5) n — объем выборки;

6) — средняя арифметическая групповых дисперсий (внутригрупповая дисперсия);

7) — средняя арифметическая дисперсий групповых долей,

8) — межсерийная дисперсия,

9) pqм.с. — межсерийная дисперсия доли;

10) Nc — число серий в генеральной совокупности;

11) nc — число отобранных серий (объем выборки);

12) ∆ — предельная  ошибка выборки

Из формулы предельной ошибки выборки для повторного отбора получают необходимую численность выборки, предварительно возведя в квадрат обе части равенства:

1. Для средней количественного  признака: численность выборки для  повторного отбора

2. Для доли (альтернативного  признака): численность выборки для  повторного отбора альтернативного  признака

Аналогично из формулы  предельной ошибки выборки для бесповторного отбора определяем: 
1. Для средней количественного признака:

2. Для доли (альтернативного  признака):

№41. Понятие и виды статистических гипотез. Статистические критерии проверки гипотез. Уровень значимости и мощность критерия

Статистическая  гипотеза – всякое высказывание о  генеральной совокупности, проверяемое  по выборке. Статистические гипотезы делятся  на:  1. параметрические – гипотезы, сформулированные относительно параметров (среднего значения, дисперсии и т.д.) распределения известного вида; 2. непараметрические – гипотезы, сформулированные относительно вида распределения (например, определение по выборке в степени нормальности генеральной совокупности). Процесс использования выборки для проверки гипотезы называется статистическим доказательством. Основную выдвигаемую гипотезу называют нулевой Н0. Наряду с нулевой гипотезой рассматривают ей альтернативную Н1.

Выбор м/у гипотезами Н0 и Н1 может сопровождаться ошибками 2 родов. Ошибка первого рода a означает вероятность принятия Н1, если верна гипотеза Н0: a=Р(Н10). Ошибка второго рода b означает вероятность принятия Н0 если верна гипотеза Н1: b=Р(Н01). Существует правильное решение двух видов Р(Н00) = 1-a и Р(Н11)=1-b. Правило, по которому принимается решение о том, что верна или неверна гипотеза Н0 называется критерием, где: a=Р(Н10) – уровень значимости критерия; М= Р(Н11)=1-b - мощность критерия. Статистический критерий К – случайная величина, с помощью которой принимают решение о принятии или отклонении Н0.

 

№42. Проверка гипотезы о равенстве 2 выборочных средних

Гипотеза о  равенстве средних может рассматриваться  как гипотеза о связи, если сопоставляются средние величины, обусловленные  действием какого-либо фактора. Например, сравнивается средняя заработная плата рабочих двух специальностей. Нулевая гипотеза состоит в том, что специальность рабочего не влияет на заработок. Если окажется, что tфакт > tкрит, нулевую гипотезу отклоняют и делают вывод о том, что специальность оказывает влияние на заработную плату.

Рассмотрим решение  этой задачи при условии, что генеральные  дисперсии неизвестны, но принимаются  равными. При сравнении средних  величин выдвигается гипотеза, что  обе выборки принадлежат одной  и той же генеральной совокупности со средней μ и дисперсией σ2.

При неизвестной  генеральной дисперсии формула t-критерия имеет вид:

  (7.37)

Поскольку s21 и s22 рассматриваются как выборочные оценки общей дисперсии σ2, то формула (7.37) может быть записана так: , (7.38) где x?1, x?2 - выборочные средние; s2 - выборочная оценка общей дисперсии; (7.39)

Гипотеза H0 отклоняется, если 

 

№43. Критерии согласия

Критерием согласия называют критерий проверки гипотезы о предполагаемом законе неизвестного распределения.

Имеется несколько  критериев согласия: χ2 («хи квадрат») К. Пирсона, Колмогорова, Смирнова и др.

Ограничимся описанием  применения критерия Пирсона к проверке гипотезы о нормальном распределении  генеральной совокупности. С этой целью будем сравнивать эмпирические (наблюдаемые) и теоретические (вычисленные в предположении нормального распределения) частоты. Обычно эмпирические и теоретические частоты различаются.

Итак, пусть по выборке объема п получено эмпирическое распределение:

варианты      xl, x1,   x2   ... xs,

эмп. частоты ni n1   п2 ... ns.

Допустим, что в предположении нормального распределения генеральной совокупности, вычислены теоретические частоты п. При уровне значимости α, требуется проверить нулевую гипотезу; генеральная совокупность распределена нормально.

В качестве критерия проверки нулевой гипотезы примем случайную величину

(*)

Эта величина случайная, так как в различных опытах она принимает различные, заранее  неизвестные значения. Ясно, что чем меньше различаются эмпирические и теоретические частоты, тем меньше величина критерия (*) и, следовательно, он в известной степени характеризует близость эмпирического и теоретического распределений.

Заметим, что  возведением в квадрат разностей  частот устраняют возможность взаимного  погашения положительных и отрицательных разностей. Делением на ni достигают уменьшения каждого из слагаемых; в противном случае сумма была бы настолько велика, что приводила бы к отклонению нулевой гипотезы даже и тогда, когда она справедлива.

Доказано, что  при n→∞ закон распределения случайной величины (*), независимо от того, какому закону распределения подчинена генеральная совокупность, стремится к закону распределения χ2 с k степенями свободы. Поэтому случайная величина (*) обозначена через χ2, а сам критерий называют критерием согласия «хи квадрат».

Число степеней свободы находят по равенству k=s-1-r, где s — число   групп выборки; r — число   параметров   предполагаемого   распределения,  которые оценены по данным выборки.

В частности, если предполагаемое распределение —  нормальное, то оценивают два параметра (математическое ожидание и среднее квадратическое отклонение) поэтому r=2 и число степеней свободы k=s-1-r=s-1-2-s-3. Если, например, предполагают, что генеральная совокупность распределена по закону Пуассона, то оценивают один параметр X, поэтому r=1 и k=s-2.

Поскольку односторонний  критерий более «жестко» отвергает  нулевую гипотезу, чем двусторонний, построим правостороннюю критическую  область, исходя из требования, чтобы вероятность попадания критерия в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значимости α:

Т.о.,  правосторонняя  критическая область определяется неравенством  , а область принятия  нулевой гипотезы — неравенством 

Правила проверки нулевой гипотезы:

Для того чтобы, при заданном уровне значимости, проверить нулевую гипотезу H0: генеральная совокупность распределена нормально, надо сначала вычислить теоретические частоты, а затем наблюдаемое значение критерия

  (**)и по таблице критических точек распределения χ2, по заданному уровню значимости α, и числу степеней свободы k=s-3, найти критическую точку χ2 (α; k).

Если χ2набл2кр – нет оснований отвергнуть нулевую гипотезу.

Если χ2набл 2кр — нулевую   гипотезу   отвергают.

№44. Понятие о модели дисперсионного анализа. Однофакторный дисперсионный анализ. Понятие о многофакторном. Дисперсионный анализ в Excel

Дисперсионный анализ позволяет ответить на вопрос о наличии существенного влияния  некоторых факторов на изменчивость фактора, значения которого могут быть получены в результате опыта. В дисперсионном анализе  один или несколько факторов изменяются заданным образом, причем, эти изменения могут влиять на результаты наблюдений – цель. Идея дисперсионного анализа заключается в том, что основная дисперсия разлагается в сумму составляющих ее дисперсий, каждое слагаемое которой соответствует действию определенного источника изменчивости. Например, в двухфакторном анализе мы получим разложение вида:

                  sС2=sА2+sВ2+sАВ2+dZ’2,

где sС2 –общая дисперсия изучаемого признака С

sА2 –доля дисперсии, вызванная влиянием фактора А

sВ2 - доля дисперсии, вызванная влиянием фактора В

sАВ2 - доля дисперсии, вызванная взаимодействием факторов А и В

dZ’2 –доля дисперсии, вызванная неучтенными случайными причинами (случайная дисперсия).

В дисперсионном  анализе рассматривается гипотеза: Н0 – ни один из рассматриваемых факторов не оказывает влияния на изменчивость признака. Гипотеза Н0 относительно того или иного источника изменчивости отвергается, если Fрасч.> Fкр.

В дисперсионном  анализе рассматриваются эксперименты трех видов:

А) эксперименты, в которых все факторы имеют  систематические (фиксированные) уровни;

Б) эксперименты, в которых все факторы имеют  случайные уровни;

В) эксперименты, в которых есть факторы, имеющие  случайные уровни, а так же факторы, имеющие фиксированные уровни.

Однофакторный дисперсионный анализ.

Рассмотрим единичный  фактор, который принимает р различных  уровней, и предположим, что на каждом уровне сделано n наблюдений, что дает  N = np наблюдений. (все факторы имеют фиксированные уровни)

Пусть результаты представлены в виде Хij (i=1,2...,p; j=1,2...,n).

Предполагается, что доля каждого уровня n наблюдений имеется средняя, которая равна сумме общей средней и ее вариации обусловленной выбранным уровнем:

Xij = m + Ai + eij,

где m - общая средняя;

Ai – эффект, обусловленный i-м уровнем фактора;

eij – вариация результатов внутри отдельного уровня фактора. С помощью члена eij принимаются в расчет все неконтролируемые факторы.

Пусть наблюдения на фиксированном уровне фактора нормально распределены относительно среднего значения m + Ai с общей дисперсией s2.

Тогда (точка  вместо индекса обозначает усреднение соответствующих наблюдений по этому  индексу):  

Xij – X.. = (Xi. – X..) + (Xij – Xi.).

После возведения в квадрат и суммирования по i и j получим:

Двухфакторный дисперсионный анализ с повторениями представляет собой более сложный вариант однофакторного анализа, включающего более чем одну выборку для каждой группы данных. Двухфакторный дисперсионный анализ позволяет статистически обосновать существенность влияния факторных признаков А и В  взаимодействия факторов (А и В) на результативный фактор F. 

Двухфакторный дисперсионный анализ без  повторений позволяет оценить существенность воздействия факторов А и В на результирующий фактор без учета воздействия взаимодействии факторов А и В.

№45. Понятие о корреляционной зависимости

При изучении случайных  величин в общем случае необходимо рассматривать стохастическую зависимость, когда каждому значению СВ Х может соответствовать одно и более значений СВ Y, причем до опыта нельзя предсказать возможное соответствие.  В случае стохастической связи изменение CВY, вследствие изменения СВ Х, можно разбить на 2 компоненты: 1. функциональную, связанную с зависимостью Y от Х, 2. случайную, связанную со случайным характером самих СВ Х и Y. Соотношение м/у функциональной и случайной компонентой определяет силу связи. Отсутствие первой компоненты указывает на независимость СВ Х и Y, отсутствие второй компоненты показывает, что м/у CВ X и Y существует функциональная связь.

Важным частным  случаем стохастической зависимость  является корреляционная. Корреляционная зависимость м/у переменными величинами – это та функциональная зависимость, которая существует м/у значениями одной из них и групповыми средними другой. (Корреляционные зависимости Y на Х и Х на Y обычно не совпадают). Корреляционная связь чаще всего характеризуется выборочным коэффициентом корреляции r, который характеризует степень линейной функциональной зависимости м/у CB X и Y. Для двух СВ Х и Y коэффициент корреляции имеет => св-ва:

  1. -1≤r≤1;
  2. если r=+ 1, то м/у СВ Х и Y существует функциональная линейная зависимость;
  3. если r=0, то СВ Х и Y некоррелированны, что не означает независимости вообще;
  4. если Х и Y образуют систему нормально распределенных СВ, то из их некоррелированности => их независимость.

Коэффициенты  корреляции Y на Х и Х на Y совпадают. 

Корреляция используется для количественной оценки взаимосвязи  двух наборов данных с помощью  коэффициента корреляции. Коэффициент корреляции выборки представляет собой ковариацию двух наборов данных, деленную на произведение их стандартных отклонений.

№46. Оценка методом наименьших квадратов коэффициентов регрессии

Регрессионный анализ – один из основных методов  современной мат статистики. Корреляционный анализ позволяет установить существует или не существует зависимость м/у парами наблюдений, то регрессионный анализ дает целый арсенал методов построения соответствующих зависимостей. Классическим методом оценивания коэффициентов уравнения регрессии является метод наименьших квадратов (МНК).

На основании  известных n пар наблюдений (xi, yi) делается предположение о виде зависимости, например:

y=a+bx, где y – зависимая (результативная) переменная, х – независимая (факторная) переменная.

 Пусть переменная x задается точно (без ошибок),  тогда отклонение наблюдений yi  от зависимости y=a+bx является случайным и параметры a и b можно найти из условия минимизации суммы квадратов ошибок εi=yi–a–bxi

 

Рассмотрим функцию двух переменных

найдем ее минимум: Имеем: 

После преобразований получим:  
Решив систему относительно a и b получим искомое уравнение зависимости, которое носит название регрессии Y на Х.

Аналогично, предположив, что искомая зависимость имеет  вид x=c+dy, где значения yi – фиксированы, мы получим уравнение регрессии X на Y.

Если X и Y – система двух нормально распределенных случайных величин, то преобразуя систему Гаусса (см. выше), уравнение регрессии Y на Х можно записать

Соответственно  уравнение регрессии X на Y имеет вид

№47. Проверка адекватности модели парной регрессии. Корреляционно-регрессионный анализ в Excel

После построения уровня регрессии возникает вопрос о качестве решения.

Пусть при исследовании n пар наблюдений (хi, уi) получено уравнение регрессии У на Х.  `yi = a + bxi

Рассмотрим тождество:

yi - `yi = yi - `yi – (`yi -`yi)

Если переписать это уравнение в виде

(yi-`y) = (`yi-`y) + (yi-`y)

возвести обе части в квадрат и просуммировать по i, то получим

S(yi-`y)2 =S (`yi-`y)2 + S(yi-`y)2 (*)

Уравнение (*) является основополагающим в дисперсионном  анализе.

Для сумм обычно вводятся названия:

Syi2 – нескорректированная сумма квадратов y-ков;      - коррекция на среднее суммы квадратов y-ков.

-сумма квадратов  отношений относительно среднего  наблюдений.

S (`yi-`y)2- сумма квадратов относительно регрессии.

S(yi-`yi)2 – сумма квадратов обусловленная регрессией.

Корреляционный анализ является одним из методов статистического анализа взаимосвязи нескольких признаков.

Он определяется как метод, применяемый тогда, когда  данные наблюдения можно считать  случайными и выбранными из генеральной  совокупности, распределенной по многомерному нормальному закону. Основная задача корреляционного анализа (являющаяся основной и в регрессионном анализе) состоит в оценке уравнения регрессии.

Корреляция - это  статистическая зависимость между  случайными величинами, не имеющими строго функционального характера, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой.

Парная корреляция - связь между двумя признаками (результативным и факторным или  двумя факторными).

Для проведения  корреляционно-регрессионного   анализа  в первую очередь необходимо построить матрицу коэффициентов парной корреляции для оценки степени влияния факторов на зависимую переменную и друг на друга. Для построения матрицы коэффициентов парной корреляции необходимо выбирать команду меню Сервис/Анализ данных/Корреляция.

Одним из условий регрессионной модели является предположение о функциональной независимости объясняющих переменных. Связь между факторами называется мультиколлинеарностью, которая делает вычисление параметров модели либо невозможным, либо затрудняет содержательную интерпретацию параметров модели.

 

№48. Понятие экономического временного ряда и его составляющие. Тренд динамического ряда. Способы его выявления. Построение моделей временных рядов в Excel.

Большое количество данных в экономике, коммерции, технике и т.д. можно представить в виде временных рядов. Определим дискретный временной ряд как последовательность измерений значений переменной (процесса) за определенный период через одинаковые промежутки времени:

Z1, Z2, Z3, … Zt, … Zn (*)

Последовательные  наблюдения в (*) обычно зависимы. С детерминистской  точки зрения (*) можно представить  как: Zt=f(t)+εt, где t=1, 2, …, n;

f – гладкая (непрерывная и дифференцируемая) функция, характеризующая долгосрочное движение в зависимости от времени – тренд;

εt - случайный ряд возмущений, наложенный на систематическую часть. Такой подход, несмотря на заслуженную критику, используется и в настоящее время.

Анализ временных  рядов преследует => цели:

  1. описание поведения ряда;
  2. построение модели для объяснения наблюдений;
  3. п. 1 и 2 используют для прогноза, исходя из предположения, о сохранении тенденции развития в будущем.

Для достижения поставленных целей используют модели, основанные на детерминистском, стохастическом, спектральном и других подходах. В общем случае можно предположить в модели наличие => компонент:

  1. тренд или долгосрочное колебание;
  2. регулярное движение относительно тренда;
  3. сезонная компонента;
  4. остаток.

Отделить тренд  и сезонность в общем случае невозможно, т.к. они взаимно проникают друг в друга. При выделении тренда и сезонности остается колеблющийся ряд. Удаление тренда (сглаживание временного ряда) можно осуществить с помощью скользящей средней (СС). СС, в отличие от простой средней для всей выборки, содержит сведения о тенденциях изменения данных. Тренд дает возможность прогнозировать основную тенденцию изменения явления во времени. Значения                     Ù

тренда Zt обычно сопровождаются ошибками. Хотя при анализе временных рядов обычно нельзя утверждать нормальность распределения отклонений относительно тренда, но тем не менее. В качестве одного из возможных подходов это предположение используется. Доверительный интервал для тренда определяется как 

Где Zt - значение тренда в момент времени t, t двa, ν - квантиль распределения Стьюдента для двусторонней критической области пи уровне значимости a с ν=n-d степенями свободы (n – число наблюдений, d – число оцениваемых параметров, например для уравнения прямой d=2);

Среднеквадратическое  отклонение членов ряда от тренда:

 


Информация о работе Шпаргалки по "Теории вероятностей"