Шпаргалка по теории вероятностей

Автор работы: Пользователь скрыл имя, 13 Января 2014 в 02:37, шпаргалка

Описание работы

1. Событие – подмножество множества элементарных исходов.
Достоверное – обязательно произойдет в данном опыте.
Невозможное – никогда не произойдет в этом опыте.
Случайное – может произойти, а может не произойти в этом опыте.
Несовместны события А и В – если появление одного события исключает появление второго.

Файлы: 1 файл

шшпора.doc

— 729.00 Кб (Скачать файл)

1. Событие – подмножество множества элементарных исходов.

Достоверное – обязательно произойдет в данном опыте.

Невозможное – никогда не произойдет в этом опыте.

Случайное – может произойти, а может не произойти в этом опыте.

Несовместны события  А и В – если появление одного события исключает появление второго.

Несовместна группа событий – если  события попарно несовместны.

Совместны – если появление одного события не исключает появления второго.

Равновозможные – если каждое событие в силу симметрии опыта не более возможно, чем остальные.

Событие противоположно событию  А – если событие А не происходит.

Полная группа событий – образуется событиями А1, А2,…Аn если они попарно несовместны и в результате опыта происходит хоть оно из них.

Пространство элементарных событий Ω – множество всех элементарных событий, исходов. Исходы, составляющие событие, - благоприятствующие данному событию.

 

2. Комбинаторика – часть математики, которая занимается подсчетом числа комбинаций, состоящих из элементов данного множества.

Принцип произведения: пусть существует  m множеств А12,…Аm.  Множество А1 состоит из n1 элементов, А2 из n2…Аm из nm. Будем последовательно составлять комбинации  m элементов так,  что в каждую комбинацию входило по 1 элементу каждого множества. N=n1*n2*…*nm

Упорядоченное множество – если установлен порядок следования элементов. Комбинации из эл-тов упорядоченного множества – наборы, выборки.

Перестановка – упорядоченное множество из n элементов. Отличаются др. от др. лишь порядком следования элементов. Число перестановок Pn множества из n элементов Pn=n!

Размещения  из n элементов по m (m<=n) – упорядоченные наборы по m элементов из данных n. Отличаются др. от др. элементами и их порядком. Число размещений из n элементов по m: Amn=n!/(n-m)!

Сочетания из n элементов по m – неупорядоченные наборы по m элементов из данных n. Число сочетаний: Сmn=n!/(m!(n-m)!)

 

3. Классическое определение вероятности:

Пусть пространство Ω  – полная группа равновозмож-ных n исходов. Ω={w1,w2…wn}. Пусть событие А состоит из m исходов А={wi1,wi2…wim}. Тогда вероятностью Р(А) события А считают отношение m  благоприятных исходов к числу n всех исходов опыта

P(A)=m/n

Свойства вероятности:

0<=P(A)<=1

P(Ω)=1

P(Ø)=0

 

 

4. Статистическая  вероятность.

Пусть в n испытаниях событие А произошло m раз, тогда относительная частота события А, W(A),  равняется: , n – число всех опытов; m – число благоприятных исходов. Замечание: вероятность соб А вычисляется до опыта, отн частоту вычисляют после опыта. Если увеличить кол-во опытов, то замечено, что изменяясь от каждой серии опытов с увел числа опытов, отн частота колеблется около некоторого числа Р ( т е обладает устойчивостью). Это число Р принимают за вероятность соб А и называют статистической вероятностью этого события. Для достаточно больших n  отн частота служит оценкой вероятности события

 

 

5. Геометрическая вероятность.

Классическая вероятность соб  А определялась, когда множество  всех исходов опыта конечно. На практике часто встречаются задачи, когда число исходов бесконечно. В этом случае можно определить круг зудач, связанных с геом вероятностью события.

Пусть имеется некоторая фигура G. Под мерой фигуры mes G понимаем длину ( в случае отрезка прямой), площадь (плоское пространство), объем ( пространственное тело).

Пр. Пусть фигура . Предположим, что случайная точко бросается на фигуру G, причем попадание в любую точку фигуры G равновозможно, тогда вероятность того, что случайная точка попадет в фигуру g равна:

 

 

6. Операции  над с7.Теорема сложения вероятностей несовместных событий.

Теор. Пусть А и В несовместные события. Тогда вероятность суммы этих событий=сумме их вероятностей. Р(А+В)=Р(А)+Р(В) (1).

Д-во: Пусть число всех исходов опытов n, пусть событию А благоприятствуют m1, из них В-m2 из них.

 

*- исходы

   m1-A                          m2-B

{*****}***********{*****}**

                    n

P(A)=m1/n     P(B)=m2/n    A+B=m1+m2  P(A+B)=(m1+m2)/n=m1/n+m2/n=P(A)+P(B) чтд.

 

8.В-ть противоположного  событ. В-ть суммы n событ, образ. полн. груп событ.

Теор.Вер-ть противоположного события Р(Ã)=1-Р(А)

Д-во: А+Ã=a   А*Ã=f  Р(А+Ã)=Р(a)    Р(a)=1  Р(А)+Р(Ã)=1   Р(Ã)=1-Р(А)

Пример. Вер-ть попадания  в мишень при 1 выстреле для стрелка  явл. 0.7 Опред. Вер-ть промаха.

А-попад.

Р(А)=0.7

Ã-промах

Р(Ã)=1-0.7=0.3

Теор. В-ть суммы n событ. образ полн группу

Пусть соб-я А1,А2,….,Аn обр полную группу соб Тогда вер-ть суммы этих событ=1 Р(А1+А2+…+Аn)=1 Тогда имеет место ф-ла Р(А1)+ Р(А2)+… +Р(Аn)=1.

 

9. Условная вероятность. Теорема произведения вероятностей зависимых событ.

Условн. вер-тью наз вер-ть события  В при условии, что соб А  уже наступило. Условн вер-ть обознач  Р(В/А).

Теорема произвед двух соб=произвед вероятностей одного из них на условную вер-ть другого  события. Р(АВ)=Р(А)*Р(В/А) Предположение что 1 событ произошло Р(АВ)=Р(А)*Р(В/А)  Р(АВ)=Р(В)*Р(А/В)

Теор. Умен. Р(АВ)=Р(А)*Р(В/А)

Д-во: n- всех исходов, А-m исх, АВ-k исх

   m-A

{{****}******}

         k-AB

P(AB)=k/n-вер-тьсобыт  Р(В/A)=k/m  P(AB)=k/n*m/n  P(A)=m/n   P(AB)=k/m*m/n=P(A)*P(B/A)

 Теор. P(A1,A2,...An)=P(A1)P(A2/A1)P(A3/A1A2)...P(An(A1...An-1)

событиями

1) сумма двух событий  А и В – это А+В(U), это значит происходит хотя бы одно событие. Суммой n событий называется событие , которое обозначает, что происходит хотя бы одно из этих событий.

2) произведением событий  А и В называется событие  АВ и заключается в том, что  события являются одновременными  и являются совместными.  - все события появляются одновременно.

 

53. Статистические  гипотезы. Нулевая и конкурирующая  гипотезы. Простые и сложные, параметрические  гипотезы. Статист. критерий. Критическая  область.

Статистической называют гипотезу о виде неизвестного распределения, или о параметрах известных распределений.

Нулевой (основной) называют выдвинутую гипотезу Н0.

Конкурирующей (альтернативной) называют гипотезу Н1, которая противоречит нулевой.

Гипотезы относ-но параметров распределения наз. параметрическими.

Гипотезы бывают простые и сложные.

Простая – гипотеза, содержащая только одно предположение.

Сложная – гипотеза, которая состоит из конечного или бесконечного числа простых гипотез.

Стат. критерием (значимости) наз. СВ X, кот. является ф-цией выборки K=К(х1, х2, х3,…,хn) (статистической) и служит для проверки гипотезы, с ее помощью принимается решение о принятии или отвержении гипотезы Н0.

Критическая область – совок – ть значений критерия, при которых нулевую гипотезу отвергают.

Область принятия гипотезы (область допустимых значений) – совок-ть значений критерия, при кот. гипотезу принимают.

 

 

 

 

 

13.Формула полной вероятности.

Предположим, что событие А происходит одновременно с одним из событий  H1, H2,…,Hn, попарно несовместных и образующих полную группу событий.Т.к. заранее неизвестно, с каким из событий Hi событие А произойдет, то H1…Hn – гипотезы. Вероятность P(A)=P(H1)P(A/H1)+P(H2)P(A/H2)+…+P(Hn)P(A/Hn).Или P(A)=

Доказательство:А=AH1+AH2+…+AHn. Т.к. события Hi попарны и несовместны, то будут попарными и несовместными и события AHi. По теореме несовместных событий получаем P(A)=P(AH1+AH2+ …+AHn)= P(H1)+…+P(Hn). P(A)=P(H1)P(A/H1)+P(H2)P(A/H2)+…+P(Hn)P(A/Hn).

 

Замечание1: Т.к. H1,…,Hn образуют полную вероятность, то сумма вероятностей равна 1: P(H1)+ P(H2)+…+ P(Hn)=1.

Замечание2: Вероятности гипотез  определяются до опыта и называются априорными.

 

 

14.Формула Байеса.

Предположим, событие А произошло. Какизменятся при этом вероятности гипотез P(AB)=P(A)*P(B/A), P(AB)=P(B)P(A/B), P(AHi)=P(A)P(Hi/A)=P(Hi)P(A/ Hi). Следовательно P(Hi/A)= , i  = .Заменив по формуле P(A)=P(H1)P(A/H1)+P(H2)P(A/H2)+…+P(Hn)P(A/Hn) получим P(Hi/A)= .

Эти формулы называют формулами  Байеса. Они позволяют переоценить  вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие А.

 

 

15.Последовательность независимых  испытаний. Формула Бернулли.

Пусть производится серия из n независимых испытаний и в каждом испытании событие А наступает с одной и той же вероятностью P(A)=p и не наступает с вероятностью . Условно появление события А называется «успехом», а не появление - «неудачей». Испытания называются независимыми, если исход каждого последующего не зависит от исходов предыдущих испытаний. Последовательность независимых испытаний такого рода называется схемой Бернулли. Вероятность того, что в n независимых испытаниях событие А произойдет ровно m раз – Pn (m). Тогда имеет место формула Бернулли: Pn (m)= .

Доказательство: Рассмотрим серию из n испытаний, в которых событие А произошло m раз: .Вычислим вероятность этого произведения: P ( = =pmqn – m . Pn (m)= .

 

 

 

16. Найвер-шее  число поступлений события в  схеме Бернулли.

Частота m0, кот-ой соот-ет наиб-ая вер-ть Рn(m) в данной серии незав-ых исп-ий наз.

найвер-им числом появления соб-ия А.

np-q<=m0<=np+p

n -- число испытаний

р(А)=р   q=1-p

По определению числа m0 имеем Рn(m0)>=Pn(m0+1)

Рn(m0)>=Pn(m0-1)

Рn(m0)/ Pn(m0+1)>=1

Рn(m)=Cmn pm qn-m

Рn(m0)/

 

(m0+1)q>=(n-m0)p

m0q+q>=np-m0p

m0q+m0>=np-q

m0(q+p)>=np-q , q+p=1

m0 >= np-q

Аналогично Рn(m0)/ Pn(m0-1)>=1 получим, что m0 <=np+p

np-q<=m0<=np+p

Замечание: Если число np+p-целое , то имеем два найвер-ших числа - m0 и m0+1,

если np+p - дробное,

то имеем одно найвер-шее  число -m0.

 

 

17. Локальная  теорема Муавра-Лапласса.

Рассмотрим последов-ть  n-нез-ых исп-ий Бернулли

Т-ма: Если вер-ть наступления события А в n-незав-ых исп-ях постоянна и равна р, причем р

не равно 0 и 1, то вер-ть Pn(m) того, что в n-исп-ях соб. А наступит ровно m раз приближенно равна

, где  , - Ф-ция Гаусса

e=2,7182

 

18 φ(х) – функция Гаусса, малая функция Лапласа. φ(х) –табулированная. Имеются таблицы для х≥0. При других значениях х используют свойства функции Гаусса.

Свойства:

  1. φ(х)-четная.
  2. При  х≥0 φ(х) убывает

   Lim φ(х)= lim e- x2/2 /√2π

 

19. Интегральнвая  т-ма Лапласа.

Т-ма: Если в серии из n-нез-ых исп-ях вер-ть р появления события А в каждом исп-нии

постоянная и не равна 0 и не равна 1, то вер-ть Рn(m1; m2) того, что n-исп-ия соб. А произойдет от m1

до m2 раз . При достаточно больших n будет приблизительно равна

Pn(m1;m2)=1/2(Ф(x2)- Ф(x1)), где

,    Ф(x)- ф-ция Лапласа

 

m1≤ m≤ m2 Для х≥0 имеются таблицы функции Ф(х). При других значениях х используются свойства функции:Ф(х)-нечетнах)-возрастающая функция. Lim Ф(х)=1x→∞

 

 

Для х>5 Ф(х)≈1

 

 

 

21.Вер-ть отклонения  отн частоты от пост вер-ти  в п незав испытпниях

Рассмотрим n-независимых испытаний Бернулли в каждом из которых события А происходят с вероятностью р. Причем р≠0, р≠1.

Считаем также, что число  испытаний n достаточно велико. Относительная частота появления события А в этой серии будет m/n.

Разность m/n-p называется отклонением относительной частоты от постоянной вероятности.

Ε>0 Определим вероятность (Р(m/n-p)≤ε)-?

Определим вероятность того, что  относительная частота отклонения от постоянной вероятности Р по абсолютной величине не более, чем на число ε.

Рассмотрим (m/n-p)≤-ε↔ε≤(m/n-p)≤ε.       

 

 

 

22. Ф-ла Пуассона. Допустим производиться серия из независимых испытаний, причём n очень велико (n→∞), вер. появл. соб. А в каждом исп. очень мала (р→0) p<0.01 причём np=λ=const, тогда вер. Рn(m) того, что в n исп. соб. А произойдёт ровно m раз ≈ вычисл. по ф-ле Рn(m) ≈℮- λ λm/m! при np<10. Док-во:

Рn(m)=Сnmpmqn-m=│q=1-p, np=λ,p=λ/n│= n!/m!(n-m)!)*pm(1-p)n-m=1·2·3…(n-m)(n-m+1)…n/(m!1·2·3…n·m)*(λ/n)m(1- λ/n)n-m=((n-m+1)(n-m+2)…n/m!nm)*λm(1- λ/n)n-mm/m!*(n-(m-1))(n-(m-2)…n)/n*(1-λ/n)n*(1-λ/n)-m= λm/m!*(n-(m-1)/n*(n-(m-2)/n)…1· (1-λ/n)n*(1-λ/n)-m= (λm/m!)-(1-(m-1)*(1-(m-2)/n)*(1-λ/n)-m*(1- λ/n)n/(-λ)*(-λ) по второму замечательному пределу lim(1-λ/n)n=lim(1+(-λ)/n)n/(-λ)*(-λ). (1-(m-1)/n)→1, (1-(m-2)/n)→1, (1-(λ/n)-m→1получается Pn(m) →(λm/m!)*е, т.е Pn(m)≈ ≈℮- λ λm/m!

 

23. СВ. Дискретные  СВ. Закон распр. ДСВ. Полигон распр. ДСВ. СВ называют величину, кот. в результ. исп. принимает то или иное  значение из множества своих знач., причем неизв. какое.

Информация о работе Шпаргалка по теории вероятностей