Основы теории вероятности

Автор работы: Пользователь скрыл имя, 03 Ноября 2013 в 13:44, реферат

Описание работы

Теория вероятностей изучает объективные закономерности массовых случайных событий. Она является теоретической базой для математической статистики, занимающейся разработкой методов сбора, описания и обработки результатов наблюдений. Путем наблюдений (испытаний, экспериментов), т.е. опыта в широком смысле слова, происходит познание явлений действительного мира.

Файлы: 1 файл

реферат 456.doc

— 52.00 Кб (Скачать файл)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Реферат

 

Тема:Основы теории вероятностей 

 

 

 

 

 

 

 

Проверил:                                   .

 

 

               Сдал: гр.                               

                                                                   

 

 

 

 

 

Теория вероятностей изучает объективные закономерности массовых случайных событий. Она является теоретической базой для математической статистики, занимающейся разработкой методов сбора, описания и обработки результатов наблюдений. Путем наблюдений (испытаний, экспериментов), т.е. опыта в широком смысле слова, происходит познание явлений действительного мира.

Вероятность - степень (мера, количественная оценка) возможности наступления некоторого события. Классическое определение вероятности основано на понятии равновозможности исходов. В качестве вероятности выступает отношение количества исходов, благоприятствующих данному событию, к общему числу равновозможных исходов. Например, вероятность выпадения «орла» или «решки» при случайном подбрасывании монетки равна 1/2, если предполагается, что только эти две возможности имеют место и они являются равновозможными. Данное классическое «определение» вероятности можно обобщить на случай бесконечного количества возможных значений - например, если некоторое событие может произойти с равной вероятностью в любой точке (количество точек бесконечно) некоторой ограниченной области пространства (плоскости), то вероятность того, что оно произойдет в некоторой части этой допустимой области равна отношению объёма (площади) этой части к объёму (площади) области всех возможных точек.Классическое определение вероятности можно сформулировать следующим образом: вероятностью случайного события A называется отношение числа n несовместимых равновероятных элементарных событий, составляющих событие A, к числу всех возможных элементарных событий N.

                                                          P(A)=n/N                                                    (1)

Всякое действие, явление, наблюдение с несколькими различными исходами, реализуемое при данном комплексе условий, называется испытанием. Результат этого действия или наблюдения называется событием. Если событие при заданных условиях может произойти или не произойти, то оно называется случайным. В том случае, когда событие должно непременно произойти, его называют достоверным, а в том случае, когда оно заведомо не может произойти - невозможным. События называются несовместными, если каждый раз возможно появление только одного из них.События называются совместными, если в данных условиях появление одного из этих событий не исключает появление другого при том же испытании. События называются противоположными, если в условиях испытания они, являясь единственными его исходами, несовместны.

Вероятность суммы двух совместных событий равна разности суммы и произведения вероятностей этих событий:

                                           P(A + B) = P(A) + P(B) - P(AB)                               (2)

Из этого следует, что вероятность суммы произвольных событий никогда не превосходит суммы вероятностей этих событий:

                            P(A1 + A2 +...+ An) ≤ P(A1) + P(A2) +...+P(An).                     (3)

Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий:

                                                   P(A + B) = P(A) + P(B)                                    (4)

Из этого следует, что вероятность суммы конечного числа попарно несовместных событий равна сумме вероятностей этих событий:

                         P(A1 + A2 +...+ An) = P(A1) + P(A2) +...+P(An).                        (5)

Сумма вероятностей событий полной группы попарно несовместных событий  равна 1:

                                             P(A1) + P(A2) +...+ P(An) = 1.                                (6) 

Разностью событий A и B называется событие C, состоящее из всех элементарных событий, входящих в A, но не входящих в B.

События А и В называются независимыми, если Р(АВ) = Р(А) Р(В). Несколько событий  А, В, С,… называются независимыми, если вероятность их совместного осуществления  равна произведению вероятностей осуществления каждого из них в отдельности:

                                            Р(АВС…) = Р(А)Р(В)Р(С)…                                 (7)         

Это определение соответствует  интуитивному представлению о независимости: осуществление или неосуществление  одного события не должно влиять на осуществление или неосуществление  другого. Иногда соотношение  Р(АВ) = Р(А) Р(В|A) = P(B)P(A|B), справедливое при P(A)P(B) > 0, называют также теоремой умножения вероятностей.Не соответствующие данному условию события являются зависимыми.

Пусть требуется определить вероятность некоторого события  А, которое может произойти вместе с одним из событий Н12,….,Нn , образующих полную группу несовместных событий. Будем эти события называть гипотезами. Тогда:

                        P(A)=P(H1)P(A|H1)+P(H2)P(A|H2)+…+ P(Hn)P(A|Hn)             (8)       

Эта формула называется формулой полной вероятности. Формула полной вероятности позволяет вычислить вероятность события через условные вероятности этого события в предположении неких гипотез, а также вероятностей этих гипотез.

Переменная величина называется случайной, если в результате опыта она может принимать  действительные значения с определёнными вероятностями.

Случайная величина  Х  называется  дискретной, если существует такая неотрицательная функция (9), которая ставит в соответствие значению  хi переменной  Х вероятность рi  , с которой она принимает это значение.

                                                                    (9)

Дискретные случайные  величины  X  и  Y  называются независимыми, если события  Х = хi   и Y = yj  при произвольных  i  и j  являются независимыми.

 

Функция распределения в теории вероятностей - функция, характеризующая распределение случайной величины или случайного вектора. При соблюдении известных условийполностью определяет случайную величину.

Для дискретной случайной  величины, которая может принимать  значения х12,…,хn функция распределения имеет вид:

                                                          F(X) =∑ (X≤xi)                                         (10) 

                                                                    xi<x

Функции распределения  для дискретной и непрерывной величин обладают рядом одинаковых очевидных свойств, в вытекающих из ее определения.

Функция распределения  есть не отрицательная функция, значение которой изменяются от 0 до 1:

                                                              0≤ F(X) ≤1                                            (11)   

Вероятность попадания  случайной величины в некоторый  интервал [a,b] равно разности значений функций распределений на концах этого интервала:

                                                  P(a≤x≤b)=F(b)-F(a)                                          (12)

Функция распределения  случайной величиной есть неубывающая  функция, т. е. при  β > α имеем:

                                                       F(β)-F(α)≥0                                                  (13)

Значение функции распределения  на -∞ равно нулю, и единице  на +∞ :

                                                          F(-∞)=0                                                     (14)

                                                          F(+∞)=1                                                    (15)

Плотностью распределения  вероятностей непрерывной случайной  величины Х называется функция f(x) – первая производная от функции распределения F(x).

Плотность распределения  также называют дифференциальной функцией. Для описания дискретной случайной величины плотность распределения неприемлема.

Смысл плотности распределения  состоит в том, что она показывает как часто появляется случайная  величина Х в некоторой окрестности  точки х при повторении опытов.

После введения функций  распределения и плотности распределения  можно дать следующее определение  непрерывной случайной величины.

Вероятность того, что  непрерывная случайная величина Х примет значение, принадлежащее  интервалу (a, b), равна определенному интегралу от плотности распределения, взятому в пределах от a до b.

 

 

 

 


Информация о работе Основы теории вероятности