Конспект лекций по дисциплине "Теория вероятностей"

Автор работы: Пользователь скрыл имя, 21 Октября 2013 в 18:34, курс лекций

Описание работы

Лекция 1.
Некоторые исторические сведения о возникновении и развитии теории вероятностей.
Лекция 2 .
Определение случайного события.
Лекция 3.
Классическое определение вероятности.
Лекция 5. Формула полной вероятности.

Файлы: 1 файл

Konspekt_Teoria_Veroyatnostey.doc

— 1.22 Мб (Скачать файл)

= 1- , тогда

p (0,94 < x < + ∞) 1-1+ = .

Параметр σ найдем из условия      р (x < 1) = 0,5

т.е.    1-   откуда получим ) = 0,95.

По таблице Приложения 3 определим = 1,645, тогда из равенства

 найдем значение  . Окончательно получим

.

4. Распределение Парето

Распределение Парето используется при изучении распределения доходов, превышающих некоторый пороговый уровень x0.

f(x) = x0 < x < ∞,     α > 0, х0 > 0 – параметры распределения., 

M(ξ)= ,  D(ξ)= .

 

Лекция 10.                   Моменты случайных величин.

Начальные моменты.

Начальным моментом порядка k называется математическое ожидание k-ой степени случайной величины

                                    υк = M(ξк),      k = 1,2,…n                                             (16)

υ1 = M(ξ) , первый начальный момент – это математическое ожидание.

Центральные моменты

Центральным моментом степени k  называется математическое ожидание к-ой степени отклонения случайной величины от среднего значения.

                                     μк = М (ξ-М(ξ))к                                                                                             (17)

μ1 = М (ξ-М(ξ)) = 0

μ2 = М (ξ-М(ξ))2 = D(ξ)

Центральные моменты  всегда можно выразить через начальные.

Например:

М2= М(ξ-М(ξ))2 = М (ξ2-2ξМ(ξ)+М2(ξ) = М(ξ2) - М(2ξМ(ξ))+М(М2(ξ)) = М(ξ2)-2М(ξ)М(ξ)+М2(ξ) = М(ξ2) -М2(ξ) = υ2 - υ12

Центральный момент степени k можно преобразовать к выражению через начальные моменты, используя формулу бинома Ньютона.   

Запишем формулы для 3-го и 4-го центральных моментов:

μ3 = υ3 - 3υ1υ2 + 2υ12

μ4 = υ4 - 4υ1υ3 + 6υ1υ22 - 3υ14

Коэффициент асимметрии

                                                                                                                 (18)

характеризует степень асимметричности распределения. Для симметричного распределения А=0. При А<0 – левосторонняя асимметрия, А>0 – правосторонняя асимметрия.

 

          

                                       Рис.13

Коэффициент эксцесса  

                                                                                                    (19) характеризует степень островерхости распределения. Для нормального распределения  Е=0.


 

 

 

 

 

                                                       Рис. 14.

                        Многомерные случайные величины

На одном и том  же пространстве элементарных исходов  можно рассматривать не одну, а  несколько случайных величин. Например, подбрасывают три игральных кубика. Можно рассматривать одну случайную величину ξ – сумма выпавших очков или три случайных величины:

ξ1– число выпавших очков на 1-ом кубике,

ξ2 – число выпавших очков на 2-ом кубике,

ξ3 – число выпавших очков на 3-ем кубике.

В экономике, как правило, на показатель действует несколько  факторов, например, качество продукции зависит от многих факторов.

Пусть ξ1, ξ2, … , ξn–система случайных величин, определенных на множестве .

Функция распределения системы случайных величин определяется формулой

                          F(x1, x2, … , xn) = P(ξ1<x1, ξ2<x2, ... ,ξn<xn),                          (20)

где  x1, x2, … , xn   ( )

При этом  F(x1, x2, … , xn) – неубывающая функция каждого аргумента.

Для дискретной системы случайной величины закон распределения  определяется заданием вектора x1, x2, … ,xn и вектора вероятностей

                      ,

таких, что   .

Функция распределения  выражается в виде кратной суммы

           F(x1, x2, … , xn) = ,                       (21)

где суммирование производится по всем возможным значениям каждой из случайных величин, для которых  .        

Система ξ1, ξ2, … , ξn  называется непрерывной ,если существует

f( x1, x2, … , xn  ) 0 такая, что для любых x1, x2, … , xn  функцию распределения

F(x) можно представить в виде n-мерного  интеграла

                          F(x) = .                                           (22)

Функция  f( )  называется плотностью распределения вероятностей системы случайных величин,

                             f( )  =                                              (23)

в точках непрерывности.

случайные величины   ξ1, ξ2, … , ξn называются независимыми , если для любых

x1, x2, … , xn    независимы события    .

Для не зависимых ξ1, ξ2, … , ξn  функция распределения равна произведению

функций распределения каждой случайной величины

                         F(x1, x2, … , xn) =   .                               (24)

Также справедливы равенства :

      для  дискретных случайных величин   Р =

                                                          =  ,

      для  непрерывных  случайных величин    f( ) = .

Основными числовыми характеристиками  n  случайных величин  являются математические ожидания

                   М( ) =                                        (25)

и дисперсии

                 D( ) = = .               (26)

Лекция 11. 

Условным законом  распределения  одной случайной величины ,входящей в систему, называется закон, найденный при условии, что другая случайная величина , входящая в эту же систему , приняла определенное значение. Условный закон распределения задается как функцией распределения, так и плотностью распределения. Если рассматривается распределение случайной величины ξi при условии, что другая случайная величина   ξj приняла определенное значение, то  условная функция распределения  обозначается

F(x/y), а плотность – f(x/ y).

Важными характеристиками  являются условные математические ожидания и условные дисперсии. Пусть случайная величина ξi принимает значения

a = ( ), а случайная величина ξj   -    b = ( ).

Условным математическим ожиданием дискретной случайной величины ξi при  ξj = b  называют сумму  произведений возможных значений ξi  на их условные вероятности . Тогда условное математическое ожидание вычисляется по формуле:

                           M(ξi / ξj =b) = .                                                                     (27)

Для непрерывных случайных  величин

                        M(ξi / ξj =b) = .                                                                       (28)

Особая роль в изучении системы случайных величин принадлежит корреляционному моменту ( ковариации). Ковариацией случайных величин ξi и ξj называется число

= cov(ξiξj) = M((ξi-M(ξi))(ξj-M(ξj)))=M(ξiξj)-M(ξi)M(ξj) ,       i,j=1,2,…n.

Для независимых случайных  величин ковариация равна нулю т.к. в этом случае  M(ξiξj ) = M(ξi)M(ξj).

 Очевидно, что   = = D( ),  cov(ξiξj) = cov(ξ ξ )

Все парные ковариации составляют симметричную относительно главной диагонали ковариационную матрицу размерностью (n n).

                                   =

Определитель ковариационной матрицы является обобщенной дисперсией системы случайных величин..

Рассмотрим систему  только двух случайных величин, пусть ξ1, ξ2. Пусть случайная величина ξ1 принимает значения из множества X , ξ2 – из множества Y, ( X,Y) -действительные числа. Мерой линейной зависимости двух случайных величин ξ1, ξ является коэффициент корреляции

Свойства коэффициента корреляции:

1. |ρ| .

2. |ρ|=1 тогда и только тогда, когда между случайными величинами существует

линейная функциональная взаимосвязь

                                             y = аx + b,                                                             (29)

где            ,                    

причем, если ρ = 1, то a > 0, если ρ = -1, то a < 0  ( Рис. 15)


 

 

 

 


 

                                                 Рис. 15.

Для независимых случайных величин ρ = 0, но обратное утверждение неверно, т.к. между случайными величинами может быть  другой тип взаимосвязи (нелинейной).Чем ближе значение ρ к нулю, тем слабее линейная взаимосвязь, чем ближе по модулю к единице , тем -сильнее. Если ρ = 0, то говорят, что случайные величины  некоррелированы. Можно показать, что если нормально распределенные случайные величины некоррелированы, то они и независимы.

Пусть –1<ρ<1 и ρ≠0. Если нанести точки (X,Y) на координатную плоскость XoY, то можно заметить, что эти точки группируются вокруг некоторой прямой y = ax + b. Вычислим коэффициенты  a,b этой прямой из условия, что дисперсия отклонений точек (X,Y) от точек на прямой была минимальна.

 

 

                                                                     .


                                                                    .

                                                        .

                                                  .

                                                .                          

 

                                             Рис. 16.

Уравнение, относительно которого дисперсия минимальна, называется уравнением регрессии. Рассматривая дисперсию как функцию от двух переменных  a  и b  воспользуемся необходимым условием экстремума

                             

Решая эту систему  относительно a и b, получим

       ,     , уравнение регрессии  -  у = (Рис.16),

при этом дисперсия  , и она является минимальной.

Таким образом, уравнение  регрессии  у = , дает наилучшее линейное представление ξ по ξ1.

Количественной характеристикой  нелинейной взаимосвязи случайных величин ξ1, ξ2  является корреляционное отношение. Коэффициент корреляционного отношения ξ2 по ξ вычисляется по формуле:     

                                ,                                            (30)

где - условная дисперсия, характеризующая рассеяние ξ2 около условного математического ожидания  .                                                                        

Свойства корреляционного  отношения:

1. .

2. η=0 соответствует некоррелированным случайным величинам.

3. η=1,тогда и только тогда , когда  имеет место функциональная зависимость между ξ и ξ2  . В случае линейной зависимости ξ2 от ξ корреляционное отношение совпадает с квадратом коэффициента  корреляции.

Корреляционное отношение  несимметрично относительно ξ и ξ2 , поэтому наряду с рассматривается  , определяемое аналогичным образом. Между и нет какой-либо простой зависимости.

Теперь рассмотрим совокупность n-случайных величин .Можно вычислить коэффициенты корреляции ρij между каждой парой случайных величин. Они  составят корреляционную матрицу

                                      

ρijji, i≠j т.е. матрица симметрична относительно главной диагонали.

Взаимосвязь какой-либо случайной величины ξi со всеми остальными случайными величинами характеризуется множественным коэффициентом корреляции

                                                                                         (31)

|R| - определитель матрицы  R,

Rjj – алгебраическое дополнение, соответствующее элементу корреляционной матрицы  ρjj,

                          .

Лекция 12.

                                    Предельные теоремы.

1. Локальная предельная теорема Муавра-Лапласа.

Пусть производится n независимых испытаний. В каждом испытании возможны два исхода: либо наступит событие A , либо . Если вероятность наступления события постоянна и равна р (0<p<1), то вероятность

Информация о работе Конспект лекций по дисциплине "Теория вероятностей"