Шпаргалка по "Высшая математика"

Автор работы: Пользователь скрыл имя, 01 Октября 2012 в 19:33, шпаргалка

Описание работы

шпаргалки по всему курсу

Файлы: 1 файл

бомбы..doc

— 797.50 Кб (Скачать файл)

1.Испытания и случайные события.

Если эксперимент (испытание, опыт) может привести к  одному из двух или более взаимоисключающих исходов, он называется случайным или стохастическим. Каждый исход эксперимента называется элементарным со-

бытием, а множество всех возможных взаимоисключающих его исходов –пространством элементарных событий (данного эксперимента).

Теорией вероятностей рассматриваются  только такие эксперименты, все

возможные исходы которых  могут быть представлены a priori, то есть, до реализации экспериментов.

Исходы эксперимента называются равновозможными, если a priori нет оснований ожидать наступления одного исхода более чем любого другого.

Введем обозначения: w – элементарное событие, W – пространство элементарных событий , N(W) – число его элементов.

Событие, наступлению которого благоприятствуют все исходы эксперимента, называется достоверным и обозначается W. Событие, которому не

благоприятствует ни один исход эксперимента, называется невозможным

и обозначается о

Наступление достоверного и  невозможного события в результате проведения эксперимента однозначно прогнозируется: первое обязательно

произойдет, второе – нет. Тем не менее, будем называть оба  этих события

случайными. Поскольку это  не вызовет недоразумений, условимся  ниже

вместо термина «случайное событие» использовать термин «событие».

Событие, наступлению которого благоприятствуют все исходы эксперимента, за исключением исходов, благоприятствующих наступлению события

A, называется противоположным событию A событием и обозначается`A.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

5. Статистический подход к определению вероятности

Пусть одно и  то же испытание повторяется многократно, сериями испытаний. Обозначим через n число испытаний в данной серии. В каждом из этих испытаний может  произойти интересующее нас событие А. Обозначим через

n (A) количество  испытаний данной серии, в которых  наступило событие А.

Предположим, что  случайному событию А приписана вероятность

Р(А). Если эксперимент будет повторен в неизменных условиях n раз, где n –достаточно большое число, и при этом событие А произойдет в n(A) случаях, то почти наверное

n(A)/n »P(A)

Отношение n/n(A) называется относительной частотой события А. Для относительных частот событий выполняется свойство устойчивости, а именно при большом числе испытаний в сериях относительные частоты, полученные по данным разных серий, группируются вокруг некоторого значения.

Под статистической вероятностью события А понимают предел относительной частоты наступления события А, найденный при условии стремле-

ния к бесконечности  числа испытаний в серии:

P (A)= lim  n (A)/n

           n®¥

Таким образом, применение теории вероятностей к реальной действительности происходит по следующей схеме:

· предполагается, что рассматриваемый эксперимент может быть повторен неограниченное число раз;

· если случайному событию А приписана вероятность Р(А), можно быть практически уверенным в том, что если эксперимент будет повторен

достаточно большое  число раз, то относительная частота наступления события будет мало отличаться от Р(А);

· если вероятность Р(А) очень мала, то можно практически быть уверенным, что при однократном выполнении эксперимента событие А не будет иметь места.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

9.Противоположное  событие и его вероятность.

Событие, наступлению  которого благоприятствуют все исходы эксперимента, за исключением исходов, благоприятствующих наступлению события A, называется противоположным событию A событием и обозначается`A.

Свойства противоположного события

1. А= А– противоположное к противоположному равно исходному.

2. W=0/ – противоположное к достоверному равно невозможному.

3. 0/ =W – противоположное к невозможному – это достоверное.

     ___    _  _

4. А+В =А×В

Противоположными  событиями называют два несовместных события, образующих полную группу. Если одно из них назвать А, то второе принято обозначать .

Замечание. Таким образом, заключается в том, что событие А не произошло.

 

Сумма вероятностей противоположных  событий равна 1:

р(А) + р( ) = 1.                                                                Доказательство.

Так как А и образуют полную группу, то одно из них обязательно произойдет в результате опыта, то есть событие А + является достоверным. Следовательно,

Р( А + ) = 1. Но, так как А и несовместны, из (2.4) следует, что Р(А + ) = р(А) + р( ). Значит,  р(А) + р( ) = 1, что и требовалось доказать.

 

 

13.Полная группа событий Формула полной вероятности.

Говорят, что события  А1, А2,…,Ап образуют полную группу, если в результате опыта обязательно произойдет хотя бы одно из событий этой группы.

Замечание. В частности, если события, образующие полную группу, попарно несовмест-ны, то в результате опыта произойдет одно и только одно из них. Такие события называют элементарными событиями.

Пусть событие А может произойти только совместно с одним из событий Н1, Н2,…, Нп, образующих полную группу несовместных событий. Тогда события Н1, Н2,…, Нп называются гипотезами.

Теорема . Вероятность события А, наступающего совместно с гипотезами Н1, Н2,…, Нп, равна:

        (3.1)

где p(Hi) – вероятность i- й гипотезы, а p(A/Hi) – вероятность события А при условии реализации этой гипотезы. Формула (3.1) носит название формулы полной вероятности.

 

 

 

 

 

17.интегральная теорема лапласа.

Пусть вероятность  появления события А в каждом из n испытаний в серии

независимых испытаний равна  числу р, которое отлично от нуля и единицы.

Тогда, если число испытаний  в серии очень велико ( n>>1 ), то вероятность

того, что событие А  в серии из n испытаний наступит ровно k раз, прибли-

женно можно найти по следующей  формуле:

= φ(X)

φ(X)=

 

где х= ;q=1-p

Данная формула  является асимптотической и она  тем точнее, чем больше

число n. Функция

ϕ(x) является четной, поэтому в таблицах значения даны только для по-

ложительных аргументов.

Пусть вероятность  наступления события А равна  числу р, которое отлично

от нуля и  единицы, причем р одно и то же для  всех испытаний серии. Тогда,

если число  испытаний очень велико ( n>>1 ), то вероятность того, что событие А в серии из n испытаний наступит не менее k1 раз и не более

k2 раз, приближенно может быть найдено по формуле:

=

 

X=

Интегральную теорему  Лапласа можно представить в  следующем виде:

Ф(х2)-Ф(х1)

Функция Лапласа является нечетной

 

21.свойства дисперсии

Свойства: D(c)=0

D(x+y)=D(x)+D(y)

D(x-y)=D(x)+D(y)

D(x)>0

D(CX)= D(x)

 

Формула  для  вычисления дисперсии D(x)=M(x^2)-(M(x))^2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

25.вероятность  попадания нсв

В заданный интервал

Вероятность того, что значение случайной  величины Fx (x) попадает в интервал (a, b), равная P(a < x < b) = Fx (b) -Fx (a), вычисляется по формулам:

 

для непрерывной случайной величины, и 

 

Для дискретной случайной  величины

 

29.вероятность попадания  в интервал нормальной случайной  величины

Правило трех  сигм.

P(x1,x2)= Ф(x2-a/ )-Ф(x1-a/

P(x1,x2)=

Правило трех сигм

P([x-a]<3 =0,9973

Нормально распределенная случайная величина не может отклоняться  от среднего больше чем на 3 сигмы

 

33.расчет  характеристик выборки с помощью  условных вариант.

Ложный нуль-варианта с максимальной частотой

Xi 1250   1270   1280

Ni  2           5        3

C=1270

 

Wi  -20  0  10

Ni    2    5   3

 

= +c=1269

Dв=Du= 1)^2=109

S^2=n/n-1 * Dв =10/9 * 109=121

S=11

 

 

 

 

 

 

 

 

 

 

2.Сочетания. Число сочетаний и его свойства.

Пусть имеется n различных элементов. Выберем из этих элементов k элементов, причем k≤n . Сочетанием из n элементов по k называется любое неупорядоченное подмножество из k элементов. Чтобы получить соче-

тание, из множества, содержащего n элементов, выбирают k элементов, но, в отличие от размещения, порядок следования выбранных элементов не

имеет значения. Два сочетания будем называть различными, если в одном из них присутствует хотя бы один элемент, которого нет в другом. Число различных способов выбора k элементов из данных n элементов (k £ n) называется числом сочетаний из n элементов по k. Число сочетаний из n по k

обозначается Cn k (биномиальный коэффициент) и вычисляется по формуле:

Cn k = n!/(n−k)! k! (число различных сочетаний из n по k).

Сочетания от размещения отличаются лишь тем, что в размещении важен порядок, в котором выбраны k элементов. Это означает, что для того, чтобы получить число размещений из числа сочетаний, надо число сочетаний, которое обозначим Х, умножить на число способов переставить k вы-

бранных элементов, т. е. на k.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

6. Достоверное и невозможное события. Их вероятности.

Событие, наступлению  которого благоприятствуют все исходы эксперимента, называется достоверным и обозначается W. Событие, которому не

благоприятствует  ни один исход эксперимента, называется невозможным

и обозначается о

Наступление достоверного и невозможного события в результате проведения эксперимента однозначно прогнозируется: первое обязательно произойдет, второе – нет. Тем не менее, будем называть оба этих события случайными.

Вероятность достоверного события равна единице.

Доказательство. Так как  достоверное событие всегда происходит в результате опыта, то все исходы этого опыта являются для него благоприятными, то есть т = п, следовательно,

Р(А) = 1.

2. Вероятность невозможного события равна нулю.

Доказательство. Для невозможного события ни один исход опыта не является благоприятным, поэтому т = 0 и р(А) = 0.

 

10. Теорема  умножения вероятностей независимых событий.

Событие В называется независимым от события А, если появление события А не изменяет вероятности В, то есть  р (В/А) = р (В).

Замечание. Если событие В не зависит от А, то и А не зависит от В.

если событие  В зависит от события А, то и  событие А зависит от события В.

События A1 ,A2 ,..., An независимы в совокупности, если каждое из этих событий не зависит от любого события, которое можно составить из

остальных событий.

Из теоремы  произведения вероятностей n зависимых  событий: вытекает,

что вероятность произведения n событий, независимых в совокупности, равна произведению их вероятностей, т. е.:

P( A1, A2,... An)=P ( A1)P (A2)…P(An)

Вероятность наступления  двух независимых случайных событий  равна произведению вероятностей этих событий:

При решении задач теоремы сложения и умножения обычно применяются вместе.

 

 

 

14.Формула Бейса.

Пусть событие  А может произойти, только если происходит одно из событий{H1,H2,…,Hn} , образующих полную группу несовместных событий (H1,H2,…,Hn};HiHk = 0/,i ¹ k;H1 + H2 +…+ Hn = W). Вероятности гипотез P(Hi), вычисленные теоретически до опыта, называются их априорными вероятностями. Вероятность гипотезы Hi, вычисленная с учетом информации о том, что в результате эксперимента произошло некоторое событие A, называется апостериорной вероятностью гипотезы и обозначается PА(Hi).

Тогда условные вероятности (апостериорные вероятности) могут быть найдены по формуле  Байеса:

 

PA(Hi) =P(Hi)PHi(A)/P(A) 

 

где Р (А) находится по формуле  полной вероятности:

               n

P (A)=Σ P(Hi)PHi(A)

              i=1

 

► Напишем теорему  умножения вероятностей для события AHi :

 

P(AHi)=P(A)PA(Hi)= P(Hi)PHi(A)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

18.Дискретная  случайная велиина.способы ее  задания

Случайной величиной будем называть такую величину, которая в результате эксперимента принимает какое-либо одно заранее неизвестное

численное значение из множества возможных значений.

Дискретной будем называть случайную величину, множество возможных

значений которой  либо конечное, либо бесконечное, но счетное (т. е. все возможные значения случайной величины можно пронумеровать).

Случайную величину будем называть непрерывной, если ее возможные

значения сплошь заполняют некоторый промежуток.

может быть задана:

· таблично;

· графически, в виде многоугольника распределения;

· аналитически, формулой.

 

22.Биномиальное распределение его D(x) и M(x)

X-число появления события А в n независимых испытаний

P(x=k)= (k)=

M(x)=

D(x)=npq

Геометрическое распределение

X     1      2         3            k

P     p     pq      p       p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

26.M(x) D(x) непрерывной случайной величины

Математическое ожидание - число, вокруг которого сосредоточены значения случайной величины

M(x)=

Если х распределено между a b то интеграл от а до в.

f(x)={0, x  не принадлежит (a,b)

         не 0, x принадлежит (a,b)

 

Дисперсия случайной величины характеризует  меру разброса случайной величины около  ее математического ожидания.

  D(x)=

 

  D(x)=

 

30.генеральная и выборочная  совокупности.статистическое распределение  выборки. полигон и гистограмма.

n-объем выборки

xi 1  2  3  4  5  6    варианты

ni1  1  4  2  1   2     частота

 относительная частота Wi

xi 1            2          3            4        5           6 

ni 1/11    1/11     4/11    …

статистическое распределение  выборки 

полигон распределений (график по оси х – ni первой таблицы по оси у- xi)

 

гистограмма точно так  же в виде столбиков

 

 

34.доверительный интервал для мат ожидания нормально распределенного количественного признака.

M(x)=a неизвестный параметр

(xв-

P( - +

Ф(t)=

3. Перестановки  и размещения. Формулы для их  подсчета.

Число перестановок

Пусть имеется n различных объектов, например, n бильярдных шаров с соответствующими номерами.

Перестановкой n элементов будем называть их расположение в определенном порядке. Будем считать, что две перестановки различны, если в них существует хотя бы одно место, на котором располагаются различные элементы.

В этих двух перестановках  первые элементы разные, следовательно,

перестановки  разные. Число различных способов расположения n элементов в определенном порядке называется числом перестановок из n элементов, обозначается Pn и вычисляется по формуле: Pn = n!. Другими словами, всего существует n! разных перестановок из n различных элементов, где

n!=1⋅2⋅...⋅(n−2)(n−1)n .

Первый шар  можно положить в n различных ячеек, как только первый шар положили, второй можно положить в (n – 1) ячейку. Тогда два первых шара можно расставить n(n – 1) способами. Далее расставляем третий шар

и т. д., пока не останется  одно место для n-го шара. В результате для всех шаров получим: n(n−1)(n−2)…2⋅1=n!

Число размещений

Пусть имеется k различных элементов и n мест, причем k£n . Размещением из n по k называется любое упорядоченное подмножество из k элементов. То есть, чтобы получить размещение, из множества, содержащего n

элементов, выбирают k элементов (k < n). Упорядоченность означает, что другой порядок следования элементов приводит к другому размещению. Таким образом, два размещения, имеющие одинаковое количество элементов, различаются либо элементами, либо порядком их следования.

Число различных  способов выбора и расположения в определенном порядке k элементов из данных n элементов называется числом размещений из n элементов по k, обозначается k An и вычисляется по формуле: Аn k=n(n-1)(n-2)…(n-k+1)=n!/(n-k)! Первый элемент можно расположить n способами, второй элемент после этого можно расположить (n – 1) способами. Тогда оба элемента располагаются n(n – 1) способами. Дальше добавляем третий элемент и т. д. В результате для всех k элементов получим: n(n-1)(n-2)…(n-k+1)

 

 

 

7. Сумма и  произведение событий.

Суммой А+В двух событий А и В называют событие, состоящее в том, что произошло хотя бы одно из событий А и В. Суммой нескольких событий, соответ-ственно, называется событие, заключающееся в том, что произошло хотя бы одно из этих событий.

Назовем все возможные результаты данного опыта его исходами и предположим, что множество этих исходов, при которых происходит событие А (исходов, благоприятных событию А), можно представить в виде некоторой области на плоскости. Тогда множество исходов, при которых произойдет событие А+В, является объединением множеств исходов, благоприятных событиям А или В (рис. 1).

2. Произведением АВ событий А и В называется событие, состоящее в том, что произошло и событие А, и событие В. Аналогично произведением нескольких событий называется событие, заключающееся в том, что произошли все эти события.

Геометрической иллюстрацией множества исходов опыта, благоприятных  появлению произведения событий  А и В, является пересечение областей, соответствующих исходам, благоприятным  А и В.

Свойства операций сложения и умножения событий

1. А + В = В  + А – коммутативность сложения, перестановочный закон.

2. АВ = ВА –  перестановочный закон для умножения.

3. (А + В) + С  = А + (В + С) – сочетательный  закон для сложения.

4. (АВ)С = А(ВС) – сочетательный закон для умножения.

5. (А + В)С = АС + ВС – распределительный закон сложения относительно умножения.

6. (АВ) + С = (А  + С)(В + С) – распределительный закон умножения относительно

сложения.

 

11. Условная вероятность. Теорема умножения вероятностей зависимых событий.

Вероятность наступления  случайного события А и зависящего от него события В равна произведению вероятности события А на условную вероятность события В:

 

P (AB)=P(A)PA(B)=P(B) PB (A)

Случайное событие В  называется зависимым от случайного события А, если вероятность наступления события В зависит от того, произошло ли событие А.

Вероятность осуществления  случайного события В, вычисленная  при условии наступления события  А, называется уловной вероятностью события В и обозначается РА(В)

Если событие  В не зависит от события А, то P (B)=PA(B) .

 

 

 

15.Повторные независимые испытания. Формула Бернулли

. Рассмотрим серию из п испытаний, в каждом из которых событие А появляется с одной и той же вероятностью р, причем результат каждого испытания не зависит от результатов остальных. Подобная постановка задачи называется схемой повторения испытаний. Найдем вероятность того, что в такой серии событие А произойдет ровно к раз (неважно, в какой последовательности). Интересующее нас событие представляет собой сумму равновероятных несовместных событий, заключающихся в том, что А произошло в некоторых к испытаниях и не произошло в остальных п – к испытаниях. Число таких событий равно числу сочетаний из п по к, то есть , а вероятность каждого из них: pkqn-k, где q = 1 – p – вероятность того, что в данном опыте А не произошло. Применяя теорему сложения для несовместных событий, получим формулу Бернулли:

                                                .                                              

 

 

19.Математическое ожидание М(х)

И его  свойства.

М.о. называется сумма значений произведений случайных  величин на вероятности с которыми принимаются эти значения.

Свойство 1. Математическое ожидание суммы случайных величин равно

сумме их математических ожиданий, т. е.:

M( X +Y) =M( X) +M(Y)

аналогичное утверждение  справедливо и для разности, т. е.:

M( X -Y) =M( X) -M(Y) .

Свойство 2. Математическое ожидание постоянной величины равно этой

постоянной величине, т. е.: M(C) = C.

Свойство 3. Математическое ожидание произведения случайной величи-

ны на постоянную равно произведению постоянной величины на математи-

ческое ожидание случайной, т. е.:

M(CX) = C×M( X)

Свойство 4. Математическое ожидание произведения независимых слу-

чайных величин равно произведению их математических ожиданий, т. е.:

M( XY) =M( X) ×M(Y) ,

где Х и Y – независимые случайные величины.

 

 

 

 

 

 

 

 

23.непрерывная случайная величина.интегральная функция распределения и ее свойства.

 

F(x)=P(X<x)

Интегральная функция  распределения

F(x)=

 

Формула попадения  вероятности в промежуток

P(a<x<b)=F(b)-F(a)

Доказательство:

F(b)=P(x<b)=P(x<a)+P(a<=x<=b)=F(a)+ P(a<=x<=b)

P(a<x<b)=F(b)-F(a)

Функция распределения  возрастающая!

Вероятность попадения  в точку равна 0

 

27.равномерное распределение и его числовые характеристики

Непрерывная случайная  величина имеет равномерное распределение на отрезке [a, b], если на этом отрезке плотность распределения случайной величины постоянна, а вне его равна нулю.

M(x)=

 

31.выборочная средняя

Это среднее взвешанное

-статистическая оценка генеральной  средней.

35.проверка  статистических гипотез ошибки  первого и второго рода

Статистическая  гипотеза – это некоторое утверждение о виде распределения случайной величины или о параметрах распределения, которое необходимо проверить, используя соответствующие критерии, на основании

которых мы можем  либо опровергнуть гипотезу, либо утверждать, что данные наблюдений не противоречат гипотезе. Стоит отметить, что никогда  нельзя принимать гипотезу с полной уверенностью, поскольку всегда есть хотя бы малая вероятность того, что она неверна. При проверке статистической гипотезы могут возникнуть следующие си-

туации:

1) принимаем  гипотезу, когда она на самом  деле верна;

2) отвергаем  гипотезу, когда она на самом деле не верна;

3) отвергаем  гипотезу, когда она на самом  деле верна (ошибка I-го

рода);

4) принимаем  гипотезу, когда она на самом  деле не верна (ошибка II-

го  рода)

4. Классическое определение вероятности

Рассмотрим эксперимент, имеющий конечное число N исходов, которые a

priori представляются равновозможными. Если случайному событию А благо-

приятствуют M исходов эксперимента, то ему приписывается вероятность:

Р(А)=M/N.-классическая формула вероятности.

Свойства:

1. вероятность невозможного  события равно 0.

2. вероятность достоверного  события равна 1.

Алгоритм применения классической формулы вероятности

· Указать число исходов эксперимента N.

· Убедиться в равновозможности исходов.

· Определить число M исходов, благоприятствующих наступлению события.

· Вычислить вероятность события по формуле (1.4).

Формула классической вероятности часто неприменима, поскольку бывает невозможно представить  все исходы испытания в виде совокупности взаимоисключающих равновозможных событий. Также формула неприменима, если возможных исходов бесконечно много.

 

8. Теоремы сложения  вероятностей для несовместных  и совместных событий.

События А и В называются совместными, если они могут произойти оба в результате одного опыта. В противном случае (то есть если они не могут произойти одновременно) события называются несовместными.

Замечание 1. Если изобразить графически области исходов опыта, благоприятных несовместным событиям, то они не будут иметь общих точек.

Замечание 2. Из определения несовместных событий следует, что их произведение является невозможным событием.

Вероятность суммы  двух несовместных событий равна  сумме их

вероятностей:

Р (А + В) = Р (А) + Р (В).

Вероятность суммы  двух совместных событий равна сумме  их вероятностей без вероятности их совместного появления, т. е.:

P ( A+B)=P( A)+P(B)−P( AB)

 

 

 

12. Вероятность появления хотя бы одного события.

Теорема. Вероятность появления хотя бы одного из попарно независимых событий

А1, А2,…, Ап равна   р (А) = 1 – q1q2…qn ,       

где qi – вероятность события , противоположного событию Аi .

Доказательство.

Если событие А заключается в появлении хотя бы одного события из А1, А2,…, Ап, то события А и противоположны, поэтому сумма их вероятностей равна 1. Кроме того, поскольку А1, А2,…, Ап независимы, то независимы и , следовательно, р( ) = . Отсюда следует справедливость формулы (2.9).

 

16. Локальная  теорема Лапласа.

Пусть вероятность появления события А в каждом из n испытаний в серии

независимых испытаний  равна числу р, которое отлично  от нуля и единицы.

Тогда, если число  испытаний в серии очень велико ( n>>1 ), то вероятность того, что событие А в серии из n испытаний наступит ровно k раз, приближенно можно найти по следующей формуле:

 

 

 

 

Где  ; q=1-p

 

Данная формула  является асимптотической и она тем точнее, чем больше число n. Значения нормированной функции Гаусса ϕ(x) приведены в таблицах и занесены в память компьютера. Функция Φ(x) является четной, поэтому в таблицах значения даны только для положительных аргументов.

 

 

 

 

 

 

 

 

 

 

 

20.числовые характеристики д.с.в.( дисперсия и среднее квадратическое отклонение)

Д.-мера рассеяния случайной  величины относительно ее среднего, т.е. математ.ожидания.

D(x)=M(x-M(x))^2

Дисперсия среднее значение квадрата отклонения х от мат ожидания

Среднее квадрат. Отклонение

∂= D(x)

Свойства: D(c)=0

D(x+y)=D(x)+D(y)

D(x-y)=D(x)+D(y)

D(x)>0

D(CX)= D(x)

24.плотность распредения нсв и ее свойства.

P(a<x<b)=F(b)-F(a)

Свойство плотности:

f(x)>=0,тк F-возрастает

условие нормировки:

P(-

Пример :

Дано F(x)=

Находим P от каких то значений

P(a<x<b)=F(b)-F(a)

Строим график

f(x)=F’(x)={… (то есть находим производную)

 

28.нормальное распределение. Влияние параметров нормального распределения на форму нормальной кривой.

f(x)=

 

где a=M(x)  ,

a=0,

 

Функция гаусса(стандартное  нормальное распределение)

 

 

 

 

 

 

 

32.выборочная  и исправленная 

дисперсия

выборочная

 

Dв= )^2*Wi

Исправленная

S^2=(n/n-1)*Dв

При больших n, S^2=Dв

 

36.проверка  гипотезы о нормальном распределении  генеральной совокупности с помощью  критерия Пирсона.

Χ=

 

ni-эмпирические частоты

xв и s- теор плотность распределения

 

f(x)= *

плотность распределения

Χнабл^2< Χкр^2 гипотеза H принимается, наоборот не принимается.



Информация о работе Шпаргалка по "Высшая математика"