Шпаргалка по "Информатике"

Автор работы: Пользователь скрыл имя, 29 Мая 2013 в 16:19, шпаргалка

Описание работы

Работа содержит ответы на вопросы для экзамена (зачета) по "Информатике"

Файлы: 1 файл

математика экзамен.docx

— 212.71 Кб (Скачать файл)

1.Комбинаторика.Элементы комбинаторики.

Комбинаторика-это раздел математ.изучающ.совокупность(комбинации)элементов конечных множеств

2 основных правила комбинаторики.

   1.Правило умножения:если первый элемент(объект А)можно выбрать n- способами,то оба объекта а и б мы можем выбрать n1*n2 способами

ПРИМЕР:Сколькими способами могут быть распределены 3 призовых места среди 16 соревнующихся.

1.-16сп. 16*15*14=3360способов

2.-15сп.

3.-14сп.

   2.Правило  сложения:если первый элемент(объект а)можно выбрать n-способами,а второй элемент(объект б)можно выбрать n2-способами,при чем они не пересекаются,то любой из указанных объектов а или б можно выбрать n,n2-способами.

В студенческой группе 12 девушек  и 16 юношей.Сколькими способами можно выбрать для вручения призов 2-х студентов одного пола?

12 девушек

16 юношей

1 девушка-12 способов=12*11=132 способа

2 девушка-11 способов

 

1 юноша-16 способов=16*15=240 способов

2 юноша-15 способов

Решение вероятностных задач  часто облегчается если использовать комбинаторные формулы.Каждая из формул определяет число всевозможных исходов в некотором опыте стоящем в выборе на удачу m-элементов из рассматриваемого n-элементного множества

0 меньше m меньше=n

Схемы выбора элементов.

1.Без возвращения-выбранный  элемент обратно в множество не возвращается

2.С возвращением-выбор осущ.поэлементно с обязат.возвращением отобранного элемента на каждом шаге в рассматриваемое множество.

Пусть рассматриваемое множество  состоит из n-различных элементов,т.е.элементы имеют или разные названия или разные номера

Элементы комбинаторики.

Сочетанием  из n-элемента по m-элемента называется любое подмножество,которое состоит из m-элементов.

Сочетание-это комбинации,каждая из которых состоит из m-элементов и которые отличаются друг от друга только составом элементов.Порядок,в котором они располож.не имеет значения.

Сnm=m!(n-m!)         n!

0!=1 3!=1*2*3=6

1!=1 4!=1*2*3*4=24

2!=1*2=2 n!=1*2*3*4*5….

ПРИМЕР:Из группы в 25 человек нужно выбрать 3 человека на дежурство.Сколькими способами это можно сделать?

 N=25,m=3

C325=3!*22!       25!=23*4*25=2300

2.Размещение из n-элементов по m-элементов называется любое упорядоченное m-элементное подмножество рассматриваемого n-элементного множества.

Размещение-это  комбинации,состоящие из m-элементов,которые отличаются друг от друга либо составом элементов,либо порядком их расположения.

Аnm=n(n-m!)

ПРИМЕР:Расписание одного дня состоит из 5 уроков.Определить число вариантов расписания при выборе из 11 дисциплин.

A511=11!6!=7*8*9*10*11=55440 способов

Перестановкой из n-элементов называется размещение из n-элементов по n-элементов.

Перестановки-это  комбинации состоящие из n-элементов и отличающиеся друг от друга только порядком следования этих элементов.

Рn=Ann=n!

ПРИМЕР:Сколькосущ.способов располож.5 различных книг на полке?

P5=A55=5!=120 способов.

 

 

13.Дифференциальная функция распределения  непрерывной случайной величины,ее свойства.    

Непрерывной называют случайную величину, которая может принимать любые значения из некоторого заданного интервала, например, время ожидания транспорта, температура воздуха в каком-либо месяце, отклонение фактического размера детали от номинального, и т.д. Интервал, на котором она задана, может быть бесконечным в одну или обе стороны.

Плотность вероятности непрерывной случайной величины, она же дифференциальная функция распределения вероятностей - аналог закона распределения дискретной с.в. Но если закон распределения дискретной с.в. графически изображается в виде точек, соединённых для наглядности ломаной линией (многоугольник распределения), то плотность вероятностей графически представляет собой непрерывную гладкую линию (или кусочно-гладкую, если на разных отрезках задаётся разными функциями). Аналитически задаётся формулой. 
Если закон распределения дискретной с.в. ставит каждому значению x в соответствие определённую вероятность, то про плотность распределения такого сказать нельзя. Для непрерывных с.в. можно найти только вероятность попадания в какой-либо интервал. Считается, что для каждого отдельного (одиночного) значения непрерывной с.в. вероятность равна нулю. И графически вероятность попадания в интервал выражается площадью фигуры, ограниченной сверху графиком плотности вероятности, снизу осью ОХ, с боков - рассматриваемым интервалом. 
Свойства плотности вероятности: 
1) Значения функции неотрицательны, т.е. f(x)≥0 
2) Основное свойство плотности вероятности: несобственный интеграл от плотности вероятности в пределах от -∞ до +∞ равен единице (геометрически это выражается тем, что площадь фигуры, ограниченной сверху графиком плотности вероятности, снизу - осью OX, равна 1).

3.Классическое определение вероятности.

Классическое определение  вероятности события.

Вероятностью события  А называется отношение числа  m-случаев благоприятствующих этому событию,к числу n-всех возможных исходов образующих полную группу несовместно образованных случаев.

Р=Р(А)=m/n

N=0?m=1,    Р=1/6

 

 

 

4.Статистическое определение вероятности.

Статистической вероятностью события называется число вокруг которого группируются относительное значение частоты.

При рассмотрении результатов  отдельных испытаний очень трудно найти какие-либо закономерности. Однако в последовательности одинаковых испытаний  можно обнаружить устойчивость некоторых  средних характеристик. Частостью какого-либо события в данной серии из n испытаний называется отношение m/n, числа m тех испытаний, в которых событие А наступило, к общему числу испытаний n. Почти в каждой достаточно длинной серии испытаний частость события А устанавливается около определенного значения  , которое принимается за вероятность событияА. Устойчивость значения частости подтверждается специальными экспериментами. Статистические закономерности такого рода были впервые обнаружены на примере азартных игр, т. е. на примере тех испытаний, которые характеризуются равновозможностью исходов. Это открыло путь для статистического подхода к численному определению вероятности, когда нарушается условие симметрии эксперимента. Частость события А называют статистической вероятностью, которая обозначается

,

(1.2)


где m- число экспериментов, в которых появилось событие А; 
n - общее число экспериментов.

Формулы (1.1) и (1.2) для определения  вероятности имеют внешнее сходство, но они различны по существу. Формула (1.1) служит для теоретического вычисления вероятности события по заданным условиям опыта. Формула (1.2) служит для  экспериментального определения частости события. Чтобы воспользоваться формулой (1.2), необходим опытный статистический материал

5.Сумма событий.Вероятность суммы двух совместных и несовместных событий.

ПРАВИЛО 3:Вероятность суммы 2-х несовместных событий=сумме вероятностей этих событий

Р(А+В)=Р(А)+Р(В)

Р(А123+….Аn)=Р(А1)+Р(А2)+…Р(Аn)

ПРИМЕР:В денежно-вещевой  лотерее на каждые тысячу билетов  приходится 5 денежных и 20 вещевых.Какова вероятность выигрыша на 1 билет?

А-ден.выигрыш

В-вещевой выигрыш

Р(А)=5/1000

P(B)=20/1000

P(A+B)=25/1000=2.5%

ПРАВИЛО 4:Вероятность суммы 2-х совместных событий А и В=сумме их вероятностей минус вероятность произведения

Р(А+В)=Р(А)+Р(В)-Р(АВ)

ПРИМЕР:2 студента решают задачу,вероятностьтого,что задачу решит 1-ый студент 0,7,вероятность того,что решит 2-ой студент=0,9.

Найти вероятность того,что задачу решит хотя бы один студент.

(АВ)=0,7+0,9-0,7*0,9=0,97%

6.Произведение событий.

Вероятность произведения двух независимых и зависимых  событий.

Правило 1:Вероятность произведения двух независимых событий А и В= произведению этих событий.

Р(АВ)=Р(А)х Р(В)

 

Пример:Найти вероятность поражения цели при совместной стрельбе тремя орудиями.Если  вероятности поражения орудия цели равны.

Р(А)= 0.9 х 0.8 х 0.7 = 0.504

Случай нахождения вероятности  наступления хотя бы одного из событий:

Р(А)= 1 – у1 х у2 х у3 х ун....

Ун=1 – Р2 х (1,2….н)

Каковавероятность поражения цели хотя бы одним орудием?

Р(А)=1-0.1 х 0.2 х 0.3 =0.994

Вероятность произведения двух зависимых событий А и В = произведению вероятности одного из них на условную вероятность второго

Р(А х В)=Р х РВ(А)=Р(А) х РА(В)

В ящике 11 деталей из которых 3 нестандартные.

Событие А-извлечение нестандартных  деталей.

Р(А)= 3/11

В-извлечение стандартных  деталей

РА(В)=8/10

Р=3/11 х 8/10 =0.22

Пример:Студент пришел на экзамен зная лишь 40 из 50% программы.Найти вероятность того,что студент ответит на 3 вопроса билета.

Р(А) = 40/50

Р(С)=38/48

РА(В)=39/49

Р=40/50 х 39/49 х 38/48 = 0.5

7.Формула Бернули.

Пусть проводится n-независимых испытаний,в каждом из которых событие А может пройти с одной и той же вероятностью Р или не произойти с вероятностью: q=1 – р

 

Теорема:Если проводится n-независимых испытаний в каждом из которых событие А может наступить с вероятностью Р или не произойти с вероятностью q,то вероятность того,что событие А произойдет m-раз.

Рn(m)=Cnm х Pm – qa-m =произведению числа комбинаций сочетаний (формула Бернули)

Формулу Бернули можно прменять,если выполняются след.условия:

1.число испытаний n-конечно

2.каждое испытание имеет  только 2 исхода:

-событие А осуществилсь

-событие А не осуществилось

3.Испытание независимое

4.Вероятность появление  события А постоянна и=р.Вероятность противоположного события также постоянна и =q.

8.Случайные величины,их типы и способы описания.

1.Понятие случайной величины  дискретные и непрерывные случайные  величины.

Случайной величиной называется величина которая в результате опыта может принять любые заранее неизвестные значения.

x,y,z-случайные события.

Для того,чтобы иметь полное представление об изучаемой случайной величине недостаточно знать какие значения она принимает.Важно знать,на сколько часто они принимаются этой величиной в результате опыта.Для этой цели используют понятие закона распределения.

Законом распред.случ.величин наз.всякое соотношение устонавливающее связь между возможными знач.случайной величины и соответств.или вероятности.

Наиболее удобным способом задания закона распред.явл.функция распределения.

Функция распред.случ.величины х назыв.функция f(х) равная вероятности того,что случайная величина х примет знач.меньшеЯ,чем некоторое значение х из множества дейст.чисел хЭ R

F(x)=P(x<x).

32.Корреляция.Задачи корреляционного анализа.

Корреляционный  анализ - метод, позволяющий обнаружить зависимость между несколькими случайными величинами.Допустим, проводится независимое измерение различных параметров у одного типа объектов. Из этих данных можно получить качественно новую информацию - о взаимосвязи этих параметров.Например, измеряем рост и вес человека, каждое измерение представлено точкой в двумерном пространстве:

Несмотря на то, что величины носят случайный характер,в общем наблюдается некоторая зависимость - величины коррелируют.В данном случае это положительная корреляция (при увеличении одного параметра второй тоже увеличивается). Возможны также такие случаи:

Отрицательная корреляция:

Отсутствие корреляции:


Взаимосвязь между переменными  необходимо охарактеризовать численно, чтобы, например, различать такие  случаи:


Для этого вводится коэффициент корреляции. Он рассчитывается следующим образом:

Есть массив из n точек {x1,ix2,i}

Рассчитываются средние  значения для каждого параметра: 

И коэффициент корреляции: 

r изменяется в пределах от -1 до 1. В данном случае это линейный коэффициент корреляции, он показывает линейную взаимосвязь между xиx2: r равен 1 (или -1), если связь линейна.

Коэффициент r является случайной величиной, поскольку вычисляется из случайных величин. Для него можно выдвигать и проверять следующие гипотезы:

1. Коэффициент  корреляции значимо отличается  от нуля (т.е. есть взаимосвязь  между величинами):Тестовая статистика вычисляется по формуле:

и сравнивается с табличным значением  коэффициента Стьюдента t(p = 0.95, f =  ) = 1.96

Если тестовая статистика больше табличного значения, то коэффициент  значимо отличается от нуля. По формуле  видно, что чем больше измерений n, тем лучше (больше тестовая статистика, вероятнее, что коэффициент значимо отличается от нуля)2. Отличие между двумя коэффициентами корреляции значимо:

Тестовая статистика:

Также сравнивается с табличным  значением t(p, )

Методами корреляционного  анализа решаются следующие задачи:

1) Взаимосвязь. Есть ли  взаимосвязь между параметрами?

2) Прогнозирование. Если  известно поведение одного параметра,  то можно предсказать поведение  другого параметра, коррелирующего с первым.

3) Классификация и идентификация  объектов. Корреляционный анализ  помогает подобрать набор независимых  признаков для классификации.

33.Построение корреляционного поля.Определение формы и направленности корреляционной зависимости.

Визуальный анализ корреляционного  поля позволяет сделать

предположение о форме  взаимосвязи двух исследуемых показателей. По форме

взаимосвязи корреляционные зависимости принято разделять  на линейные  (см.

рис. 1) и нелинейные (см. рис. 2). 

Рис 1. Линейная статистическая связь Рис 2. Нелинейная статистическая связь

При линейной зависимости  огибающая корреляционного поля близка к

эллипсу. Линейная взаимосвязь  двух случайных величин состоит  в том, что при

увеличении одной случайной величины другая случайная величина имеет

тенденцию возрастать (или  убывать) по линейному закону.

Выявление формы статистической зависимости необходимо для выбора

метода оценки тесноты (

Направленность  взаимосвязи

Направленность  является положительной,  если увеличение значения

одного признака приводит к увеличению значения второго (см. рис. 3).

Рис 3. Положительная  направленность Рис 4. Отрицательная  направленность

Направленность  является отрицательной,  если увеличение значения

одного признака приводит к уменьшению значения второго (см. рис. 4).

Зависимости,  имеющие положительные или отрицательные

направленности, называются монотонными.

Таким образом,  любая монотонная зависимость характеризуется

направленностью, которая может быть положительной, или отрицательной.

Зависимость может  и не иметь направленности.

 

 

 

 

 

 

 

 

 

34.Определение  тесноты корреляционной связи.Коэффициент корреляции Браве-Пирсона.

Нормированный коэффициент  корреляции Браве-Пирсона

 
В качестве оценки генерального коэффициента корреляции р используется коэффициент корреляции r Браве–Пирсона. Для его определения принимается предположение о двумерном нормальном распределении генеральной совокупности, из которой получены экспериментальные данные. Это предположение может быть проверено с помощью соответствующих критериев значимости. Следует отметить, что если по отдельности одномерные эмпирические распределения значений xи yсогласуются с нормальным распределением, то из этого еще не следует, что двумерное распределение будет нормальным. Для такого заключения необходимо еще проверить предположение о линейности связи между случайными величинами Х и Y. Строго говоря, для вычисления коэффициента корреляции достаточно только принять предположение о линейности связи между случайными величинами, и вычисленный коэффициент корреляции будет мерой этой линейной связи. 
Коэффициент корреляции Браве–Пирсона (   ) относится к параметрическим коэффициентам и для практических расчетов вычисляется по формуле: 
 (1.1) 
Из формулы (1.1) видно, что для вычисления   необходимо найти средние значения признаков Х и Y, а также отклонения каждого статистического данного от его среднего  . Зная эти значения, находятся суммы  . Затем, вычислив значение  , необходимо определить достоверность найденного коэффициента корреляции, сравнив его фактическое значение с табличным для k = n –2 (табл. 10 приложения). Если  , то можно говорить о том, что между признаками наблюдается достоверная взаимосвязь. Если  , то между признаками наблюдается недостоверная корреляционная взаимосвязь.

 

35.Определение  связи при помощи  коэффициента корреляции Спирмена.

Коэффициент ранговой корреляции Спирмена - это непараметрический метод, который используется с целью статистического изучения связи между явлениями. В этом случае определяется фактическая степень параллелизма между двумя количественными рядами изучаемых признаков и дается оценка тесноты установленной связи с помощью количественно выраженного коэффициента.

Практический расчет коэффициента ранговой корреляции Спирмена включает следующие этапы:

1) Сопоставать каждому из признаков их порядковый номер (ранг) по возрастанию (или убыванию).

2) Определить разности  рангов каждой пары сопоставляемых  значений.

3) Возвести в квадрат  каждую разность и суммировать полученные результаты.

4) Вычислить коэффициент  корреляции рангов по формуле:.

где   - сумма квадратов разностей рангов, а   - число парных наблюдений.

При использовании коэффициента ранговой корреляции условно оценивают  тесноту связи между признаками, считая значения коэффициента равные 0,3 и менее, показателями слабой тесноты  связи; значения более 0,4, но менее 0,7 - показателями умеренной тесноты связи, а значения 0,7 и более - показателями высокой  тесноты связи.

Мощность коэффициента ранговой корреляции Спирмена несколько уступает мощности параметрического коэффициента корреляции.

Коэффицент ранговой корреляции целесообразно применять при наличии небольшого количества наблюдений. Данный метод может быть использован не только для количественно выраженных данных , но также и в случаях, когда регистрируемые значения определяются описательными признаками различной интенсивности

 

36.Определение достоверности коэффициента  корреляции.

Оценка достоверности коэффициента корреляции,полученного методом ранговой корреляции и методом квадратов

Способ 1  
Достоверность определяется по формуле:

Критерий t оценивается по таблице значений t с учетом числа степеней свободы (n — 2), где n — число парных вариант. Критерий t должен быть равен или больше табличного, соответствующего вероятности р ≥99%.

Способ 2  
Достоверность оценивается по специальной таблице стандартных коэффициентов корреляции. При этом достоверным считается такой коэффициент корреляции, когда при определенном числе степеней свободы (n — 2), он равен или более табличного, соответствующего степени безошибочного прогноза р ≥95%.

9.Ряд распределения дискретной  случайной величины,многоугольник распределения.

Закон распределения  дискретной случайной величины

Определение.  Соотношение между возможными значениями случайной величины и их вероятностями называется законом распределения дискретной случайной величины.           

 Закон распределения  может быть задан аналитически, в виде таблицы или графически.            

 Таблица соответствия  значений случайной величины  и их вероятностей называется рядом распределения.           

 Графическое представление  этой таблицы называется многоугольником распределения.  При этом сумма все ординат многоугольника распределения представляет собой вероятность всех возможных значений случайной величины, а, следовательно, равна единице. 

 

            

Пример. По цели производится 5 выстрелов. Вероятность попадания для каждого выстрела равна 0,4. Найти вероятности числа попаданий и построить многоугольник распределения.            

 

           

 Вероятности пяти попаданий  из пяти возможных, четырех  из пяти и трех из пяти  были найдены выше по формуле  Бернулли и равны соответственно:Аналогично найдем:            

Пример. В первой коробке содержится 10 шаров, из них 8 белых; во второй коробке 20 шаров, из них 4 белых. Из каждой коробки наугад извлекли по одному шару, а затем из этих двух шаров наугад берут один шар. Найти вероятность того, что этот шар белый.  

 

           

 Вероятность того, что  взятый из первой коробки шар  белый - что не белый - .           

 Вероятность того, что  взятый из второй коробки шар  белый -  что не белый -           

 Вероятность того, что  повторно выбран шар, извлеченный  из первой коробки и вероятность  того, что повторно выбран шар,  извлеченный из второй коробки,  равны 0,5.           

 Вероятность того, что  повторно выбран шар, извлеченный  из первой коробки, и он белый  -           

 Вероятность того, что  повторно выбран шар, извлеченный  из второй коробки, и он белый  -           

 Вероятность того, что  повторно будет выбран белый  шар, равна

 

10.Числовые характеристики дискретной  случайной величины:математическое ожидание,дисперсия,среднее квадратическое отклонение.

Числовые характеристики дискретных случайных величин

Математическое  ожидание дискретной случайной величины есть сумма произведений всех её возможных значений на их вероятности: 
M(X) = x1p+ x2p+ ... + xnpn

Свойства математического  ожидания. 
1) Математическое ожидание постоянной величины равно самой величине: 
М(С) = С 
2) Постоянный множитель можно выносить за знак математического ожидания: 
М(СХ) = С·М(Х) 
3) Математическое ожидание суммы случайных величин равно сумме математических ожиданий слагаемых: 
М(Х+ Х+ …+ Хn) = М(Х1) + М(Х2) + ... + М(Хn
4) Математическое ожидание произведения взаимно независимых случайных величин равно произведению математических ожиданий сомножителей: 
М(Х· Х· ... · Хn) = М(Х1) · М(Х2) · ... · М(Хn)

Дисперсия дискретной случайной величины есть математическое ожидание квадрата отклонения случайной величины от её математического ожидания: 
D(X) = (x- M(X))2p+ (x- M(X))2p+ ... + (xn- M(X))2p= x21p+ x22p+ ... + x2np- [M(X)]2

Свойства дисперсии. 
1) Дисперсия постоянной величины равна нулю: D(С) = 0 
2) Постоянный множитель можно выносить за знак дисперсии, предварительно возведя его в квадрат: D(СХ) = С· D(Х) 
3) Дисперсия суммы (разности) независимых случайных величин равна сумме дисперсий слагаемых: D(Х± Х± ... ± Хn) = D(Х1) + D(Х2) + ... + D(Хn)

Среднее квадратическое отклонение дискретной случайной величины, оно же стандартное отклонение или среднее квадратичное отклонение есть корень квадратный из дисперсии: 
σ(X) = √D(X)

Мода дискретной случайной величины Mo(X) - это значение случайной величины, имеющее наибольшую вероятность. На многоугольнике распределения мода - это абсцисса самой высокой точки. Бывает, что распределение имеет не одну моду.

Коэффициент вариации случайной величины - это относительная мера вариации. 
V(X) = |σ(X)/M(X)| · 100%

Асимметрия (коэффициент асимметрии) случайной величины (и дискретной, и непрерывной) As(X) - величина, характеризующая степень асимметрии распределения относительно математического ожидания. Коэффициент асимметрии дискретной случайной величины вычисляется по формуле: 
As(X) = [(x1-M(X))3p+ (x2-M(X))3p+ ... + (xn-M(X))3pn]/σ3 
Если коэффициент асимметрии отрицателен, то либо большая часть значений случайной величины, либо мода находятся левее математического ожидания, и наоборот, если As(X)>0, то правее.

Эксцесс (коэффициент эксцесса) случайной величины (и дискретной, и непрерывной) Ex(X) - величина, характеризующая степень островершинности или плосковершинности распределения, т.е. степень так называемого «выпада». Коэффициент эксцесса дискретной случайной величины вычисляется по формуле: 
Ex(X) = [(x1-M(X))4p+ (x2-M(X))4p+ ... + (xn-M(X))4pn]/σ- 3

Пример 2.1

Составить самим  закон распределения случайной  дискретной величины X, которая может  принимать 5 значений. Найти: 
– её числовые характеристики 
- функцию распределения 
– вероятность того, что X примет значение меньше M(X); 
– вероятность того, что X примет значение больше 0,5 M(X). 

Показать  решение

Пример 2.2

M(X) = 5,6; D(X) = 3,04. Вычислить M(Y) и D(Y), если Y = 3x + 2.

11.Интегральная функция распределения  непрерывной случайной величины,ее свойства и график.

Функция распределения случайной величины, она же интегральная функция распределения вероятностей - это функция, определяющая для каждого значения x вероятность того, что случайная величина (ξ) примет значение меньшее, чем x: F(x) = P(ξ < x). Численно функция распределения равна площади фигуры, ограниченной сверху графиком плотности вероятности, снизу осью ОХ, с боков - рассматриваемым интервалом. 
Основные свойства: 
1) Значения функции распределения лежат в интервале [0; 1], т.е. 0 ≤ F(X) ≤ 1 
2) Это функция неубывающая, при x→-∞ F(X)→0, при x→+∞ F(X)→1 
3) Вероятность попадания в интервал (a, b) определяется формулой F(b) - F(a) 
 
Взаимосвязь интегральной и дифференциальной функций распределения вероятностей:

Пример 4.1

Для непрерывной  случайной величины задана плотность  распределения. Требуется построить  графики плотности вероятности  и функции распределения, определив  предварительно параметр A.

 

 

12.Числовые характеристики непрерывной  случайной величины. 

Числовые характеристики непрерывных случайных величин

Математическое  ожидание непрерывной случайной величины вычисляется по формуле:

В частности, если с.в. задана своей плотностью вероятности на каком-либо отрезке, то и интеграл вычисляем на этом отрезке.

Дисперсия непрерывной случайной величины вычисляется по формуле:

Относительно  пределов интегрирования - то же самое.

Среднее квадратическое отклонение непрерывной случайной величины, оно же стандартное отклонение или среднее квадратичное отклонение есть корень квадратный из дисперсии: 
σ(X) = √D(X)

Мода непрерывной случайной величины Mo(X) - значение с.в., имеющее наибольшую вероятность. Если в задаче требуется определить моду - находим экстремум (максимум) плотности вероятности f(x).

Коэффициент вариации непрерывной случайной величины вычисляется по той же формуле, что и для дискретной с.в.: 
V(X) = |σ(X)/M(X)| · 100%

Асимметрия (коэффициент асимметрии) случайной величины As(X) - величина, характеризующая степень асимметрии распределения относительно математического ожидания. Коэффициент асимметрии непрерывной случайной величины вычисляется по формуле:

Если коэффициент  асимметрии отрицателен, то либо большая  часть значений случайной величины, либо мода находятся левее математического  ожидания, и наоборот, если As(X)>0, то правее.

Эксцесс (коэффициент эксцесса) случайной величины Ex(X) - величина, характеризующая степень островершинности или плосковершинности распределения. Коэффициент эксцесса непрерывной случайной величины вычисляется по формуле:

Пример 5.1

Для непрерывной  случайной величины задана функция  распределения. Найти математическое ожидание, дисперсию, среднеквадратическое отклонение. Вычислить вероятность  того, что отклонение случайной величины от её математического ожидания не более среднеквадратического отклонения.

 

 

 

 

 

 

 

 

 

14.Равномерное распределение,его графическое изображение.

Равномерное распределение

Плотность вероятности  равномерного распределения сохраняет  на интервале (a, b) постоянное значение, вне этого интервала плотность вероятности равна нулю. Исходя из основного свойства плотности вероятности, 
f(x) = 1/(b-a) на интервале (a;b). 
Интегральную функцию распределения (вероятность того, что с.в. примет значение меньшее, чем x) находим как интеграл от -∞ до x от плотности вероятности: F(x) = (x-a)/(b-a) 
Графики плотности вероятности и функции равномерного распределения:

Математическое  ожидание равномерного распределения: M(X) = (a + b)/2 
Дисперсия равномерного распределения: D(X) = (b - a)2/12 
Среднее квадратичное отклонение равномерного распределения: σ(X) = (b - a)/(2√3) 

 

 

 

 

 

 

 

 

 

15.Общее нормальное распределение,его графическое изображение.

Нормальное распределение

Нормальное  распределение имеет плотность  вероятности 1/[σ√2π]·e-(x-a)2/2σ2, где a - математическое ожидание, σ - среднее квадратическое отклонение.

Значения плотности  нормального распределения для  конкретного числового значения x можно вычислить в Excel с помощью формулы =НОРМРАСП(x;a;σ;0).

 Если a = 0, σ = 1, то такое нормальное распределение называется стандартным. Значения плотности стандартного нормального распределения можно посмотреть в таблице или вычислить в Excel с помощью формулы =НОРМРАСП(x;0; 1;0) 
График нормального распределения имеет куполообразную форму, он симметричен относительно своего математического ожидания, а на степень его островершинности влияет величина среднего квадратичного отклонения σ.

Асимметрия, эксцесс, мода и медиана нормального распределения  равны: 
As(X) = 0; Ex(X) = 0; Mo(X) = a; Me(X) = a, где а - математическое ожидание. 
 
Интегральная функция нормального распределения вероятностей:

Интегральная  функция распределения вероятностей показывает вероятность того, что  с.в. примет значение меньшее, чем x: F(x) = P(ξ < x). Численно она равна площади криволинейной трапеции, ограниченной сверху графиком плотности вероятности, снизу осью OX, на интервале от -∞ до x. Ниже дана иллюстрация.

17.Вероятность попадания нормальной  распределенной случайной величины  в заданный интервал.

1.Вероятность попадания нормально распределенной случайной величины в некоторый интервал(L,B),вычисляется по следующей формуле:

Р(d>x<=B)=Ф(В-а/U)-Ф(L-a/U)

 

2.Вероятность того,что случ.величина х попадет в интервал: (a-L,a+L),будет вычисляться по след.формуле:

P(a-L<х<а+L)=Р((х-а)<L)=2Ф(L/i)

При L=U,P(a-u<x<a+u)= 0,6827

L=2U,P(a-2u<x<a+2u)=0,9545

L=3U, P(a-3u<x<a+3u)=0,9973

 

18.Правило 3-х сигма.

Правило 3-х сигм.Событие,состоящее в том.что нормально распределенная случ.величина примет знач.отлич.от своего математич.ожидания больше чем на утроенное знач.среднеквадрат.отклон.практически невозможна.

ПРИМЕР:Дана нормальная распред.случ.велич.с парамерами:

а=10,U=2.

Найти вероятноть того,что в результате испытания величина примет значение в промежутке(8;12).Записать формулу плотности вероятности данной случайной величины.

F(x)=1/2(корень из 2П) х е –(х-10)2/8

P(8;12)=Ф(12-10/2)-Ф(8-10/2)=Ф(1)-Ф(1)=Ф(1)+Ф(1)=0.34134+0.34134=0.68268

 

 

 

 

 

 

 

 

19.Основные понятия  математической статистики:генеральная совокупность,выборочная совокупность.Выборочный метод статистических исследований.

1.Предмет и задачи математ.статистики.

Математ.стат.это раздел математ.,в которой изуч.методы сбора,систематизации и обработки результатов наблюд.,массовых случ.явл.для выявл.соответств.закономерности.

Цель математ.статистики состоит в создании методов сбора и обработки статистич.данных для получ.научн.и практических выводов.

Говорят,что математ.статистика-это теория принятия решений в условиях неопред.Предметом исслед.мат.статистики явл.совокупность объектов объедин.некоторыми признаками.Признаки объектов могут быть качественными:пол,образование) ,количественными(возраст,успеваемость),по типу измеряемой величины(дискретные-число детей в семье),непрерывные-результат в прыжке.

2.Выборочный метод статистических  исследований.Совокупность всех объектов объединенных классифицирующих  признаками наз.генеральной совокупн.объектов.Задачи исследования является изучение варьирующих(изменяющихся) признаков объектов ген.совокупности.Для решения данной задачи проводят эксперимент в результате которого получают х-ку интересующего признака,т.е значение случ.величины.Если в ходе эксперимента была обследовнна вся генеральная совокупность,то такое обследование наз.сплошным.

СПЛОШНОЕ обследование дает объективную хар-ку генеральной совокупности объекта.Однако обследование всей совокупности объектов процесс трудоемкий,а иногда и невозможный,поэтому на практике применяют выборочный метод исследования.

Выборочный метод исследования заключ.в том,что из ген.совокупн.объектов извлекаются некот чать объектов для непосредственного изучения.эти объекты образуют выборочную совокупн.объекта.Кол-во объектов ген.совокупности и выборочной называют их объемом.

Исследовать изучает и  анализирует выборочную совокупность и на основании получ.результатов делает выводы о параметрах ген.совокупности.Таким образом сущность выборочного метода состоит в том,чтобы по некоторой части ген.совокупности выносить суждения о ее свойствах в целом.

Формиров.и изуч.выборочной совокупности имеет смысл тольучаеко в том случае,если она объективно отражает свойства ген.совокупн.с точки зрения структуры и величины интересующего нас варьируемого признака.В этом случае говорят,что выборка явл.репрезентативной.Чтобы выборка была репрезентативной:

1.Каждый объект из ген  совокупн.отобран случайно.

2.Осущ.выбор оптимального объема выборки(чем меньше объем выборки,тем меньшей степени она предоставл.совокупность)

Пусть из ген.совокупн.объектов N извлечена выборочная совокупн.n.Измерена некоторая случ.величина х(интересующий нас признак велич.х прин.след.снач.х1х2х3….хn.Этот ряд значений называется-простым статистическим рядом.Отдельные знач.этого ряда наз.вариантами.Если варианта х;появилось m…то число m называют частотой.

Отношение частоты к выборке  наз.относит.частотой.Статистич.распред.обычно представляют в виде вариационных рядов и их графич.изображений.

Вариационный ряд-это ранжированный  в порядке возрастания(убывания)ряд вариантов с соответствующ.им частотами.

 

20.Безинтервальный вариационный ряд.Полигон,кумулята.

В зависимости от характера  вариации признака различ:

1.безинтервальный(дискретный вариационный ряд)Это таблица,в первой строке9столбце)которой записаны упорядоченные значения вариант.

А во 2-ой строке соответств.им частоты или относит.частоты.

Данный ряд строится если анализируется выборка небольшого объема и в ней встречается большое кол-во одинаковых значений.

Пример:Получ.эксперимент.данные при взвешивании девочек 6 лет.

24,22,23,28,24,23,25,27,25,25

N=10 девочек

Ранжированный ряд:22,23,23,24,24,25,25,25,27,28

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

21.Группировка  статистических данных в виде  интервального вариационного ряда.Гистограмма.  

Интервальный вариационный ряд.

Если изучаемая случайная  величина является непрерывной, то ранжирование и группировка наблюдаемых значений зачастую не позволяют выделить характерные  черты варьирования ее значений. Это  объясняется тем, что отдельные  значения случайной величины могут  как угодно мало отличаться друг от друга и поэтому в совокупности наблюдаемых данных одинаковые значения величины могут встречаться редко, а частоты вариантов мало отличаются друг от друга.

Нецелесообразно также построение дискретного ряда для дискретной случайной величины, число возможных  значений которой велико. В подобных случаях следует построить интервальный (вариационный) ряд распределения. Для  построения такого ряда весь интервал варьирования наблюдаемых значений случайной величины разбивают на ряд частичных интервалов и подсчитывают частоту попадания значений величины в каждый частичный интервал.

Интервальным  вариационным рядом называется упорядоченная  совокупность интервалов варьирования значений случайной величины с соответствующими частотами или частостями попаданий в каждый из них значений величины.

Построение интервального  вариационного ряда рассмотрим на примере.

При измерении диаметра валиков  после шлифовки получены следующие  результаты:

6,75; 6,77; 6,77; 6,73; 6,76; 6,74; 6,70; 6,75; 6,71; 6,72; 6,77; 6,79; 6,71; 6,78;

6,73; 6,70; 6,73; 6,77; 6,75; 6,74; 6,71; 6,70; 6,78; 6,76; 6,81; 6,69; 6,80; 6,80;

6,77; 6,68; 6,74; 6,70; 6,70; 6,74; 6,77; 6,83; 6,76; 6,76; 6,82; 6,77; 6,71; 6,74;

6,77; 6,75; 6,74; 6,75; 6,77; 6,72; 6,74; 6,80; 6,75; 6,80; 6,72; 6,78; 6,70; 6,75;

6,78; 6,78; 6,76; 6,77; 6,74; 6,74; 6,77; 6,73; 6,74; 6,77; 6.74; 6,75; 6,74; 6,76;

6,76; 6,74; 6,74; 6,74; 6,74; 6,76; 6,74; 6,72; 6,80; 6,76; 6,78; 6,73; 6,70; 6,76;

6,76; 6,77; 6,75; 6,78; 6,72; 6,76; 6,78; 6,68; 6,75; 6,73; 6,82; 6,73; 6,80; 6,81;

6,71; 6,82; 6,77; 6,80; 6,80; 6,70; 6,70; 6,82; 6,72; 6,69; 6,73; 6,76; 6,74; 6,77;

6,72; 6,76; 6,78; 6,78; 6,73; 6,76; 6,80; 6,76; 6,72; 6,76; 6,76; 6,70; 6,73; 6,75;

6,77; 6,77; 6,70; 6,81; 6,74; 6,73; 6,77; 6,74; 6,78; 6,69; 6,74; 6,71; 6,76; 6,76;

6,77; 6,70; 6,81; 6,74; 6,74; 6,77; 6,75; 6,80; 6,74; 6,76; 6,77; 6,77; 6,81; 6,75;

6,78; 6,73; 6,76; 6,76; 6,76; 6,77; 6,76; 6,80; 6,77; 6,74; 6,77; 6,72; 6,75; 6,76;

6,77; 6,81; 6,76; 6,76; 6,76; 6,80; 6,74; 6,80; 6,74; 6,73; 6,75; 6,77; 6,74; 6,76;

6,77; 6,77; 6,75; 6,76; 6,74; 6,82; 6,76; 6,73; 6,74; 6,75; 6,76; 6,72; 6,78; 6,72;

6,76; 6,77; 6,75; 6,78.

Для построения интервального  ряда необходимо определить величину частичных интервалов. Считая, что  все частичные интервалы имеют  одну и ту же длину, для каждого  интервала следует установить его  верхнюю и нижнюю границы, а затем  в соответствии с полученной упорядоченной  совокупностью частичных интервалов сгруппировать результаты наблюдении. Длину частичного интервала h следует выбрать так, чтобы построенный ряд не был громоздким и в то же время позволял выявить характерные черты изменения значений случайной величины.

Просматривая результаты наблюдений, находим, что наибольшим значением случайной величины х наиб является 6,83, а наименьшим  х наим – 6,68. Найдем размах варьирования R. :

R=6,83-6,68=0,15.

Выберем число интервалов . Для того чтобы вариационный ряд не был слишком громоздким, обычно число интервалов берут от 7 до 11. Положим предварительно v=7, тогда длина частичного интервала

За начало первого интервала  рекомендуется брать величину

хнач = хнаим – 0,5h.

В данном случае хнач = 6,67. 

Конец последнего интервала  должен удовлетворять условию

 

Промежуточные интервалы  получают прибавляя к концу предыдущего интервала длину частичного интервала h (в рассматриваемом случае h=0,02).

Теперь, просматривая результаты наблюдений, определяем, сколько значений признака попало в каждый конкретный интервал. При этом в интервал включают значения случайной величины, большие  или равные  нижней границе и меньшие верхней границы.

В таблице частота m, показывает, в скольких наблюдениях случайная величина приняла значения, принадлежащие тому или иному интервалу, причем нижний конец интервала входит в него, а верхний—нет. Такие частоты обычно называют интервальными, а их отношение к общему числу наблюдений—интервальными частостями.

При вычислении интервальных частостей округление результатов следует проводить таким образом, чтобы общая сумма частостей была равна 1:

Для данного примера интервальный вариационный ряд имеет вид:

x– xi+1

mi

mi/h

/h

1

6,67-6,69

2

0,01

100

0,5

2

6,69-6,71

15

0,075

750

3,75

3

6,71-6,73

17

0,085

850

4,25

4

6,73-6,75

44

0,22

2200

11

5

6,75-6,77

52

0,26

2600

13

6

6,77-6,79

44

0,22

2200

11

7

6,79-6,81

14

0,07

700

3,5

8

6,81-6,83

11

0,055

550

2,75

9

6,83-6,85

1

0,005

50

0,25

 

200

1

   

По данным интервального  ряда строят гистограмму частот или  гистограмму относительных частот:Ступенчатая фигура, состоящая из прямоугольников, основания которых- частичные интервалы, высоты равны отношению частоты к длине частичного интервала( плотность частоты) (частости к длине частичного интервала (плотность частости)).Гистограмма частостей имеет вид:

Для гистограммы частот: площадь  каждого прямоугольника равна частоте  интервала, сумма площадей всех прямоугольников  равна объему выборки.

Для гистограммы частостей: площадь каждого прямоугольника равна частости интервала, сумма площадей всех прямоугольников равна 1. 

Вариационные  ряды задают статистическое распределение выборки: соответствие меж

22-23.Характеристика положения выборочной совокупности:выборочное среднее,мода,медиана. 
Основными параметрами генеральной совокупности являются математическое ожидание (генеральная средняя) М(Х) и среднее квадратическое отклонение s. Это постоянные величины, которые можно оценить по выборочным данным. Оценка генерального параметра, выражаемая одним числом, называется точечной.

Точечной  оценкой генеральной средней является выборочное среднее 

.

Выборочным средним называется среднее арифметическое значение признака выборочной совокупности.

Если все значения x1, x2,..., xпризнака выборки различны (или если данные не сгруппированы), то:

Если же все значения признака x1, x2,..., xимеют соответственно частоты n1, n2,..., nk, причем n+ n+...+ n= n (или если выборочное среднее вычисляется по вариационному ряду), то

В том случае, когда статистические данные представлены в виде интервального  вариационного ряда, при вычислении выборочного среднего 
 значениями вариант считают середины интервалов.

Выборочное среднее является основной характеристикой положения, показывает центр распределения совокупности, позволяет охарактеризовать исследуемую совокупность одним числом, проследить тенденцию развития, сравнить различные совокупности (выборочное среднее является той точкой, сумма отклонений наблюдений от которой равна 0).

Для оценки степени разброса (отклонения) какого-то показателя от его среднего значения, наряду с максимальным и минимальным значениями, используются понятиядисперсии и стандартного отклонения.

Дисперсия выборки или выборочная дисперсия (от английского variance) – это мера изменчивости переменной. Термин впервые введен Фишером в 1918 году.

Выборочной дисперсией Dв называют среднее арифметическое квадратов отклонения наблюдаемых значений признака от их среднего значения  .Если все значения x1, x2,..., xпризнака выборки объема n различны, то:

Если же все значения признака x1, x2,..., xимеют соответственно частоты n1, n2,..., nk, причем n+ n+...+ n= n, то

Дисперсия меняется от нуля до бесконечности. Крайнее значение 0 означает отсутствие изменчивости, когда значения переменной постоянны.

Среднее квадратическое отклонение (стандартное отклонение), (от английского standard deviation) вычисляется как корень квадратный из дисперсии.

Чем выше дисперсия или стандартное  отклонение, тем сильнее

разбросаны значения переменной относительно среднего.

Непараметрическими  характеристиками положения являются мода и медиана.

Модой Mназывается варианта, имеющая наибольшую частоту или относительную частоту.

Медианой Mназывается варианта, которая делит вариационный ряд на две части, равные по числу вариант.При нечетном числе вариант (n=2k+1)

M= xk+1,

а при четном числе вариант (n=2k)

M= (x+ xk+1)/2.

24.Коэффициент вариации.

Коэффициент вариации используют для сравнения рассеивания двух и более признаков, имеющих различные единицы измерения. Коэффициент вариации представляет собой относительную меру рассеивания, выраженную в процентах. Он вычисляется по формуле:

,

где   - искомый показатель,  - среднее квадратичное отклонение,  - средняя величина.

 

Если V<10%,то вариативность выборочной совокупности низкая.

Если от 20 до 10-средняя

               20 до 30-высокая

Более 30-очень высокая

25.Статистическая ошибка выборочной средней.

Средняя ошибка выборки выражает среднее квадратическое отклонение выборочной средней от генеральной средней

СОВ зависит:

1) от колеблемости признака в генеральной совокупности

2) от числа отобранных  единиц.

СОВ показывает, какие  возможны отклонения характеристик  выборочной совокупности от соответствующих  характеристик генеральной совокупности

О величине средней  ошибки выборки судят с определенной вероятностью, на которую указывает  коэффициент доверия (t)

Таким образом, зная выборочную среднюю и предельную ошибку выборки, можно определить пределы, в которых находится генеральная  средняя

СОВ альтернативного  признака определяется по формуле

;  - доля выборочной совокупности

ПОВ альтернативного  признака

Зная выборочную долю признака и предельную ошибку выборки, можно определить границы, в которых заключена генеральная  доля

26.Интервальная оценка математического  ожидания нормально распределенной  случайной величины для большой  выборки

Пусть по выборке достаточно большого объема,  , и при заданной доверительной вероятности   необходимо определить доверительный интервал для математического ожидания  , в качестве оценки которого используется среднее арифметическое (среднее выборочное)  .

Закон распределения оценки математического ожидания близок к  нормальному (распределение суммы независимых случайных величин с конечной дисперсией асимптотически нормально). Если потребовать абсолютную надежность оценки математического ожидания, то границы доверительного интервала будут бесконечными . Выбор любых более узких границ связан с риском ошибки, вероятность которой определяется уровнем значимости  , где значения   выбираются достаточно близкими к единице, например, 0,9, 0,95, 0,98, 0,99. Величину   называют надежностью или доверительной вероятностью. Интерес представляет максимальная точность оценки, т.е. наименьшее значение интервала. Для симметричных функций минимальный интервал тоже будет симметричным относительно оценки  . В этом случае выражение для доверительной вероятности имеет вид  , где   – абсолютная погрешность оценивания.

Нормальный закон   полностью определяется двумя параметрами – математическим ожиданием   и дисперсией  . Величина   является несмещенной, состоятельной и эффективной оценкой математического ожидания, поэтому ее значение принимаем за значение математического ожидания в качестве точечной оценки. Будем полагать, что дисперсия   известна, тогда выборочное среднее   – нормально распределенная случайная величина с параметрами  . Для такой случайной величины вероятность попадания на симметричный относительно математического ожидания интервал выражается через функцию Лапласа  , где  . При заданной надежности  , уравнение   можно решить приближенно с помощью таблицы значений функции Лапласа (см. приложение, таблица 1). Если точного значения   в списке значений нет, то надо найти два ближайших к нему значения, одно большее, а другое меньшее, чем  , и найти их среднее арифметическое. Известное значение параметра   позволяет записать абсолютную погрешность  . Теперь можно указать симметричный интервал  . Полученное соотношение означает, что доверительный интервал   покрывает неизвестный параметр   (математическое ожидание) с вероятностью (надежностью)  , а точность оценки  .

При фиксированном объеме выборки  из оценки   следует, что чем больше доверительная вероятность  , тем шире границы доверительного интервала (тем больше ошибка в оценке математического ожидания). Чтобы снизить ошибку в оценке значения, можно увеличить объем выборки. При этом, чтобы снизить относительную погрешность на порядок, необходимо увеличить объем выборки на два порядка. 

 

 

 

27.Интервальная  оценка математического ожидания  нормально распределенной случайной  величины по выборке малого  объема. 

Доверительным интервалом называется интервал, построенный с помощью случайной выборки из распределения с неизвестным параметром, такой, что он содержит данный параметр с заданной вероятностью α.        

 В педагогике  наиболее распространенным является  оценка математического ожидания a случайной величины X, распределенной по нормальному закону, при известном среднем квадратическом отклонении σ.  В этом случае для оценки математического ожидания a служит интервал:

где   – точность оценки, n – объём выборки,    – выборочное среднее, t – аргумент функции Лапласа, при котором  .        

 Рассмотрим пример. Пусть среднее квадратическое отклонение σ нормально распределенного признака X генеральной совокупности равно 5, объём выборки n равен 100 и выборочное среднее  . Найдем доверительный интервал математического ожидания a при α=0,9.        

 Все величины, кроме t, известны. Найдем t по специальной таблице, исходя из соотношения   Получим, что t=1,65, следовательно:

 

или 19,175≤a≤20,825.        

 Таким образом,  можно сделать вывод о том,  что математическое ожидание  генеральной совокупности с вероятностью  α=0,9 окажется внутри полученного  интервала.        

 Во многих  педагогических задачах требуется  установить и оценить зависимость  одной случайной величины от  другой. Две случайные величины  могут быть связаны функциональной  зависимостью, что случается крайне  редко, либо зависимостью другого  рода, называемой статистической, либо быть независимыми.          

Статистической называется зависимость, при которой изменение одной из величин влечет изменение распределения другой. В частности, статистическая зависимость проявляется в том, что при изменении одной из величин изменяется выборочная средняя другой. В этом случае статистическую зависимость называюткорреляционной. 

 

 

 

 

 

 

 

 

 

 

 

28.Принципы и  алгоритм проверки статистических  гипотез. 

СТАТИСТИЧЕСКОЙ ГИПОТЕЗОЙ называют некоторое утверждение относительно значения (или значений) какого-либо параметра случайной величины. Например, утверждение: Mx=5 (гипотеза о равенстве МО пяти) или утверждение: Dx=Dy (гипотеза о равенстве двух дисперсий). Под процедурой проверки статистических гипотез понимают последовательность действий, позволяющих с той или иной степенью достоверности подтвердить или опровергнуть утверждение гипотезы. Все статистические выводы являются следствием проверки одной или комплекса гипотез.  
    В основе проверки любой гипотезы лежит ПРИНЦИП ПРАКТИЧЕСКОЙ НЕВОЗМОЖНОСТИ  
    Этот принцип гласит: СОБЫТИЯ С МАЛЫМИ ВЕРОЯТНОСТЯМИ ПРАКТИЧЕСКИ НЕВОЗМОЖНЫ.  
    УРОВНЕМ ЗНАЧИМОСТИ называется максимальное значение вероятности, при котором событие можно считать еще практически невозможным. Уровень значимости обозначается греческой буквой α. В практике статистических вычислений приняты следующие стандартные значения α: 0,05, 0,02 и 0,01 (5%, 2% и 1% ).  
    Событие, вероятность которого превышает α называется ЗНАЧИМЫМ, а событие, вероятность которого не превышает α называется НЕЗНАЧИМЫМ.  
    При проверке статистической гипотезы исследователь сам назначает уровень значимости. Суть проверки гипотезы сводится к следующему. Исследователь предполагает, что гипотеза верна. Исходя из этого, исследователь делит будущие результаты на две группы. Первая группа - результаты, вероятность получить которые при справедливости гипотезы превосходит α. Вторая - результаты, вероятность получить которые не превосходит α. Затем извлекается выборка (или реализуется эксперимент) и определяется к какой группе относится результат. Если результат относится к первой группе, то нет оснований отвергать гипотезу (это вполне вероятный результат). Если результат принадлежит второй группе, то есть основания для отвержения гипотезы (это маловероятный результат).    

 Рассмотрим основные этапы  проверки гипотезы на примере  проверки гипотезы о равенстве МО нормально распределенной случайной величины заданному значению.  
    ЭТАП I. Формулирование гипотезы. H0: Mx=C (гипотеза о равенстве МО значению C). Гипотеза о равенстве называется нулевой гипотезой о обозначается H0.  
   ЭТАП II. Определение статистики, с помощью которой будет проверятся гипотеза. Исследователю должен быть известен закон распределения этой статистики при справедливости гипотезы. Для нашего случая можно использовать T-статистику:

T = (X - C)*n1/2/S  

где  n - объем выборки.  

ЭТАП III. Исследователь назначает уровень значимости. Пусть α=0,05. По выбранному уровню значимости т.к. известно распределение T-статистики при справедливости исходной гипотезы определяются две граничные величины T-статистики (Tи T2), которые делят значения T-статистики на две области. При справедливости гипотезы вероятность попадания статистики в интервал (T1,T2) составляет величину 1-α (0,95 в нашем случае), вероятность принятия T-статистикой значений вне интервала (T1,T2) не превышает α (в нашем случае 0,05). Первая область называется ОБЛАСТЬЮ ПРИНЯТИЯ ГИПОТЕЗЫ,вторая - КРИТИЧЕСКОЙ ОБЛАСТЬЮ.

ЭТАП IV. Извлекается выборка и вычисляется статистика. (В нашем случае Tрасч).

ЭТАП V. Если вычисленное значение попадает в область принятия гипотезы (в нашем случае T1<Tрасч<T2), то говорят, что ДАННЫЕ НЕ ПРОТИВОРЕЧАТ ГИПОТЕЗЕ. Если Tрасч<Tили Tрасч>T(вычисленное значение попадает в критическую область) то говорят, что ДАННЫЕ ПРОТИВОРЕЧАТ ГИПОТЕЗЕ. 

Необходимо подчеркнуть, что отвергает  или принимает гипотезу исследователь. Процедура проверки лишь обосновывает приведенные выше утверждения. Утверждение - данные не противоречат гипотезе используется потому, что возможно справедлива не данная гипотеза, а некая другая, близкая к этой гипотезе (например H0: Mx=C1). Утверждение - данные противоречат гипотезе используется потому, что вероятность получить такой результат хоть и мала, но отлична от нуля.

ЕСЛИ ДАННЫЕ ПРОТИВОРЕЧАТ ГИПОТЕЗЕ И ГИПОТЕЗА ОТВЕРГАЕТСЯ, ТО ВЕРОЯТНОСТЬ ОШИБКИ ИССЛЕДОВАТЕЛЯ (гипотеза все таки верна) НЕ ПРЕВЫШАЕТ α (заданного уровня значимости).

 

 

 

 

 

 

 

 

 

 

29.Проверка гипотезы  о равенстве двух генеральных  средних по независимым выборкам.

Критерий Стьюдента (t-критерий)

Критерий позволяет найти вероятность  того, что оба средних значения в выборке относятся к одной  и той же совокупности. Данный критерий наиболее часто используется для  проверки гипотезы: «Средние двух выборок  относятся к одной и той  же совокупности».

При использовании критерия можно  выделить два случая. В первом случае его применяют для проверки гипотезы о равенстве генеральных средних  двух независимых, несвязанныхвыборок (так называемый двухвыборочный t-критерий). В этом случае есть контрольная группа и экспериментальная (опытная) группа, количество испытуемых в группах может быть различно.

Во втором случае, когда одна и  та же группа объектов порождает числовой материал для проверки гипотез о средних, используется так называемый парный t-критерий. Выборки при этом называют зависимыми, связанными.

а) случай независимых выборок

Статистика критерия для случая несвязанных, независимых выборок  равна:

                                                                             (1)                   

где   ,    — средние арифметические в экспериментальной и контрольной группах,

 - стандартная ошибка разности средних арифметических. Находится из формулы:   

 ,                              (2)

где nи nсоответственно величины первой и второй выборки.

Если n1=n2, то стандартная ошибка разности средних арифметических будет считаться по формуле:

                                         (3)

где n величина выборки.

Подсчет числа степеней свободы осуществляется по формуле:

k = n+ n– 2.                                                                                     (4)

При численном равенстве выборок k = 2n - 2.

Далее необходимо сравнить полученное значение tэмп с теоретическим значением t—распределения Стьюдента (см. приложение к учебникам статистики). Если tэмп<tкрит, то гипотезаHпринимается, в противном случае нулевая гипотеза отвергается и принимается альтернативная гипотеза.

Рассмотрим пример использования t-критерия Стьюдента для несвязных и неравных по численности выборок.

Пример 1. В двух группах учащихся — экспериментальной и контрольной — получены следующие результаты по учебному предмету (тестовые баллы; см. табл. 1).[1]

Таблица 1. Результаты эксперимента

Первая группа (экспериментальная) N1=11 человек

Вторая группа (контрольная)

N2=9 человек

12   14   13   16   11   9   13   15  15   18   14

13   9   11   10   7   6   8  10   11


Общее количество членов выборки: n1=11, n2=9.

Расчет средних арифметических: Хср=13,636; Yср=9,444

Стандартное отклонение: sx=2,460; sy=2,186       

По формуле (2) рассчитываем стандартную  ошибку разности арифметических средних:

Считаем статистику критерия:

 

Сравниваем полученное в эксперименте значение t с табличным значением с учетом степеней свободы, равных по формуле (4) числу испытуемых минус два (18).

Табличное значение tкрит равняется 2,1 при допущении возможности риска сделать ошибочное суждение в пяти случаях из ста (уровень значимости=5 % или 0,05).

Если полученное в эксперименте эмпирическое значение t превышает табличное, то есть основания принять альтернативную гипотезу (H1) о том, что учащиеся экспериментальной группы показывают в среднем более высокий уровень знаний. В эксперименте t=3,981, табличное t=2,10, 3,981>2,10, откуда следует вывод о преимуществе экспериментального обучения.

Здесь могут возникнуть такие вопросы:

1. Что если полученное в опыте  значение t окажется меньше табличного? Тогда надо принять нулевую гипотезу.

2. Доказано ли преимущество экспериментального  метода? Не столько доказано, сколько  показано, потому что с самого  начала допускается риск ошибиться  в пяти случаях из ста (р=0,05). Наш эксперимент мог быть одним из этих пяти случаев. Но 95% возможных случаев говорит в пользу альтернативной гипотезы, а это достаточно убедительный аргумент в статистическом доказательстве.

3. Что если в контрольной группе результаты окажутся выше, чем в экспериментальной? Поменяем, например, местами, сделав   средней арифметической экспериментальной группы, a   — контрольной:

 

Отсюда следует вывод, что новый метод пока не проявил себя с хорошей стороны по разным, возможно, причинам. Поскольку абсолютное значение 3,9811>2,1, принимается вторая альтернативная гипотеза (Н2) о преимуществе традиционного метода.

 

31.Проверка гипотезы о равенстве  выборочных совокупностей по  критерию Вилкоксона.

U-критерий Уилкоксона, Манна и Уитни проверяет гипотезу о принадлежности двух выборок одной и той же генеральной совокупности  . Эта гипотеза включает также равенство значений медиан   и равенство средних значений  .

Для вычисления статистики упорядочивают   значений объединенной выборки, определяют сумму рангов  , соответствующую элементам первой выборки, и сумму рангов второй  . Вычисляем

,

.

Для контроля правильности можно использовать равенство  . Статистика критерия имеет вид

Проверяемая гипотеза отклоняется, когда  значение статистики оказывается меньше критического.

Считается, что U-критерий является самым строгим непараметрическим критерием.

Для достаточно больших выборок ( ), когда объемы выборок не слишком малы ( ), используется статистика

 

   


Информация о работе Шпаргалка по "Информатике"