Статистическая совокупность

  1. Ранжированный ряд– это распределение отдельных единиц совокупности в порядке возрастания или убывания исследуемого признака. Ранжирование позволяет легко разделить количественные данные по группам, сразу обнаружить наименьшее и наибольшее значения признака, выделить значения, которые чаще всего повторяются.

Другие формы вариационного ряда – групповые таблицы, составленные по характеру вариации значений изучаемого признака. По характеру вариации различают дискретные (прерывные) и непрерывные признаки.

Вариационный ряд – ряд, в котором сопоставлены (по степени возрастания или убывания)варианты и соответствующие им частоты

 

  1. Мода – еще одна средняя величина вариационного ряда, соответствующая наиболее часто повторяющейся варианте. Или, если выразиться по другому, это варианта, которой соответствует наибольшая частота. Обозначается как Мо. Мода рассчитывается только для взвешенных рядов, так как в простых рядах ни одна из вариант не повторяется и все частоты равны единице.

Медиана – значение варианты, делящей вариационный ряд пополам: по обе стороны от нее находится равное число вариант. Медиана также, как и средняя арифметическая и мода, относится к средним величинам. Обозначается как Me

  1. Статистическая совокупность— группа, состоящая из множества относительно однородных элементов, взятых вместе в известных границах пространства и времени и обладающих признаками сходства и различия.

Свойства статистической совокупности: 1) однородность единиц наблюдения 2) определенные границы пространства и времени изучаемого явления

Объектом статистического исследования в медицине и здравоохранении могут быть различные контингенты населения (население в целой или его отдельные группы, больные, умершие, родившиеся), лечебно-профилактические учреждения и др.

Статистическая совокупность состоит из отдельных, единичных наблюдений.

Единица наблюдения — каждый первичный элемент, составляющий статистическую совокупность и являющийся носителем признаков, подлежащих учету. Единица наблюдения определяется целью и задачами статистического исследования, а также избранным объектом изучения (при изучении больничной летальности единицей наблюдения будет больной, умерший в стационаре)

Единицы наблюдения имеют признаки сходства и различия. Признаки сходства служат Основанием для объединения единиц наблюдения в совокупность. Признаки, по которым различаются элементы статистической совокупности, подлежат регистрации и называются Учетными признаками, которые могут быть:

А) Качественными (атрибутивные, описательные: пол, профессия, нозологическая форма заболевания) иКоличественными (выраженны числом: масса тела, рост, возраст, продолжительность болезни).

Б) по роли в изучаемой совокупности — Факторные (признаки, под влиянием которых изменяются другие, зависящие от них признаки) и Результативные (признаки, зависящие от факторных). С изменением величины факторного признака происходит изменение результативного (с увеличением возраста ребенка увеличивается его рост)

Различают два вида статистической совокупности:

А) генеральная совокупность — совокупность, состоящая из всех единиц наблюдения, которые могут быть к ней отнесены в соответствии с целью исследования. При изучении общественного здоровья генеральная совокупность часто рассматривается в пределах конкретных территориальных границ или может ограничиваться другими признаками (полом, возрастом и др.) в зависимости от цели исследования.

Б) выборочная совокупность — часть генеральной, отобранная специальным (выборочным) методом и предназначенная для характеристики генеральной совокупности.

9.Коэффициент ассиметрии показатель отклонения кривой распределения от симметричности

Коэффициент эксцесса Ех характеризует степень заострённости кривой распределения

  1. Вариация признака— количественное изменение признака (для количественного признака) при переходе от одной единицы совокупности к другой.

Признак – это свойство, характерная черта или иная особенность единиц, объектов и явлений, которая может быть наблюдаема или измерена. Признаки делятся на количественные и качественные. Многообразие и изменчивость величины признака у отдельных единиц совокупности называется вариацией.

Варианта –отдельное значение признака для данного члена  статистической совокупности(по лекции)

Вариация это изменение этого признака

 

8 Если ряд построен по количественному признаку то такой ряд называется  вариационным(лекция) для наглядности его изображают в виде полигона или гистограммы

Полигон на оси Ох откладывают Х на оси Оу откладывают значения частот m

Ранжированный ряд-распределения отдельных единиц  совокупности в порядке возрастания или убывания

 

  1. Математи́ческое ожида́ние— среднее значениеслучайной величины (распределение вероятностей случайной величины, рассматривается в теории вероятностей)[1].
  • В англоязычной литературе обозначается через [2](например, от англ. Expected value или нем. Erwartungswert),
  • в русской —  (возможно, от англ.Mean value или нем. Mittelwert, а возможно от «Математическое ожидание»).
  • В статистике часто используют обозначение
  1. ОпределениеГенеральной дисперсиейDгназывают среднее арифметическое квадратов отклонений значений признака генеральной совокупности от их среднего значения .Если всех значения  различны, то:.Если значение xi встречается с частотой Ni, то:,при этом .ОпределениеГенеральным среднеквадратичным отклонением называют .ОпределениеВыборочной дисперсией Dв называют среднее арифметическое квадратов отклонений значений признака в выборке от их выборочного среднего .Если всех значения  различны, то:.Если значение xi встречается с частотой ni, то:,при этом .ОпределениеВыборочным среднеквадратичным отклонением называют .Теорема. Дисперсия (выборочная или генеральная) равна разности среднего от квадратов и квадрата от средней .Доказательство..Теорема доказана.Для оценки генеральной дисперсии по выборке естественно было бы выбрать соотношение , однако, такая оценка являетсясмещенной, то есть математическое ожидание случайной величины — выборочной дисперсии — не равно групповой дисперсии . Действительно, вычислим:.Здесь мы воспользовались свойством, что постоянный множитель можно выносить за знак математического ожидания, а далее воспользуемся тем, что математическое ожидание от суммы равно сумме математических ожиданий:.Внося знак математического ожидания под знак суммы в первом слагаемом, получим сумму nгенеральных дисперсий, и после деления на знаменатель первое слагаемое оказывается Dг:.В этом выражении также использовано, что . Далее предполагаем, что случайные величины — значение признака xi — независимы. Перемножение двух сумм во втором слагаемом и возведение в квадрат в третьем даст перекрестные члены (с разным номером i в сумме) и полные квадраты. Ввиду предположенной независимости случайных величин, математическое ожидание от произведений  с различными i будет равно произведению математических ожиданий, каждое из которых — нуль (вычисляется математическое ожидание отклонения случайной величины от математического ожидания). Полные же квадраты останутся, в результате чего имеем:.Мы получили, что математическое ожидание случайной величины — выборочной дисперсии — не равно генеральной дисперсии. Однако, как легко видеть, оценку можно «исправить», то есть в качестве оценки генеральной дисперсии брать «исправленную» выборочную дисперсию:,которая уже будет несмещенной оценкой. Видно, что «исправленная» выборочная дисперсия отличается от обычной знаменателем. При большом объеме выборки разница между ними стирается, и можно пользоваться любой. При n < 30 для оценки генеральной дисперсии используют «исправленную» выборочную. Аналогично оценке генерального среднего, оценка генеральной дисперсии в виде «исправленной» выборочной дисперсии является состоятельной, то есть при достаточно большом объеме выборки различия в выборочной дисперсии разных выборок будут малы и будут достаточно точно описывать генеральную дисперсию.Определение«Исправленным» выборочным среднеквадратичным отклонением называют .Замечание. «Исправленное» выборочное среднеквадратичное отклонение  не является несмещенной оценкой среднеквадратичного отклонения генеральной совокупности. .
  2. Среднеквадрати́ческое отклоне́ние(синонимы: среднее квадрати́ческое отклоне́ниесреднеквадрати́чное отклоне́ниеквадрати́чное отклоне́ние; близкие термины: станда́ртное отклоне́ние,станда́ртный разбро́с) — в теории вероятностейи статистике наиболее распространённый показатель рассеивания значений случайной величины относительно её математического ожидания. При ограниченных массивах выборок значений вместо математического ожидания используется среднее арифметическое совокупности выборок

Среднеквадратическое отклонение измеряется в единицах измерения самой случайной величины и используется при расчёте стандартной ошибки среднего арифметического, при построениидоверительных интервалов, при статистической проверке гипотез, при измерении линейной взаимосвязи между случайными величинами. Определяется как квадратный корень из дисперсии случайной величины.

Среднеквадратическое отклонение:

 

Стандартное отклонение (оценка среднеквадратического отклонения случайной величины x относительно её математического ожидания на основе несмещённой оценки её дисперсии) :

 

где  — дисперсия;  — i-й элемент выборки;  — объём выборки;  — среднее арифметическое выборки:

 

Следует отметить, что обе оценки являются смещёнными. В общем случае несмещённую оценку построить невозможно. Однако оценка на основе оценки несмещённой дисперсии являетсясостоятельной.

  1. Доверительный интервал— термин, используемый в математической статистикепри интервальной оценке статистических параметров, более предпочтительной при небольшом объёме выборки, чемточечная. Доверительным называют интервал, который покрывает неизвестный параметр с заданной надёжностью.

Метод доверительных интервалов разработал американский статистик Ежи Нейман, исходя из идей английского статистика Рональда Фишера[ссылка 1].

Доверительным интервалом параметра  распределения случайной величины  с уровнем доверия p[примечание 1], порождённым выборкой , называется интервал с границами и , которые являются реализациями случайных величин  и , таких, что

.

Граничные точки доверительного интервала  и  называются доверительными пределами.

Толкование доверительного интервала, основанное на интуиции, будет следующим: если уровень доверия p велик (скажем, 0,95 или 0,99), то доверительный интервал почти наверняка содержит истинное значение .[ссылка 2]

Еще одно истолкование понятия доверительного интервала: его можно рассматривать как интервал значений параметра , совместимых с опытными данными и не противоречащих им.

Более точное, хоть также не совсем строгое, толкование доверительного интервала с уровнем доверия, скажем, 95% состоит в следующем. Если провести очень большое количество независимых экспериментов с аналогичным построением доверительного интервала, то в 95% экспериментов доверительный интервал будет содержать оцениваемый параметр  (то есть будет выполняться ), а в оставшихся 5% экспериментов доверительный интервал не будет содержать .

  1. Стандартная ошибка среднегов математической статистике— величина, характеризующая стандартное отклонение выборочного среднего, рассчитанное по выборке размера  из генеральной совокупности. Термин был впервые введён Удни Юлом в 1897 году. Величина стандартной ошибки зависит от дисперсии генеральной совокупности  и объёма выборки .

Стандартная ошибка среднего вычисляется по формуле

 

где  — величина среднеквадратического отклонения генеральной совокупности, и  — объём выборки.

Поскольку дисперсия генеральной совокупности, как правило, неизвестна, то оценка стандартной ошибки вычисляется по формуле:

 

где  — стандартное отклонение случайной величины на основе несмещённой оценки её выборочной дисперсии и  — объём выборки.

  1. Нормальное распределение и его параметры.

Нормальное распределение, также называемое распределением Гаусса, — распределение вероятностей, которое играет важнейшую роль во многих областях знаний, особенно в физике. Физическая величина подчиняется нормальному распределению, когда она подвержена влиянию огромного числа случайных помех. Ясно, что такая ситуация крайне распространена, поэтому можно сказать, что из всех распределений, в природе чаще всего встречается именно нормальное распределение — отсюда и произошло одно из его названий.

Нормальное распределение зависит от двух параметров — смещения и масштаба, то есть, является, с математической точки зрения, не одним распределением, а целым их семейством. Значения параметров соответствуют значениям среднего (математического ожидания) и разброса (стандартного отклонения).

  1. Дискретный статистический ряд распределения.

Дискретные ряды распределения основаны на дискретных (прерывных) признаках, имеющих только целые значения (например, тарифный разряд рабочих, число детей в семье).

Для построения дискретного ряда с небольшим числом вариантов выписываются все встречающиеся варианты значений признака , а затем подсчитывается частота повторения варианта. Ряд распределения принято оформлять в виде таблицы, состоящей из двух колонок (или строк), в одной из которых представлены варианты, а в другой – частоты. Для построения ряда распределения непрерывно изменяющихся признаков, либо дискретных, представленных в виде интервалов, необходимо установить оптимальное число групп (интервалов), на которые следует разбить все единицы изучаемой совокупности.

  1. Интервальный статистический ряд распределения.

Интервальный статистический ряд содержит в качестве значений интервалы (могут быть равными или неравными) и частоты значений, попадающих в этот интервал.

Интервальные ряды распределения базируются на непрерывно изменяющемся значении признака, принимающем любые (в том числе и дробные) количественные выражения, т.е. значение признаков таких рядах задается в виде интервала. При наличии достаточно большого количества вариантов значений признака первичный ряд является труднообозримым, и непосредственное рассмотрение его не дает представления о распределении единиц по значению признака в совокупности. Поэтому первым шагом в упорядочении первичного ряда является его ранжирование – расположение всех вариантов в возрастающем (убывающем) порядке.

  1. Графический метод представления статистических данных.

Графический метод — это метод условных изображений при помощи линий, точек, геометрических фигур и других символов.

Основными элементами графика являются поле графика, графический образ, масштаб, масштабная шкала, экспликация графика:

  • Поле графика — пространство, на котором размещаются графические символы.
  • Графические образы — составляют основу графика. В качестве графических символов используются геометрические знаки.
  • Масштаб — это мера перевода числовой величины в графическую.
  • Масштабная шкала — линия с нанесенными на нее масштабными отметками и их числовыми значениями. Шкалы могут быть равномерными и неравномерными (логарифмические шкалы), прямолинейными и криволинейными (круговые).
  • Экспликация графика — пояснения содержания графика, относящиеся к его заголовку, единицам измерения.
  1. Понятие статистической гипотезы

Проверка статистических гипотез является содержанием одного из обширных классов задач математической статистики. Статистическая гипотеза — предположение о виде распределения и свойствах случайной величины, которое можно подтвердить или опровергнуть применением статистических методов к данным выборки.

  • Формулировка основной гипотезы и конкурирующей гипотезы.
  • Задание уровня значимости, на котором в дальнейшем и будет сделан вывод о справедливости гипотезы. Он равен вероятности допустить ошибку первого рода.
  • Расчёт статистики критерия такой, что:
  • её величина зависит от исходной выборки;
  • по её значению можно делать выводы об истинности гипотезы;
  • статистика, как функция случайной величины, также является случайной величиной и подчиняется какому-то закону распределения.
  • Построение критической области. Из области значений выделяется подмножество таких значений, по которым можно судить о существенных расхождениях с предположением. Его размер выбирается таким образом, чтобы выполнялось равенство. Это множество и называется критической областью.
  • Вывод об истинности гипотезы. Наблюдаемые значения выборки подставляются в статистику и по попаданию (или непопаданию) в критическую область выносится решение об отвержении (или принятии) выдвинутой гипотезы.
  1. Нулевая и альтернативная гипотезы.

Но – нулевая гипотеза

Она делает предположение о том, что различия между сравниваемыми выборками отсутствуют. Её математический смысл состоит в том, что Хср.1 –Хср.2→0, т.е. различие между выборками стремится к нулю. На самом деле различия могут отклоняться от 0, но быть не достоверными или не доказанными. Принятие нулевой гипотезы можно выразить такими словами: «Достоверных различий между выборками не обнаружено». Как правило, исследователь стремится опровергнуть нулевую гипотезу, и доказать следующее: во-первых, то, что различия между выборками есть, и, во-вторых, то, что они достоверны.

Н1 (НА) – альтернативная гипотеза ( противостоящая нулевой гипотезе) Её смысл заключается в том, что различия между выборками есть и что они достоверны. Как правил, легче получается отвергнуть нулевую гипотезу, чем доказать альтернативную. Но если отвергли нулевую гипотезу, то это ещё не означает, что автоматически следует принять альтернативную, хотя на практике обычно поступают именно так. С помощью доказательства альтернативной гипотезы, безусловно, отвергается нулевая гипотеза. Если не смогли доказать альтернативную гипотезу, то вынуждено принимается нулевая гипотеза.

Однако встречаются и такие случаи, когда исследователь пытается доказать именно нулевую гипотезу, т.е. отсутствие достоверных различий между сравниваемыми выборками.

  1. Уровень значимости

Уровень значимости – это вероятность того, что мы сочли различия существенными, в то время как они на самом деле случайны. Итак, уровень значимости имеет дело с вероятностью.

Уровень значимости показывает степень достоверности выявленных различий между выборками, т.е. показывает, насколько мы можем доверять тому, что различия действительно есть.

Современные научные исследования требуют обязательных расчётов уровня статистической значимости результатов.

Обычно в прикладной статистике используют 3 уровня значимости.

Уровни значимости:

  • 1-й уровень значимости: р ≤ 0,05.

Это 5%-ный уровень значимости. До 5% составляет вероятность того, что мы ошибочно сделали вывод о том, что различия достоверны, в то время как они недостоверны на самом деле. Можно сказать и по-другому: мы лишь на 95% уверены в том, что различия действительно достоверны. В данном случае можно написать и так: P>0,95. Общий смысл критерия останется тем же.

  • 2-й уровень значимости: р ≤ 0,01.

Это 1%-ный уровень значимости. Вероятность ошибочного вывода о том, что различия достоверны, составляет не более 1%. Можно сказать и по-другому: мы на 99% уверены в том, что различия действительно достоверны. В данном случае можно написать и так: P>0,99. Смысл останется тем же.

  • 3-й уровень значимости: р ≤ 0,001.

Это 0,1%-ный уровень значимости. Всего 0,1% составляет вероятность того, что мы сделали ошибочный вывод о том, что различия достоверны. Это — самый надёжный вариант вывода о достоверности различий. Можно сказать и по-другому: мы на 99,9% уверены в том, что различия действительно достоверны. В данном случае можно написать и так: P>0,999. Смысл опять-таки останется тем же.

Уровень значимости – это вероятность ошибочного отклонения (отвержения) гипотезы, в то время как она на самом деле верна. Речь идёт об отклонении нулевой гипотезы Но.

Уровень значимости – это допустимая ошибка в нашем утверждении, в нашем выводе.

  1. Мощность критерия

Мощность критерия – его способность выявлять даже мелкие различия если они есть. Чем мощнее критерий, тем лучше он отвергает нулевую гипотезу и подтверждает альтернативную.

Здесь появляется понятие: ошибка II рода.

Ошибка II рода – это принятие нулевой гипотезы, хотя она не верна.

Мощность критерия: 1 – β

Чем мощнее критерий, тем он привлекательнее для исследователя. Он лучше отвергает нулевую гипотезу.

Чем привлекательны маломощные критерии?

Достоинства маломощных критериев

  • Простота
  • Широкий диапазон, по отношению к самым разным данным
  • Применимость к неравным по объему выборкам.
  • Большая информативность результатов.

Самый популярный статистический критерий в России – Т-критерий Стьюдента. Но всего в 30% статей его используют правильно, а в 70% – неправильно, т.к. не проверяют предварительно выборку на нормальность распределения.

Второй по популярности — критерий хи-квадрат, χ2

За рубежом:

Т-критерий Вилкоксона

U-критерий Манна – Уитни

χ2 – хи-квадрат.

Т-критерий Стьюдента – это частный случай дисперсионного анализа для более маленькой по объёму выборки.

  1. Ошибки первого и второго рода.

Возможны ошибки двух родов: первого рода (α ) и второго рода (β).

Ошибка I рода – мы отклонили нулевую гипотезу, в то время как она верна.

α – ошибка I рода.

р ≤ 0,05, уровень ошибки α ≤ 0,05

Вероятность того, что принято правильное решение: 1 – α = 0,95, или 95%.

 

 

Уровни значимости для ошибок I рода

  1. α ≤ 0,05 – низший уровень

Низший уровень значимости – позволяет отклонять нулевую гипотезу, но еще не разрешает принять альтернативную.

  1. α ≤ 0,01 – достаточный уровень

Достаточный уровень – позволяет отклонять нулевую гипотезу и принимать альтернативную.

Исключение:

G – критерий знаков

T – критерий Вилкоксона

U – критерий Манна – Уитни.

Для них обратное соотношение.

  1. α ≤ 0,001 – высший уровень значимости.

На практике различия считают достоверными при р ≤ 0,05.

Для ненаправленной статистической гипотезы используется двусторонний критерий значимости. Он более строгий, так как проверяет различия в обе стороны: в сторону нулевой гипотезы и в сторону альтернативной. Поэтому для него используется критерий значимости 0,01.

Ошибка II рода – это принятие нулевой гипотезы, хотя она не верна.

  1. Параметрические критерии проверки гипотез и его виды

Параметрические критерии используются в задачах проверки параметрических гипотез и включают в свой расчет показатели распределения, например, средние, дисперсии и т.д. Это такие известные классические критерии, как г-критерий, г-к критерий Стьюдента, критерий Фишера и др.. Непараметрические критерии проверки гипотез основаны на операциях с другими данными, в частности, частотами, рангами и т.п. Это А-критерий Колмогорова-Смирнова, критерий Вилкоксона, Манна-Уитни и многие другие

Параметрические критерии позволяют прямо оценить уровень основных параметров генеральных совокупностей, разности средних и различия в дисперсиях Критерии способны выявить тенденции изменения признака при переходе от условия к ум языка, оценить взаимодействие двух и более факторов в воздействии на изменения признака. Параметрические критерии считаются несколько более мощными, чем не-параметрические, при условии, что признак измеренная с интервальной шкале и нормально распределенная Однако с интервальной шкале могут возникнуть определенные проблемы и, если данные, представлены не в стандартизированных оценках К тому же проверка распределения \”на нормальность\” требует достаточно сложных расчетов, результат которых заранее неизвестен Чаще распределения признаков отличаются от нормального, тогда приходится обращаться к непараметрических критерииних критеріїв.

  1. Сравнение двух групп: критерий Стьюдента.

Критерий Стьюдента применяется в том случае, когда требуется дать ответ: отличаются ли достоверно, т.е. надежно, результаты одной группы от результатов другой группы.

В дисперсионном анализе наравне с F-критерием применяется и другой критерий, который называется t-критерий Стьюдента. Суть данного критерия заключается в том, что оценивается степень расхождения средних арифметических показателей двух групп данных (М1 и М2)относительно дисперсии σ2, т.е разброса индивидуальных данных, рассчитанной применительно к этим двум группам, где количество членов соответствует  Nи N2.

Формула расчета t- критерия имеет следующий вид:

Но эта формула используется в том случае, когда выборки примерно равны по численности. В случае, когда выборки отличаются по своим размерам, применяется другая – более сложная формула расчета критерия:

где N1 и N2 соответствуют количеству членов 1-й и 2-й групп испытуемых.

Критерий Стьюдента относится к группе параметрических критериев, т.к. в своих расчетах опирается на «параметры» распределения (средние арифметические величины и дисперсии). А поскольку «параметры», или описательные статистики (если речь идет о малых выборках) адекватны только для сравнения нормальных распределений, то и критерий Стьюдента применяют обычно для оценки достоверности различий между двумя группами данных, где имеет место нормальное распределение или близкое к нему.

  1. Число степеней свободы

Количество степеней свободы — это количество значений в итоговом вычислении статистики, способных варьироваться. Иными словами, количество степеней свободы показывает размерность вектора из случайных величин, количество «свободных» величин, необходимых для того, чтобы полностью определить вектор.

Количество степеней свободы может быть не только натуральным, но и любым действительным числом, хотя стандартные таблицы рассчитывают p-value наиболее распространённых распределений только для натурального числа степеней свободы.

  1. Критическое значение критерия

Стандартные таблицы функций распределения. Такое традиционное представление имеет свои преимущества перед вероятностным калькулятором (например, таким, который включен в систему STATISTICA), поскольку в таблицах одновременно представлено большое число значений, и пользователь может достаточно быстро исследовать большой диапазон значений вероятностей.

  • Z-распределение
  • t-распределение
  • Хи-квадрат распределение
  • F-распределение для:
  1. alpha=.10
  2. alpha=.05
  3. alpha=.025
  4. alpha=.01
  1. Критическая область и область принятия гипотез

После выбора определенного критерия множество всех его возможных значений разбивают на два непересекающихся подмножества, одно из которых содержит значения критерия, при которых нулевая гипотеза отвергается, а другое – при которых она принимается.

Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают.

Областью принятия гипотезы (областью допустимых значений) называют совокупность значений критерия, при которых гипотезу принимают.

Основной принцип проверки статистических гипотез можно сформулировать так: если наблюдаемое значение критерия принадлежит критической области – гипотезу отвергают, если области принятия гипотезы – гипотезу принимают.

Так как критерий K – одномерная случайная величина, то все ее возможные значения принадлежат некоторому интервалу и, соответственно, должны существовать точки, разделяющие критическую область и область принятия гипотезы. Такие точки называются критическими точками.

Различают одностороннюю (правостороннюю и левостороннюю) и двустороннюю критические области.

Правосторонней называют критическую область, определяемую неравенством , где  – положительное число.

Левосторонней называют критическую область, определяемую неравенством , где  – отрицательное число.

Двусторонней называют критическую область, определяемую неравенствами , где . В частности, если критические точки симметричны относительно нуля, двусторонняя критическая область определяется неравенствами  или равносильным неравенством . Различия между вариантами критических областей иллюстрирует следующий рисунок.

Рис. 1. Различные варианты критических областей a) правосторонняя, b) левосторонняя, с) двусторонняя

Резюмируя, сформулируем этапы проверки статистической гипотезы:

Формулируется нулевая гипотеза ; Определяется критерий K, по значениям которого можно будет принять или отвергнуть  и выбирается уровень значимости ; По уровню значимости определяется критическая область; По выборке вычисляется значение критерия K, определяется, принадлежит ли оно критической области и на основании этого принимается  или .

  1. Непараметрические критерии проверки гипотез и его виды

Непараметрические методы разработаны для тех ситуаций, когда исследователь ничего не знает о параметрах исследуемой популяции (отсюда и название методов – непараметрические). Говоря более специальным языком, непараметрические методы не основываются на оценке параметров (таких как среднее или стандартное отклонение) при описании выборочного распределения интересующей величины.

Поэтому эти методы иногда также называются свободными от параметров или свободно распределенными.

Непараметрические методы позволяют обрабатывать данные “низкого качества” из выборок малого объема с переменными, про распределение которых мало что или вообще ничего не известно.

По существу, для каждого параметрического критерия имеется, по крайней мере, один непараметрический аналог. Эти критерии можно отнести к одной из следующих групп:

  • критерии различия между независимыми выборками
  • критерии различия между зависимыми выборками
  • критерии зависимости между переменными

Различия между независимыми выборками

Две независимые выборки: U-критерий Манна-Уитни и др.

Обычно, когда имеются две выборки (например, мужчины и женщины), которые вы хотите сравнить относительно среднего значения некоторой изучаемой переменной, вы используете t-критерий для независимых выборок.

Непараметрическими альтернативами параметрического критерия для двух независимых групп являются:

  • U критерий Манна-Уитни
  • Критерий серий Вальда-Вольфовица
  • Двухвыборочный критерий Колмогорова-Смирнова
  1. Критерий согласия: Хи квадрат Пирсона и Колмогорова-Смирнова
Критерий Колмогорова-Смирнова

Данный критерий также позволяет оценить существенность различий между двумя выборками, в том числе возможно его применение для сравнения эмпирического распределения с теоретическим.

Критерий позволяет найти точку, в которой сумма накопленных частот расхождений между двумя распределениями является наибольшей, и оценить достоверность этого расхождения. Нулевая гипотеза H0={различия между двумя распределениями недостоверны (судя по точке максимального накопленного расхождения между ними)}.

Схематично алгоритм применения критерия Колмогорова-Смирнова можно представить следующим образом:

 

Проиллюстрируем использование критерия Колмогорова-Смирнова на примере.

При изучении творческой активности студентов были получены результаты для экспериментальных и контрольных групп (см. таблицу). Являются ли значимыми различия между контрольной и экспериментальной группами?

 

Уровень усвоения     Частота в экспериментальной группе        Частота в контрольной группе

Хороший       172 чел.       120 чел.

Приблизительный    36 чел.         49 чел.

Плохой           15 чел.         36 чел.

Объём выборки         n1=172+36+15=223       n2=120+49+36=205

 

Вычисляем относительные частоты f, равные частному от деления частот на объём выборки, для двух имеющихся выборок.

Далее определяем модуль разности соответствующих относительных частот для контрольной и экспериментальной выборок.

В результате исходная таблица примет следующий вид:

Относительная частота экспериментальной группы (fэксп)          Относительная частота контрольной группы (fконтр) Модуль разности частот |fэксп – fконтр|

172/223≈0.77        120/205≈0.59        0.18

36/223≈0.16          49/205≈0.24          0.08

15/223≈0.07          36/205≈0.17          0.1

 

Среди полученных модулей разностей относительных частот выбираем наибольший модуль, который обозначается dmax. В рассматриваемом примере 0.18>0.1>0.08, поэтому dmax=0.18.

Эмпирическое значение критерия λэмп определяется с помощью формулы:

Чтобы сделать вывод о схожести по рассматриваемому критерию между двумя группами, сравним экспериментальное значение критерия с его критическим значением, определяемым по специальной таблице, исходя из уровня значимости . В качестве нулевой гипотезы примем утверждение о том, что сравниваемые группы незначительно отличаются друг от друга по уровню усвоения. При этом нулевую гипотезу следует принять в том случае, если наблюдаемое значение критерия не превосходит его критического значения.

Считая, что , по таблице определяем критическое значение критерия: λкр(0,05)=1,36.

Таким образом, λэмп=1,86>1,36= λкр. Следовательно, нулевая гипотеза отвергается, и группы по  рассмотренному признаку отличаются существенно.

Заметим, что объёмы рассматриваемых выборок должны быть достаточно большими: n1≥50, n2≥50.

 

Критерий Пирсона

Критерий согласия Пирсона позволяет осуществлять проверку эмпирического и теоретического (либо другого эмпирического) распределений одного признака. Данный критерий применяется, в основном, в двух случаях:

– Для сопоставления эмпирического распределения признака с теоретическим распределением (нормальным, показательным, равномерным либо каким-то иным законом);

– Для сопоставления двух эмпирических распределений одного и того же признака.

Идея метода – определение степени расхождения соответствующих частот ni и ; чем больше это расхождение, тем больше значение

Объемы выборок должны быть не меньше 50 и необходимо равенство сумм частот

Нулевая гипотеза H0={два распределения практически не различаются между собой}; альтернативная гипотеза – H1={расхождение между распределениями существенно}.

Приведем схему применения критерия для сопоставления двух эмпирических распределений:

Рассмотрим применение критерия на следующем примере.

Среди школьников с 1 по 7 класс в течение двух недель проводился опрос об удовлетворенности собственными оценками. Результаты опроса представлены в таблице:

Номер возрастного интервала (соответствует классу)Число удовлетворенных оценками в первую неделю исследованияЧисло удовлетворенных оценками на второй неделе исследования
11617
21313
389
4119
543
634
733

 

 

Можно ли считать, что эмпирическое распределение на первой неделе исследования согласуется с эмпирическим распределением на второй неделе исследования, т.е. структура удовлетворенности ответами учащихся сохранилась в течение данного времени?

Пусть уровень значимости равен 0,05.

Вычислим эмпирическое значение критерия:

По таблице критических точек распределения по заданному уровню значимости 0,05 и числу степеней свободы k=7-1 находим критическую точку

Поскольку то нет оснований отвергать нулевую гипотезу об одинаковом распределении мнений учащихся о своей успеваемости в разные недели.

  1. Основные этапы проверки гипотезы.

Под процедурой проверки статистических гипотез понимают последовательность действий, позволяющих с той или иной степенью достоверности подтвердить или опровергнуть утверждение гипотезы. Все статистические выводы являются следствием проверки одной или комплекса гипотез.

Рассмотрим основные этапы проверки гипотезы на примере проверки гипотезы о равенстве МО нормально распределенной случайной величины заданному значению.
ЭТАП I. Формулирование гипотезы. H0: Mx=C (гипотеза о равенстве МО значению C). Гипотеза о равенстве называется нулевой гипотезой о обозначается H0.
ЭТАП II. Определение статистики, с помощью которой будет проверятся гипотеза. Исследователю должен быть известен закон распределения этой статистики при справедливости гипотезы. Для нашего случая можно использовать T-статистику:

T = (X – C)*n1/2/S

где  n – объем выборки.

ЭТАП III. Исследователь назначает уровень значимости. Пусть α=0,05. По выбранному уровню значимости т.к. известно распределение T-статистики при справедливости исходной гипотезы определяются две граничные величины T-статистики (T1 и T2), которые делят значения T-статистики на две области. При справедливости гипотезы вероятность попадания статистики в интервал (T1,T2) составляет величину 1-α (0,95 в нашем случае), вероятность принятия T-статистикой значений вне интервала (T1,T2) не превышает α (в нашем случае 0,05). Первая область называется ОБЛАСТЬЮ ПРИНЯТИЯ ГИПОТЕЗЫ, вторая – КРИТИЧЕСКОЙ ОБЛАСТЬЮ.

ЭТАП IV. Извлекается выборка и вычисляется статистика. (В нашем случае Tрасч).

ЭТАП V. Если вычисленное значение попадает в область принятия гипотезы (в нашем случае T1<Tрасч<T2), то говорят, что ДАННЫЕ НЕ ПРОТИВОРЕЧАТ ГИПОТЕЗЕ. Если Tрасч<T1 или Tрасч>T2 (вычисленное значение попадает в критическую область) то говорят, что ДАННЫЕ ПРОТИВОРЕЧАТ ГИПОТЕЗЕ.

Необходимо подчеркнуть, что отвергает или принимает гипотезу исследователь. Процедура проверки лишь обосновывает приведенные выше утверждения. Утверждение – данные не противоречат гипотезе используется потому, что возможно справедлива не данная гипотеза, а некая другая, близкая к этой гипотезе (например H0: Mx=C1). Утверждение – данные противоречат гипотезе используется потому, что вероятность получить такой результат хоть и мала, но отлична от нуля.

ЕСЛИ ДАННЫЕ ПРОТИВОРЕЧАТ ГИПОТЕЗЕ И ГИПОТЕЗА ОТВЕРГАЕТСЯ, ТО ВЕРОЯТНОСТЬ ОШИБКИ ИССЛЕДОВАТЕЛЯ (гипотеза все таки верна) НЕ ПРЕВЫШАЕТ α (заданного уровня значимости).

 

 

 

 

 

  1. Изучение взаимосвязей между качественными признаками

Для исследования взаимосвязи качественных альтернативных признаков, принимающих только 2 взаимоисключающих значения, используется коэффициент ассоциации и контингенции. Они рассчитываются по формуле:

Если коэффициент ассоциации 0,5, а коэффициент контингенции 0,3, то можно сделать вывод о наличии существенной зависимости между изучаемыми признаками. Если признаки имеют 3 или более градаций, то для изучения взаимосвязей используются коэффициенты Пирсена и Чупрова. Они рассчитываются по формулам:

K – число значений (групп) первого признака, K1 – число значений (групп) второго признака fij – частоты соответствующих клеток таблицы, mi – столбцы таблицы ,nj – строки.
58.Изучение взаимосвязи между количественными признаками: коэффициент корреляции рангов и аналитические группировки

Коэффициент корреляции рангов, предложенный относится к непараметрическим показателям связи между переменными, измеренными в ранговой шкале. При расчете этого коэффициента не требуется никаких предположений о характере распределений признаков в генеральной совокупности. Этот коэффициент определяет степень тесноты связи порядковых признаков, которые в этом случае представляют собой ранги сравниваемых величин.

Существуют три основных видов группировок: типологические, структурные, аналитические.
Типологические группировки обеспечивают разграничение массовых явлений на качественно однородные совокупности. При этом качественно однородными совокупностями считаются такие, все единицы которых подчинены определенному закону развития (качеству объекта).

Группировки, применяемые для изучения структуры массовых явлений, называются структурными. С помощью таких группировок можно изучить состав (структуру) качественно однородной совокупности. Например, состав населения по полу, возрасту, образованию, национальности и другим признакам.
Группировки, предназначенные для изучения взаимосвязей и зависимостей между явлениями и процессами, называются аналитическими. Многие массовые явления достаточно тесно взаимосвязаны между собой: себестоимость продукции зависит от производительности труда: производительность труда в свою очередь зависит от технического уровня производства и труда, квалификации работников и т.д.
Аналитическая группировка ставит своей целью выявить и установить количественное выражение степени связи между факторным и результативным признаками (явлениями) в конкретных условиях места и времени.

 

  1. Таблицы сопряженности. Анализ таблиц сопряженности с помощью критерия Хи квадрат Пирсона

 

Таблица сопряженности – средство представления совместного распределения двух переменных, предназначенное для исследования связи между ними. Таблица сопряженности является наиболее универсальным средством изучения статистических связей, так как в ней могут быть представлены переменные с любым уровнем измерения.

Строки таблицы сопряженности соответствуют значениям одной переменной, столбцы – значениям другой переменной (количественные шкалы предварительно должны быть сгруппированы в интервалы). На пересечении строки и столбца указывается частота совместного появления fij соответствующих значений двух признаков xi и yj. Сумма частот по строке fi называется маргинальной частотой строки; сумма частот по столбцу fj – маргинальной частотой столбца. Сумма маргинальных частот равна объему выборки n; их распределение представляет собой одномерное распределение переменной, образующей строки или столбцы таблицы.

В таблицах сопряженности могут быть представлены как абсолютные, так и относительные частоты (в долях или процентах). Относительные частоты могут рассчитываться по отношению:

  • -к маргинальной частоте по строке
  • -к маргинальной частоте по столбцу
  • -к объему выборки

Таблицы сопряженности используются для проверки гипотезы о наличии связи между двумя признаками ( Статистическая связь, Критерий “хи-квадрат” ), а также для измерения тесноты связи ( Коэффициент фи, Коэффициент контингенции, Коэффициент Крамера)

Критерий “хи-квадрат” для анализа таблиц сопряженности

Гипотеза H0: переменные x и y независимы. Пусть имеется таблица сопряженности KxL, построенная для переменных x и y:

1 j L
1
i nij
K

 

Введем следующие обозначения:

– наблюдаемая частота (i,j)
– ожидаемая частота при H0
Статистика

Условие применимости

Eij<5 не более чем в 20% ячеек n>40

Частный случай K=L=2

              y

x           

1 2
1 ab
2 cd

 

 

Статистика , где

 

  1. Особенности методов анализа выживаемости

Особенность методов анализа выживаемости состоит в том, что они применяются к неполным данным. Отметим также, что более часто, чем обычная функция распределения, в этих методах используется так называемая функция выживания, представляющая собой вероятность того, что объект проживет время больше t. Построение таблиц времен жизни, оценивание функции выживания с помощью процедуры Каплана–Мейера являются описательными методами исследования цензурированных данных. Некоторые из предложенных методов позволяют сравнивать выживаемость в двух и более группах.

 

  1. Кривая выживаемости

vv

 

 

38 Таблицы времени жизни. Сравнение двух кривых выживаемости

В интернете слишком много .

39 Основные понятия дисперсионного анализа.

Дисперсионный анализ – (от лат. dispersion – рассеивание) – статистический метод, позволяющий анализировать влияние различных факторов (признаков) на исследуемую (зависимую) переменную. Метод был разработан биологом Р. Фишером (1925) и применялся первоначально для оценки экспериментов в растениеводстве. В дальнейшем выяснилась общенаучная значимость дисперсионного анализа для экспериментов в психологии, педагогике и медицине и др.

Суть дисперсионного анализа заключается в разложении (дисперсии) измеряемого признака на независимые слагаемые, каждое из которых характеризует влияние того или иного фактора или их взаимодействия. Последующее сравнение таких слагаемых позволяет оценить значимость каждого изучаемого фактора, а также их комбинации.

Дисперсионный анализ используется преимущественно в экспериментальной психологии при изучения действия на испытуемых тех или иных факторов. При этом особую роль играет анализ средних значений (отклонения от которых и называют дисперсией).

Понятие дисперсионного анализа.

Дисперсионный анализ – это анализ изменчивости признака под влиянием каких-либо контролируемых переменных факторов. В зарубежной литературе дисперсионный анализ часто обозначается как ANOVA, что переводится как анализ вариативности. Автором метода является Р.А. Фишер.

Задача дисперсионного анализа состоит в том, чтобы из общей вариативности признака вычленить вариативность троякого рода:

Вариативность, обусловленную действием каждой из исследуемых независимых переменных;

Вариативность, обусловленную взаимодействием исследуемых независимых переменных;

Случайную вариативность, обусловленную всеми другими неизвестными переменными.

Вариативность, обусловленная действием исследуемых переменных и их взаимодействием, соотносится со случайной вариативностью. Показателем этого соотношения является критерий F Фишера (критерии F Фишера и метод углового преобразования Фишера (критерий j*) – это совершенно разные методы, имеющие разное предназначение и разные способы вычисления).

Fэмп.А =

Fэмп. Б =

Fэмп. В =

В формулу расчета критерия F входят оценки дисперсий, т.е. параментов распределения признака, поэтому критерий F является параметрическим критерием. Чем в большей степени вариативность признака обусловлена исследуемыми переменными (факторами) или их взаимодействием, тем выше эмпирические значения критерия F.

В дисперсионном анализе исследователь исходит из предположения, что одни переменные могут рассматриваться как причины, а другие – как следствия. Переменные первого рода считаются факторами, а переменные второго рода – результативными признаками. В этом отличие дисперсионного анализа от прямолинейного корреляционного анализа (изменения одного признака просто сопровождаются определенными изменениями другого).

В дисперсионном анализе возможны два принципиальных разделения всех исследуемых переменных на независимые переменные (факторы) и зависимые переменные (результативные признаки).

Первый путь состоит в том, что исследователь совершает какие-либо воздействия на испытуемых или учитываются какие-либо не зависящие от исследователя воздействия на них, и именно эти воздействия считаются независимыми переменными, или факторами, а исследуемые признаки рассматриваются как зависимые переменные, или результативные признаки. Например, возраст испытуемых или способ предъявления им информация считаются факторами, а обучаемость или эффективность выполнения задания – результативными признаки.

Второй путь предполагает, что исследователь, не совершая никаких воздействий, считает, что при разных уровнях развития одних психологических признаков, другие проявляются тоже по-разному. По тем или иным причинам исследователь решает, что одни признаки могут рассматриваться скорее как факторы, а другие – как результат действия этих факторов. Например, уровень интеллекта или мотивации достижения начинаем считать факторами, а профессиональную компетентность или социометрический статус – результативными признаками.

Второй путь весьма уязвим для критики. Например, предположили, что настойчивость – значимый фактор учебной успешности студентов. настойчивость принимается за воздействующую переменную (фактор), а учебную успешность – за результативный признак. Против этого сразу могут быть выдвинуты сразу же два возражения. Во-первых, успех может стимулировать настойчивость; во-вторых, как собственно, измерялась настойчивость? Если она измерялась с помощью метода экспертных оценок, а экспертами были соученики или преподаватели, которым известна учебная успешность испытуемых, то не исключено, что это оценка настойчивости будет зависеть от известных экспертам показателей успешности, а не на оборот.

Также, например, в другом исследовании экспериментатор исходит из предположения, что фактор социальной смелости (фактор H) из 16-факторного личностного опросника Р.Б. Кетелла – эта независимая переменная, которая определяет объем заключенных торговым представителем договоров на поставку косметических товаров. Но если объем договоров определялся по какому-то периоду работы, скажем трехмесячному, а личностное обследование проводилось в конце этого периода или даже после его истечения, то исследователь не может со всей уверенностью отделить здесь причину от следствия. Есть очень сильное направление в психологии и психотерапии, которое утверждает, что личностные изменения начинаются с действий и поступков: «Начни действовать, и постепенно станешь таким, как твои поступки». Таким образом, психолог, представляющий это направление, возможно, стал бы утверждать, что причиной должен считаться объем договорных поставок, а результатом – повышение социальной смелости.

 

40 Однофакторный дисперсионный анализ.

Простейшим случаем дисперсионного анализа является одномерный однофакторный анализ для двух или нескольких независимых групп, когда все группы объединены по одному признаку. В ходе анализа проверяется нулевая гипотеза о равенстве средних. При анализе двух групп дисперсионный анализ тождественен двухвыборочному t-критерию Стьюдента для независимых выборок, и величина F-статистики равна квадрату соответствующей t-статистики.

Для подтверждения положения о равенстве дисперсий обычно применяется критерий Ливена (Levene’s test). В случае отвержения гипотезы о равенстве дисперсий основной анализ неприменим. Если дисперсии равны, то для оценки соотношения межгрупповой и внутригрупповой изменчивости применяется F-критерий Фишера:

Если F-статистика превышает критическое значение, то нулевая гипотеза отвергается и делается вывод о неравенстве средних. При анализе средних двух групп результаты могут быть интерпретированы непосредственно после применения критерия Фишера.

При наличии трёх и более групп требуется попарное сравнение средних для выявления статистически значимых отличий между ними. Априорный анализ включает метод контрастов, при котором межгрупповая сумма квадратов дробится на суммы квадратов отдельных контрастов:

где есть контраст между средними двух групп, и затем при помощи критерия Фишера проверяется соотношение среднего квадрата для каждого контраста к внутригрупповому среднему квадрату:

Апостериорный анализ включает post-hoc t-критерии по методам Бонферрони или Шеффе, а также сравнение разностей средних по методу Тьюки. Особенностью post-hoc-тестов является использование внутригруппового среднего квадрата для оценки любых пар средних. Тесты по методам Бонферрони и Шеффе являются наиболее консервативными, так как они используют наименьшую критическую область при заданном уровне значимости .

Помимо оценки средних дисперсионный анализ включает определение коэффициента детерминации , показывающего, какую долю общей изменчивости объясняет данный фактор:

41 Двухфакторный дисперсионный анализ

43 Статистические гипотезы, проверяемые с помощью дисперсионного анализа. Общая, факторная и остаточная дисперсии. Критерий Фишера.

  • Простая гипотеза однозначно определяет функцию распределения на множестве . Простые гипотезы имеют узкую область применения, ограниченную критериями согласия (см. ниже). Для простых гипотез известен общий вид равномерно более мощного критерия (Теорема Неймана-Пирсона).
  • Сложная гипотеза утверждает принадлежность распределения к некоторому множеству распределений на . Для сложных гипотез вывести равномерно более мощный критерий удаётся лишь в некоторых специальных случаях.
  • Статистическая гипотеза (statistical hypothesys) — это определённое предположение о распределении вероятностей, лежащем в основе наблюдаемой выборки данных.
  • Проверка статистической гипотезы (testing statistical hypotheses) — это процесс принятия решения о том, противоречит ли рассматриваемая статистическая гипотеза наблюдаемой выборке данных.
  • Статистический тест или статистический критерий — строгое математическое правило, по которому принимается или отвергается статистическая гипотеза.
  • Методика проверки статистических гипотез

Пусть задана случайная выборка — последовательность объектов из множества . Предполагается, что на множестве существует некоторая неизвестная вероятностная мера .

Методика состоит в следующем.

  • Формулируется нулевая гипотеза о распределении вероятностей на множестве . Гипотеза формулируется исходя из требований прикладной задачи. Чаще всего рассматриваются две гипотезы — основная или нулевая и альтернативная . Иногда альтернатива не формулируется в явном виде; тогда предполагается, что  означает «не ». Иногда рассматривается сразу несколько альтернатив. В математической статистике хорошо изучено несколько десятков «наиболее часто встречающихся» типов гипотез, и известны ещё сотни специальных вариантов и разновидностей. Примеры приводятся ниже.
  • Задаётся некоторая статистика (функция выборки) , для которой в условиях справедливости гипотезы выводится функция распределения и/или плотность распределения. Вопрос о том, какую статистику надо взять для проверки той или иной гипотезы, часто не имеет однозначного ответа. Есть целый ряд требований, которым должна удовлетворять «хорошая» статистика . Вывод функции распределения при заданных  и  является строгой математической задачей, которая решается методами теории вероятностей; в справочниках приводятся готовые формулы для ; в статистических пакетах имеются готовые вычислительные процедуры.
  • Фиксируется уровень значимости — допустимая для данной задачи вероятность ошибки первого рода, то есть того, что гипотеза на самом деле верна, но будет отвергнута процедурой проверки. Это должно быть достаточно малое число . На практике часто полагают .
  • На множестве допустимых значений статистики  выделяется критическое множество наименее вероятных значений статистики , такое, что . Вычисление границ критического множества как функции от уровня значимости является строгой математической задачей, которая в большинстве практических случаев имеет готовое простое решение.
  • Собственно статистический тест (статистический критерий) заключается в проверке условия:
    • если , то делается вывод «данные противоречат нулевой гипотезе при уровне значимости ». Гипотеза отвергается.
    • если , то делается вывод «данные не противоречат нулевой гипотезе при уровне значимости ». Гипотеза принимается.
  • Критерий Фишера применяется для проверки равенства дисперсий двух выборок. Его относят к критериям рассеяния.
  • При проверке гипотезы положения (гипотезы о равенстве средних значений в двух выборках) с использованием критерия Стьюдента имеет смысл предварительно проверить гипотезу о равенстве дисперсий. Если она верна, то для сравнения средних можно воспользоваться более мощным критерием.
  • В регрессионном анализе критерий Фишера позволяет оценивать значимость линейных регрессионных моделей. В частности, он используется в шаговой регрессии для проверки целесообразности включения или исключения независимых переменных (признаков) в регрессионную модель.
  • В дисперсионном анализе критерий Фишера позволяет оценивать значимость факторов и их взаимодействия.
  • Критерий Фишера основан на дополнительных предположениях о независимости и нормальности выборок данных. Перед его применением рекомендуется выполнить проверку нормальности.
  • Множественные сравнения. Поправка Бонферрони

Множественные сравнения возникают, когда необходимо на одной и той же выборке параллельно проверить ряд статистических гипотез.

Например, критерий Стьюдента может быть использован для проверки гипотезы о различии средних только для двух групп. Если план исследования большего числа групп, совершенно недопустимо просто сравнивать их попарно. Для корректного решения этой задачи можно воспользоваться, например, дисперсионным анализом.

Однако дисперсионный анализ позволяет проверить лишь гипотезу о равенстве всех сравниваемых средних. Но, если гипотеза не подтверждается, нельзя узнать, какая именно группа отличалась от других. Это позволяют сделать методы множественного сравнения, которые в свою очередь также бывают параметрические и непараметрические.

Эти методы дают возможность провести множественные сравнения так, чтобы вероятность хотя бы одного неверного заключения оставалась на первоначальном выбранном уровне значимости, например, 5%.

Среди параметрических критериев:

  • критерий Стьюдента для множественных сравнений
  • критерий Ньюмана-Кейлса
  • критерий Тьюки
  • критерий Шеффе
  • критерий Даннета

Среди непараметрических:

  • критерий Краскела-Уоллиса
  • медианный критерий

Надо сказать, что основные параметрические критерии для множественного сравнения независимых групп могут после некоторых модификаций применяться для установления различий и в повторных измерениях, если дисперсионный анализ установил наличие таких различий.

Поправка Бонферрони — один из методов контроля групповой вероятности ошибки (первого рода), который утверждает, что для достижения уровня достаточно, чтобы отвергались гипотезы , для которых , где — количество гипотез.

 

Определение

Пусть — семейство гипотез, а — соответствующие им достигаемые уровни значимости. Обозначим за неизвестное подмножество истинных нулевых гипотез мощности .

Групповая вероятности ошибки, или FWER, — это вероятность отклонения как минимум одной гипотезы из , т.е. получения как минимум одной ошибки первого рода. Метод поправки Бонферрони утверждает, что отклонение всех позволяет получить .

Альтернативная постановка

Можно также перейти к модифицированным уровням значимости .

Теоретическое обоснование

Из неравенства Буля следует, что

,

где — количество отвергнутых истинных гипотез.

Замечания

При увеличении в результате применения поправки Бонферрони мощность статистической процедуры резко уменьшается — шансы отклонить неверные гипотезы падают.

Существуют процедуры (например, метод Холма), которые равномерно превосходят по мощности процедуру, основанную на поправке Бонферрони, и не делают никаких дополнительных предположений.

Таким образом, использование поправки Бонферрони нецелесообразно.

44 Эпидемиологические показатели. Статистическая оценка эпидемиологических  показателей.

  • Под термином «эпидемиологические показатели» следует понимать качественную или количественную характеристику эпидемических явлений. Эпидемиологические показатели рассчитываются на определенную численность населения (на 1000, 10 000, 100 000 и т.д.), поэтому они являются относительными величинами, а именно интенсивными показателями.
  • Дальше хз

45 Основные понятия и задачи корреляционного анализа

Корреляционный анализ — метод обработки статистическихданных, заключающийся в изучении связи между переменными.

Главная задача корреляционного анализа – измерение тесноты связи – решается путем вычисления различных коэффициентов корреляции и проверки их значимости.

Цель корреляционного анализа – обеспечить получение некоторой информации об одной переменной с помощью другой переменной. В случаях, когда возможно достижение цели, говорят, что переменные коррелируют. Корреляция отражает лишь линейную зависимость величин, но не отражает их функциональной связности. Например, если вычислить коэффициент корреляции между величинами A = sin(x) и B = cos(x), то он будет близок к нулю, т.е. зависимость между величинами отсутствует.

При исследования корреляции используются графический и аналитический подходы.

Графический анализ начинается с построения корреляционного поля. Корреляционное поле (или диаграмма рассеяния) является графической зависимостью между результатами измерений двух признаков. Для ее построения исходные данные наносят на график, отображая каждую пару значений (xi,yi) в виде точки с координатами xi и yi в прямоугольной системе координат.

Визуальный анализ корреляционного поля позволяет сделать предположение о форме и направлении взаимосвязи двух исследуемых показателей. По форме взаимосвязи корреляционные зависимости принято разделять на линейные (см. рис. 1) и нелинейные (см. рис. 2). При линейной зависимости огибающая корреляционного поля близка к эллипсу. Линейная взаимосвязь двух случайных величин состоит в том, что при увеличении одной случайной величины другая случайная величина имеет тенденцию возрастать (или убывать) по линейному закону.

  1. Коэффициент корреляции Пирсона и его свойства

Коэффициент характеризует наличие только линейной связи между признаками, обозначаемыми, как правило, символами X и Y. Формула расчета коэффициента корреляции построена таким образом, что, если связь между признаками имеет линейный характер, коэффициент Пирсона точно устанавливает тесноту этой связи. Поэтому он называется также коэффициентом линейной корреляции Пирсона. Если же связь между переменными X и Yне линейна, то Пирсон предложил для оценки тесноты этой связи так называемое корреляционное отношение.

Величина коэффициента линейной корреляции Пирсона не может превышать +1 и быть меньше чем -1. Эти два числа +1 и -1 – являются границами для коэффициента корреляции. Когда при расчете получается величина большая +1 или меньшая -1 – следовательно произошла ошибка в вычислениях.

Знак коэффициента корреляции очень важен для интерпретации полученной связи. Подчеркнем еще раз, что если знак коэффициента линейной корреляции – плюс, то связь между коррелирующими признаками такова, что большей величине одного признака (переменной) соответствует большая величина другого признака (другой переменной). Иными словами, если один показатель (переменная) увеличивается, то соответственно увеличивается и другой показатель (переменная). Такая зависимость носит название прямо пропорциональной зависимости.

Если же получен знак минус, то большей величине одного признака соответствует меньшая величина другого. Иначе говоря, при наличии знака минус, увеличению одной переменной (признака, значения) соответствует уменьшение другой переменной. Такая зависимость носит название обратно пропорциональной зависимости.

В общем виде формула для подсчета коэффициента корреляции такова:

где хi– значения, принимаемые в выборке X,

yi– значения, принимаемые в выборке Y;

–средняя по X, – средняя по Y.

Расчет коэффициента корреляции Пирсона предполагает, что переменные Х и У распределены нормально.

В формуле встречается величина при делении наn(число значений переменной X или Y) она называется ковариацией. Формула предполагает также, что при расчете коэффициентов корреляции число значений переменной Х равно числу значений переменнойY.

Число степеней свободы k=n-2.

Статистические методы применяются при обработке материалов психологических исследований для того, чтобы извлечь из тех количественных данных, которые получены в экспериментах, при опросе и наблюдениях, возможно больше полезной информации. Одним самых из распространенных методов статистики является корреляционный анализ.

Таким образом, условия применения коэффициентов корреляции будут следующими:

  1. Переменные, измеренные в количественной (ранговой, метрической) шкале на одной и той же выборке объектов;
  2. Связь между переменными является монотонной.

Основная статистическая гипотеза, которая проверяется корреляционным анализом, является ненаправленной и содержит утверждение о равенстве корреляции нулю в генеральной совокупности H0:rxy=0. При ее отклонении принимается альтернативная гипотезаH1:rxy≠0 о наличии положительной или отрицательной корреляции – в зависимости от знака вычисленного коэффициента корреляции.

 

47 Коэффициент ранговой корреляции  Спирмена

Коэффициент ранговой корреляции Спирмена используется для выявления и оценки тесноты связи между двумя рядами сопоставляемых количественных показателей. В том случае, если ранги показателей, упорядоченных по степени возрастания или убывания, в большинстве случаев совпадают (большему значению одного показателя соответствует большее значение другого показателя – например, при сопоставлении роста пациента и его массы тела), делается вывод о наличии прямой корреляционной связи. Если ранги показателей имеют противоположную направленность (большему значению одного показателя соответствует меньшее значение другого – например, при сопоставлении возраста и частоты сердечных сокращений), то говорят об обратной связи между показателями.

Коэффициент корреляции Спирмена обладает следующими свойствами:

  1. Коэффициент корреляции может принимать значения от минус единицы до единицы, причем при rs=1 имеет место строго прямая связь, а при rs= -1 – строго обратная связь.
  2. Если коэффициент корреляции отрицательный, то имеет место обратная связь, если положительный, то – прямая связь.
  3. Если коэффициент корреляции равен нулю, то связь между величинами практически отсутствует.
  4. Чем ближе модуль коэффициента корреляции к единице, тем более сильной является связь между измеряемыми величинами.

3. В каких случаях можно использовать коэффициент Спирмена?

В связи с тем, что коэффициент является методом непараметрического анализа, проверка на нормальность распределения не требуется.

Сопоставляемые показатели могут быть измерены как в непрерывной шкале (например, число эритроцитов в 1 мкл крови), так и в порядковой (например, баллы экспертной оценки от 1 до 5).

Эффективность и качество оценки методом Спирмена снижается, если разница между различными значениями какой-либо из измеряемых величин достаточно велика. Не рекомендуется использовать коэффициент Спирмена, если имеет место неравномерное распределение значений измеряемой величины.

4. Как рассчитать коэффициент Спирмена?

Расчет коэффициента ранговой корреляции Спирмена включает следующие этапы:

  1. Сопоставить каждому из признаков их порядковый номер (ранг) по возрастанию или убыванию.
  2. Определить разности рангов каждой пары сопоставляемых значений (d).
  3. Возвести в квадрат каждую разность и суммировать полученные результаты.
  4. Вычислить коэффициент корреляции рангов по формуле:
  5. Определить статистическую значимость коэффициента при помощи t-критерия, рассчитанного по следующей формуле:

 

48 Основные понятия и задачи  регрессионного анализа при изучении биомедицинских объектов.

Регрессионный анализ — это статистический метод исследования зависимости случайной величины у от переменных (аргументов) хj (j = 1, 2,…, k), рассматриваемых в регрессионном анализе как неслучайные величины независимо от истинного закона распределения xj.

Обычно предполагается, что случайная величина у имеет нормальный закон распределения с условным математическим ожиданием  = φ(x1, …, хk), являющимся функцией от аргументов хj и с постоянной, не зависящей от аргументов дисперсией σ2.

Для проведения регрессионного анализа из (k + 1)-мерной генеральной совокупности (у, x1, х2, …, хj, …, хk) берется выборка объемом n, и каждое i-е наблюдение (объект) характеризуется значениями переменных i, xi1, хi2, …, хij, …, xik), где хij значение j-й переменной для i-го наблюдения (i = 1, 2,…, n), уi значение результативного признака для i-го наблюдения.

Наиболее часто используемая множественная линейная модель регрессионного анализа имеет вид

 

(53.8)

 

где βj — параметры регрессионной модели;

εj — случайные ошибки наблюдения, не зависимые друг от друга, имеют нулевую среднюю и дисперсию σ2.

Отметим, что модель (53.8) справедлива для всех i = 1,2, …, n, линейна относительно неизвестных параметров β0, β1,…, βj, …, βk и аргументов.

Как следует из (53.8), коэффициент регрессии Bj показывает, на какую величину в среднем изменится результативный признак у, если переменную хj увеличить на единицу измерения, т.е. является нормативным коэффициентом.

В матричной форме регрессионная модель имеет вид

 

(53.9)

 

где Y — случайный вектор-столбец размерности п х 1 наблюдаемых значений результативного признака 1, у2,…. уn); Х— матрица размерности п х (k + 1) наблюдаемых значений аргументов, элемент матрицы х,, рассматривается как неслучайная величина (i = 1, 2, …, n; j=0,1, …, k; x0i, = 1); β — вектор-столбец размерности (k + 1) х 1 неизвестных, подлежащих оценке параметров модели (коэффициентов регрессии); ε — случайный вектор-столбец размерности п х 1 ошибок наблюдений (остатков). Компоненты вектора εi не зависимы друг от друга, имеют нормальный закон распределения с нулевым математическим ожиданием (Mεi = 0) и неизвестной постоянной σ2 (Dεi = σ2).

 

Основная цель регрессионного анализасостоит в определении связи между некоторой характеристикойYнаблюдаемого явления или объекта и величинамих1, х2, …, хn, которые обусловливают, объясняют измененияY. ПеременнаяYназываетсязависимой переменной(откликом), влияющие переменныех1, х2, …, хnназываютсяфакторами(регрессорами). Установление формы зависимости, подбор модели (уравнения) регрессии и оценка ее параметров являются задачами регрессионного анализа.

В регрессионном анализе изучаются модели вида Y = φ(X) + ε, гдеY – результирующий признак (отклик, случайная зависимая переменная);X– фактор (неслучайная независимая переменная);ε– случайная переменная, характеризующая отклонение фактора Х от линии регрессии (остаточная переменная).Уравнение регрессиизаписывается в виде:yx = φ(x, b0, b1, …, bp), где х – значения величины Х; yx = Mх(Y);b0, b1, …, bp– параметры функции регрессииφ. Таким образом, задача регрессионного анализа состоит в определении функции и ее параметров и последующего статистического исследования уравнения.

В зависимости от типа выбранного уравнения различают линейнуюинелинейнуюрегрессию (в последнем случае возможно дальнейшее уточнение: квадратичная, экспоненциальная, логарифмическая и т.д.). В зависимости от числа взаимосвязанных признаков различаютпарнуюимножественнуюрегрессию. Если исследуется связь между двумя признаками (результативным и факторным), то регрессия называется парной, если между тремя и более признаками – множественной (многофакторной) регрессией.

 

49 Уравнения регрессии. Оценка параметров уравнения регрессии по выборке.

Так как в регрессионном анализе хj рассматриваются как неслучайные величины, a Mεi = 0, то согласно (53.8) уравнение регрессии имеет вид

 

(53.10)

 

для всех i = 1, 2, …, п, или в матричной форме:

 

(53.11)

 

где — вектор-столбец с элементами  1…, i,…, n.

Для оценки вектора-столбца β наиболее часто используют метод наименьших квадратов, согласно которому в качестве оценки принимают вектор-столбец b, который минимизирует сумму квадратов отклонений наблюдаемых значений уi от модельных значений i, т.е. квадратичную форму:

где символом «Т» обозначена транспонированная матрица.

50 Метод наименьших квадратов (МНК).

Метод наименьших квадратов — метод нахождения оптимальных параметров линейной регрессии, таких, что сумма квадратов ошибок (регрессионных остатков) минимальна. Метод заключается в минимизации евклидова расстояния между двумя векторами — вектором восстановленных значений зависимой переменной и вектором фактических значений зависимой переменной.

 

Постановка задачи

Задача метода наименьших квадратов состоит в выборе вектора , минимизирующего ошибку . Эта ошибка есть расстояние от вектора  до вектора . Вектор  лежит в простанстве столбцов матрицы , так как  есть линейная комбинация столбцов этой матрицы с коэффициентами . Отыскание решения  по методу наименьших квадратов эквивалентно задаче отыскания такой точки , которая лежит ближе всего к  и находится при этом в пространстве столбцов матрицы . Таким образом, вектор  должен быть проекцией  на пространство столбцов и вектор невязки  должен быть ортогонален этому пространству. Ортогональность состоит в том, что каждый вектор в пространстве столбцов есть линейная комбинация столбцов с некоторыми коэффициентами , то есть это вектор . Для всех  в пространстве , эти векторы должны быть перпендикулярны невязке :

Так как это равенство должно быть справедливо для произвольного вектора , то

Решение по методу наименьших квадратов несовместной системы , состоящей из  уравнений с неизвестными, есть уравнение

которое называется нормальным уравнением. Если столбцы матрицы  линейно независимы, то матрица  обратима и единственное решение

Проекция вектора  на пространство столбцов матрицы имеет вид

Матрица  называется матрицей проектирования вектора  на пространство столбцов матрицы . Эта матрица имеет два основных свойства: она идемпотентна, , и симметрична, . Обратное также верно: матрица, обладающая этими двумя свойствами есть матрица проектирования на свое пространство столбцов.

 

51 Оценка коэффициента детерминации

 

Коэффициент детерминации ( – R-квадрат) — это доля дисперсии зависимой переменной, объясняемая рассматриваемой моделью. Более точно — это единица минус доля необъяснённой дисперсии (дисперсии случайной ошибки модели, или условной по признакам дисперсии зависимой переменной) в дисперсии зависимой переменной. В случае линейной зависимости является квадратом так называемого множественного коэффициента корреляции между зависимой переменной и объясняющими переменными. В частности, для модели линейной регрессии с одним признаком коэффициент детерминации равен квадрату обычного коэффициента корреляции между и .

Определение и формула

Истинный коэффициент детерминации модели зависимости случайной величины от признаков определяется следующим образом:

где — условная (по признакам ) дисперсия зависимой переменной (дисперсия случайной ошибки модели).

В данном определении используются истинные параметры, характеризующие распределение случайных величин. Если использовать выборочную оценку значений соответствующих дисперсий, то получим формулу для выборочного коэффициента детерминации (который обычно и подразумевается под коэффициентом детерминации):

где

— сумма квадратов регрессионных остатков,

— общая дисперсия,

— соответственно, фактические и расчетные значения объясняемой переменной,

— выборочное вреднее.

В случае линейной регрессии с константой , где — объяснённая сумма квадратов, поэтому получаем более простое определение в этом случае. Коэффициент детерминации — это доля объяснённой дисперсии в общей:

.

Необходимо подчеркнуть, что эта формула справедлива только для модели с константой, в общем случае необходимо использовать предыдущую формулу.

52 Связь регрессии и корреляции

Сравнивая формулы видим: в их числителе одна и та же величина , что указывает на наличие связи между этими показателями. Эта связь выражается равенством

. (6)

Таким образом, коэффициент корреляции равен средней геометрической из коэффициентов byx и bxy. Формула (6) позволяет, во-первых, по известным значениям коэффициентов регрессии byx и bxy определять коэффициент регрессии Rxy, а во-вторых, проверять правильность расчета этого показателя корреляционной связи Rxy между варьирующими признаками X и Y.

Как и коэффициент корреляции, коэффициент регрессии характеризует только линейную связь и сопровождается знаком плюс при положительной и знаком минус при отрицательной связи.

  1. Основные статистические методы

Метод статистики (или статистическая методология) представляет собой совокупность приемов, правил и принципов статистического исследования социально-экономических явлений, т.е. сбора сведений, обработки их, вычисления показателей и анализа (оценки) полученных данных.

Статистические методы:

– метод массовых наблюдений – сбор первичных данных по единицам совокупности;

– сводка и группировка заключается в классификации, обобщении полученных первичных данных;

– методы анализа обобщающих показателей позволяют дать характеристику изучаемому явлению при помощи статистических величин: абсолютных, относительных и средних с целью установления взаимосвязей и закономерностей развития процессов.

 

Қажетті материалды таппадың ба? Онда KazMedic авторларына тапсырыс бер

Статистическая совокупность

error: Материал көшіруге болмайды!