Нормальное распределение - Normal distribution

Нормальное распределение
Функция плотности вероятности
Нормальное распределение PDF.svg
Красная кривая - это стандартное нормальное распределение
Кумулятивная функция распределения
Нормальное распределение CDF.svg
Обозначение
Параметры = среднее (место расположения )
= дисперсия (в квадрате шкала )
Поддерживать
PDF
CDF
Квантиль
Иметь в виду
Медиана
Режим
Дисперсия
СУМАСШЕДШИЙ
Асимметрия
Бывший. эксцесс
Энтропия
MGF
CF
Информация Fisher

Расхождение Кульбака-Лейблера

В теория вероятности, а нормальный (или же Гауссовский или же Гаусс или же Лаплас – Гаусс) распределение это тип непрерывное распределение вероятностей для ценный случайная переменная. Общий вид его функция плотности вероятности является

Параметр это иметь в виду или же ожидание распределения (а также его медиана и Режим ), а параметр это его стандартное отклонение.[1] В отклонение распределения .[2] Случайная величина с гауссовым распределением называется нормально распределенный, и называется нормальное отклонение.

Нормальные распределения важны в статистика и часто используются в естественный и социальные науки представлять ценные случайные переменные чьи распределения неизвестны.[3][4] Их важность отчасти объясняется Центральная предельная теорема. В нем говорится, что при некоторых условиях среднее из многих выборок (наблюдений) случайной величины с конечным средним значением и дисперсией само по себе является случайной величиной, распределение которой сходится к нормальному распределению по мере увеличения количества выборок. Следовательно, физические величины, которые, как ожидается, будут суммой многих независимых процессов, таких как погрешности измерения, часто имеют распределения, которые почти нормальны.[5]

Более того, гауссовские распределения обладают некоторыми уникальными свойствами, которые ценны для аналитических исследований. Например, любая линейная комбинация фиксированного набора нормальных отклонений является нормальным отклонением. Многие результаты и методы, такие как распространение неопределенности и наименьших квадратов подгонка параметров, может быть получена аналитически в явной форме, когда соответствующие переменные распределены нормально.

Нормальное распределение иногда неофициально называют кривая колокола.[6] Однако многие другие дистрибутивы имеют форму колокола (например, Коши, Студенты т, и логистика раздачи).

Определения

Стандартное нормальное распределение

Простейший случай нормального распределения известен как стандартное нормальное распределение. Это особый случай, когда и , и это описывается этим функция плотности вероятности:[1]

Здесь фактор гарантирует, что общая площадь под кривой равно единице.[примечание 1] Фактор в показателе степени гарантирует, что распределение имеет единичную дисперсию (т. е. дисперсию, равную единице), и, следовательно, также единичное стандартное отклонение. Эта функция симметрична относительно , где достигает максимального значения и имеет точки перегиба в и .

Авторы расходятся во мнениях относительно того, какое нормальное распределение следует называть "стандартным". Карл Фридрих Гаусс, например, определили стандартную нормаль как имеющую дисперсию . То есть:

С другой стороны, Стивен Стиглер[7] идет еще дальше, определяя стандартную нормаль как имеющую дисперсию :

Общее нормальное распределение

Каждое нормальное распределение является версией стандартного нормального распределения, область определения которого была увеличена в несколько раз. (стандартное отклонение), а затем переведено на (среднее значение):

Плотность вероятности должна быть масштабирована на так что интеграл по-прежнему равен 1.

Если это стандартное нормальное отклонение, тогда будет иметь нормальное распределение с ожидаемым значением и стандартное отклонение . Наоборот, если нормальное отклонение с параметрами и , то распределение будет иметь стандартное нормальное распределение. Этот вариант также называют стандартизированной формой .

Обозначение

Плотность вероятности стандартного распределения Гаусса (стандартное нормальное распределение с нулевым средним и единичной дисперсией) часто обозначается греческой буквой (фи ).[8] Альтернативная форма греческой буквы фи, , также используется довольно часто.[1]

Нормальное распределение часто называют или же .[1][9] Таким образом, когда случайная величина нормально распределяется со средним и стандартное отклонение можно написать

Альтернативные параметризации

Некоторые авторы рекомендуют использовать точность в качестве параметра, определяющего ширину распределения, вместо отклонения или дисперсия . Точность обычно определяется как величина, обратная дисперсии, .[10] Формула распределения тогда принимает вид

Утверждается, что этот выбор имеет преимущества в численных расчетах, когда очень близко к нулю и упрощает формулы в некоторых контекстах, например в Байесовский вывод переменных с многомерное нормальное распределение.

В качестве альтернативы, величина, обратная стандартному отклонению можно определить как точность, в этом случае выражение нормального распределения принимает вид

По словам Стиглера, эта формулировка выгодна из-за гораздо более простой и легко запоминающейся формулы, а также простых приближенных формул для квантили распределения.

Нормальные распределения образуют экспоненциальная семья с естественные параметры и , и естественная статистика Икс и Икс2. Параметры двойного ожидания для нормального распределения: η1 = μ и η2 = μ2 + σ2.

Кумулятивная функция распределения

В кумулятивная функция распределения (CDF) стандартного нормального распределения, обычно обозначаемого заглавной греческой буквой (фи ),[1] это интеграл

Связанные функция ошибки дает вероятность случайной величины с нормальным распределением среднего 0 и дисперсией 1/2, попадающими в диапазон . То есть:[1]

Эти интегралы не могут быть выражены в терминах элементарных функций, и их часто называют специальные функции. Однако известно много численных приближений; видеть ниже для большего.

Эти две функции тесно связаны, а именно:

Для общего нормального распределения с плотностью , иметь в виду и отклонение , кумулятивная функция распределения имеет вид

Дополнение к стандартному нормальному CDF, , часто называют Q-функция, особенно в инженерных текстах.[11][12] Он дает вероятность того, что значение стандартной нормальной случайной величины превысит : . Другие определения -функции, все из которых являются простыми преобразованиями , также иногда используются.[13]

В график стандартного нормального CDF имеет 2-кратный вращательная симметрия вокруг точки (0,1 / 2); то есть, . Его первообразный (неопределенный интеграл) можно выразить следующим образом:

CDF стандартного нормального распределения может быть расширен на Интеграция по частям в серию:

куда обозначает двойной факториал.

An асимптотическое разложение ФРИ для крупных Икс также можно получить с помощью интегрирования по частям. Подробнее см. Функция ошибок # Асимптотическое расширение.[14]

Стандартное отклонение и охват

Для нормального распределения значения менее одного стандартного отклонения от среднего составляют 68,27% от набора; два стандартных отклонения от среднего составляют 95,45%; и три стандартных отклонения составляют 99,73%.

Около 68% значений, взятых из нормального распределения, находятся в пределах одного стандартного отклонения. σ подальше от среднего; около 95% значений находятся в пределах двух стандартных отклонений; и около 99,7% находятся в пределах трех стандартных отклонений.[6] Этот факт известен как 68-95-99,7 (эмпирическое) правило, или Правило 3-х сигм.

Точнее, вероятность того, что нормальное отклонение находится в диапазоне между и дан кем-то

До 12 значащих цифр значения для находятся:[15]

OEIS
10.6826894921370.317310507863
3.15148718753
OEISA178647
20.9544997361040.045500263896
21.9778945080
OEISA110894
30.9973002039370.002699796063
370.398347345
OEISA270712
40.9999366575160.000063342484
15787.1927673
50.9999994266970.000000573303
1744277.89362
60.9999999980270.000000001973
506797345.897

Для больших , можно использовать приближение .

Квантильная функция

В квантильная функция распределения - это функция, обратная кумулятивной функции распределения. Функция квантиля стандартного нормального распределения называется пробит функция, и может быть выражена через обратную функция ошибки:

Для нормальной случайной величины со средним значением и дисперсия функция квантиля

В квантиль стандартного нормального распределения обычно обозначается как . Эти значения используются в проверка гипотезы, строительство доверительные интервалы и Графики Q-Q. Нормальная случайная величина превысит с вероятностью , и будет лежать вне интервала с вероятностью . В частности, квантиль является 1.96; поэтому нормальная случайная величина будет лежать вне интервала только в 5% случаев.

Следующая таблица дает квантиль такой, что будет лежать в диапазоне с заданной вероятностью . Эти значения полезны для определения интервал допуска за выборочные средние и другие статистические оценщики с нормальным (или асимптотически нормальные) распределения :.[16][17] ПРИМЕЧАНИЕ: в следующей таблице показаны , нет как определено выше.

 
0.801.2815515655450.9993.290526731492
0.901.6448536269510.99993.890591886413
0.951.9599639845400.999994.417173413469
0.982.3263478740410.9999994.891638475699
0.992.5758293035490.99999995.326723886384
0.9952.8070337683440.999999995.730728868236
0.9983.0902323061680.9999999996.109410204869

Для малых , функция квантили имеет полезное асимптотическое разложение

Характеристики

Нормальное распределение - единственное распределение, кумулянты за пределами первых двух (т.е. кроме среднего и отклонение ) равны нулю. Это также непрерывное распределение с максимальная энтропия для указанного среднего и дисперсии.[18][19] Гири показал, предполагая, что среднее и дисперсия конечны, что нормальное распределение - это единственное распределение, в котором среднее и дисперсия, вычисленные из набора независимых выборок, не зависят друг от друга.[20][21]

Нормальное распределение является подклассом эллиптические распределения. Нормальное распределение симметричный о своем среднем значении и отличен от нуля по всей действительной линии. Как таковая, она может не подходить для переменных, которые изначально положительны или сильно искажены, например масса человека или цена Поделиться. Такие переменные могут быть лучше описаны другими распределениями, такими как логнормальное распределение или Распределение Парето.

Значение нормального распределения практически равно нулю, когда значение ложь больше, чем несколько Стандартное отклонение от среднего (например, разброс в три стандартных отклонения покрывает все, кроме 0,27% от общего распределения). Следовательно, эта модель может быть неподходящей, если ожидается значительная доля выбросы - значения, которые на много стандартных отклонений от среднего - и наименьших квадратов и другие статистические выводы методы, оптимальные для нормально распределенных переменных, часто становятся крайне ненадежными при применении к таким данным. В этих случаях более хвостатый следует предполагать распределение и соответствующий надежный статистический вывод применяемые методы.

Распределение Гаусса принадлежит семейству стабильные дистрибутивы которые являются аттракторами сумм независимые, одинаково распределенные распределения независимо от того, является ли среднее значение или дисперсия конечными. За исключением гауссова, который является предельным случаем, все стабильные распределения имеют тяжелые хвосты и бесконечную дисперсию. Это одно из немногих распределений, которые стабильны и имеют функции плотности вероятности, которые могут быть выражены аналитически, а другие распределения представляют собой Распределение Коши и Распределение Леви.

Симметрии и производные

Нормальное распределение с плотностью (иметь в виду и стандартное отклонение ) имеет следующие свойства:

  • Он симметричен относительно точки что в то же время Режим, то медиана и иметь в виду распределения.[22]
  • это одномодальный: его первый производная положительно для отрицательный для и ноль только при
  • Площадь под кривой и над -axis равна единице (т.е. равна единице).
  • Его первая производная
  • Его плотность имеет два точки перегиба (где вторая производная от равен нулю и меняет знак), расположенный на одно стандартное отклонение от среднего, а именно на и [22]
  • Его плотность бревенчатый.[22]
  • Его плотность бесконечно дифференцируемый, в самом деле сверхгладкий порядка 2.[23]

Кроме того, плотность стандартного нормального распределения (т.е. и ) также имеет следующие свойства:

  • Его первая производная
  • Его вторая производная
  • В более общем плане пth производная куда это пth (вероятностный) Многочлен Эрмита.[24]
  • Вероятность того, что нормально распределенная переменная с известными и находится в определенном наборе, можно вычислить, используя тот факт, что дробь имеет стандартное нормальное распределение.

Моменты

Простой и абсолютный моменты переменной ожидаемые значения и , соответственно. Если ожидаемое значение из равен нулю, эти параметры называются центральные моменты. Обычно нас интересуют только моменты с целым порядком .

Если имеет нормальное распределение, эти моменты существуют и конечны для любого действительная часть которого больше -1. Для любого неотрицательного целого числа , простыми центральными моментами являются:[25]

Здесь обозначает двойной факториал, то есть произведение всех чисел из к 1, которые имеют ту же четность, что и

Центральные абсолютные моменты совпадают с простыми моментами для всех четных порядков, но отличны от нуля для нечетных порядков. Для любого неотрицательного целого числа

Последняя формула действительна также для любых нецелых чисел. Когда среднее простые и абсолютные моменты могут быть выражены в терминах конфлюэнтные гипергеометрические функции и [нужна цитата ]

Эти выражения остаются в силе, даже если не является целым числом. Смотрите также обобщенные полиномы Эрмита.

ЗаказНецентральный моментЦентральный момент
1
2
3
4
5
6
7
8

Ожидание при условии, что лежит в интервале дан кем-то

куда и соответственно - плотность и кумулятивная функция распределения . За это известно как обратное соотношение Миллса. Обратите внимание, что выше плотность из используется вместо стандартной нормальной плотности, как в обратном отношении Миллса, поэтому здесь мы имеем вместо .

Преобразование Фурье и характеристическая функция

В преобразование Фурье нормальной плотности со средним и стандартное отклонение является[26]

куда это мнимая единица. Если среднее , первый множитель равен 1, а преобразование Фурье, помимо постоянного множителя, является нормальной плотностью на частотная область, со средним 0 и стандартным отклонением . В частности, стандартное нормальное распределение является собственная функция преобразования Фурье.

В теории вероятностей преобразование Фурье распределения вероятностей вещественной случайной величины тесно связан с характеристическая функция этой переменной, которая определяется как ожидаемое значение из , как функция действительной переменной частота параметр преобразования Фурье). Это определение может быть аналитически расширено до переменной со сложным значением. .[27] Связь между ними такова:

Производящие функции момента и кумулянта

В функция, производящая момент реальной случайной величины ожидаемое значение , как функция действительного параметра . Для нормального распределения с плотностью , иметь в виду и отклонение , моментная производящая функция существует и равна

В кумулянтная производящая функция - логарифм производящей функции момента, а именно

Поскольку это квадратичный многочлен от , только первые два кумулянты отличны от нуля, а именно среднее и дисперсия.

Оператор и класс Штейна

В Метод Штейна оператор Штейна и класс случайной величины находятся и класс всех абсолютно непрерывных функций .

Предел нулевой дисперсии

в предел когда стремится к нулю, плотность вероятности в конечном итоге стремится к нулю при любом , но растет без ограничений, если , а его интеграл остается равным 1. Следовательно, нормальное распределение нельзя определить как обычное функция когда .

Однако можно определить нормальное распределение с нулевой дисперсией как обобщенная функция; в частности, как «Дельта-функция» Дирака переведено в среднем , то есть Его CDF тогда Ступенчатая функция Хевисайда переведено в среднем , а именно

Максимальная энтропия

Из всех распределений вероятностей по реалам с заданным средним и дисперсия, нормальное распределение это тот, у кого максимальная энтропия.[28] Если это непрерывная случайная величина с плотность вероятности , то энтропия определяется как[29][30][31]

куда считается равным нулю всякий раз, когда . Этот функционал можно максимизировать, при условии, что распределение правильно нормализовано и имеет заданную дисперсию, используя вариационное исчисление. Функция с двумя Множители Лагранжа определено:

куда пока рассматривается как некоторая функция плотности со средним и стандартное отклонение .

При максимальной энтропии небольшая вариация о создаст вариацию о что равно 0:

Поскольку это должно выполняться для любых небольших , член в скобках должен быть равен нулю, и решение для дает:

Используя уравнения связей для решения для и дает плотность нормального распределения:

Энтропия нормального распределения равна

Операции при нормальных отклонениях

Семейство нормальных распределений замкнуто относительно линейных преобразований: если нормально распределяется со средним и стандартное отклонение , то переменная , для любых действительных чисел и , также нормально распространяется, со средним и стандартное отклонение .

Также если и два независимый нормальные случайные величины со средними , и стандартные отклонения , , то их сумма также будет нормально распространяться,[доказательство] со средним и дисперсия .

В частности, если и - независимые нормальные отклонения с нулевым средним и дисперсией , тогда и также независимы и нормально распределены, с нулевым средним и дисперсией . Это частный случай поляризационная идентичность.[32]

Кроме того, если , два независимых нормальных отклонения со средним и отклонение , и , - произвольные действительные числа, то переменная

также нормально распределяется со средним и отклонение . Отсюда следует, что нормальное распределение стабильный (с показателем ).

В общем, любой линейная комбинация независимых нормальных отклонений - нормальное отклонение.

Бесконечная делимость и теорема Крамера

Для любого положительного целого числа , любое нормальное распределение со средним и дисперсия - это распределение суммы независимых нормальных отклонений, каждое со средним и дисперсия . Это свойство называется бесконечная делимость.[33]

Наоборот, если и являются независимыми случайными величинами и их сумма имеет нормальное распределение, то оба и должны быть нормальные отклонения.[34]

Этот результат известен как Теорема Крамера о разложении, что эквивалентно утверждению, что свертка двух распределений нормально тогда и только тогда, когда оба нормальны. Теорема Крамера подразумевает, что линейная комбинация независимых негауссовских переменных никогда не будет иметь точно нормального распределения, хотя она может приближаться к нему сколь угодно близко.[35]

Теорема Бернштейна

Теорема Бернштейна утверждает, что если и независимы и и также независимы, то оба Икс и Y обязательно должны иметь нормальные распределения.[36][37]

В более общем смысле, если являются независимыми случайными величинами, то две различные линейные комбинации и будет независимым тогда и только тогда, когда все нормальные и , куда обозначает дисперсию .[36]

Другие свойства

  1. Если характеристическая функция некоторой случайной величины имеет форму , куда это многочлен, то Теорема Марцинкевича (названный в честь Юзеф Марцинкевич ) утверждает, что может быть не более чем квадратичным многочленом, и поэтому - нормальная случайная величина.[35] Следствием этого результата является то, что нормальное распределение является единственным распределением с конечным числом (двумя) ненулевых кумулянты.
  2. Если и находятся совместно нормально и некоррелированный, то они независимый. Требование, чтобы и должно быть совместно нормальный необходим; без него собственность не удерживается.[38][39][доказательство] Для ненормальных случайных величин некоррелированность не означает независимости.
  3. В Дивергенция Кульбака – Лейблера одного нормального распределения От другого дан кем-то:[40]

    В Расстояние Хеллингера между одними и теми же распределениями равно

  4. В Информационная матрица Fisher для нормального распределения имеет диагональный вид и имеет вид
  5. В сопряженный предшествующий среднего нормального распределения - другое нормальное распределение.[41] В частности, если iid и приор , то апостериорное распределение для оценки будет
  6. Семейство нормальных распределений не только образует экспоненциальная семья (EF), но фактически образует естественная экспоненциальная семья (NEF) с квадратичным функция дисперсии (NEF-QVF ). Многие свойства нормальных распределений обобщаются на свойства распределений NEF-QVF, распределений NEF или распределений EF в целом. Распределения NEF-QVF состоят из 6 семейств, включая пуассоновское, гамма, биномиальное и отрицательное биномиальное распределение, в то время как многие из общих семейств, изучаемых в области вероятности и статистики, являются NEF или EF.
  7. В информационная геометрия семейство нормальных распределений образует статистическое многообразие с постоянная кривизна . Та же семья плоский относительно (± 1) -связности ∇ и ∇.[42]

Связанные дистрибутивы

Центральная предельная теорема

По мере увеличения количества дискретных событий функция начинает напоминать нормальное распределение
Сравнение функций плотности вероятности, на сумму справедливые 6-сторонние игральные кости, чтобы показать их сходимость к нормальному распределению с увеличением , согласно центральной предельной теореме. На нижнем правом графике сглаженные профили предыдущих графиков масштабируются, накладываются друг на друга и сравниваются с нормальным распределением (черная кривая).

Центральная предельная теорема утверждает, что при определенных (довольно общих) условиях сумма многих случайных величин будет иметь приблизительно нормальное распределение. В частности, где находятся независимые и одинаково распределенные случайные величины с одинаковым произвольным распределением, нулевым средним и дисперсией и их средний масштаб

Тогда как увеличивается, распределение вероятностей будет стремиться к нормальному распределению с нулевым средним и дисперсией .

Теорема распространяется на переменные которые не являются независимыми и / или неодинаково распределенными, если наложены определенные ограничения на степень зависимости и моменты распределений.

Много статистика тестов, оценки, и оценщики встречаются на практике, содержат в себе суммы определенных случайных величин, и даже больше оценок можно представить в виде сумм случайных величин с помощью функции влияния. Центральная предельная теорема подразумевает, что эти статистические параметры будут иметь асимптотически нормальные распределения.

Центральная предельная теорема также подразумевает, что некоторые распределения могут быть аппроксимированы нормальным распределением, например:

  • В биномиальное распределение является примерно нормально со средним и дисперсия для больших и для не слишком близко к 0 или 1.
  • В распределение Пуассона с параметром примерно нормально со средним и дисперсия , для больших значений .[43]
  • В распределение хи-квадрат примерно нормально со средним и дисперсия , для больших .
  • В Распределение Стьюдента приблизительно нормально со средним значением 0 и дисперсией 1, когда большой.

Достаточно ли точность этих приближений зависит от цели, для которой они нужны, и скорости сходимости к нормальному распределению. Обычно такие приближения менее точны в хвостах распределения.

Общая оценка сверху ошибки аппроксимации в центральной предельной теореме дается формулой Теорема Берри – Эссеена, улучшения приближения даются Расширения Эджворта.

Операции с одной случайной величиной

Если Икс распределяется нормально со средним μ и дисперсия σ2, тогда

Комбинация двух независимых случайных величин

Если и - две независимые стандартные нормальные случайные величины со средним 0 и дисперсией 1, то

  • Их сумма и разность распределены нормально с нулевым средним и двумя значениями дисперсии: .
  • Их продукт следует за Распространение продукции[44] с функцией плотности куда это модифицированная функция Бесселя второго рода. Это распределение симметрично относительно нуля, неограниченно при , и имеет характеристическая функция .
  • Их соотношение соответствует стандарту Распределение Коши: .
  • Их евклидова норма имеет Распределение Рэлея.

Комбинация двух или более независимых случайных величин

  • Если являются независимыми стандартными нормальными случайными величинами, то сумма их квадратов имеет вид распределение хи-квадрат с степени свободы
  • Если , являются независимыми стандартными нормальными случайными величинами, то отношение их нормированных сумм квадратов будет иметь F-распределение с (п, м) степени свободы:[47]

Операции над функцией плотности

В разделенное нормальное распределение наиболее прямо определяется в терминах объединения масштабированных участков функций плотности различных нормальных распределений и изменения масштаба плотности для интегрирования в одно. В усеченное нормальное распределение результат изменения масштаба части одной функции плотности.

Расширения

Понятие нормального распределения, являющегося одним из наиболее важных распределений в теории вероятностей, было расширено далеко за пределы стандартных рамок одномерного (то есть одномерного) случая (случай 1). Все эти расширения также называются нормальный или же Гауссовский законы, поэтому существует определенная двусмысленность в названиях.

Случайная величина Икс имеет двухчастное нормальное распределение, если оно имеет распределение

куда μ это среднее и σ1 и σ2 - стандартные отклонения распределения влево и вправо от среднего значения соответственно.

Среднее значение, дисперсия и третий центральный момент этого распределения были определены.[48]

где E (Икс), V (Икс) и т(Икс) - среднее значение, дисперсия и третий центральный момент соответственно.

Одним из основных практических применений закона Гаусса является моделирование эмпирических распределений многих различных случайных величин, встречающихся на практике. В таком случае возможным расширением было бы более богатое семейство распределений, имеющее более двух параметров и, следовательно, способное более точно соответствовать эмпирическому распределению. Примеры таких расширений:

  • Распределение Пирсона - четырехпараметрическое семейство распределений вероятностей, которые расширяют нормальный закон, включая различные значения асимметрии и эксцесса.
  • В обобщенное нормальное распределение, также известное как экспоненциальное распределение мощности, учитывает хвосты распределения с более толстыми или более тонкими асимптотиками.

Статистические выводы

Оценка параметров

Часто бывает так, что мы не знаем параметров нормального распределения, но вместо этого хотим оценивать их. То есть имея образец из нормального населения мы хотели бы узнать примерные значения параметров и . Стандартный подход к этой проблеме - максимальная вероятность метод, требующий максимизации функция логарифмического правдоподобия:

Взяв производные по и и решение полученной системы условий первого порядка дает оценки максимального правдоподобия:

Выборочное среднее

Оценщик называется выборочное среднее, поскольку это среднее арифметическое всех наблюдений. Статистика является полный и достаточный за , и, следовательно, Теорема Лемана – Шеффе, это равномерно минимальная дисперсия несмещенная (UMVU) оценщик.[49] В конечных выборках распределяется нормально:

Дисперсия этой оценки равна μμ-элемент обратного Информационная матрица Fisher . Это означает, что оценка конечный выборочный эффективный. Практическое значение имеет тот факт, что стандартная ошибка из пропорционально , то есть если кто-то хочет уменьшить стандартную ошибку в 10 раз, необходимо увеличить количество точек в выборке в 100 раз. Этот факт широко используется при определении размеров выборки для опросов общественного мнения и количества испытания в Моделирование Монте-Карло.

С точки зрения асимптотическая теория, является последовательный, то есть это сходится по вероятности к в качестве . Оценщик также асимптотически нормальный, что является простым следствием того факта, что он нормален в конечных выборках:

Выборочная дисперсия

Оценщик называется выборочная дисперсия, поскольку это дисперсия выборки (). На практике вместо оценки часто используется другая оценка. . Эта другая оценка обозначается , а также называется выборочная дисперсия, что представляет собой некоторую двусмысленность в терминологии; его квадратный корень называется стандартное отклонение выборки. Оценщик отличается от имея (п − 1) вместоп в знаменателе (так называемый Поправка Бесселя ):

Разница между и становится пренебрежимо малым для больших п'с. Однако в конечных выборках мотивация использования в том, что это объективный оценщик базового параметра , в то время как предвзято. Также по теореме Лемана – Шеффе оценка равномерно минимальная несмещенная дисперсия (UMVU),[49] что делает его «лучшим» оценщиком среди всех объективных оценок. Однако можно показать, что смещенная оценка "лучше", чем с точки зрения среднеквадратичная ошибка (MSE) критерий. В конечных выборках оба и масштабировались распределение хи-квадрат с (п − 1) степени свободы:

Первое из этих выражений показывает, что дисперсия равно , что немного больше, чем σσ-элемент обратной информационной матрицы Фишера . Таким образом, не является эффективной оценкой для , и более того, поскольку является UMVU, можно сделать вывод, что эффективная оценка конечной выборки для не существует.

Применяя асимптотическую теорию, обе оценки и согласованы, то есть сходятся по вероятности к как размер выборки . Обе оценки также являются асимптотически нормальными:

В частности, обе оценки асимптотически эффективны при .

Доверительные интервалы

К Теорема Кохрана, для нормальных распределений выборочное среднее и выборочная дисперсия s2 находятся независимый, а это значит, что их совместное распределение. Существует также обратная теорема: если в выборке среднее значение выборки и дисперсия выборки независимы, тогда выборка должна быть получена из нормального распределения. Независимость между и s можно использовать для построения так называемого t-статистика:

Это количество т имеет Распределение Стьюдента с (п − 1) степени свободы, и это вспомогательная статистика (независимо от значения параметров). Инвертируя распределение этого т-статистика позволит нам построить доверительный интервал за μ;[50] аналогично инвертирование χ2 распределение статистики s2 даст нам доверительный интервал для σ2:[51]

куда тk, p и χ 2
k, p
 
являются пth квантили из т- и χ2-распределения соответственно. Эти доверительные интервалы относятся к уровень уверенности 1 − α, что означает, что истинные значения μ и σ2 выпадают за пределы этих интервалов с вероятностью (или уровень значимости ) α. На практике люди обычно принимают α = 5%, что дает 95% доверительный интервал. Приближенные формулы на изображении выше были получены из асимптотических распределений и s2. Приближенные формулы становятся справедливыми при больших значениях п, и более удобны для ручного расчета, поскольку стандартные нормальные квантили zα/2 не зависеть от п. В частности, самое популярное значение α = 5%, приводит к |z0.025| = 1.96.

Тесты на нормальность

Тесты нормальности оценивают вероятность того, что данный набор данных {Икс1, ..., Иксп} происходит из нормального распределения. Обычно нулевая гипотеза ЧАС0 в том, что наблюдения распределены нормально с неопределенным средним μ и дисперсия σ2, по сравнению с альтернативой ЧАСа что распределение произвольное. Для решения этой проблемы было разработано множество тестов (более 40), наиболее известные из них описаны ниже:

  • «Визуальные» тесты являются более интуитивно привлекательными, но в то же время субъективными, поскольку они полагаются на неформальное человеческое суждение, чтобы принять или отклонить нулевую гипотезу.
    • График Q-Q - это график отсортированных значений из набора данных в сравнении с ожидаемыми значениями соответствующих квантилей из стандартного нормального распределения. То есть это график точки вида (Φ−1(пk), Икс(k)), где точки построения пk равны пk = (k − α)/(п + 1 − 2α) и α - константа настройки, которая может принимать значения от 0 до 1. Если нулевая гипотеза верна, нанесенные на график точки должны приблизительно лежать на прямой линии.
    • Участок П-П - аналогичен графику Q-Q, но используется гораздо реже. Этот метод заключается в нанесении точек (Φ (z(k)), пk), куда . Для нормально распределенных данных этот график должен лежать на линии под углом 45 ° между (0, 0) и (1, 1).
    • Тест Шапиро-Уилка использует тот факт, что линия на графике Q-Q имеет наклон σ. Тест сравнивает оценку этого наклона методом наименьших квадратов со значением выборочной дисперсии и отклоняет нулевую гипотезу, если эти две величины значительно различаются.
    • График нормальной вероятности (рангит участок)
  • Моментальные тесты:
  • Эмпирические тесты функции распределения:

Байесовский анализ нормального распределения

Байесовский анализ нормально распределенных данных осложняется множеством различных возможностей, которые можно рассмотреть:

  • Либо среднее значение, либо дисперсия, либо ни то, ни другое нельзя считать фиксированной величиной.
  • Когда дисперсия неизвестна, анализ может проводиться непосредственно с точки зрения дисперсии или с точки зрения точность, величина, обратная дисперсии. Причина, по которой формулы выражаются с точки зрения точности, заключается в том, что анализ большинства случаев упрощается.
  • Оба одномерных и многомерный случаи необходимо рассмотреть.
  • Либо сопрягать или же неподходящий предыдущие распределения могут быть помещены на неизвестные переменные.
  • Дополнительный набор случаев встречается в Байесовская линейная регрессия, где в базовой модели предполагается, что данные распределены нормально, а нормальные априорные значения помещаются на коэффициенты регрессии. Полученный анализ аналогичен основным случаям независимые одинаково распределенные данные.

Формулы для случаев нелинейной регрессии приведены в сопряженный предшествующий статья.

Сумма двух квадратичных

Скалярная форма

Следующая вспомогательная формула полезна для упрощения задний обновлять уравнения, которые в противном случае становятся довольно утомительными.

Это уравнение переписывает сумму двух квадратиков в Икс расширяя квадраты, группируя термины в Икс, и завершение квадрата. Обратите внимание на следующие моменты о сложных постоянных факторах, связанных с некоторыми терминами:

  1. Фактор имеет форму средневзвешенное из у и z.
  2. Это показывает, что этот фактор можно рассматривать как результат ситуации, когда взаимные количества а и б добавить напрямую, чтобы объединить а и б сами по себе, необходимо ответить взаимностью, добавить и вернуть результат снова, чтобы вернуться в исходные единицы. Именно такую ​​операцию выполняет гармоническое среднее, поэтому неудивительно, что это половина гармоническое среднее из а и б.
Векторная форма

Аналогичную формулу можно записать для суммы двух векторных квадратик: Если Икс, у, z векторы длины k, и А и B находятся симметричный, обратимые матрицы размера , тогда

куда

Обратите внимание, что форма ИксА Икс называется квадратичная форма и является скаляр:

Другими словами, он суммирует все возможные комбинации произведений пар элементов из Икс, с отдельным коэффициентом для каждого. Кроме того, поскольку , только сумма имеет значение для любых недиагональных элементов А, и без потери общности предположим, что А является симметричный. Кроме того, если А симметрична, то форма

Сумма отличий от среднего

Еще одна полезная формула выглядит следующим образом:

куда

С известной дисперсией

Для набора i.i.d. нормально распределенные точки данных Икс размера п где каждая отдельная точка Икс следует с известными отклонение σ2, то сопряженный предшествующий раздача тоже нормально раздается.

Это можно легче показать, переписав дисперсию как точность, т.е. используя τ = 1 / σ2. Тогда если и поступаем следующим образом.

Во-первых, функция правдоподобия равно (используя формулу выше для суммы отличий от среднего):

Затем действуем следующим образом:

В приведенном выше выводе мы использовали приведенную выше формулу для суммы двух квадратов и исключили все постоянные факторы, не связанные сμ. В результате ядро нормального распределения со средним и точность , т.е.

Это может быть записано в виде набора уравнений байесовского обновления для апостериорных параметров в терминах априорных параметров:

То есть объединить п точки данных с общей точностью (или, что эквивалентно, общая дисперсия п/σ2) и среднее значение , получить новую общую точность, просто добавив общую точность данных к предыдущей общей точности, и сформировать новое среднее значение с помощью средневзвешенное значение, т.е. средневзвешенное среднего значения данных и предыдущего среднего, каждое из которых взвешено по соответствующей общей точности. Это имеет логический смысл, если считается, что точность указывает на достоверность наблюдений: в распределении апостериорного среднего каждый из входных компонентов взвешивается по своей достоверности, а достоверность этого распределения является суммой индивидуальных достоверностей. . (Чтобы понять это, сравните выражение «целое больше (или нет) суммы его частей». Кроме того, учтите, что знание апостериорного происходит из комбинации знания априорного и вероятностного , поэтому имеет смысл, что мы более уверены в нем, чем в любом из его компонентов.)

Приведенная выше формула показывает, почему удобнее делать Байесовский анализ из сопряженные приоры для нормального распределения по точности. Апостериорная точность - это просто сумма априорной точности и вероятности, а апостериорное среднее вычисляется посредством взвешенного с точностью до среднего, как описано выше. Те же формулы могут быть записаны в терминах дисперсии, взаимно меняя все точности, давая более уродливые формулы

С известным средним

Для набора i.i.d. нормально распределенные точки данных Икс размера п где каждая отдельная точка Икс следует с известным средним μ сопряженный предшествующий из отклонение имеет обратное гамма-распределение или масштабированное обратное распределение хи-квадрат. Эти два эквивалента, за исключением того, что имеют разные параметризации. Хотя чаще используется обратная гамма, для удобства мы используем масштабированный обратный хи-квадрат. Апор для σ2 как следует:

В функция правдоподобия сверху, записанное в терминах дисперсии:

куда

Потом:

Вышеупомянутое также является масштабированным обратным распределением хи-квадрат, где

или эквивалентно

Изменение параметров с точки зрения обратное гамма-распределение, результат:

С неизвестным средним и неизвестной дисперсией

Для набора i.i.d. нормально распределенные точки данных Икс размера п где каждая отдельная точка Икс следует с неизвестным средним μ и неизвестным отклонение σ2, комбинированный (многомерный) сопряженный предшествующий помещается над средним и дисперсией, состоящей из нормальное обратное гамма-распределение Логически это происходит следующим образом:

  1. Из анализа случая с неизвестным средним, но известной дисперсией, мы видим, что уравнения обновления включают достаточная статистика вычисляется из данных, состоящих из среднего значения точек данных и общей дисперсии точек данных, вычисленных, в свою очередь, из известной дисперсии, деленной на количество точек данных.
  2. Из анализа случая с неизвестной дисперсией, но известным средним, мы видим, что уравнения обновления включают достаточную статистику по данным, состоящим из количества точек данных и сумма квадратов отклонений.
  3. Имейте в виду, что значения апостериорного обновления служат в качестве предварительного распределения при обработке дальнейших данных. Таким образом, мы должны логически думать о наших априорных значениях в терминах только что описанной достаточной статистики с максимально возможной сохранением той же семантики.
  4. Чтобы справиться со случаем, когда и среднее, и дисперсия неизвестны, мы могли бы разместить независимые априорные значения над средним и дисперсией с фиксированными оценками среднего среднего, общей дисперсии, количеством точек данных, используемых для вычисления априорной дисперсии, и суммой квадратов отклонений. . Обратите внимание, однако, что на самом деле общая дисперсия среднего зависит от неизвестной дисперсии, а сумма квадратов отклонений, которые входят в дисперсию до (кажется), зависит от неизвестного среднего. На практике последняя зависимость относительно не важна: сдвиг фактического среднего сдвигает сгенерированные точки на равную величину, и в среднем квадраты отклонений останутся прежними. Однако это не относится к общей дисперсии среднего: по мере увеличения неизвестной дисперсии общая дисперсия среднего будет пропорционально увеличиваться, и мы хотели бы зафиксировать эту зависимость.
  5. Это говорит о том, что мы создаем условный приор среднего значения неизвестной дисперсии, с гиперпараметром, определяющим среднее значение псевдонаблюдения связанный с предыдущим, и еще один параметр, определяющий количество псевдонаблюдений. Это число служит параметром масштабирования дисперсии, позволяя контролировать общую дисперсию среднего значения относительно фактического параметра дисперсии. Априор для дисперсии также имеет два гиперпараметра, один из которых определяет сумму квадратов отклонений псевдонаблюдений, связанных с априорными наблюдениями, а другой, опять же, указывает количество псевдонаблюдений. Обратите внимание, что каждый из априорных значений имеет гиперпараметр, определяющий количество псевдонаблюдений, и в каждом случае это контролирует относительную дисперсию этого априорного значения. Они представлены как два отдельных гиперпараметра, так что дисперсию (также известную как достоверность) двух априорных значений можно контролировать отдельно.
  6. Это сразу приводит к нормальное обратное гамма-распределение, который является произведением двух только что определенных распределений, с сопряженные приоры использованный ( обратное гамма-распределение по дисперсии и нормальному распределению по среднему, условный от дисперсии) и с теми же четырьмя только что определенными параметрами.

Приоры обычно определяются следующим образом:

Уравнения обновления могут быть выведены и выглядеть следующим образом:

Соответствующие количества псевдонаблюдений добавляют к ним количество фактических наблюдений. Новый средний гиперпараметр снова является средневзвешенным, на этот раз взвешенным по относительному количеству наблюдений. Наконец, обновление для аналогичен случаю с известным средним, но в этом случае сумма квадратов отклонений берется относительно среднего значения наблюдаемых данных, а не истинного среднего, и в результате необходимо добавить новый «термин взаимодействия», чтобы позаботиться о дополнительного источника ошибок, возникающего из-за отклонения между предыдущим средним значением и средним значением данных.

[Доказательство]

Предыдущие распределения

Следовательно, совместный приор

В функция правдоподобия из раздела выше с известной дисперсией:

Записывая это в терминах дисперсии, а не точности, мы получаем:

куда

Следовательно, апостериорная (исключение гиперпараметров как обусловливающих факторов):

Другими словами, апостериорное распределение имеет вид произведения нормального распределения по п(μ | σ2) умноженное на обратное гамма-распределение по п2) с параметрами, аналогичными приведенным выше уравнениям обновления.

Возникновение и приложения

Возникновение нормального распределения в практических задачах можно условно разделить на четыре категории:

  1. Точно нормальные распределения;
  2. Примерно нормальные законы, например, когда такое приближение оправдано Центральная предельная теорема; и
  3. Распределения смоделированы как нормальные - нормальное распределение - это распределение с максимальная энтропия для данного среднего и дисперсии.
  4. Проблемы регрессии - нормальное распределение находится после достаточно хорошего моделирования систематических эффектов.

Точная нормальность

Определенные количества в физика распространяются нормально, как было впервые продемонстрировано Джеймс Клерк Максвелл. Примеры таких количеств:

  • Функция плотности вероятности основного состояния в квантовый гармонический осциллятор.
  • Положение частицы, испытывающей распространение. Если изначально частица находится в определенной точке (то есть ее распределение вероятностей есть Дельта-функция Дирака ), то спустя время т его расположение описывается нормальным распределением с дисперсией т, что удовлетворяет уравнение диффузии  . Если исходное положение задается определенной функцией плотности , то плотность в момент времени т это свертка из грамм и обычный PDF.

Примерная нормальность

Примерно нормальные распределения встречаются во многих ситуациях, как объясняется Центральная предельная теорема. Когда результат создается множеством небольших эффектов, аддитивно и независимо, его распределение будет близким к нормальному. Нормальное приближение будет недействительным, если эффекты действуют мультипликативно (а не аддитивно) или если существует единичное внешнее влияние, которое имеет значительно большую величину, чем остальные эффекты.

Предполагаемая нормальность

Гистограмма ширины чашелистника для Ирис разноцветный из Фишера Набор данных о цветке ириса с наложенным наиболее подходящим нормальным распределением.

Я могу только признать появление нормальной кривой - кривой ошибок Лапласа - очень ненормальным явлением. В некоторых дистрибутивах он приблизительно равен; по этой причине и из-за его прекрасной простоты мы, вероятно, можем использовать его в качестве первого приближения, особенно в теоретических исследованиях.

Существуют статистические методы для эмпирической проверки этого предположения, см. Выше. Тесты на нормальность раздел.

  • В биология, то логарифм различных переменных имеют тенденцию к нормальному распределению, то есть они имеют тенденцию к логнормальное распределение (после разделения на мужские и женские субпопуляции), с примерами, включая:
    • Меры размера живой ткани (длина, рост, площадь кожи, вес);[52]
    • В длина из инертный придатки (волосы, когти, ногти, зубы) биологических образцов, в сторону роста; предположительно толщина коры дерева также попадает в эту категорию;
    • Определенные физиологические измерения, например, артериальное давление у взрослых людей.
  • В финансах, в частности Модель Блэка – Шоулза, изменения в логарифм обменных курсов, индексов цен и индексов фондового рынка считаются нормальными (эти переменные ведут себя как сложные проценты, не похожи на простые проценты, а потому являются мультипликативными). Некоторые математики, такие как Бенуа Мандельброт утверждали, что логарифмические распределения Леви, которая обладает тяжелые хвосты была бы более подходящей моделью, в частности, для анализа крах фондового рынка. Использование предположения о нормальном распределении в финансовых моделях также подвергалось критике со стороны Нассим Николас Талеб в его произведениях.
  • Погрешности измерения в физических экспериментах часто моделируются нормальным распределением. Такое использование нормального распределения не означает, что предполагается, что ошибки измерения распределены нормально, скорее, использование нормального распределения дает наиболее консервативные прогнозы, которые возможны при знании только среднего значения и дисперсии ошибок.[53]
  • В стандартизированное тестирование, можно добиться нормального распределения результатов, выбрав количество и сложность вопросов (как в Тест IQ ) или преобразование исходных результатов теста в «выходные» баллы путем подгонки их к нормальному распределению. Например, СИДЕЛ Традиционный диапазон 200–800 основан на нормальном распределении со средним значением 500 и стандартным отклонением 100.
Соответствующее кумулятивное нормальное распределение для осадков в октябре, см. распределительная арматура

Произведенная нормальность

В регрессивный анализ, отсутствие нормальности в остатки просто указывает на то, что постулируемая модель неадекватна для учета тенденции в данных и нуждается в дополнении; Другими словами, нормальность в остатках всегда может быть достигнута при правильно построенной модели.[нужна цитата ]

Вычислительные методы

Генерация значений из нормального распределения

В фасоль машина, устройство, изобретенное Фрэнсис Гальтон, можно назвать первым генератором нормальных случайных величин. Эта машина состоит из вертикальной доски с чередующимися рядами штырей. Маленькие шарики падают сверху, а затем случайным образом отскакивают влево или вправо, ударяясь о кегли. Шары собираются в бункеры внизу и располагаются в виде узора, напоминающего кривую Гаусса.

В компьютерном моделировании, особенно в приложениях Метод Монте-Карло, часто желательно генерировать значения с нормальным распределением. Все перечисленные ниже алгоритмы генерируют стандартные нормальные отклонения, поскольку N(μ, σ2
)
может быть сгенерирован как X = μ + σZ, куда Z стандартно нормально. Все эти алгоритмы полагаются на наличие генератор случайных чисел U способен производить униформа случайные вариации.

  • Самый простой метод основан на интегральное преобразование вероятности свойство: если U распределена равномерно на (0,1), то Φ−1(U) будет иметь стандартное нормальное распределение. Недостатком этого метода является то, что он основан на вычислении пробит функция Φ−1, что невозможно сделать аналитически. Некоторые приблизительные методы описаны в Харт (1968) и в Эрф статья. Вичура дает быстрый алгоритм вычисления этой функции до 16 знаков после запятой,[55] который используется р для вычисления случайных вариаций нормального распределения.
  • Простой в программировании приблизительный подход, основанный на Центральная предельная теорема, выглядит следующим образом: сгенерировать 12 единообразных U(0,1) отклоняется, сложите их все и вычтите 6 - полученная случайная величина будет иметь примерно стандартное нормальное распределение. По правде говоря, раздача будет Ирвин – Холл, который представляет собой 12-секционное полиномиальное приближение одиннадцатого порядка к нормальному распределению. Это случайное отклонение будет иметь ограниченный диапазон (−6, 6).[56]
  • В Метод Бокса – Мюллера использует два независимых случайных числа U и V распределен равномерно на (0,1). Тогда две случайные величины Икс и Y
оба будут иметь стандартное нормальное распределение и будут независимый. Эта формулировка возникает потому, что для двумерный нормальный случайный вектор (Икс, Y) квадрат нормы Икс2 + Y2 будет иметь распределение хи-квадрат с двумя степенями свободы, что легко генерируется экспоненциальная случайная величина соответствующая величине −2ln (U) в этих уравнениях; а угол равномерно распределен по окружности, выбранной случайной величиной V.
  • В Полярный метод Марсальи является модификацией метода Бокса – Мюллера, который не требует вычисления функций синуса и косинуса. В этом методе U и V взяты из равномерного (−1,1) распределения, а затем S = U2 + V2 вычисляется. Если S больше или равно 1, то метод начинается заново, в противном случае две величины
возвращаются. Опять таки, Икс и Y являются независимыми стандартными нормальными случайными величинами.
  • Метод отношения[57] это метод отказа. Алгоритм работает следующим образом:
    • Создайте два независимых униформных отклонения U и V;
    • Вычислить Икс = 8/е (V − 0.5)/U;
    • Необязательно: если Икс2 ≤ 5 − 4е1/4U тогда прими Икс и завершить алгоритм;
    • Необязательно: если Икс2 ≥ 4е−1.35/U + 1.4 затем отклонить Икс и начать с шага 1;
    • Если Икс2 ≤ −4 lnU тогда прими Икс, в противном случае начните заново алгоритм.
Два необязательных шага позволяют в большинстве случаев избежать вычисления логарифма на последнем шаге. Эти шаги можно значительно улучшить[58] так что логарифм редко вычисляется.
  • В алгоритм зиккурата[59] быстрее, чем преобразование Бокса – Мюллера, и при этом остается точным. Примерно в 97% всех случаев он использует только два случайных числа, одно случайное целое и одно случайное равномерное, одно умножение и if-тест. Только в 3% случаев, когда комбинация этих двух выходит за пределы «ядра зиккурата» (разновидность выборки отклонения с использованием логарифмов), необходимо использовать экспоненты и более однородные случайные числа.
  • Целочисленную арифметику можно использовать для выборки из стандартного нормального распределения.[60] Этот метод точен в том смысле, что он удовлетворяет условиям идеальное приближение;[61] то есть это эквивалентно выборке действительного числа из стандартного нормального распределения и округлению его до ближайшего представимого числа с плавающей запятой.
  • Также есть расследование[62] в связи между постом Преобразование Адамара и нормальное распределение, так как преобразование использует только сложение и вычитание, и по центральной предельной теореме случайные числа из почти любого распределения будут преобразованы в нормальное распределение. В этом отношении серию преобразований Адамара можно комбинировать со случайными перестановками, чтобы превратить произвольные наборы данных в нормально распределенные данные.

Численные приближения для нормального CDF

Стандартный нормальный CDF широко используется в научных и статистических вычислениях.

Значения Φ (Икс) могут быть очень точно аппроксимированы различными методами, такими как численное интегрирование, Серия Тейлор, асимптотический ряд и непрерывные дроби. В зависимости от желаемого уровня точности используются разные приближения.

  • Зелен и Северо (1964) дают приближение для Φ (Икс) за х> 0 с абсолютной ошибкой |ε(Икс)| < 7.5·10−8 (алгоритм 26.2.17 ):
    куда ϕ(Икс) - стандартный нормальный PDF, а б0 = 0.2316419, б1 = 0.319381530, б2 = −0.356563782, б3 = 1.781477937, б4 = −1.821255978, б5 = 1.330274429.
  • Харт (1968) перечисляет несколько десятков приближений - с помощью рациональных функций, с экспонентами или без них - для erfc () функция. Его алгоритмы различаются по степени сложности и получаемой точности с максимальной абсолютной точностью до 24 цифр. Алгоритм по Запад (2009) объединяет алгоритм Харта 5666 с непрерывная дробь аппроксимация в хвосте, чтобы обеспечить алгоритм быстрых вычислений с точностью до 16 разряда.
  • Коди (1969) после отзыва Hart68 решение не подходит для erf, дает решение как для erf, так и для erfc с максимальной относительной погрешностью, через Рациональное приближение Чебышева..
  • Марсалья (2004) предложил простой алгоритм[заметка 2] на основе разложения в ряд Тейлора
    для вычисления Φ (Икс) с произвольной точностью. Недостатком этого алгоритма является сравнительно медленное время вычисления (например, требуется более 300 итераций для вычисления функции с точностью до 16 знаков, когда Икс = 10).
  • В Научная библиотека GNU вычисляет значения стандартного нормального CDF с использованием алгоритмов Харта и приближений с Полиномы Чебышева.

Шор (1982) ввел простые аппроксимации, которые могут быть включены в модели стохастической оптимизации инженерных и операционных исследований, такие как проектирование надежности и анализ запасов. Обозначая p = Φ (z), самое простое приближение для функции квантиля:

Это приближение обеспечивает z максимальная абсолютная погрешность 0,026 (для 0,5 ≤п ≤ 0,9999, что соответствует 0 ≤z ≤ 3,719). За п <1/2 заменить п на 1 -п и поменять знак. Другое приближение, несколько менее точное, - это однопараметрическое приближение:

Последний служил для получения простой аппроксимации интеграла потерь нормального распределения, определяемого формулой

Это приближение особенно точно для правого дальнего хвоста (максимальная ошибка 10−3 для z≥1,4). Высокоточные приближения для CDF, основанные на Методология моделирования отклика (RMM, Shore, 2011, 2012), показаны в Shore (2005).

Еще несколько приближений можно найти по адресу: Функция ошибки # Аппроксимация с элементарными функциями. В частности, малые относительный ошибка всего домена для CDF и квантильная функция также достигается с помощью явно обратимой формулы Сергея Виницкого в 2008 году.

История

Разработка

Некоторые авторы[63][64] приписывают заслугу в открытии нормального распределения де Муавр, который в 1738 г.[заметка 3] опубликовано во втором издании его "Доктрина шансов "изучение коэффициентов в биномиальное разложение из (а + б)п. Де Муавр доказал, что средний член в этом разложении имеет приблизительную величину , и что "Если м или ½п быть бесконечно большой величиной, то логарифм отношения, который находится на расстоянии от середины на интервал , имеет к среднему сроку, является ."[65] Хотя эту теорему можно интерпретировать как первое неясное выражение нормального вероятностного закона, Стиглер указывает, что сам де Муавр не интерпретировал свои результаты как нечто большее, чем приблизительное правило для биномиальных коэффициентов, и, в частности, де Муавру не хватало концепции функции плотности вероятности.[66]

Карл Фридрих Гаусс открыл нормальное распределение в 1809 году как способ рационализировать метод наименьших квадратов.

В 1809 г. Гаусс опубликовал свою монографию "Theoria motus corporum coelestium in sectionibus conicis solem ambientium" где, среди прочего, он вводит несколько важных статистических концепций, таких как метод наименьших квадратов, то метод максимального правдоподобия, а нормальное распределение. Гаусс использовал M, M, M′′, ... для обозначения измерений некоторой неизвестной величиныV, и искал "наиболее вероятную" оценку этой величины: ту, которая максимизирует вероятность φ(M − V) · φ(M ′ − V) · φ(M′′ − V) · ... получения наблюдаемых экспериментальных результатов. В его обозначениях φΔ - это вероятностный закон ошибки измерения величины Δ. Не зная, что это за функция φ То есть, Гаусс требует, чтобы его метод сводился к известному ответу: среднему арифметическому измеренных значений.[примечание 4] Исходя из этих принципов, Гаусс демонстрирует, что единственный закон, который рационализирует выбор среднего арифметического в качестве оценки параметра местоположения, - это нормальный закон ошибок:[67]

куда час это «мера точности наблюдений». Используя этот нормальный закон в качестве общей модели ошибок в экспериментах, Гаусс формулирует то, что теперь известно как метод нелинейных взвешенных наименьших квадратов (NWLS).[68]

Пьер-Симон Лаплас доказал Центральная предельная теорема в 1810 г., закрепив важность нормального распределения в статистике.

Хотя Гаусс был первым, кто предложил закон нормального распределения, Лаплас внесли значительный вклад.[примечание 5] Именно Лаплас первым поставил задачу объединения нескольких наблюдений в 1774 г.[69] хотя его собственное решение привело к Распределение лапласиана. Именно Лаплас первым рассчитал значение интеграл ет2 dt = π в 1782 г., обеспечивая нормировочную константу для нормального распределения.[70] Наконец, именно Лаплас в 1810 году доказал и представил Академии фундаментальный Центральная предельная теорема, что подчеркивает теоретическую важность нормального распределения.[71]

Интересно отметить, что в 1809 году ирландский математик Адрайн опубликовал два вывода нормального вероятностного закона одновременно и независимо от Гаусса.[72] Его работы оставались в значительной степени незамеченными научным сообществом, пока в 1871 году они не были «открыты заново» Аббат.[73]

В середине 19 века Максвелл продемонстрировали, что нормальное распределение - это не только удобный математический инструмент, но также может встречаться в природных явлениях:[74] "Число частиц, скорость которых, разрешенная в определенном направлении, находится между Икс и Икс + dx является

Именование

С момента своего появления нормальное распределение было известно под множеством разных названий: закон ошибки, закон легкости ошибок, второй закон Лапласа, закон Гаусса и т. Д. Сам Гаусс, по-видимому, ввел термин в обращение со ссылкой на «нормальные уравнения» участвуют в его приложениях, причем нормальный имеет свое техническое значение ортогонального, а не «обычного».[75] Однако к концу XIX века некоторые авторы[примечание 6] начал использовать имя нормальное распределение, где слово «нормальный» использовалось как прилагательное - этот термин теперь рассматривается как отражение того факта, что это распределение считалось типичным, обычным - и, следовательно, «нормальным». Пирс (один из этих авторов) однажды определил «нормальный» следующим образом: «...« нормальный »- это не среднее (или любое другое среднее) того, что на самом деле происходит, а того, что бы, в конечном итоге, происходят при определенных обстоятельствах ".[76] На рубеже 20-го века Пирсон популяризировал термин нормальный как обозначение этого распределения.[77]

Много лет назад я назвал кривую Лапласа – Гаусса нормальный Кривая, название которой, хотя и позволяет избежать международного вопроса о приоритете, имеет тот недостаток, что заставляет людей думать, что все другие распределения частот в том или ином смысле являются «ненормальными».

Кроме того, именно Пирсон первым написал распределение в терминах стандартного отклонения. σ как в современных обозначениях. Вскоре после этого, в 1915 году, Фишер добавил параметр местоположения в формулу нормального распределения, выразив его так, как это пишется сегодня:

Термин «стандартное нормальное», обозначающий нормальное распределение с нулевым средним и единичной дисперсией, вошел в широкое употребление примерно в 1950-х годах, появившись в популярных учебниках П.Г. Хоэль (1947) "Введение в математическую статистику"и А.М. Настроение (1950)"Введение в теорию статистики".[78]

Смотрите также

Примечания

  1. ^ Для доказательства см. Гауссов интеграл.
  2. ^ Например, этот алгоритм приведен в статье Язык программирования BC.
  3. ^ Де Муавр впервые опубликовал свои открытия в 1733 году в брошюре «Approximatio ad Summam Terminorum Binomii. (а + б)п in Seriem Expansi ", который был предназначен только для частного распространения. Но только в 1738 году он сделал свои результаты общедоступными. Оригинальный памфлет переиздавался несколько раз, см., например, Уокер (1985).
  4. ^ "Было принято считать аксиомой гипотезу о том, что если какая-либо величина была определена несколькими прямыми наблюдениями, сделанными при одних и тех же обстоятельствах и с одинаковой тщательностью, то среднее арифметическое наблюдаемых значений дает наиболее вероятное значение, если не строго, но почти по крайней мере, так что всегда безопаснее всего придерживаться его ". - Гаусс (1809 г., раздел 177)
  5. ^ "Мой обычай называть эту кривую гаусс-лапласианом или нормальный кривая избавляет нас от разделения достоинств открытия между двумя великими астрономами-математиками ». Пирсон (1905 г., п. 189)
  6. ^ Помимо специально упомянутых здесь, такое использование встречается в работах Пирс, Гальтон (Гальтон (1889 г., глава V)) и Lexis (Лексис (1878), Рорбассер и Верон (2003) ) c. 1875 г.[нужна цитата ]

Рекомендации

Цитаты

  1. ^ а б c d е ж «Список вероятностных и статистических символов». Математическое хранилище. 26 апреля 2020 г.. Получено 15 августа, 2020.
  2. ^ Вайсштейн, Эрик В. "Нормальное распределение". mathworld.wolfram.com. Получено 15 августа, 2020.
  3. ^ Нормальное распределение, Энциклопедия психологии Гейла
  4. ^ Казелла и Бергер (2001), п. 102)
  5. ^ Лион, А. (2014). Почему нормальные распределения нормальны?, Британский журнал философии науки.
  6. ^ а б "Нормальное распределение". www.mathsisfun.com. Получено 15 августа, 2020.
  7. ^ Стиглер (1982)
  8. ^ Гальперин, Хартли и Хоэл (1965, поз.7)
  9. ^ Макферсон (1990, п. 110)
  10. ^ Бернардо и Смит (2000), п. 121)
  11. ^ Скотт, Клейтон; Новак, Роберт (7 августа 2003 г.). «Q-функция». Связи.
  12. ^ Барак, Охад (6 апреля 2006 г.). «Функция Q и функция ошибки» (PDF). Тель-Авивский университет. Архивировано из оригинал (PDF) 25 марта 2009 г.
  13. ^ Вайсштейн, Эрик В. «Нормальная функция распределения». MathWorld.
  14. ^ Абрамовиц, Милтон; Стегун, Ирен Энн, ред. (1983) [июнь 1964]. «Глава 26, уравнение 26.2.12». Справочник по математическим функциям с формулами, графиками и математическими таблицами. Прикладная математика. 55 (Девятое переиздание с дополнительными исправлениями, десятое оригинальное издание с исправлениями (декабрь 1972 г.); первое издание). Вашингтон, округ Колумбия.; Нью-Йорк: Министерство торговли США, Национальное бюро стандартов; Dover Publications. п. 932. ISBN  978-0-486-61272-0. LCCN  64-60036. МИСТЕР  0167642. LCCN  65-12253.
  15. ^ "Wolfram | Alpha: вычислительная машина знаний". Wolframalpha.com. Получено 3 марта, 2017.
  16. ^ "Wolfram | Alpha: вычислительная машина знаний". Wolframalpha.com.
  17. ^ "Wolfram | Alpha: вычислительная машина знаний". Wolframalpha.com. Получено 3 марта, 2017.
  18. ^ Обложка, Томас М .; Томас, Джой А. (2006). Элементы теории информации. Джон Уайли и сыновья. п.254.
  19. ^ Park, Sung Y .; Бера, Анил К. (2009). "Модель условной гетероскедастичности авторегрессии с максимальной энтропией" (PDF). Журнал эконометрики. 150 (2): 219–230. CiteSeerX  10.1.1.511.9750. Дои:10.1016 / j.jeconom.2008.12.014. Получено 2 июня, 2011.
  20. ^ Geary RC (1936) Распределение коэффициента «Стьюдента» для ненормальных выборок ». Приложение к Журналу Королевского статистического общества 3 (2): 178–184
  21. ^ Лукас Э. (1942) Характеристика нормального распределения. Анналы математической статистики 13: 91–93
  22. ^ а б c Патель и Рид (1996), [2.1.4])
  23. ^ Вентилятор (1991, п. 1258)
  24. ^ Патель и Рид (1996), [2.1.8])
  25. ^ Папулис, Афанасий. Вероятность, случайные величины и случайные процессы (4-е изд.). п. 148.
  26. ^ Bryc (1995 г., п. 23)
  27. ^ Bryc (1995 г., п. 24)
  28. ^ Обложка и Томас (2006), п. 254)
  29. ^ Уильямс, Дэвид (2001). Взвешивание шансов: курс вероятности и статистики (Перепечатано. Ред.). Кембридж [u.a.]: Cambridge Univ. Нажмите. стр.197 –199. ISBN  978-0-521-00618-7.
  30. ^ Смит, Хосе М. Бернардо; Адриан Ф. М. (2000). Байесовская теория (Перепечатка ред.). Чичестер [u.a.]: Уайли. стр.209, 366. ISBN  978-0-471-49464-5.
  31. ^ О'Хаган, А. (1994) Продвинутая теория статистики Кендалла, Том 2B, Байесовский вывод, Эдвард Арнольд. ISBN  0-340-52922-9 (Раздел 5.40)
  32. ^ Bryc (1995 г., п. 27)
  33. ^ Патель и Рид (1996), [2.3.6])
  34. ^ Галамбос и Симонелли (2004), Теорема 3.5)
  35. ^ а б Bryc (1995 г., п. 35)
  36. ^ а б Лукач и Кинг (1954)
  37. ^ Куайн, М. (1993). «О трех характеристиках нормального распределения». Вероятность и математическая статистика. 14 (2): 257–263.
  38. ^ UIUC, Лекция 21. Многомерное нормальное распределение, 21.6: «Индивидуально гауссовский против совместно гауссовского».
  39. ^ Эдвард Л. Мельник и Аарон Тененбейн, «Неправильные спецификации нормального распределения», Американский статистик, том 36, номер 4 ноября 1982 года, страницы 372–373
  40. ^ "Расстояние Кульбака-Лейблера (KL) двух нормальных (гауссовских) распределений вероятностей". Allisons.org. 5 декабря 2007 г.. Получено 3 марта, 2017.
  41. ^ Джордан, Майкл И. (8 февраля 2010 г.). "Stat260: Байесовское моделирование и вывод: сопряженный приоритет для нормального распределения" (PDF).
  42. ^ Амари и Нагаока (2000)
  43. ^ «Нормальное приближение к распределению Пуассона». Stat.ucla.edu. Получено 3 марта, 2017.
  44. ^ Вайсштейн, Эрик В. «Нормальное распределение продукта». MathWorld. wolfram.com.
  45. ^ Лукач, Евгений (1942). «Характеристика нормального распределения». Анналы математической статистики. 13 (1): 91–3. Дои:10.1214 / aoms / 1177731647. ISSN  0003-4851. JSTOR  2236166.
  46. ^ Basu, D .; Лаха, Р. Г. (1954). «О некоторых характеристиках нормального распределения». Санкхья. 13 (4): 359–62. ISSN  0036-4452. JSTOR  25048183.
  47. ^ Леманн, Э. Л. (1997). Проверка статистических гипотез (2-е изд.). Springer. п. 199. ISBN  978-0-387-94919-2.
  48. ^ Джон, S (1982). «Трехпараметрическое двухкомпонентное нормальное семейство распределений и его подгонка». Коммуникации в статистике - теория и методы. 11 (8): 879–885. Дои:10.1080/03610928208828279.
  49. ^ а б Кришнамурти (2006), п. 127)
  50. ^ Кришнамурти (2006), п. 130)
  51. ^ Кришнамурти (2006), п. 133)
  52. ^ Хаксли (1932)
  53. ^ Джейнс, Эдвин Т. (2003). Теория вероятностей: логика науки. Издательство Кембриджского университета. С. 592–593. ISBN  9780521592710.
  54. ^ Остербан, Роланд Дж. (1994). «Глава 6: Частотный и регрессионный анализ гидрологических данных» (PDF). В Ритземе, Хенк П. (ред.). Принципы и применение дренажа, Публикация 16 (второе исправленное изд.). Вагенинген, Нидерланды: Международный институт мелиорации и улучшения земель (ILRI). С. 175–224. ISBN  978-90-70754-33-4.
  55. ^ Вичура, Майкл Дж. (1988). «Алгоритм AS241: процентные точки нормального распределения». Прикладная статистика. 37 (3): 477–84. Дои:10.2307/2347330. JSTOR  2347330.
  56. ^ Джонсон, Коц и Балакришнан (1995 г., Уравнение (26.48))
  57. ^ Детский человек и Монахан (1977)
  58. ^ Лева (1992)
  59. ^ Марсалья и Цанг (2000)
  60. ^ Карни (2016)
  61. ^ Монахан (1985, раздел 2)
  62. ^ Уоллес (1996)
  63. ^ Джонсон, Коц и Балакришнан (1994, п. 85)
  64. ^ Ле Кам и Ло Ян (2000), п. 74)
  65. ^ Де Муавр, Авраам (1733), следствие I - см. Уокер (1985), п. 77)
  66. ^ Стиглер (1986, п. 76)
  67. ^ Гаусс (1809 г., раздел 177)
  68. ^ Гаусс (1809 г., раздел 179)
  69. ^ Лаплас (1774 г., Проблема III)
  70. ^ Пирсон (1905 г., п. 189)
  71. ^ Стиглер (1986, п. 144)
  72. ^ Стиглер (1978, п. 243)
  73. ^ Стиглер (1978, п. 244)
  74. ^ Максвелл (1860 г., п. 23)
  75. ^ Джейнс, Эдвин Дж .; Теория вероятностей: логика науки, Ch 7
  76. ^ Пирс, Чарльз С. (ок. 1909 г.), Сборник статей v. 6, пункт 327
  77. ^ Краскал и Стиглер (1997)
  78. ^ «Самое раннее использование ... (запись СТАНДАРТНАЯ НОРМАЛЬНАЯ КРИВАЯ)».

Источники

внешняя ссылка