Совместное распределение вероятностей - Joint probability distribution

Многие выборочные наблюдения (черные) показаны из совместного распределения вероятностей. Также показаны предельные плотности.

Данный случайные переменные , которые определены на вероятностное пространство, то совместное распределение вероятностей за это распределение вероятностей что дает вероятность того, что каждый из попадает в любой конкретный диапазон или дискретный набор значений, указанных для этой переменной. В случае только двух случайных величин это называется двумерное распределение, но эта концепция обобщается на любое количество случайных величин, давая многомерное распределение.

Совместное распределение вероятностей может быть выражено как совместное кумулятивная функция распределения или с точки зрения совместного функция плотности вероятности (в случае непрерывные переменные ) или совместный функция массы вероятности (в случае дискретный переменные). Их, в свою очередь, можно использовать для поиска двух других типов распределений: предельное распределение дает вероятности для любой из переменных без ссылки на какие-либо конкретные диапазоны значений для других переменных, а условное распределение вероятностей дающие вероятности для любого подмножества переменных, обусловленные конкретными значениями остальных переменных.

Примеры

Рисует из урны

Предположим, что каждая из двух урн содержит вдвое больше красных шаров, чем синих шаров, и не содержит других, и предположим, что из каждой урны случайным образом выбирается один шар, причем два розыгрыша не зависят друг от друга. Позволять и быть дискретными случайными величинами, связанными с результатами розыгрыша из первой и второй урн соответственно. Вероятность вытащить красный шар из любой из урн составляет 2/3, а вероятность вытащить синий шар - 1/3. Совместное распределение вероятностей можно представить в виде следующей таблицы:

A = красныйA = синийP (B)
B = красный(2/3)(2/3)=4/9(1/3)(2/3)=2/94/9+2/9=2/3
B = синий(2/3)(1/3)=2/9(1/3)(1/3)=1/92/9+1/9=1/3
P (А)4/9+2/9=2/32/9+1/9=1/3

Каждая из четырех внутренних ячеек показывает вероятность конкретной комбинации результатов двух ничьих; эти вероятности являются совместным распределением. В любой одной ячейке вероятность возникновения конкретной комбинации (поскольку ничьи независимы) является произведением вероятности указанного результата для A и вероятности указанного результата для B. Сумма вероятностей в этих четырех ячейках равна 1, как это всегда верно для вероятностных распределений.

Более того, последняя строка и последний столбец дают распределение предельной вероятности для A и маргинального распределения вероятностей для B соответственно. Например, для A первая из этих ячеек дает сумму вероятностей того, что A будет красным, независимо от того, какая вероятность для B в столбце над ячейкой возникает, как 2/3. Таким образом, маргинальное распределение вероятностей для дает вероятности безусловный на , на полях таблицы.

Подбрасывание монет

Рассмотрим переворот двух честные монеты; позволять и быть дискретными случайными величинами, связанными с результатами первого и второго подбрасывания монеты соответственно. Каждый бросок монеты - это Бернулли суд и имеет Распределение Бернулли. Если на монете отображается «орел», тогда соответствующая случайная величина принимает значение 1, в противном случае - значение 0. Вероятность каждого из этих исходов равна 1/2, поэтому маргинальные (безусловные) функции плотности равны

Совместная функция масс вероятности и определяет вероятности для каждой пары исходов. Все возможные исходы

Поскольку каждый исход одинаково вероятен, совместная функция массы вероятности принимает вид

Поскольку подбрасывания монеты независимы, функция совместной вероятностной массы является произведением маргиналов:

Бросая кости

Рассмотрим бросок честного кубика и позвольте если число четное (например, 2, 4 или 6) и иначе. Кроме того, пусть если число простое (например, 2, 3 или 5) и иначе.

123456
А010101
B011010

Тогда совместное распределение и , выраженная как функция массы вероятности, равна

Сумма этих вероятностей обязательно равна 1, поскольку вероятность немного комбинация и происходит 1.

Пример из реальной жизни:

Рассмотрим производственное предприятие, которое заполняет пластиковые бутылки стиральным порошком. Измеряется вес каждой бутылки (Y) и объем содержащегося в ней стирального порошка (X).

Распределение предельной вероятности

Если в случайном эксперименте определяется более одной случайной величины, важно различать совместное распределение вероятностей X и Y и распределение вероятностей каждой переменной в отдельности. Индивидуальное распределение вероятностей случайной величины называется ее предельным распределением вероятностей. В общем, предельное распределение вероятностей X может быть определено из совместного распределения вероятностей X и других случайных величин.

Если совместная функция плотности вероятности случайной величины X и Y равна , предельная функция плотности вероятности X и Y равна:

,

где первый интеграл берется по всем точкам в диапазоне (X, Y), для которых X = x, а второй интеграл по всем точкам в диапазоне (X, Y), для которых Y = y.[1]

Совместная кумулятивная функция распределения

Для пары случайных величин , совместная интегральная функция распределения (CDF) дан кем-то[2]:п. 89

 

 

 

 

(Уравнение 1)

где правая часть представляет собой вероятность что случайная величина принимает значение меньше или равное и который принимает значение меньше или равное .

За случайные переменные , совместный CDF дан кем-то

 

 

 

 

(Уравнение 2)

Толкование случайные величины как случайный вектор дает более короткое обозначение:

Совместная функция плотности или функция массы

Дискретный корпус

Сустав функция массы вероятности из двух дискретные случайные величины является:

 

 

 

 

(Уравнение 3)

или написано в терминах условных распределений

куда это вероятность из при условии .

Обобщением предыдущего случая двух переменных является совместное распределение вероятностей дискретные случайные величины который:

 

 

 

 

(Уравнение 4)

или эквивалентно

.

Эта личность известна как цепное правило вероятности.

Поскольку это вероятности, в случае двух переменных имеем

который обобщает для дискретные случайные величины к

Непрерывный случай

В соединение функция плотности вероятности для двух непрерывные случайные величины определяется как производная совместной кумулятивной функции распределения (см. Уравнение 1):

 

 

 

 

(Уравнение 5)

Это равно:

куда и являются условные распределения из данный и из данный соответственно, и и являются маржинальные распределения за и соответственно.

Определение естественным образом распространяется на более чем две случайные величины:

 

 

 

 

(Уравнение 6)

Опять же, поскольку это вероятностные распределения, мы имеем

соответственно

Смешанный случай

«Плотность смешанных стыков» может быть определена, если одна или несколько случайных величин являются непрерывными, а другие случайные величины - дискретными. С одной переменной каждого типа мы имеем

Один пример ситуации, в которой кто-то может пожелать найти кумулятивное распределение одной случайной величины, которая является непрерывной, и другой случайной величины, которая является дискретной, возникает, когда кто-то желает использовать логистическая регрессия в прогнозировании вероятности двоичного результата Y в зависимости от значения непрерывно распределенного результата . Один должен используйте «смешанную» плотность соединений при нахождении кумулятивного распределения этого двоичного результата, потому что входные переменные изначально были определены таким образом, что нельзя было коллективно присвоить им ни функцию плотности вероятности, ни функцию массы вероятности. Формально, - функция плотности вероятности с уважением к мера продукта на соответствующих поддерживает из и . Затем любое из этих двух разложений можно использовать для восстановления совместной кумулятивной функции распределения:

Это определение обобщается на смесь произвольного числа дискретных и непрерывных случайных величин.

Дополнительные свойства

Совместное распределение для независимых переменных

В общем, две случайные величины и находятся независимый тогда и только тогда, когда совместная кумулятивная функция распределения удовлетворяет

Две дискретные случайные величины и независимы тогда и только тогда, когда совместная функция массы вероятности удовлетворяет

для всех и .

По мере того как количество независимых случайных событий растет, соответствующее значение совместной вероятности быстро уменьшается до нуля в соответствии с отрицательным экспоненциальным законом.

Точно так же две абсолютно непрерывные случайные величины независимы тогда и только тогда, когда

для всех и . Это означает, что получение любой информации о значении одной или нескольких случайных величин приводит к условному распределению любой другой переменной, которое идентично ее безусловному (маргинальному) распределению; таким образом, никакая переменная не предоставляет никакой информации ни о какой другой переменной.

Совместное распределение для условно зависимых переменных

Если подмножество переменных является условно зависимый учитывая другое подмножество этих переменных, то функция массы вероятности совместного распределения равна . равно . Следовательно, он может быть эффективно представлен распределениями вероятностей меньшей размерности и . Такие отношения условной независимости можно представить в виде Байесовская сеть или же функции связки.

Ковариация

Когда две или несколько случайных величин определены в вероятностном пространстве, полезно описать, как они изменяются вместе; то есть полезно измерить взаимосвязь между переменными. Распространенной мерой связи между двумя случайными величинами является ковариация. Ковариация - это мера линейной связи между случайными величинами. Если связь между случайными величинами нелинейна, ковариация может не зависеть от этой связи.

Ковариация между случайной величиной X и Y, обозначенная как cov (X, Y), равна:

[3]

Корреляция

Существует еще одна мера связи между двумя случайными величинами, которую часто легче интерпретировать, чем ковариацию.

Корреляция просто масштабирует ковариацию как произведение стандартного отклонения каждой переменной. Следовательно, корреляция - это безразмерная величина, которую можно использовать для сравнения линейных отношений между парами переменных в разных единицах измерения. Если точки в совместном распределении вероятностей X и Y, которые получают положительную вероятность, имеют тенденцию падать вдоль линии положительного (или отрицательного) наклона, ρXY близка к +1 (или -1). Если ρXY равно +1 или -1, можно показать, что точки в совместном распределении вероятностей, которые получают положительную вероятность, попадают точно по прямой. Говорят, что две случайные величины с ненулевой корреляцией коррелированы. Подобно ковариации, корреляция - это мера линейной связи между случайными величинами.

Корреляция между случайными величинами X и Y, обозначенная как

Важные именованные дистрибутивы

Именованные совместные распределения, которые часто встречаются в статистике, включают многомерное нормальное распределение, то многомерное стабильное распределение, то полиномиальное распределение, то отрицательное полиномиальное распределение, то многомерное гипергеометрическое распределение, а эллиптическое распределение.

Смотрите также

Рекомендации

  1. ^ Монтгомери, Дуглас К. (19 ноября 2013 г.). Прикладная статистика и вероятность для инженеров. Рангер, Джордж К. (Шестое изд.). Хобокен, штат Нью-Джерси. ISBN  978-1-118-53971-2. OCLC  861273897.
  2. ^ Парк, Кун Иль (2018). Основы вероятностных и случайных процессов с приложениями к коммуникациям. Springer. ISBN  978-3-319-68074-3.
  3. ^ Монтгомери, Дуглас К. (19 ноября 2013 г.). Прикладная статистика и вероятность для инженеров. Рангер, Джордж К. (Шестое изд.). Хобокен, штат Нью-Джерси. ISBN  978-1-118-53971-2. OCLC  861273897.

внешняя ссылка