Совместное распределение двух случайных величин. Лекция Основные числовые характеристики дискретных и непрерывных случайных величин: математическое ожидание, дисперсия и среднее квадратическое отклонение. Их свойства и примеры



Функция двух случайных величин. Распределение суммы

независимых слагаемых.

Определение 10.2. Если каждой паре возможных значений случайных величин Х и Y соответ-ствует одно возможное значение случайной величины Z , то Z называют функцией двух случайных аргументов X и Y : Z = φ (X, Y ).

Рассмотрим в качестве такой функции сумму Х + Y . В некоторых случаях можно найти ее закон распределения, зная законы распределения слагаемых.

1) Если X и Y – дискретные независимые случайные величины, то для определения закона распределения Z = Х + Y нужно найти все возможные значения Z и соответствующие им вероятности.

Пример 4. Рассмотрим дискретные случайные величины X и Y , законы распределения которых имеют вид: Х -2 1 3 Y 0 1 2

р 0,3 0,4 0,3 р 0,2 0,5 0,3

Найдем возможные значения Z : -2 + 0 = -2 (р = 0,3·0,2 = 0,06), -2 + 1 = -1 (р = 0,3·0,5 = 0,15), -2 + 2 = 0 (р = 0,3·0,3 = 0,09), 1 + 0 = 1 (р = 0,4·0,2 = 0,08), 1 + 1 = 2 (р = 0,4·0,5 = 0,2), 1 + 2 = 3 (р = 0,4·0,3 = 0,12), 3 + 0 = 3 (р = 0,3·0,2 = 0,06), 3 + 1 = 4 (р = 0,3·0,5 = 0,15), 3 + 2 = 5 (р = 0,3·0,3 = 0,09). Сложив вероятности повторившегося дважды значения Z = 3, составим ряд распределения для Z :


Z

-2

-1

0

1

2

3

4

5

р

0,06

0,15

0,09

0,08

0,2

0,18

0,15

0,09

  1. Если X и Y – непрерывные независимые случайные величины, то, если плотность вероятно-сти хотя бы одного из аргументов задана на (-∞, ∞) одной формулой, то плотность суммы g (z ) можно найти по формулам
(10.5)

Где f 1 (x ), f 2 (y ) – плотности распределения слагаемых. Если возможные значения аргументов неотрицательны, то

Замечание. Плотность распределения суммы двух независимых случайных величин называют композицией .

Устойчивость нормального распределения.

Определение 10.3. Закон распределения вероятностей называется устойчивым , если компози-ция таких законов есть тот же закон (возможно, отличающийся другими значениями парамет-ров).

В частности, свойством устойчивости обладает нормальный закон распределения: композиция нормальных законов тоже имеет нормальное распределение, причем ее математическое ожидание и дисперсия равны суммам соответствующих характеристик слагаемых.

Лекция 11.

Нормальный закон распределения на плоскости. Линейная регрессия. Линейная корреляция.

Определение 11.1. Нормальным законом распределения на плоскости называют распре-деление вероятностей двумерной случайной величины (X, Y ), если

(11.1)

Таким образом, нормальный закон на плоскости определяется 5 параметрами: а 1 , а 2 , σ х , σ у , r xy , где а 1 , а 2 – математические ожидания, σ х , σ у – средние квадратические отклонения, r xy – коэффи-циент корреляции Х и Y . Предположим, что r xy = 0, то есть Х и Y некоррелированы. Тогда из (11.1) получим:

Следовательно, из некоррелированности составляющих нормально распределенной двумерной случайной величины следует их независимость, то есть для них понятия независимости и некоррелированности равносильны.

Линейная регрессия.

Пусть составляющие Х и Y двумерной случайной величины (Х , Y ) зависимы. Будем считать, что одну из них можно приближенно представить как линейную функцию другой, например

Y ≈ g (Х ) = α + βХ, (11.2)

И определим параметры α и β с помощью метода наименьших квадратов.

Определение 11.2. Функция g (Х ) = α + βХ называется наилучшим приближением Y в смысле метода наименьших квадратов, если математическое ожидание М (Y - g (Х )) 2 принимает наименьшее возможное значение; функцию g (Х ) называют среднеквадратической регрессией Y на Х .

Теорема 11.1. Линейная средняя квадратическая регрессия Y на Х имеет вид:

(11.3)

Где - коэффициент корреляции Х и Y.

Доказательство. Рассмотрим функцию

F (α, β ) = M (Y – α – βX )² (11.4)

И преобразуем ее, учитывая соот-ношения M (X – m x ) = M (Y – m y ) = 0, M ((X – m x )(Y – m y )) = =K xy = rσ x σ y :

Найдем стационарные точки полученной функции, решив систему

Решением системы будет
.

Можно проверить, что при этих значениях функция F (α, β ) имеет минимум, что доказывает утверждение теоремы.

Определение 11.3. Коэффициент
называется коэффициентом регрессии Y на Х , а прямая
- (11.5)

- прямой среднеквадратической регрессии Y на Х .

Подставив координаты стационарной точки в равенство (11.4), можно найти минимальное значение функции F (α, β ), равное
Эта величина называется остаточной дисперсией Y относительно Х и характеризует величину ошибки, допускаемой при замене Y на g (Х ) = α+βХ. При
остаточная дисперсия равна 0, то есть равенство (11.2) является не приближенным, а точным. Следовательно, при Y и Х связаны линейной функциональной зависимостью. Аналогично можно получить прямую среднеквадратической регрессии Х на Y :

(11.6)

И остаточную дисперсию Х относительно Y . При обе прямые регрессии совпадают. Решив систему из уравнений (11.5) и (11.6), можно найти точку пересечения прямых регрессии – точку с координатами (т х , т у ), называемую центром совместного распределения величин Х и Y .

Линейная корреляция.

Для двумерной случайной величины (Х, Y ) можно ввести так называемое условное математи-ческое ожидание Y при Х = х . Для дискретной случайной величины оно определяется как

(11.7)

Для непрерывной случайной величины –

. (11.8)

Определение 11.4. Функцией регрессии Y на Х называется условное математическое ожидание

M (Y / x ) = f (x ).

Аналогично определяется условное математическое ожидание Х и функция регрессии Х на Y.

Определение 11.5. Если обе функции регрессии Х на Y и Y на Х линейны, то говорят, что Х и Y связаны линейной корреляционной зависимостью .

При этом графики линейных функций регрессии являются прямыми линиями, причем можно доказать, что эти линии совпадают с прямыми среднеквадратической регрессии.

Теорема 11.2. Если двумерная случайная величина (Х, Y ) распределена нормально, то Х и Y связаны линейной корреляционной зависимостью.

Доказательство. Найдем условный закон распределения Y при Х = х
, используя формулу двумерной плотности вероятности нормального распределения (11.1) и формулу плотности вероятности Х :

. (11.9)

Сделаем замену
. Тогда

=
. Полученное распределение является нормальным, а его мате-матическое ожидание
есть функция регрессии Y на Х (см. опреде-ление 11.4)). Аналогично можно получить функцию регрессии Х на Y :

.

Обе функции регрессии линейны, поэтому корреляция между Х и Y линейна, что и требовалось доказать. При этом уравнения прямых регрессии имеют вид

,
,

То есть совпадают с уравнениями прямых среднеквадратической регрессии (см. формулы (11.5), (11.6)).

Лекция 12.

Распределения «хи-квадрат», Стьюдента и Фишера. Связь этих распределений с нормаль-ным распределением.

Рассмотрим некоторые распределения, связанные с нормальным и широко применяющиеся в математической статистике.

Распределение «хи-квадрат».

Пусть имеется несколько нормированных нормально распределенных случайных величин: Х 1 , Х 2 ,…, Х п (a i = 0, σ i = 1). Тогда сумма их квадратов

(12.1)

Является случайной величиной, распределенной по так называемому закону «хи-квадрат» с k = n степенями свободы; если же слагаемые связаны каким-либо соотношением (например,
), то число степеней свободы k = n – 1.

Плотность этого распределения

(12.2)

Здесь
- гамма-функция; в частности, Г(п + 1) = п ! .

Следовательно, распределение «хи-квадрат» определяется одним параметром – числом степе-ней свободы k .

Замечание 1. С увеличением числа степеней свободы распределение «хи-квадрат» постепенно приближается к нормальному.

Замечание 2. С помощью распределения «хи-квадрат» определяются многие другие распреде-ления, встречающиеся на практике, например, распределение случайной величины
- длины случайного вектора (Х 1 , Х 2 ,…, Х п ), координаты которого независимы и распределены по нормальному закону.

Распределение Стьюдента.

Рассмотрим две независимые случайные величины: Z, имеющую нормальное распределение и нормированную (то есть М (Z ) = 0, σ (Z ) = 1), и V , распределенную по закону «хи-квадрат» с k степенями свободы. Тогда величина

(12.3)

Имеет распределение, называемое t – распределением или распределением Стьюдента с k степенями свободы.

С возрастанием числа степеней свободы распределение Стьюдента быстро приближается к нормальному.

Распределение F Фишера – Снедекора.

Рассмотрим две независимые случайные величины U и V , распределенные по закону «хи-квадрат» со степенями свободы k 1 и k 2 и образуем из них новую величину

. (12.4)

Ее распределение называют распределением F Фишера – Снедекора со степенями свободы k 1 и k 2 . Плотность его распределения имеет вид

(12.5)

Где
. Таким образом, распределение Фишера определяется двумя параметрами – числами степеней свободы.

На практике часто возникает надобность находить закон распределения суммы случайных величин.

Пусть имеются система (Х ь Х 2) двух непрерывных с. в. и их сумма

Найдем плотность распределения с. в. У. В соответствии с общим решением предыдущего пункта, находим область плоскости где х+ х 2 (рис. 9.4.1):

Дифференцируя это выражение по у, получим п. р. случайной величины У= Х + Х 2:

Так как функция ф (х ь х 2) = Xj + х 2 симметрична относительно своих аргументов, то

Если с. в. Х и Х 2 независимы, то формулы (9.4.2) и (9.4.3) примут вид:


В случае, когда складываются независимые с. в. Х х и Х 2 , говорят о композиции законов распределения. Произвести композицию двух законов распределения - это значит найти закон распределения суммы двух независимых с. в., распределенных по этим законам. Для обозначения композиции законов распределения применяется символическая запись

которой по существу обозначаются формулы (9.4.4) или (9.4.5).

Пример 1. Рассматривается работа двух технических устройств (ТУ). Сначала работает ТУь после его выхода из строя (отказа) включается в работу ТУ 2 . Времена безотказной работы ТУ Ь ТУ 2 - Х х и Х 2 - независимы и распределены по показательным законам с параметрами А,1 и Х 2 . Следовательно, время Y безотказной работы ТУ, состоящего из ТУ! и ТУ 2 , будет определяться по формуле

Требуется найти п. р. случайной величины Y, т. е. композицию двух показательных законов с параметрами и Х 2 .

Решение. По формуле (9.4.4) получим (у > 0)


Если находится композиция двух показательных законов с одинаковыми параметрами (?ц = Х 2 = У), то в выражении (9.4.8) получается неопределенность типа 0/0, раскрывая которую, получим:

Сравнивая это выражение с выражением (6.4.8), убеждаемся в том, что композиция двух одинаковых показательных законов (?ц = Х 2 = X) представляет собой закон Эрланга второго порядка (9.4.9). При композиции двух показательных законов с различными параметрами Х х и А-2 получают обобщенный закон Эрланга второго порядка (9.4.8). ?

Задача 1. Закон распределения разности двух с. в. Система с. в. (Х и Х 2) имеет совместную п. р./(х ь х 2). Найти п. р. их разности У= Х - Х 2 .

Решение. Для системы с. в. (Х ь - Х 2) п. р. будет/(х ь - х 2), т. е. мы разность заменили суммой. Следовательно, п. р. случайной величины Убудет иметь вид (см. (9.4.2), (9.4.3)):

Если с. в. Х х иХ 2 независимы, то

Пример 2. Найти п. р. разности двух независимых показательно распределенных с. в. с параметрами Х х и Х 2 .

Решение. По формуле (9.4.11) получим

Рис. 9.4.2 Рис. 9.4.3

На рисунке 9.4.2 изображена п. р. g (у). Если рассматривается разность двух независимых показательно распределенных с. в. с одинаковыми параметрами (A-i = Х 2 = А,), то g (у) = /2 - уже знакомый

закон Лапласа (рис. 9.4.3). ?

Пример 3. Найти закон распределения суммы двух независимых с. в. Х и Х 2 , распределенных по закону Пуассона с параметрами а х и а 2 .

Решение. Найдем вероятность события (Х х + Х 2 = т) (т = 0, 1,



Следовательно, с. в. У= Х х + Х 2 распределена по закону Пуассона с параметром а х2) - а х + а 2 . ?

Пример 4. Найти закон распределения суммы двух независимых с. в. Х х и Х 2 , распределенных по биномиальным законам с параметрами п х ри п 2 , р соответственно.

Решение. Представим с. в. Х х в виде:

где Х 1) - индикатор события А ву"-м опыте:

Ряд распределения с. в. X,- имеет вид


Аналогичное представление сделаем и для с. в. Х 2: где Х] 2) - индикатор события А в у"-м опыте:


Следовательно,

где Х? 1)+(2) если индикатор события А:

Таким образом, мы показали, что с. в. Тесть сумма (щ + п 2) индикаторов события А , откуда следует, что с. в. ^распределена по биномиальному закону с параметрами (п х + п 2), р.

Заметим, что если вероятности р в различных сериях опытов различны, то в результате сложения двух независимых с. в., распределенных по биномиальным законам, получится с. в., распределенная не по биномиальному закону. ?

Примеры 3 и 4 легко обобщаются на произвольное число слагаемых. При композиции законов Пуассона с параметрами а ъ а 2 , ..., а т снова получается закон Пуассона с параметром а (т) = а х + а 2 + ... + а т.

При композиции биномиальных законов с параметрами (п ь р ); (я 2 , р) , (п т, р) снова получается биномиальный закон с параметрами («(«), Р), где п (т) = щ+ п 2 + ... + п т.

Мы доказали важные свойства закона Пуассона и биномиального закона: «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов одинакового типа получается закон того же типа (различаются только параметры этого закона). В подразделе 9.7 мы покажем, что таким же свойством устойчивости обладает нормальный закон.

Рассмотрим случай, когда третья случайная величина Z является суммой двух независимых случайных величин X и Y , то есть

Плотности этих величин
соответственно. Плотность распределенияZ

Этот интеграл называется сверткой или композицией плотностей и обозначается следующим образом:

.

Таким образом, если независимые случайные величины суммируются, то их плотности распределения свертываются.

Это правило распространяется на сумму любого числа независимых слагаемых. То есть, если

.

Пример. Определим плотность распределения суммы двух равномерно распределенных величин X 1 и X 2 c плотностями:

После подстановки этих плотностей в (13.2.1) и интегрирования в предположении
получаем, что

Эта плотность называется трапециодальной (см. рис.13.2.1). Если
, то трапеции вырождается в равнобедренный треугольник и соответствующая плотность называется плотностью Сипсона.

Рис.13.2.1.Трапециодальное распределение – свертка двух равномерных распределений.

13.3.Распределение суммы нормально распределенных случайных величин

Если
, X и Y независимы и нормально распределены с плотностями

то сумма Z будет распределена тоже нормально с плотностью

,

Этот факт доказывается непосредственным интегрированием интеграла сверстки (13.2.1) после подстановки
и
.

Справедливо и более общее утверждение: если

, (13.3.1)

где иb - константы, а Х i – независимые нормально распределенные случайные величины со средними значениями
и дисперсиями, тоY будет распределено тоже нормально со средним значением

(13.3.2)

и дисперсией

. (13.3.3)

Отсюда вытекает, что если суммируются независимые нормально распределенные случайные величины, то сумма будет иметь тоже нормальное распределение с математическим ожиданием, равным сумме математических ожиданий слагаемых и дисперсией, равной сумме дисперсий слагаемых. То есть, если

,

. (13.3.4)

14.Предельные теоремы

14.1.Понятие о законе больших чисел

Из опыта известно, что в массовых явлениях результат мало зависит от отдельных проявлений. Например, давление, оказываемое газом на стенки сосуда, складывается в результате ударов молекул газа о стенки. Не смотря на то, что каждый удар по силе и направлению совершенно случайны итоговое давление оказывается практически детерминированным. То же самое можно сказать о температуре тела, которая определяет среднюю кинетическую энергию движения атомов тела. Сила тока есть проявление движения элементарных зарядов(электронов). Конкретные особенности каждого случайного явления почти не сказываются на среднем результате массы таких явлений. Случайные отклонения от среднего, неизбежные в каждом отдельном явлении, в массе взаимно погашаются, нивелируются, выравниваются. Именно этот факт – устойчивость средних - лежит в основе закона больших чисел: при большом числе случайных явлений средний их результат практически перестает быть случайным и может быть предсказан с большой степенью определенности.

В теории вероятностей под законом больших чисел понимается ряд математических теорем, в каждой из которых при тех или иных условиях устанавливается факт приближения средних характеристик большого числа опытов к постоянным величинам или к предельным распределениям.

Определение . Случайные величины Х 1 , Х 2 , …, Х n называются независимыми, если для любых x 1, x 2 , …, x n независимы события

{ω: Х 1 (ω) < x},{ω: Х 2 (ω) < x},…, {ω: Х n (ω) < x n }.

Из определения непосредственно следует, что для независимых случайных величин Х 1 , Х 2 , …, Х n функция распределения n -мерной случайной величины Х = Х 1 , Х 2 , …, Х n равна произведению функций распределения случайных величин Х 1 , Х 2 , …, Х n

F (x 1 , x 2 , …, x n ) = F (x 1 )F (x 2 )…F (x n ). (1)

Продифференцируем равенство (1) n раз по x 1 , x 2 , …, x n , получим

p (x 1 , x 2 , …, x n ) = p (x 1 )p (x 2 )…p (x n ). (2)

Можно дать другое определение независимости случайных величин.

Если закон распределения одной случайной величины не зависит от того, какие возможные значения приняли другие случайные величины, то такие случайные величины называются независимыми в совокупности.

Например, приобретены два лотерейных билета различных выпусков. Пусть Х – размер выигрыша на первый билет, Y – размер выигрыша на второй билет. Случайные величины Х и Y – независимые, так как выигрыш одного билета никак не повлияет на закон распределения другого. Но если билеты одного выпуска, то Х и Y – зависимые.

Две случайные величины называются независимыми, если закон распределения одной из них не меняется от того, какие возможные значения приняла другая величина.

Теорема 1 (свёртки) или «теорема о плотности суммы 2 случайных величин».

Пусть X = (Х 1 ;Х 2 ) – независимая непрерывная двумерная случайная величина, Y = Х 1 + Х 2 . Тогда плотность распределения

Доказательство . Можно показать, что если , то

где Х = (Х 1 , Х 2 , …, Х n ). Тогда, если Х = (Х 1 , Х 2), то функцию распределения Y = X 1 + X 2 можно определить так (рис. 1) –

=.

В соответствии с определением, функция является плотностью распределения случайной величины Y = X 1 + X 2 , т.е.

p y (t ) = что и требовалось доказать.

Выведем формулу для нахождения распределения вероятностей суммы двух независимых дискретных случайных величин.

Теорема 2. Пусть Х 1 , Х 2 – независимые дискретные случайные величины,

, , тогда

Доказательство . Представим событие A x = {Х 1 +Х 2 = x } в виде суммы несовместимых событий

A x = å(Х 1 = x i ; Х 2 = x x i).

Так как Х 1 , Х 2 – независимые то P (Х 1 = x i ; Х 2 = x x i) = P (Х 1 = x i) P (Х 2 = x – x i), тогда

P (A x ) = P (å(Х 1 = x i ; Х 2 = x – x i )) = å(P (Х 1 = x i ) P (Х 2 = x – x i)),

что и требовалось доказать.

Пример 1. Пусть Х 1 , Х 2 – независимые случайные величины, имеющие нормальное распределение с параметрами N (0;1); Х 1 , Х 2 ~ N (0;1).

Найдём плотность распределения их суммы (обозначим Х 1 = x , Y = X 1 +X 2)


Легко видеть, что подинтегральная функция является плотностью распределения нормальной случайной величины с параметрами а = , , т.е. интеграл равен 1.

.

Функция p y (t ) является плотностью нормального распределения с параметрами а = 0, s = . Таким образом сумма независимых нормальных случайных величин с параметрами (0,1) имеет нормальное распределение с параметрами (0,), т.е. Y = Х 1 + Х 2 ~ N (0;).

Пример 2 . Пусть заданы две дискретные независимые случайные величины, имеющие распределение Пуассона , тогда

, (5)

где k, m, n = 0, 1, 2, …,¥.

По теореме 2 имеем:

Пример 3. Пусть Х 1, Х 2 – независимые случайные величины, имеющие экспоненциальное распределение . Найдём плотность Y = Х 1 +Х 2 .

Обозначим x = x 1. Так как Х 1, Х 2 – независимые случайные величины, то воспользуемся «теоремой свертки»

Можно показать, что если задана сумма (Х i имеют экспоненциальное распределение с параметром l), то Y =имеет распределение , которое называется распределением Эрланга (n – 1) порядка. Этот закон был получен при моделировании работы телефонных станций в первых работах по теории массового обслуживания.

В математической статистике часто используют законы распределения случайных величин, являющихся функциями независимых нормальных случайных величин. Рассмотрим три закона наиболее часто встречающихся при моделировании случайных явлений.

Теорема 3. Если независимы случайные величины Х 1, ..., Х n , то независимы также функции от этих случайных величин Y 1 = f 1 (Х 1), ...,Y n = f n (Х n ).

Распределение Пирсона (c 2 -распределение ). Пусть Х 1, ..., Х n – независимые нормальные случайные величины с параметрами а = 0, s = 1. Составим случайную величину

  • 2.2. Обобщенная теорема о повторении опытов.
  • Раздел 3. Понятие случайной величины. Функция распределения и ее основные свойства.
  • 3.1. Понятие случайной величины и функции распределения.
  • 3.2. Свойства функции распределения.
  • 3.3. Дискретные и непрерывные случайные величины.
  • 3.4. Числовые характеристики случайных величин.
  • Раздел 4. Примеры распределений случайных величин.
  • 4.1. Биномиальное распределение.
  • 4.2. Теорема Пуассона
  • 4.3. Закон Пуассона.
  • 4.4. Равномерное распределение.
  • 4.5. Показательное распределение.
  • 4.6.Нормальный закон распределения.
  • Раздел 5. Системы случайных величин (случайные векторы).
  • 5.1. Понятие о системе случайных величин.
  • 5.2. Функция распределения системы двух случайных величин.
  • 5.3. Плотность распределения системы двух случайных величин.
  • 5.4. Законы распределения отдельных компонент, входящих в систему. Условные законы распределения.
  • 5.5. Зависимые и независимые случайные величины.
  • 5.6. Числовые характеристики системы двух случайных величин.
  • 5.7. Система произвольного числа случайных величин (случайные вектора).
  • 5.8. Числовые характеристики системы нескольких случайных величин.
  • Раздел 6. Законы распределения функций случайных аргументов.
  • 6.1. Закон распределения функции одного случайного аргумента.
  • 6.2. Закон распределения функции двух случайных величин.
  • 6.3. Закон распределения суммы двух случайных величин. Композиция законов распределения.
  • 6.4. Распределение произведения.
  • 6.5. Распределение квадрата случайной величины.
  • 6.6. Распределение частного.
  • 6.7. Числовые характеристики функций случайных величин.
  • Раздел 7. Теоремы о числовых характеристиках.
  • 7.1. Основные теоремы о математическом ожидании.
  • 7.2. Теоремы о дисперсии случайной величины.
  • 7.3. Теорема о линейной зависимости случайных величин.
  • Раздел 8. Характеристические функции.
  • 8.1. Определение и простейшие свойства характеристических функций.
  • 8.2. Предельные теоремы для характеристических функций.
  • Раздел 9. Предельные теоремы для случайных величин.
  • 9.1. Сходимость последовательностей случайных величин.
  • 9.2. Закон больших чисел.
  • 9.3. Следствия закона больших чисел.
  • Раздел 10. Предельные теоремы теории вероятностей.
  • 10.1. Центральная предельная теорема.
  • 10.2. Теорема Ляпунова.
  • 10.3. Теорема Лапласа.
  • 2. Практические занятия, тесты, самостоятельная работа. Занятие 1. Непосредственный подсчет вероятности с использованием классического определения вероятности.
  • 1.1. Краткая теоретическая часть.
  • 1.2. Тест.
  • 1.3. Решение типовых задач.
  • 1.4. Задачи для самостоятельной работы.
  • Занятие 2. Геометрическое определение вероятности.
  • 2.1. Краткая теоретическая часть.
  • 2.2. Тест
  • 2.3. Решение типовых задач
  • 2.4. Задачи для самостоятельной работы
  • Занятие 3. Условная вероятность. Теорема умножения вероятностей.
  • 3.1. Краткая теоретическая часть
  • 3.2. Тест
  • 3.3. Решение типовых задач
  • 3.4. Задачи для самостоятельной работы
  • Занятие 4. Теорема сложения вероятностей.
  • 4.1. Краткая теоретическая часть
  • 4.2. Тест
  • 4.3. Решение типовых задач
  • 4.4. Задачи для самостоятельной работы
  • Занятие 5. Формула полной вероятности.
  • 5.1. Краткая теоретическая часть
  • 5.2. Тест.
  • 5.3. Решение типовых задач
  • 5.4. Задачи для самостоятельной работы
  • Занятие 6. Формула Бейеса.
  • 6.1. Краткая теоретическая часть
  • 6.2.Тест
  • 6.3. Решение типовых задач
  • 6.4. Задачи для самостоятельной работы
  • Занятие 7. Последовательные независимые испытания.
  • 7.1. Краткая теоретическая часть
  • 7.2. Тест
  • 7.3. Решение типовых задач
  • 7.4. Задачи для самостоятельной работы
  • Занятие 8. Дискретные и непрерывные случайные величины.
  • 8.1. Краткая теоретическая часть а) Ряд, многоугольник и функция распределения случайной дискретной величины
  • 8.2. Тест
  • А) только к дискретным случайным величинам
  • 8.3. Решение типовых задач а) Ряд, многоугольник и функция распределения случайной дискретной величины
  • Б) Функция распределения и плотность вероятности непрерывной случайной величины
  • 8.4. Задачи для самостоятельной работы а) Ряд, многоугольник и функция распределения случайной дискретной величины
  • Занятие 9. Числовые характеристики дискретных случайных величин.
  • 9.1. Краткая теоретическая часть
  • 9.2. Тест
  • 9.3. Решение типовых задач
  • 9.4. Задачи для самостоятельной работы
  • Занятие 10. Дискретные и непрерывные случайные величины.
  • 10.1. Краткая теоретическая часть
  • 10.2. Тест
  • 10.3. Решение типовых задач
  • 10.4. Задачи для самостоятельной работы
  • Занятие 11. Закон Пуассона.
  • 11.1. Краткая теоретическая часть
  • 11.2. Тест
  • 11.3. Решение типовых задач
  • 11.4. Задачи для самостоятельной работы
  • Занятие 12. Закон нормального распределения.
  • 12.1. Краткая теоретическая часть
  • 12.2. Тест
  • 12.3. Решение типовых задач
  • 12.4. Задачи для самостоятельной работы
  • Литература
  • 6.2. Закон распределения функции двух случайных величин.

    Изложим общий метод решения задачи для наиболее простого случая функции двух аргументов.

    Имеется система двух непрерывных случайных ве­личин (X , Y ) с плотностью распределения f (x , y ) . Слу­чайная величина Z связана с X и Y функциональной зависимостью:

    Требуется найти закон распределения величины Z.

    Для решения задачи вос­пользуемся геометрической интерпретацией. Функия
    изобразится уже не кривой, а поверхностью (рис. 6.2.1).

    Найдем функцию распределения величины Z:

    Проведем плоскость Q, параллельную плоскости хОу , на расстоя­нии z от нее. Эта плоскость пересечет поверхность
    по некоторой кривойК . Спроектируем кривую К на плоскость хОу . Эта проекция, уравнение которой
    , разделит плоскостьхОу на две области; для одной из них высота поверхности над пло­скостью хОу будет меньше, а для другой - больше z . Обозначим D ту область, для которой эта высота меньше z . Чтобы выполнялось неравенство (6.2.1), случайная точка (X , Y ) очевидно, должна по­пасть в область D ; следовательно,

    Зная конкретный вид функции
    , можно выразить пре­делы интегрирования черезz и написать выражение g (z ) в явном виде.

    6.3. Закон распределения суммы двух случайных величин. Композиция законов распределения.

    Воспользуемся изложенным выше общим методом для решения одной задачи, а именно для нахождения закона распределения суммы двух случайных величин. Имеется система двух случайных величин (X , Y ) с плотностью распределения f (x ,у) . Рассмотрим сумму случайных величин X и Y :
    и найдем закон распределения величины Z . Для этого построим на плоскости хОу линию, уравнение которой
    (рис. 6.3.1). Это - прямая, отсекающая на осях отрезки, равныеz . Прямая
    делит плоскость хОу на две части; правее и выше ее
    ; левее и ниже

    Область D в данном случае - левая нижняя часть пло­скости хОу , заштрихованная на рис. 6.3.1. Согласно формуле (6.3.2) имеем:

    Это - общая формула для плотности распределения суммы двух случайных величин.

    Из соображений симметричности задачи относительно X и Y можно написать другой вариант той же формулы:

    Требуется произвести композицию этих законов, т. е. найти закон распределения величины:
    .

    Применим общую формулу для композиции законов рас­пределения:

    Подставляя эти выражения в уже встречавшуюся нам формулу

    а это есть не что иное, как нормальный закон с центром рассеи­вания

    К тому же выводу можно прийти значительно проще с помощью следующих качественных рассуждений.

    Не раскрывая скобок и не производя преобразований в подынте­гральной функции (6.3.3), сразу приходим к выводу, что показатель степени есть квадратный трехчлен относительно х вида

    где в коэффициент А величина z не входит совсем, в коэффициент В входит в первой степени, а в коэффициент С - в квадрате. Имея это в виду и применяя формулу(6.3.4), приходим к заключению, что g (z ) есть показательная функция, показатель степени которой - квадратный трехчлен относительно z , а плотность аспределения; такого вида соответствует нормальному закону. Таким образом, мы; приходим к чисто качественному выводу: закон распределения вели­чины z должен быть нормальным. Чтобы найти параметры этого закона -
    и
    - воспользуемся теоремой сложения математических ожиданий и теоремой сложения дисперсий. По теореме сложения математических ожиданий
    . По теореме сложения дисперсий
    или
    откуда следует формула (6.3.7).

    Переходя от среднеквадратических отклонений к пропорциональным им вероятным отклонениям, получим:
    .

    Таким образом, мы пришли к следующему правилу: при компо­зиции нормальных законов получается снова нормальный за­кон, причем математические ожидания и дисперсии (или квад­раты вероятных отклонений) суммируются.

    Правило композиции нормальных законов может быть обобщено на случай произвольного числа независимых случайных величин.

    Если имеется n независимых случайных величин:
    подчиненных нормальным законам с центрами рассеивания
    и среднеквадратическими отклонениями
    ,то величина
    также подчинена нормальному закону с параметрами

    Если система случайных величин (X , Y ) распределена по нормальному закону, но величины X , Y зависимы, то нетрудно доказать, так же как раньше, исходя из общей формулы (6.3.1), что закон распределения величины
    есть тоже нормальный закон. Центры рассеивания по-прежнему складываются алгебраически, но для среднеквадратических отклонений правило становится более сложным: , где, r - коэффициент корреляции величин X и Y .

    При сложении нескольких зависимых случайных величин, подчиненных в своей совокупности нормальному закону, закон распределения суммы также оказывается нормальным с параметрами

    где - коэффициент корреляции величинX i , X j , а суммирование распространяется на все различные попарные комбинации величин
    .

    Мы убедились в весьма важном свойстве нормального закона: при композиции нормальных законов получается снова нормальный закон. Это - так называемое «свойство устойчивости». Закон распределения называется устойчивым, если при композиции двух законов этого типа получается снова закон того же типа. Выше мы показали, что нормальный закон является устойчивым. Свойством устойчивости обладают весьма немногие законы распределения. Закон равномерной плотности неустойчив: при композиции двух законов равномерной плотности на участках от 0 до 1 мы получили закон Симпсона.

    Устойчивость нормального закона - одно из существенных условий его широкого распространения на практике. Однако свойством устойчивости, кроме нормального, обладают и некоторые другие законы распределения. Особенностью нор­мального закона является то, что при композиции достаточно боль­шого числа практически произвольных законов распределения суммарный закон оказывается сколь угодно близок к нормальному вне зависимости от того, каковы были законы распределения слагаемых. Это можно проиллюстрировать, например, составляя композицию трех законов равномерной плотности на уча­стках от 0 до 1. Получающийся при этом закон распределения g (z ) изображен на рис. 6.3.1. Как видно из чертежа, график функции g (z ) весьма напоминает график нормального закона.