У какого распределения случайной величины. Нормальное распределение непрерывной случайной величины. Приближенный метод проверки нормальности распределения

Функция распределения в этом случае согласно (5.7), примет вид:

где: m – математическое ожидание, s– среднеквадратическое отклонение.

Нормальное распределение называют еще гауссовским по имени немецкого математика Гаусса . Тот факт, что случайная величина имеет нормальное распределение с параметрами: m,, обозначают так: N (m,s), где: m =a =M ;

Достаточно часто в формулах математическое ожидание обозначают через а . Если случайная величина распределена по закону N(0,1), то она называется нормированной или стандартизированной нормальной величиной. Функция распределения для нее имеет вид:

.

График плотности нормального распределения, который называют нормальной кривой или кривой Гаусса, изображен на рис.5.4.

Рис. 5.4. Плотность нормального распределения

Определение числовых характеристик случайной величины по её плотности рассматривается на примере.

Пример 6 .

Непрерывная случайная величина задана плотностью распределения:.

Определить вид распределения, найти математическое ожидание M(X) и дисперсию D(X).

Сравнивая заданную плотность распределения с (5.16) можно сделать вывод, что задан нормальный закон распределения с m =4. Следовательно, математическое ожидание M(X)=4, дисперсия D(X)=9.

Среднее квадратическое отклонение s=3.

Функция Лапласа, имеющая вид:

,

связана с функцией нормального распределения (5.17), cоотношением:

F 0 (x) = Ф(х) + 0,5.

Функции Лапласа нечётная.

Ф(-x )=-Ф(x ).

Значения функции Лапласа Ф(х) табулированы и берутся из таблицы по значению х (см. Приложение 1).

Нормальное распределение непрерывной случайной величины играет важную роль в теории вероятностей и при описании реальности, имеет очень широкое распространение в случайных явлениях природы. На практике очень часто встречаются случайные величины, образующиеся именно в результате суммирования многих случайных слагаемых. В частности, анализ ошибок измерения показывает, что они являются суммой разного рода ошибок. Практика показывает, что распределение вероятностей ошибок измерения близко к нормальному закону.

С помощью функции Лапласа можно решать задачи вычисления вероятности попадания в заданный интервал и заданного отклонения нормальной случайной величины.

Можно выделить наиболее часто встречающиеся законы распределения дискретных случайных величин:

  • Биномиальный закон распределения
  • Пуассоновский закон распределения
  • Геометрический закон распределения
  • Гипергеометрический закон распределения

Для данных распределений дискретных случайных величин расчет вероятностей их значений, а также числовых характеристик (математическое ожидание, дисперсия, и т.д.) производится по определенных «формулам». Поэтому очень важно знать данные типы распределений и их основные свойства.


1. Биномиальный закон распределения.

Дискретная случайная величина $X$ подчинена биномиальному закону распределения вероятностей, если она принимает значения $0,\ 1,\ 2,\ \dots ,\ n$ с вероятностями $P\left(X=k\right)=C^k_n\cdot p^k\cdot {\left(1-p\right)}^{n-k}$. Фактически, случайная величина $X$ - это число появлений события $A$ в $n$ независимых испытаний . Закон распределения вероятностей случайной величины $X$:

$\begin{array}{|c|c|}
\hline
X_i & 0 & 1 & \dots & n \\
\hline
p_i & P_n\left(0\right) & P_n\left(1\right) & \dots & P_n\left(n\right) \\
\hline
\end{array}$

Для такой случайной величины математическое ожидание $M\left(X\right)=np$, дисперсия $D\left(X\right)=np\left(1-p\right)$.

Пример . В семье двое детей. Считая вероятности рождения мальчика и девочки равными $0,5$, найти закон распределения случайной величины $\xi $ - числа мальчиков в семье.

Пусть случайная величина $\xi $ - число мальчиков в семье. Значения, которые может принимать $\xi:\ 0,\ 1,\ 2$. Вероятности этих значений можно найти по формуле $P\left(\xi =k\right)=C^k_n\cdot p^k\cdot {\left(1-p\right)}^{n-k}$, где $n=2$ - число независимых испытаний, $p=0,5$ - вероятность появления события в серии из $n$ испытаний. Получаем:

$P\left(\xi =0\right)=C^0_2\cdot {0,5}^0\cdot {\left(1-0,5\right)}^{2-0}={0,5}^2=0,25;$

$P\left(\xi =1\right)=C^1_2\cdot 0,5\cdot {\left(1-0,5\right)}^{2-1}=2\cdot 0,5\cdot 0,5=0,5;$

$P\left(\xi =2\right)=C^2_2\cdot {0,5}^2\cdot {\left(1-0,5\right)}^{2-2}={0,5}^2=0,25.$

Тогда закон распределения случайной величины $\xi $ есть соответствие между значениями $0,\ 1,\ 2$ и их вероятностями, то есть:

$\begin{array}{|c|c|}
\hline
\xi & 0 & 1 & 2 \\
\hline
P(\xi) & 0,25 & 0,5 & 0,25 \\
\hline
\end{array}$

Сумма вероятностей в законе распределения должна быть равна $1$, то есть $\sum _{i=1}^{n}P(\xi _{{\rm i}})=0,25+0,5+0,25=1 $.

Математическое ожидание $M\left(\xi \right)=np=2\cdot 0,5=1$, дисперсия $D\left(\xi \right)=np\left(1-p\right)=2\cdot 0,5\cdot 0,5=0,5$, среднее квадратическое отклонение $\sigma \left(\xi \right)=\sqrt{D\left(\xi \right)}=\sqrt{0,5}\approx 0,707$.

2. Закон распределения Пуассона.

Если дискретная случайная величина $X$ может принимать только целые неотрицательные значения $0,\ 1,\ 2,\ \dots ,\ n$ с вероятностями $P\left(X=k\right)={{{\lambda }^k}\over {k!}}\cdot e^{-\lambda }$, то говорят, что она подчинена закону распределения Пуассона с параметром $\lambda $. Для такой случайной величины математическое ожидание и дисперсия равны между собой и равны параметру $\lambda $, то есть $M\left(X\right)=D\left(X\right)=\lambda $.

Замечание . Особенность этого распределения заключается в том, что мы на основании опытных данных находим оценки $M\left(X\right),\ D\left(X\right)$, если полученные оценки близки между собой, то у нас есть основание утверждать, что случайная величина подчинена закону распределения Пуассона.

Пример . Примерами случайных величин, подчиненных закону распределения Пуассона, могут быть: число автомашин, которые будут обслужены завтра автозаправочной станцией; число бракованных изделий в произведенной продукции.

Пример . Завод отправил на базу $500$ изделий. Вероятность повреждения изделия в пути равна $0,002$. Найти закон распределения случайной величины $X$, равной числу поврежденных изделий; чему равно $M\left(X\right),\ D\left(X\right)$.

Пусть дискретная случайная величина $X$ - число поврежденных изделий. Такая случайная величина подчинена закону распределения Пуассона с параметром $\lambda =np=500\cdot 0,002=1$. Вероятности значений равны $P\left(X=k\right)={{{\lambda }^k}\over {k!}}\cdot e^{-\lambda }$. Очевидно, что все вероятности всех значений $X=0,\ 1,\ \dots ,\ 500$ перечислить невозможно, поэтому мы ограничимся лишь первыми несколькими значениями.

$P\left(X=0\right)={{1^0}\over {0!}}\cdot e^{-1}=0,368;$

$P\left(X=1\right)={{1^1}\over {1!}}\cdot e^{-1}=0,368;$

$P\left(X=2\right)={{1^2}\over {2!}}\cdot e^{-1}=0,184;$

$P\left(X=3\right)={{1^3}\over {3!}}\cdot e^{-1}=0,061;$

$P\left(X=4\right)={{1^4}\over {4!}}\cdot e^{-1}=0,015;$

$P\left(X=5\right)={{1^5}\over {5!}}\cdot e^{-1}=0,003;$

$P\left(X=6\right)={{1^6}\over {6!}}\cdot e^{-1}=0,001;$

$P\left(X=k\right)={{{\lambda }^k}\over {k!}}\cdot e^{-\lambda }$

Закон распределения случайной величины $X$:

$\begin{array}{|c|c|}
\hline
X_i & 0 & 1 & 2 & 3 & 4 & 5 & 6 & ... & k \\
\hline
P_i & 0,368; & 0,368 & 0,184 & 0,061 & 0,015 & 0,003 & 0,001 & ... & {{{\lambda }^k}\over {k!}}\cdot e^{-\lambda } \\
\hline
\end{array}$

Для такой случайной величины математическое ожидание и дисперсия равным между собой и равны параметру $\lambda $, то есть $M\left(X\right)=D\left(X\right)=\lambda =1$.

3. Геометрический закон распределения.

Если дискретная случайная величина $X$ может принимать только натуральные значения $1,\ 2,\ \dots ,\ n$ с вероятностями $P\left(X=k\right)=p{\left(1-p\right)}^{k-1},\ k=1,\ 2,\ 3,\ \dots $, то говорят, что такая случайная величина $X$ подчинена геометрическому закону распределения вероятностей. Фактически, геометрическое распределения представляется собой испытания Бернулли до первого успеха.

Пример . Примерами случайных величин, имеющих геометрическое распределение, могут быть: число выстрелов до первого попадания в цель; число испытаний прибора до первого отказа; число бросаний монеты до первого выпадения орла и т.д.

Математическое ожидание и дисперсия случайной величины, подчиненной геометрическому распределению, соответственно равны $M\left(X\right)=1/p$, $D\left(X\right)=\left(1-p\right)/p^2$.

Пример . На пути движения рыбы к месту нереста находится $4$ шлюза. Вероятность прохода рыбы через каждый шлюз $p=3/5$. Построить ряд распределения случайной величины $X$ - число шлюзов, пройденных рыбой до первого задержания у шлюза. Найти $M\left(X\right),\ D\left(X\right),\ \sigma \left(X\right)$.

Пусть случайная величина $X$ - число шлюзов, пройденных рыбой до первого задержания у шлюза. Такая случайная величина подчинена геометрическому закону распределения вероятностей. Значения, которые может принимать случайная величина $X:$ 1, 2, 3, 4. Вероятности этих значений вычисляются по формуле: $P\left(X=k\right)=pq^{k-1}$, где: $p=2/5$ - вероятность задержания рыбы через шлюз, $q=1-p=3/5$ - вероятность прохода рыбы через шлюз, $k=1,\ 2,\ 3,\ 4$.

$P\left(X=1\right)={{2}\over {5}}\cdot {\left({{3}\over {5}}\right)}^0={{2}\over {5}}=0,4;$

$P\left(X=2\right)={{2}\over {5}}\cdot {{3}\over {5}}={{6}\over {25}}=0,24;$

$P\left(X=3\right)={{2}\over {5}}\cdot {\left({{3}\over {5}}\right)}^2={{2}\over {5}}\cdot {{9}\over {25}}={{18}\over {125}}=0,144;$

$P\left(X=4\right)={{2}\over {5}}\cdot {\left({{3}\over {5}}\right)}^3+{\left({{3}\over {5}}\right)}^4={{27}\over {125}}=0,216.$

$\begin{array}{|c|c|}
\hline
X_i & 1 & 2 & 3 & 4 \\
\hline
P\left(X_i\right) & 0,4 & 0,24 & 0,144 & 0,216 \\
\hline
\end{array}$

Математическое ожидание:

$M\left(X\right)=\sum^n_{i=1}{x_ip_i}=1\cdot 0,4+2\cdot 0,24+3\cdot 0,144+4\cdot 0,216=2,176.$

Дисперсия:

$D\left(X\right)=\sum^n_{i=1}{p_i{\left(x_i-M\left(X\right)\right)}^2=}0,4\cdot {\left(1-2,176\right)}^2+0,24\cdot {\left(2-2,176\right)}^2+0,144\cdot {\left(3-2,176\right)}^2+$

$+\ 0,216\cdot {\left(4-2,176\right)}^2\approx 1,377.$

Среднее квадратическое отклонение:

$\sigma \left(X\right)=\sqrt{D\left(X\right)}=\sqrt{1,377}\approx 1,173.$

4. Гипергеометрический закон распределения.

Если $N$ объектов, среди которых $m$ объектов обладают заданным свойством. Случайных образом без возвращения извлекают $n$ объектов, среди которых оказалось $k$ объектов, обладающих заданным свойством. Гипергеометрическое распределение дает возможность оценить вероятность того, что ровно $k$ объектов в выборке обладают заданным свойством. Пусть случайная величина $X$ - число объектов в выборке, обладающих заданным свойством. Тогда вероятности значений случайной величины $X$:

$P\left(X=k\right)={{C^k_mC^{n-k}_{N-m}}\over {C^n_N}}$

Замечание . Статистическая функция ГИПЕРГЕОМЕТ мастера функций $f_x$ пакета Excel дает возможность определить вероятность того, что определенное количество испытаний будет успешным.

$f_x\to $ статистические $\to $ ГИПЕРГЕОМЕТ $\to $ ОК . Появится диалоговое окно, которое нужно заполнить. В графе Число_успехов_в_выборке указываем значение $k$. Размер_выборки равен $n$. В графе Число_успехов_в_совокупности указываем значение $m$. Размер_совокупности равен $N$.

Математическое ожидание и дисперсия дискретной случайной величины $X$, подчиненной геометрическому закону распределения, соответственно равны $M\left(X\right)=nm/N$, $D\left(X\right)={{nm\left(1-{{m}\over {N}}\right)\left(1-{{n}\over {N}}\right)}\over {N-1}}$.

Пример . В кредитном отделе банка работают 5 специалистов с высшим финансовым образованием и 3 специалиста с высшим юридическим образованием. Руководство банка решило направить 3 специалистов Для повышения квалификации, отбирая их в случайном порядке.

а) Составьте ряд распределения числа специалистов с высшим финансовым образованием, которые могут быть направлены на повышение квалификации;

б) Найдите числовые характеристики этого распределения.

Пусть случайная величина $X$ - число специалистов с высшим финансовым образованием среди трех отобранных. Значения, которые может принимать $X:0,\ 1,\ 2,\ 3$. Данная случайная величина $X$ распределена по гипергеометрическому распределению с параметрами: $N=8$ - размер совокупности, $m=5$ - число успехов в совокупности, $n=3$ - размер выборки, $k=0,\ 1,\ 2,\ 3$ - число успехов в выборке. Тогда вероятности $P\left(X=k\right)$ можно рассчитать по формуле: $P(X=k)={C_{m}^{k} \cdot C_{N-m}^{n-k} \over C_{N}^{n} } $. Имеем:

$P\left(X=0\right)={{C^0_5\cdot C^3_3}\over {C^3_8}}={{1}\over {56}}\approx 0,018;$

$P\left(X=1\right)={{C^1_5\cdot C^2_3}\over {C^3_8}}={{15}\over {56}}\approx 0,268;$

$P\left(X=2\right)={{C^2_5\cdot C^1_3}\over {C^3_8}}={{15}\over {28}}\approx 0,536;$

$P\left(X=3\right)={{C^3_5\cdot C^0_3}\over {C^3_8}}={{5}\over {28}}\approx 0,179.$

Тогда ряд распределения случайной величины $X$:

$\begin{array}{|c|c|}
\hline
X_i & 0 & 1 & 2 & 3 \\
\hline
p_i & 0,018 & 0,268 & 0,536 & 0,179 \\
\hline
\end{array}$

Рассчитаем числовые характеристики случайной величины $X$ по общим формулам гипергеометрического распределения.

$M\left(X\right)={{nm}\over {N}}={{3\cdot 5}\over {8}}={{15}\over {8}}=1,875.$

$D\left(X\right)={{nm\left(1-{{m}\over {N}}\right)\left(1-{{n}\over {N}}\right)}\over {N-1}}={{3\cdot 5\cdot \left(1-{{5}\over {8}}\right)\cdot \left(1-{{3}\over {8}}\right)}\over {8-1}}={{225}\over {448}}\approx 0,502.$

$\sigma \left(X\right)=\sqrt{D\left(X\right)}=\sqrt{0,502}\approx 0,7085.$

Рассмотрим дискретные распределения, которые часто используются при моделировании систем сервиса.

Распределение Бернулли. Схемой Бернулли называется последовательность независимых испытаний, в каждом из которых возможны лишь два исхода - «успех» и «неудача» с вероятностями р и q = 1 - р. Пусть случайная переменная X может принимать два значения с соответствующими вероятностями:

Функция распределения Бернулли имеет вид

Ее график показан на рис. 11.1.

Случайная величина с таким распределением равна числу успехов в одном испытании схемы Бернулли.

Производящая функция, согласно (11.1) и (11.15), вычисляется как

Рис. 11.1.

По формуле (11.6) найдем математическое ожидание распределения:

Вычислим вторую производную производящей функции по (11.17)

По (11.7) получим дисперсию распределения

Распределение Бернулли играет большую роль в теории массового сервиса, являясь моделью любого случайного эксперимента, исходы которого принадлежат двум взаимно исключающим классам.

Геометрическое распределение. Предположим, что события происходят в дискретные моменты времени независимо друг от друга. Вероятность того, что событие произойдет, равна р, а вероятность того, что оно не произойдет, q = 1-р, например пришедший клиент делает заказ.

Обозначим через р к вероятность того, что событие произойдет 1-й раз в момент к, т.е. к -й клиент сделал заказ, а предыдущие к- 1 клиентов нет. Тогда вероятность этого сложного события можно определить по теореме умножения вероятностей независимых событий

Вероятности событий при геометрическом распределении показаны на рис. 11.2.

Сумма вероятностей всех возможных событий

представляет собой геометрическую прогрессию, поэтому распределение и называется геометрическим. Так как (1 - р)

Случайная величина Хс геометрическим распределением имеет смысл номера первого успешного испытания в схеме Бернулли.

Рис. 11.2.

Определим вероятность того, что событие произойдет для Х>к

и функцию геометрического распределения

Вычислим производящую функцию геометрического распределения по (11.1) и (11.20)

математическое ожидание геометрического распределения по (11.6)

а дисперсию по (11.7)

Геометрическое распределение считается дискретной версией непрерывного экспоненциального распределения и также обладает рядом свойств, полезных для моделирования систем сервиса. В частности, как экспоненциальное распределение, геометрическое не имеет памяти:

т.е. если проведено / неуспешных опытов, тогда вероятность того, что для первого успеха необходимо провести еще j новых опытов, такая же, как вероятность того, что при новой серии испытаний для первого успеха необходимо провести./"опытов. Другими словами, предыдущие опыты не оказывают эффекта на будущие опыты и опыты являются независимыми. Часто это соответствует действительности. Например, клиенты независимы и заказы делают случайным образом.

Рассмотрим пример системы, параметры функционирования которой подчиняются геометрическому распределению.

В распоряжении мастера имеется п однотипных запасных деталей. Каждая деталь с вероятностью q имеет дефект. При ремонте деталь устанавливается в устройство, которое проверяется на работоспособность. Если устройство не работает, то деталь заменяется на другую. Рассматривается случайная величина X - число деталей, которые будут проверены.

Вероятности числа проверенных деталей будут иметь значения, показанные в таблице:

ря"~ х

Здесь q = 1 - р.

Математическое ожидание числа проверенных деталей определяется как

Биномиальное распределение. Рассмотрим случайную величину

где Xj подчиняется распределению Бернулли с параметром р и случайные величины Xj независимы.

Значение случайной величины X будет равно числу появления единиц при п испытаниях, т.е. случайная величина с биномиальным распределением имеет смысл числа успехов в п независимых испытаниях.

Согласно (11.9), производящая функция суммы взаимно независимых случайных величин, каждая из которых имеет распределение Бернулли, равна произведению их производящих функций (11.17):

Раскладывая производящую функцию (11.26) в ряд, получим

В соответствии с определением производящей функции (11.1) вероятность того, что случайная величина X примет значение к:

где - биномиальные коэффициенты.

11оскольку & единиц на п местах можно расположить С* способами, то число выборок, содержащих к единиц, будет, очевидно, таким же.

Функция распределения для биномиального закона вычисляется по формуле

Распределение называется биномиальным в связи с тем, что вероятности по форме представляют собой члены разложения бинома:

Ясно, что суммарная вероятность всех возможных исходов равна 1:

Из (11.29) можно получить ряд полезных свойств биномиальных коэффициентов. Например, при р =1, q =1 получим

Если положить р =1, q = - 1 , то

При любом 1к справедливы следующие соотношения:

Вероятности того, что в п испытаниях событие наступит: 1) менее &раз; 2) более к раз; 3) не менее &раз; 4) не более &раз, находят соответственно по формулам:

Используя (11.6), определим математическое ожидание биномиального распределения

а по (11.7) - дисперсию:

Рассмотрим несколько примеров систем, параметры функционирования которых описываются биномиальным распределением.

1. Партия из 10 продуктов содержит один нестандартный. Найдем вероятность того, что при случайной выборке 5 продуктов все они будут стандартными (событие А).

Число всех случайных выборок п - С , э 0 , а число выборок, благоприятствующих событию, есть п = С 9 5 . Таким образом, искомая вероятность равна

2. При въезде в новую квартиру в осветительную сеть было включено 2к новых электрических ламп. Каждая электрическая лампа в течение года перегорает с вероятностью р. Найдем вероятность того, что в течение года не менее половины первоначально включенных ламп придется заменить новыми (событие А):

3. Человек, принадлежащий к определенной группе потребителей, с вероятностью 0,2 предпочитает продукт 1, с вероятностью 0,3 - продукт 2, с вероятностью 0,4 - продукт 3, с вероятностью 0,1 - продукт 4. Выбрана наугад группа из 6 потребителей. Найдем вероятности следующих событий: А - в составе группы находятся не менее 4 потребителей, предпочитающих продукт 3; В- в составе группы находится хотя бы один потребитель, предпочитающий продукт 4.

Эти вероятности равны:

При больших/? вычисления вероятностей становятся громоздкими, поэтому используют предельные теоремы.

Локальная теорема Лапласа , согласно которой вероятность Р п (к) определяется формулой

где - функция Гаусса;

Интегральная теорема Лапласа используется для вычисления вероятности того, что в п независимых испытаниях событие наступит не менее к { раз и не более к 2 раз:

Рассмотрим примеры использования данных теорем.

1. Швейная мастерская производит пошив одежды по индивидуальному заказу, среди которой 90 % высшего качества. Найдем вероятность того, что среди 200 изделий будет высшего качества не меньше 160 и не больше 170.

Решение:

2. У страховой компании имеется 12 тыс. клиентов. Каждый из них, страхуясь от несчастного случая, вносит 10 тыс. руб. Вероятность несчастного случая р - 0,006, а выплата пострадавшему 1 млн руб. Найдем прибыль страховой компании, обеспечиваемую с вероятностью 0,995; иными словами, на какую прибыль может рассчитывать страховая компания при уровне риска 0,005.

Решение: Суммарный взнос всех клиентов 12 000-10 000 = 120 млн руб. Прибыль Якомпании зависит от числа к несчастных случаев и определяется равенством Я = 120 000-1000/: тыс. руб.

Следовательно, надо найти такое число Л/, чтобы вероятность события Р(к > М) не превосходила 0,005. Тогда с вероятностью 0,995 будет обеспечена прибыль Я =120000-10004/ тыс. руб.

Неравенство Р(к > М) Р(к0,995. Так как к > 0, то Р(0 0,995. Для оценки этой вероятности воспользуемся интегральной теоремой Лапласа при п- 12 000 и/?=0,006, #=0,994:

Так как*! F(x ]) = -0,5.

Таким образом, необходимо найти Л/, при котором

Находим - 72)/8,5 > 2,58. Следовательно, М>12 + 22 = 94.

Итак, с вероятностью 0,995 компания гарантирует прибыль

Часто требуется определить наивероятнейшее число к 0 . Вероятность наступления события с числом успехов к 0 превышает или по крайней мере не меньше вероятности остальных возможных исходов испытаний. Наивероятнейшее число к 0 определяют из двойного неравенства

3. Пусть имеется 25 образцов средств потребления. Вероятность того, что каждый из образцов будет приемлем для клиента, равна 0,7. Необходимо определить наиболее вероятное число образцов, которые окажутся приемлемыми для клиентов. По (11.39)

Отсюда к 0 - 18.

Распределение Пуассона. Распределение Пуассона определяет вероятность того, что при очень большом числе испытаний п, в каждом из которых вероятность события р очень мала, событие наступит ровно к щз.

Пусть произведение пр = к; это означает, что среднее число появления события в различных сериях испытаний, т.е. при различных п, остается неизменным. В этом случае распределение Пуассона может использоваться для аппроксимации биномиального распределения:

Так как для больших п

Производящая функция распределения Пуассона вычисляется по (11.1) как

где по формуле Маклорена

В соответствии со свойством коэффициентов производящей функции вероятность появления к успехов при среднем числе успехов X вычисляется как (11.40).

На рис. 11.3 показана плотность вероятности распределения Пуассона.

Производящую функцию распределения Пуассона можно также получить, воспользовавшись разложением в ряд производящей функции биномиального распределения для пр = Х при п -» оо и формулой Маклорена (11.42):


Рис. 11.3.

Определим математическое ожидание по (11.6)

а дисперсию по (11.7)

Рассмотрим пример системы с пуассоновским распределением параметров.

Предприятие отправило в магазин 500 изделий. Вероятность повреждения изделия в пути равна 0,002. Найти вероятности того, что в пути будет повреждено изделий: ровно 3 (событие Я); менее 3 (событие В) более 3 (событие Q; хотя бы одно (событие D).

Число п = 500 велико, вероятность р = 0,002 мала, рассматриваемые события (повреждение изделий) независимы, поэтому можно использовать формулу Пуассона (11.40).

При X = пр = 500 0,002=1 получим:

Распределение Пуассона обладает рядом полезных для моделирования систем сервиса свойств.

1. Сумма случайных переменных Х= Х { + Х 2 с пуассоновским распределением также распределена по закону Пуассона.

Если случайные переменные имеют производящие функции:

то, согласно (11.9), производящая функция суммы независимых случайных переменных с пуассоновским распределением будет иметь вид:

Параметр результирующего распределения равен Х х + Х 2 .

2. Если число элементов./V множества подчиняется пуассоновскому распределению с параметром X и каждый элемент выбирается независимо с вероятностью р, тогда элементы выборки размером Y распределены по закону Пуассона с параметром рХ.

Пусть , где отвечает распределению Бернулли, а N - распределению Пуассона. Соответствующие производящие функции, согласно (11.17), (11.41):

Производящая функция случайной переменной Y вычисляется в соответствии с (11.14)

т.е. производящая функция соответствует распределению Пуассона с параметром рХ.

3. Как следствие свойства 2 справедливо следующее свойство. Если число элементов ^множества распределено по закону Пуассона с параметром X и множество случайным образом распределяется с вероятностями /?, и р 2 = 1 - Р на две группы, тогда размеры множеств 7V, и N 2 независимы и распределены по Пуассону с параметрами р{к и р{к.

Для удобства использования представим полученные результаты относительно дискретных распределений в виде табл. 11.1 и 11.2.

Таблица 11.1. Основные характеристики дискретных распределений

Распределение

Плотность

Диапазон

Параметры

tn |

С Х --2

Бернулли

Р{Х = } = р Р {X = 0} =

Р + Я = 1

п - 0,1

Геометрическое

р(-р) к - 1

к = 1,2,...

^ 1 1 |тз

1

Биномиальное

с к р к (- Р г к

* = 1,2,...,#»

пр{ - р)

1 -р пр

Пуассона

Е -х к !

к = 1,2,...

Табл и ца 11. 2. Производящие функции дискретных распределений

КОНТРОЛЬНЫЕ ВОПРОСЫ

  • 1. Какие распределения вероятностей относят к дискретным?
  • 2. Что такое производящая функция и для чего оно используется?
  • 3. Как вычислить моменты случайных величин с использованием производящей функции?
  • 4. Чему равна производящая функция суммы независимых случайных величин?
  • 5. Что называется составным распределением и как вычисляются производящие функции составных распределений?
  • 6. Дайте основные характеристики распределения Бернулли, приведите пример использования в задачах сервиса.
  • 7. Дайте основные характеристики геометрического распределения, приведите пример использования в задачах сервиса.
  • 8. Дайте основные характеристики биномиального распределения, приведите пример использования в задачах сервиса.
  • 9. Дайте основные характеристики распределения Пуассона, приведите пример использования в задачах сервиса.

Во многих задачах, связанных с нормально распределенными случайными величинами, приходится определять вероятность попадания случайной величины , подчиненной нормальному закону с параметрами , на участок от до . Для вычисления этой вероятности воспользуемся общей формулой

где - функция распределения величины .

Найдем функцию распределения случайной величины , распределенной по нормальному закону с параметрами . Плотность распределения величины равна:

. (6.3.2)

Отсюда находим функцию распределения

. (6.3.3)

Сделаем в интеграле (6.3.3) замену переменной

и приведем его к виду:

(6.3.4)

Интеграл (6.3.4) не выражается через элементарные функции, но его можно вычислить через специальную функцию, выражающую определенный интеграл от выражения или (так называемый интеграл вероятностей), для которого составлены таблицы. Существует много разновидностей таких функций, например:

;

и т.д. Какой из этих функций пользоваться – вопрос вкуса. Мы выберем в качестве такой функции

. (6.3.5)

Нетрудно видеть, что эта функция представляет собой не что иное, как функцию распределения для нормально распределенной случайной величины с параметрами .

Условимся называть функцию нормальной функцией распределения. В приложении (табл. 1) приведены таблицы значений функции .

Выразим функцию распределения (6.3.3) величины с параметрами и через нормальную функцию распределения . Очевидно,

. (6.3.6)

Теперь найдем вероятность попадания случайной величины на участок от до . Согласно формуле (6.3.1)

Таким образом, мы выразили вероятность попадания на участок случайной величины , распределенной по нормальному закону с любыми параметрами, через стандартную функцию распределения , соответствующую простейшему нормальному закону с параметрами 0,1. Заметим, что аргументы функции в формуле (6.3.7) имеют очень простой смысл: есть расстояние от правого конца участка до центра рассеивания, выраженное в средних квадратических отклонениях; - такое же расстояние для левого конца участка, причем это расстояние считается положительным, если конец расположен справа от центра рассеивания, и отрицательным, если слева.

Как и всякая функция распределения, функция обладает свойствами:

3. - неубывающая функция.

Кроме того, из симметричности нормального распределения с параметрами относительно начала координат следует, что

Пользуясь этим свойством, собственно говоря, можно было бы ограничить таблицы функции только положительными значениями аргумента, но, чтобы избежать лишней операции (вычитание из единицы), в таблице 1 приложения приводятся значения как для положительных, так и для отрицательных аргументов.

На практике часто встречается задача вычисления вероятности попадания нормально распределенной случайной величины на участок, симметричный относительно центра рассеивания . Рассмотрим такой участок длины (рис. 6.3.1). Вычислим вероятность попадания на этот участок по формуле (6.3.7):

Учитывая свойство (6.3.8) функции и придавая левой части формулы (6.3.9) более компактный вид, получим формулу для вероятности попадания случайной величины, распределенной по нормальному закону на участок, симметричный относительно центра рассеивания:

. (6.3.10)

Решим следующую задачу. Отложим от центра рассеивания последовательные отрезки длиной (рис. 6.3.2) и вычислим вероятность попадания случайной величины в каждый из них. Так как кривая нормального закона симметрична, достаточно отложить такие отрезки только в одну сторону.

По формуле (6.3.7) находим:

(6.3.11)

Как видно из этих данных, вероятности попадания на каждый из следующих отрезков (пятый, шестой и т.д.) с точностью до 0,001 равны нулю.

Округляя вероятности попадания в отрезки до 0,01 (до 1%), получим три числа, которые легко запомнить:

0,34; 0,14; 0,02.

Сумма этих трех значений равна 0,5. Это значит, что для нормально распределенной случайной величины все рассеивания (с точностью до долей процента) укладывается на участке .

Это позволяет, зная среднее квадратическое отклонение и математическое ожидание случайной величины, ориентировочно указать интервал её практически возможных значений. Такой способ оценки диапазона возможных значений случайной величины известен в математической статистике под названием «правило трех сигма». Из правила трех сигма вытекает также ориентировочный способ определения среднего квадратического отклонения случайной величины: берут максимальное практически возможное отклонение от среднего и делят его на три. Разумеется, этот грубый прием может быть рекомендован, только если нет других, более точных способов определения .

Пример 1. Случайная величина , распределенная по нормальному закону, представляет собой ошибку измерения некоторого расстояния. При измерении допускается систематическая ошибка в сторону завышения на 1,2 (м); среднее квадратическое отклонения ошибки измерения равно 0,8 (м). Найти вероятность того, что отклонение измеренного значения от истинного не превзойдет по абсолютной величине 1,6 (м).

Решение. Ошибка измерения есть случайная величина , подчиненная нормальному закону с параметрами и . Нужно найти вероятность попадания этой величины на участок от до . По формуле (6.3.7) имеем:

Пользуясь таблицами функции (приложение, табл. 1), найдем:

; ,

Пример 2. Найти ту же вероятность, что и в предыдущем примере, но при условии, что систематической ошибки нет.

Решение. По формуле (6.3.10), полагая , найдем:

.

Пример 3. По цели, имеющей вид полосы (автострада), ширина которой равна 20 м, ведется стрельба в направлении, перпендикулярном автостраде. Прицеливание ведется по средней линии автострады. Среднее квадратическое отклонение в направлении стрельбы равно м. Имеется систематическая ошибка в направлении стрельбы: недолет 3 м. Найти вероятность попадания в автостраду при одном выстреле.

1.2.4. Случайные величины и их распределения

Распределения случайных величин и функции распределения . Распределение числовой случайной величины – это функция, которая однозначно определяет вероятность того, что случайная величина принимает заданное значение или принадлежит к некоторому заданному интервалу.

Первое – если случайная величина принимает конечное число значений. Тогда распределение задается функцией Р(Х = х), ставящей каждому возможному значению х случайной величины Х вероятность того, что Х = х .

Второе – если случайная величина принимает бесконечно много значений. Это возможно лишь тогда, когда вероятностное пространство, на котором определена случайная величина, состоит из бесконечного числа элементарных событий. Тогда распределение задается набором вероятностей P(a < X для всех пар чисел a, b таких, что a. Распределение может быть задано с помощью т.н. функции распределения F(x) = P(Xопределяющей для всех действительных х вероятность того, что случайная величина Х принимает значения, меньшие х . Ясно, что

P(a < X

Это соотношение показывает, что как распределение может быть рассчитано по функции распределения, так и, наоборот, функция распределения – по распределению.

Используемые в вероятностно-статистических методах принятия решений и других прикладных исследованиях функции распределения бывают либо дискретными, либо непрерывными, либо их комбинациями.

Дискретные функции распределения соответствуют дискретным случайным величинам, принимающим конечное число значений или же значения из множества, элементы которого можно перенумеровать натуральными числами (такие множества в математике называют счетными). Их график имеет вид ступенчатой лестницы (рис. 1).

Пример 1. Число Х дефектных изделий в партии принимает значение 0 с вероятностью 0,3, значение 1 с вероятностью 0,4, значение 2 с вероятностью 0,2 и значение 3 с вероятностью 0,1. График функции распределения случайной величины Х изображен на рис.1.

Рис.1. График функции распределения числа дефектных изделий.

Непрерывные функции распределения не имеют скачков. Они монотонно возрастают при увеличении аргумента – от 0 при до 1 при . Случайные величины, имеющие непрерывные функции распределения, называют непрерывными.

Непрерывные функции распределения, используемые в вероятностно-статистических методах принятия решений, имеют производные. Первая производная f(x) функции распределения F(x) называется плотностью вероятности,

По плотности вероятности можно определить функцию распределения:

Для любой функции распределения

Перечисленные свойства функций распределения постоянно используются в вероятностно-статистических методах принятия решений. В частности, из последнего равенства вытекает конкретный вид констант в формулах для плотностей вероятностей, рассматриваемых ниже.

Пример 2. Часто используется следующая функция распределения:

(1)

где a и b – некоторые числа, a. Найдем плотность вероятности этой функции распределения:

(в точках x = a и x = b производная функции F(x) не существует).

Случайная величина с функцией распределения (1) называется «равномерно распределенной на отрезке [a; b ]».

Смешанные функции распределения встречаются, в частности, тогда, когда наблюдения в какой-то момент прекращаются. Например, при анализе статистических данных, полученных при использовании планов испытаний на надежность, предусматривающих прекращение испытаний по истечении некоторого срока. Или при анализе данных о технических изделиях, потребовавших гарантийного ремонта.

Пример 3. Пусть, например, срок службы электрической лампочки – случайная величина с функцией распределения F(t), а испытание проводится до выхода лампочки из строя, если это произойдет менее чем за 100 часов от начала испытаний, или до момента t 0 = 100 часов. Пусть G(t) – функция распределения времени эксплуатации лампочки в исправном состоянии при этом испытании. Тогда

Функция G(t) имеет скачок в точке t 0 , поскольку соответствующая случайная величина принимает значение t 0 с вероятностью 1-F(t 0)> 0.

Характеристики случайных величин. В вероятностно-статистических методах принятия решений используется ряд характеристик случайных величин, выражающихся через функции распределения и плотности вероятностей.

При описании дифференциации доходов, при нахождении доверительных границ для параметров распределений случайных величин и во многих иных случаях используется такое понятие, как «квантиль порядка р », где 0 < p < 1 (обозначается х р ). Квантиль порядка р – значение случайной величины, для которого функция распределения принимает значение р или имеет место «скачок» со значения меньше р до значения больше р (рис.2). Может случиться, что это условие выполняется для всех значений х, принадлежащих этому интервалу (т.е. функция распределения постоянна на этом интервале и равна р ). Тогда каждое такое значение называется «квантилем порядка р ». Для непрерывных функций распределения, как правило, существует единственный квантиль х р порядка р (рис.2), причем

F(x p) = p . (2)

Рис.2. Определение квантиля х р порядка р .

Пример 4. Найдем квантиль х р порядка р для функции распределения F(x) из (1).

При 0 < p < 1 квантиль х р находится из уравнения

т.е. х р = a + p(b – a) = a(1- p) +bp . При p = 0 любое x < a является квантилем порядка p = 0. Квантилем порядка p = 1 является любое число x > b .

Для дискретных распределений, как правило, не существует х р , удовлетворяющих уравнению (2). Точнее, если распределение случайной величины дается табл.1, где x 1 < x 2 < … < x k , то равенство (2), рассматриваемое как уравнение относительно х р , имеет решения только для k значений p , а именно,

p = p 1 ,

p = p 1 + p 2 ,

p = p 1 + p 2 + p 3 ,

p = p 1 + p 2 + … + p m , 3 < m < k ,

p = p 1 + p 2 + … + p k .

Таблица 1.

Распределение дискретной случайной величины

Для перечисленных k значений вероятности p решение х р уравнения (2) неединственно, а именно,

F(x) = p 1 + p 2 + … + p m

для всех х таких, что x m < x < x m+1 . Т.е. х р – любое число из интервала (x m ; x m+1 ]. Для всех остальных р из промежутка (0;1), не входящих в перечень (3), имеет место «скачок» со значения меньше р до значения больше р . А именно, если

p 1 + p 2 + … + p m

то х р = x m+1 .

Рассмотренное свойство дискретных распределений создает значительные трудности при табулировании и использовании подобных распределений, поскольку невозможным оказывается точно выдержать типовые численные значения характеристик распределения. В частности, это так для критических значений и уровней значимости непараметрических статистических критериев (см. ниже), поскольку распределения статистик этих критериев дискретны.

Большое значение в статистике имеет квантиль порядка р = ½. Он называется медианой (случайной величины Х или ее функции распределения F(x)) и обозначается Me(X). В геометрии есть понятие «медиана» - прямая, проходящая через вершину треугольника и делящая противоположную его сторону пополам. В математической статистике медиана делит пополам не сторону треугольника, а распределение случайной величины: равенство F(x 0,5) = 0,5 означает, что вероятность попасть левее x 0,5 и вероятность попасть правее x 0,5 (или непосредственно в x 0,5 ) равны между собой и равны ½, т.е.

P (X < x 0,5) = P (X > x 0,5) = ½.

Медиана указывает «центр» распределения. С точки зрения одной из современных концепций – теории устойчивых статистических процедур – медиана является более хорошей характеристикой случайной величины, чем математическое ожидание . При обработке результатов измерений в порядковой шкале (см. главу о теории измерений) медианой можно пользоваться, а математическим ожиданием – нет.

Ясный смысл имеет такая характеристика случайной величины, как мода – значение (или значения) случайной величины, соответствующее локальному максимуму плотности вероятности для непрерывной случайной величины или локальному максимуму вероятности для дискретной случайной величины.

Если x 0 – мода случайной величины с плотностью f(x), то, как известно из дифференциального исчисления, .

У случайной величины может быть много мод. Так, для равномерного распределения (1) каждая точка х такая, что a < x < b , является модой. Однако это исключение. Большинство случайных величин, используемых в вероятностно-статистических методах принятия решений и других прикладных исследованиях, имеют одну моду. Случайные величины, плотности, распределения, имеющие одну моду, называются унимодальными.

Математическое ожидание для дискретных случайных величин с конечным числом значений рассмотрено в главе «События и вероятности». Для непрерывной случайной величины Х математическое ожидание М(Х) удовлетворяет равенству

являющемуся аналогом формулы (5) из утверждения 2 главы «События и вероятности».

Пример 5. Математическое ожидание для равномерно распределенной случайной величины Х равно

Для рассматриваемых в настоящей главе случайных величин верны все те свойства математических ожиданий и дисперсий, которые были рассмотрены ранее для дискретных случайных величин с конечным числом значений. Однако доказательства этих свойств не приводим, поскольку они требуют углубления в математические тонкости, не являющегося необходимым для понимания и квалифицированного применения вероятностно-статистических методов принятия решений.

Замечание. В настоящем учебнике сознательно обходятся математические тонкости, связанные, в частности, с понятиями измеримых множеств и измеримых функций, -алгебры событий и т.п. Желающим освоить эти понятия необходимо обратиться к специальной литературе, в частности, к энциклопедии .

Каждая из трех характеристик – математическое ожидание, медиана, мода – описывает «центр» распределения вероятностей. Понятие «центр» можно определять разными способами – отсюда три разные характеристики. Однако для важного класса распределений – симметричных унимодальных – все три характеристики совпадают.

Плотность распределения f(x) – плотность симметричного распределения, если найдется число х 0 такое, что

. (3)

Равенство (3) означает, что график функции y = f(x) симметричен относительно вертикальной прямой, проходящей через центр симметрии х = х 0 . Из (3) следует, что функция симметричного распределения удовлетворяет соотношению

(4)

Для симметричного распределения с одной модой математическое ожидание, медиана и мода совпадают и равны х 0 .

Наиболее важен случай симметрии относительно 0, т.е. х 0 = 0. Тогда (3) и (4) переходят в равенства

(6)

соответственно. Приведенные соотношения показывают, что симметричные распределения нет необходимости табулировать при всех х , достаточно иметь таблицы при x > x 0 .

Отметим еще одно свойство симметричных распределений, постоянно используемое в вероятностно-статистических методах принятия решений и других прикладных исследованиях. Для непрерывной функции распределения

P(|X|< a) = P(-a < X < a) = F(a) – F(-a),

где F – функция распределения случайной величины Х . Если функция распределения F симметрична относительно 0, т.е. для нее справедлива формула (6), то

P(|X|< a) = 2F(a) – 1.

Часто используют другую формулировку рассматриваемого утверждения: если

.

Если и - квантили порядка и соответственно (см. (2)) функции распределения, симметричной относительно 0, то из (6) следует, что

От характеристик положения – математического ожидания, медианы, моды – перейдем к характеристикам разброса случайной величины Х : дисперсии , среднему квадратическому отклонению и коэффициенту вариации v . Определение и свойства дисперсии для дискретных случайных величин рассмотрены в предыдущей главе. Для непрерывных случайных величин

Среднее квадратическое отклонение – это неотрицательное значение квадратного корня из дисперсии:

Коэффициент вариации – это отношение среднего квадратического отклонения к математическому ожиданию:

Коэффициент вариации применяется при M(X)> 0. Он измеряет разброс в относительных единицах, в то время как среднее квадратическое отклонение – в абсолютных.

Пример 6. Для равномерно распределенной случайной величины Х найдем дисперсию, среднеквадратическое отклонение и коэффициент вариации. Дисперсия равна:

Замена переменной дает возможность записать:

где c = (b a )/ 2. Следовательно, среднее квадратическое отклонение равно а коэффициент вариации таков:

По каждой случайной величине Х определяют еще три величины – центрированную Y , нормированную V и приведенную U . Центрированная случайная величина Y – это разность между данной случайной величиной Х и ее математическим ожиданием М(Х), т.е. Y = Х – М(Х). Математическое ожидание центрированной случайной величины Y равно 0, а дисперсия – дисперсии данной случайной величины: М(Y ) = 0, D (Y ) = D (X ). Функция распределения F Y (x ) центрированной случайной величины Y связана с функцией распределения F (x ) исходной случайной величины X соотношением:

F Y (x ) = F (x + M (X )).

Для плотностей этих случайных величин справедливо равенство

f Y (x ) = f (x + M (X )).

Нормированная случайная величина V – это отношение данной случайной величины Х к ее среднему квадратическому отклонению , т.е. . Математическое ожидание и дисперсия нормированной случайной величины V выражаются через характеристики Х так:

,

где v – коэффициент вариации исходной случайной величины Х . Для функции распределения F V (x ) и плотности f V (x ) нормированной случайной величины V имеем:

где F (x ) – функция распределения исходной случайной величины Х , а f (x ) – ее плотность вероятности.

Приведенная случайная величина U – это центрированная и нормированная случайная величина:

.

Для приведенной случайной величины

Нормированные, центрированные и приведенные случайные величины постоянно используются как в теоретических исследованиях, так и в алгоритмах, программных продуктах, нормативно-технической и инструктивно-методической документации. В частности, потому, что равенства позволяют упростить обоснования методов, формулировки теорем и расчетные формулы.

Используются преобразования случайных величин и более общего плана. Так, если Y = aX + b , где a и b – некоторые числа, то

Пример 7. Если то Y – приведенная случайная величина, и формулы (8) переходят в формулы (7).

С каждой случайной величиной Х можно связать множество случайных величин Y , заданных формулой Y = aX + b при различных a > 0 и b . Это множество называют масштабно-сдвиговым семейством , порожденным случайной величиной Х . Функции распределения F Y (x ) составляют масштабно сдвиговое семейство распределений, порожденное функцией распределения F (x ). Вместо Y = aX + b часто используют запись

Число с называют параметром сдвига, а число d - параметром масштаба. Формула (9) показывает, что Х – результат измерения некоторой величины – переходит в У – результат измерения той же величины, если начало измерения перенести в точку с , а затем использовать новую единицу измерения, в d раз большую старой.

Для масштабно-сдвигового семейства (9) распределение Х называют стандартным. В вероятностно-статистических методах принятия решений и других прикладных исследованиях используют стандартное нормальное распределение, стандартное распределение Вейбулла-Гнеденко, стандартное гамма-распределение и др. (см. ниже).

Применяют и другие преобразования случайных величин. Например, для положительной случайной величины Х рассматривают Y = lg X , где lg X – десятичный логарифм числа Х . Цепочка равенств

F Y (x) = P(lg X < x) = P(X < 10 x) = F(10 x)

связывает функции распределения Х и Y .

При обработке данных используют такие характеристики случайной величины Х как моменты порядка q , т.е. математические ожидания случайной величины X q , q = 1, 2, … Так, само математическое ожидание – это момент порядка 1. Для дискретной случайной величины момент порядка q может быть рассчитан как

Для непрерывной случайной величины

Моменты порядка q называют также начальными моментами порядка q , в отличие от родственных характеристик – центральных моментов порядка q , задаваемых формулой

Так, дисперсия – это центральный момент порядка 2.

Нормальное распределение и центральная предельная теорема. В вероятностно-статистических методах принятия решений часто идет речь о нормальном распределении. Иногда его пытаются использовать для моделирования распределения исходных данных (эти попытки не всегда являются обоснованными – см. ниже). Более существенно, что многие методы обработки данных основаны на том, что расчетные величины имеют распределения, близкие к нормальному.

Пусть X 1 , X 2 ,…, X n M (X i ) = m и дисперсиями D (X i ) = , i = 1, 2,…, n ,… Как следует из результатов предыдущей главы,

Рассмотрим приведенную случайную величину U n для суммы , а именно,

Как следует из формул (7), M (U n ) = 0, D (U n ) = 1.

(для одинаково распределенных слагаемых). Пусть X 1 , X 2 ,…, X n , …– независимые одинаково распределенные случайные величины с математическими ожиданиями M (X i ) = m и дисперсиями D (X i ) = , i = 1, 2,…, n ,… Тогда для любого х существует предел

где Ф(х) – функция стандартного нормального распределения.

Подробнее о функции Ф(х) – ниже (читается «фи от икс», поскольку Ф – греческая прописная буква «фи»).

Центральная предельная теорема (ЦПТ) носит свое название по той причине, что она является центральным, наиболее часто применяющимся математическим результатом теории вероятностей и математической статистики. История ЦПТ занимает около 200 лет – с 1730 г., когда английский математик А.Муавр (1667-1754) опубликовал первый результат, относящийся к ЦПТ (см. ниже о теореме Муавра-Лапласа), до двадцатых – тридцатых годов ХХ в., когда финн Дж.У. Линдеберг, француз Поль Леви (1886-1971), югослав В. Феллер (1906-1970), русский А.Я. Хинчин (1894-1959) и другие ученые получили необходимые и достаточные условия справедливости классической центральной предельной теоремы.

Развитие рассматриваемой тематики на этом отнюдь не прекратилось – изучали случайные величины, не имеющие дисперсии, т.е. те, для которых

(академик Б.В.Гнеденко и др.), ситуацию, когда суммируются случайные величины (точнее, случайные элементы) более сложной природы, чем числа (академики Ю.В.Прохоров, А.А.Боровков и их соратники), и т.д.

Функция распределения Ф(х) задается равенством

,

где - плотность стандартного нормального распределения, имеющая довольно сложное выражение:

.

Здесь =3,1415925… - известное в геометрии число, равное отношению длины окружности к диаметру, e = 2,718281828… - основание натуральных логарифмов (для запоминания этого числа обратите внимание, что 1828 – год рождения писателя Л.Н.Толстого). Как известно из математического анализа,

При обработке результатов наблюдений функцию нормального распределения не вычисляют по приведенным формулам, а находят с помощью специальных таблиц или компьютерных программ. Лучшие на русском языке «Таблицы математической статистики» составлены членами-корреспондентами АН СССР Л.Н. Большевым и Н.В.Смирновым .

Вид плотности стандартного нормального распределения вытекает из математической теории, которую не имеем возможности здесь рассматривать, равно как и доказательство ЦПТ.

Для иллюстрации приводим небольшие таблицы функции распределения Ф(х) (табл.2) и ее квантилей (табл.3). Функция Ф(х) симметрична относительно 0, что отражается в табл.2-3.

Таблица 2.

Функция стандартного нормального распределения.

Если случайная величина Х имеет функцию распределения Ф(х), то М(Х) = 0, D (X ) = 1. Это утверждение доказывается в теории вероятностей, исходя из вида плотности вероятностей . Оно согласуется с аналогичным утверждением для характеристик приведенной случайной величины U n , что вполне естественно, поскольку ЦПТ утверждает, что при безграничном возрастании числа слагаемых функция распределения U n стремится к функции стандартного нормального распределения Ф(х), причем при любом х .

Таблица 3.

Квантили стандартного нормального распределения.

Квантиль порядка р

Квантиль порядка р

Введем понятие семейства нормальных распределений. По определению нормальным распределением называется распределение случайной величины Х , для которой распределение приведенной случайной величины есть Ф(х). Как следует из общих свойств масштабно-сдвиговых семейств распределений (см. выше), нормальное распределение – это распределение случайной величины

где Х – случайная величина с распределением Ф(Х), причем m = M (Y ), = D (Y ). Нормальное распределение с параметрами сдвига m и масштаба обычно обозначается N (m , ) (иногда используется обозначение N (m , ) ).

Как следует из (8), плотность вероятности нормального распределения N (m , ) есть

Нормальные распределения образуют масштабно-сдвиговое семейство. При этом параметром масштаба является d = 1/ , а параметром сдвига c = - m / .

Для центральных моментов третьего и четвертого порядка нормального распределения справедливы равенства

Эти равенства лежат в основе классических методов проверки того, что результаты наблюдений подчиняются нормальному распределению. В настоящее время нормальность обычно рекомендуется проверять по критерию W Шапиро – Уилка. Проблема проверки нормальности обсуждается ниже.

Если случайные величины Х 1 и Х 2 имеют функции распределения N (m 1 , 1) и N (m 2 , 2) соответственно, то Х 1 + Х 2 имеет распределение Следовательно, если случайные величины X 1 , X 2 ,…, X n N (m , ) , то их среднее арифметическое

имеет распределение N (m , ) . Эти свойства нормального распределения постоянно используются в различных вероятностно-статистических методах принятия решений, в частности, при статистическом регулировании технологических процессов и в статистическом приемочном контроле по количественному признаку.

С помощью нормального распределения определяются три распределения, которые в настоящее время часто используются при статистической обработке данных.

Распределение (хи - квадрат) – распределение случайной величины

где случайные величины X 1 , X 2 ,…, X n независимы и имеют одно и тоже распределение N (0,1). При этом число слагаемых, т.е. n , называется «числом степеней свободы» распределения хи – квадрат.

Распределение t Стьюдента – это распределение случайной величины

где случайные величины U и X независимы, U имеет распределение стандартное нормальное распределение N (0,1), а X – распределение хи – квадрат с n степенями свободы. При этом n называется «числом степеней свободы» распределения Стьюдента. Это распределение было введено в 1908 г. английским статистиком В. Госсетом, работавшем на фабрике, выпускающей пиво. Вероятностно-статистические методы использовались для принятия экономических и технических решений на этой фабрике, поэтому ее руководство запрещало В. Госсету публиковать научные статьи под своим именем. Таким способом охранялась коммерческая тайна, «ноу-хау» в виде вероятностно-статистических методов, разработанных В. Госсетом. Однако он имел возможность публиковаться под псевдонимом «Стьюдент». История Госсета - Стьюдента показывает, что еще сто лет менеджерам Великобритании была очевидна большая экономическая эффективность вероятностно-статистических методов принятия решений.

Распределение Фишера – это распределение случайной величины

где случайные величины Х 1 и Х 2 независимы и имеют распределения хи – квадрат с числом степеней свободы k 1 и k 2 соответственно. При этом пара (k 1 , k 2 ) – пара «чисел степеней свободы» распределения Фишера, а именно, k 1 – число степеней свободы числителя, а k 2 – число степеней свободы знаменателя. Распределение случайной величины F названо в честь великого английского статистика Р.Фишера (1890-1962), активно использовавшего его в своих работах.

Выражения для функций распределения хи - квадрат, Стьюдента и Фишера, их плотностей и характеристик, а также таблицы можно найти в специальной литературе (см., например, ).

Как уже отмечалось, нормальные распределения в настоящее время часто используют в вероятностных моделях в различных прикладных областях. В чем причина такой широкой распространенности этого двухпараметрического семейства распределений? Она проясняется следующей теоремой.

Центральная предельная теорема (для разнораспределенных слагаемых). Пусть X 1 , X 2 ,…, X n ,… - независимые случайные величины с математическими ожиданиями М(X 1 ), М(X 2 ),…, М(X n), … и дисперсиями D (X 1 ), D (X 2 ),…, D (X n), … соответственно. Пусть

Тогда при справедливости некоторых условий, обеспечивающих малость вклада любого из слагаемых в U n ,

для любого х .

Условия, о которых идет речь, не будем здесь формулировать. Их можно найти в специальной литературе (см., например, ). «Выяснение условий, при которых действует ЦПТ, составляет заслугу выдающихся русских ученых А.А.Маркова (1857-1922) и, в особенности, А.М.Ляпунова (1857-1918)» .

Центральная предельная теорема показывает, что в случае, когда результат измерения (наблюдения) складывается под действием многих причин, причем каждая из них вносит лишь малый вклад, а совокупный итог определяется аддитивно , т.е. путем сложения, то распределение результата измерения (наблюдения) близко к нормальному.

Иногда считают, что для нормальности распределения достаточно того, что результат измерения (наблюдения) Х формируется под действием многих причин, каждая из которых оказывает малое воздействие. Это не так. Важно, как эти причины действуют. Если аддитивно – то Х имеет приближенно нормальное распределение. Если мультипликативно (т.е. действия отдельных причин перемножаются, а не складываются), то распределение Х близко не к нормальному, а к т.н. логарифмически нормальному, т.е. не Х , а lg X имеет приблизительно нормальное распределение. Если же нет оснований считать, что действует один из этих двух механизмов формирования итогового результата (или какой-либо иной вполне определенный механизм), то про распределение Х ничего определенного сказать нельзя.

Из сказанного вытекает, что в конкретной прикладной задаче нормальность результатов измерений (наблюдений), как правило, нельзя установить из общих соображений, ее следует проверять с помощью статистических критериев. Или же использовать непараметрические статистические методы, не опирающиеся на предположения о принадлежности функций распределения результатов измерений (наблюдений) к тому или иному параметрическому семейству.

Непрерывные распределения, используемые в вероятностно-статистических методах принятия решений. Кроме масштабно-сдвигового семейства нормальных распределений, широко используют ряд других семейств распределения – логарифмически нормальных, экспоненциальных, Вейбулла-Гнеденко, гамма-распределений. Рассмотрим эти семейства.

Случайная величина Х имеет логарифмически нормальное распределение, если случайная величина Y = lg X имеет нормальное распределение. Тогда Z = ln X = 2,3026…Y также имеет нормальное распределение N (a 1 ,σ 1) , где ln X - натуральный логарифм Х . Плотность логарифмически нормального распределения такова:

Из центральной предельной теоремы следует, что произведение X = X 1 X 2 X n независимых положительных случайных величин X i , i = 1, 2,…, n , при больших n можно аппроксимировать логарифмически нормальным распределением. В частности, мультипликативная модель формирования заработной платы или дохода приводит к рекомендации приближать распределения заработной платы и дохода логарифмически нормальными законами. Для России эта рекомендация оказалась обоснованной - статистические данные подтверждают ее.

Имеются и другие вероятностные модели, приводящие к логарифмически нормальному закону. Классический пример такой модели дан А.Н.Колмогоровым , который из физически обоснованной системы постулатов вывел заключение о том, что размеры частиц при дроблении кусков руды, угля и т.п. на шаровых мельницах имеют логарифмически нормальное распределение.

Перейдем к другому семейству распределений, широко используемому в различных вероятностно-статистических методах принятия решений и других прикладных исследованиях, - семейству экспоненциальных распределений. Начнем с вероятностной модели, приводящей к таким распределениям. Для этого рассмотрим "поток событий", т.е. последовательность событий, происходящих одно за другим в какие-то моменты времени. Примерами могут служить: поток вызовов на телефонной станции; поток отказов оборудования в технологической цепочке; поток отказов изделий при испытаниях продукции; поток обращений клиентов в отделение банка; поток покупателей, обращающихся за товарами и услугами, и т.д. В теории потоков событий справедлива теорема, аналогичная центральной предельной теореме, но в ней речь идет не о суммировании случайных величин, а о суммировании потоков событий. Рассматривается суммарный поток, составленный из большого числа независимых потоков, ни один из которых не оказывает преобладающего влияния на суммарный поток. Например, поток вызовов, поступающих на телефонную станцию, слагается из большого числа независимых потоков вызовов, исходящих от отдельных абонентов. Доказано , что в случае, когда характеристики потоков не зависят от времени, суммарный поток полностью описывается одним числом - интенсивностью потока. Для суммарного потока рассмотрим случайную величину Х - длину промежутка времени между последовательными событиями. Ее функция распределения имеет вид

(10)

Это распределение называется экспоненциальным распределением, т.к. в формуле (10) участвует экспоненциальная функция e x . Величина 1/λ - масштабный параметр. Иногда вводят и параметр сдвига с , экспоненциальным называют распределение случайной величины Х + с , где распределение Х задается формулой (10).

Экспоненциальные распределения - частный случай т. н. распределений Вейбулла - Гнеденко. Они названы по фамилиям инженера В. Вейбулла, введшего эти распределения в практику анализа результатов усталостных испытаний, и математика Б.В.Гнеденко (1912-1995), получившего такие распределения в качестве предельных при изучении максимального из результатов испытаний. Пусть Х - случайная величина, характеризующая длительность функционирования изделия, сложной системы, элемента (т.е. ресурс, наработку до предельного состояния и т.п.), длительность функционирования предприятия или жизни живого существа и т.д. Важную роль играет интенсивность отказа

(11)

где F (x ) и f (x ) - функция распределения и плотность случайной величины Х .

Опишем типичное поведение интенсивности отказа. Весь интервал времени можно разбить на три периода. На первом из них функция λ(х) имеет высокие значения и явную тенденцию к убыванию (чаще всего она монотонно убывает). Это можно объяснить наличием в рассматриваемой партии единиц продукции с явными и скрытыми дефектами, которые приводят к относительно быстрому выходу из строя этих единиц продукции. Первый период называют "периодом приработки" (или "обкатки"). Именно на него обычно распространяется гарантийный срок.

Затем наступает период нормальной эксплуатации, характеризующийся приблизительно постоянной и сравнительно низкой интенсивностью отказов. Природа отказов в этот период носит внезапный характер (аварии, ошибки эксплуатационных работников и т.п.) и не зависит от длительности эксплуатации единицы продукции.

Наконец, последний период эксплуатации - период старения и износа. Природа отказов в этот период - в необратимых физико-механических и химических изменениях материалов, приводящих к прогрессирующему ухудшению качества единицы продукции и окончательному выходу ее из строя.

Каждому периоду соответствует свой вид функции λ(х) . Рассмотрим класс степенных зависимостей

λ(х) = λ 0 bx b -1 , (12)

где λ 0 > 0 и b > 0 - некоторые числовые параметры. Значения b < 1, b = 0 и b > 1 отвечают виду интенсивности отказов в периоды приработки, нормальной эксплуатации и старения соответственно.

Соотношение (11) при заданной интенсивности отказа λ(х) - дифференциальное уравнение относительно функции F (x ). Из теории дифференциальных уравнений следует, что

(13)

Подставив (12) в (13), получим, что

(14)

Распределение, задаваемое формулой (14) называется распределением Вейбулла - Гнеденко. Поскольку

то из формулы (14) следует, что величина а , задаваемая формулой (15), является масштабным параметром. Иногда вводят и параметр сдвига, т.е. функциями распределения Вейбулла - Гнеденко называют F (x - c ), где F (x ) задается формулой (14) при некоторых λ 0 и b .

Плотность распределения Вейбулла - Гнеденко имеет вид

(16)

где a > 0 - параметр масштаба, b > 0 - параметр формы, с - параметр сдвига. При этом параметр а из формулы (16) связан с параметром λ 0 из формулы (14) соотношением, указанным в формуле (15).

Экспоненциальное распределение - весьма частный случай распределения Вейбулла - Гнеденко, соответствующий значению параметра формы b = 1.

Распределение Вейбулла - Гнеденко применяется также при построении вероятностных моделей ситуаций, в которых поведение объекта определяется "наиболее слабым звеном". Подразумевается аналогия с цепью, сохранность которой определяется тем ее звеном, которое имеет наименьшую прочность. Другими словами, пусть X 1 , X 2 ,…, X n - независимые одинаково распределенные случайные величины,

X(1) = min (X 1 , X 2 ,…, X n ), X(n) = max (X 1 , X 2 ,…, X n ).

В ряде прикладных задач большую роль играют X (1) и X (n ) , в частности, при исследовании максимально возможных значений ("рекордов") тех или иных значений, например, страховых выплат или потерь из-за коммерческих рисков, при изучении пределов упругости и выносливости стали, ряда характеристик надежности и т.п. Показано, что при больших n распределения X (1) и X (n ) , как правило, хорошо описываются распределениями Вейбулла - Гнеденко. Основополагающий вклад в изучение распределений X (1) и X (n ) внес советский математик Б.В.Гнеденко. Использованию полученных результатов в экономике, менеджменте, технике и других областях посвящены труды В. Вейбулла, Э. Гумбеля, В.Б. Невзорова, Э.М. Кудлаева и многих иных специалистов.

Перейдем к семейству гамма-распределений. Они широко применяются в экономике и менеджменте, теории и практике надежности и испытаний, в различных областях техники, метеорологии и т.д. В частности, гамма-распределению подчинены во многих ситуациях такие величины, как общий срок службы изделия, длина цепочки токопроводящих пылинок, время достижения изделием предельного состояния при коррозии, время наработки до k -го отказа, k = 1, 2, …, и т.д. Продолжительность жизни больных хроническими заболеваниями, время достижения определенного эффекта при лечении в ряде случаев имеют гамма-распределение. Это распределение наиболее адекватно для описания спроса в экономико-математических моделях управления запасами (логистики).

Плотность гамма-распределения имеет вид

(17)

Плотность вероятности в формуле (17) определяется тремя параметрами a , b , c , где a >0, b >0. При этом a является параметром формы, b - параметром масштаба и с - параметром сдвига. Множитель 1/Γ(а) является нормировочным, он введен, чтобы

Здесь Γ(а) - одна из используемых в математике специальных функций, так называемая "гамма-функция", по которой названо и распределение, задаваемое формулой (17),

При фиксированном а формула (17) задает масштабно-сдвиговое семейство распределений, порождаемое распределением с плотностью

(18)

Распределение вида (18) называется стандартным гамма-распределением. Оно получается из формулы (17) при b = 1 и с = 0.

Частным случаем гамма-распределений при а = 1 являются экспоненциальные распределения (с λ = 1/ b ). При натуральном а и с =0 гамма-распределения называются распределениями Эрланга. С работ датского ученого К.А.Эрланга (1878-1929), сотрудника Копенгагенской телефонной компании, изучавшего в 1908-1922 гг. функционирование телефонных сетей, началось развитие теории массового обслуживания. Эта теория занимается вероятностно-статистическим моделированием систем, в которых происходит обслуживание потока заявок, с целью принятия оптимальных решений. Распределения Эрланга используют в тех же прикладных областях, в которых применяют экспоненциальные распределения. Это основано на следующем математическом факте: сумма k независимых случайных величин, экспоненциально распределенных с одинаковыми параметрами λ и с , имеет гамма-распределение с параметром формы а = k , параметром масштаба b = 1/λ и параметром сдвига kc . При с = 0 получаем распределение Эрланга.

Если случайная величина X имеет гамма-распределение с параметром формы а таким, что d = 2 a - целое число, b = 1 и с = 0, то 2Х имеет распределение хи-квадрат с d степенями свободы.

Случайная величина X с гвмма-распределением имеет следующие характеристики:

Математическое ожидание М(Х) = ab + c ,

Дисперсию D (X ) = σ 2 = ab 2 ,

Коэффициент вариации

Асимметрию

Эксцесс

Нормальное распределение - предельный случай гамма-распределения. Точнее, пусть Z - случайная величина, имеющая стандартное гамма-распределение, заданное формулой (18). Тогда

для любого действительного числа х , где Ф(х) - функция стандартного нормального распределения N (0,1).

В прикладных исследованиях используются и другие параметрические семейства распределений, из которых наиболее известны система кривых Пирсона, ряды Эджворта и Шарлье. Здесь они не рассматриваются.

Дискретные распределения, используемые в вероятностно-статистических методах принятия решений. Наиболее часто используют три семейства дискретных распределений - биномиальных, гипергеометрических и Пуассона, а также некоторые другие семейства - геометрических, отрицательных биномиальных, мультиномиальных, отрицательных гипергеометрических и т.д.

Как уже говорилось, биномиальное распределение имеет место при независимых испытаниях, в каждом из которых с вероятностью р появляется событие А . Если общее число испытаний n задано, то число испытаний Y , в которых появилось событие А , имеет биномиальное распределение. Для биномиального распределения вероятность принятия случайной величиной Y значения y определяется формулой

Число сочетаний из n элементов по y , известное из комбинаторики. Для всех y , кроме 0, 1, 2, …, n , имеем P (Y = y )= 0. Биномиальное распределение при фиксированном объеме выборки n задается параметром p , т.е. биномиальные распределения образуют однопараметрическое семейство. Они применяются при анализе данных выборочных исследований , в частности, при изучении предпочтений потребителей, выборочном контроле качества продукции по планам одноступенчатого контроля, при испытаниях совокупностей индивидуумов в демографии, социологии, медицине, биологии и др.

Если Y 1 и Y 2 - независимые биномиальные случайные величины с одним и тем же параметром p 0 , определенные по выборкам с объемами n 1 и n 2 соответственно, то Y 1 + Y 2 - биномиальная случайная величина, имеющая распределение (19) с р = p 0 и n = n 1 + n 2 . Это замечание расширяет область применимости биномиального распределения, позволяя объединять результаты нескольких групп испытаний, когда есть основания полагать, что всем этим группам соответствует один и тот же параметр.

Характеристики биномиального распределения вычислены ранее:

M (Y ) = np , D (Y ) = np (1- p ).

В разделе "События и вероятности" для биномиальной случайной величины доказан закон больших чисел:

для любого . С помощью центральной предельной теоремы закон больших чисел можно уточнить, указав, насколько Y / n отличается от р .

Теорема Муавра-Лапласа. Для любых чисел a и b , a < b , имеем

где Ф (х ) – функция стандартного нормального распределения с математическим ожиданием 0 и дисперсией 1.

Для доказательства достаточно воспользоваться представлением Y в виде суммы независимых случайных величин, соответствующих исходам отдельных испытаний, формулами для M (Y ) и D (Y ) и центральной предельной теоремой.

Эта теорема для случая р = ½ доказана английским математиком А.Муавром (1667-1754) в 1730 г. В приведенной выше формулировке она была доказана в 1810 г. французским математиком Пьером Симоном Лапласом (1749 – 1827).

Гипергеометрическое распределение имеет место при выборочном контроле конечной совокупности объектов объема N по альтернативному признаку. Каждый контролируемый объект классифицируется либо как обладающий признаком А , либо как не обладающий этим признаком. Гипергеометрическое распределение имеет случайная величина Y , равная числу объектов, обладающих признаком А в случайной выборке объема n , где n < N . Например, число Y дефектных единиц продукции в случайной выборке объема n из партии объема N имеет гипергеометрическое распределение, если n < N . Другой пример – лотерея. Пусть признак А билета – это признак «быть выигрышным». Пусть всего билетов N , а некоторое лицо приобрело n из них. Тогда число выигрышных билетов у этого лица имеет гипергеометрическое распределение.

Для гипергеометрического распределения вероятность принятия случайной величиной Y значения y имеет вид

(20)

где D – число объектов, обладающих признаком А , в рассматриваемой совокупности объема N . При этом y принимает значения от max{0, n - (N - D )} до min{n , D }, при прочих y вероятность в формуле (20) равна 0. Таким образом, гипергеометрическое распределение определяется тремя параметрами – объемом генеральной совокупности N , числом объектов D в ней, обладающих рассматриваемым признаком А , и объемом выборки n .

Простой случайной выборкой объема n из совокупности объема N называется выборка, полученная в результате случайного отбора, при котором любой из наборов из n объектов имеет одну и ту же вероятность быть отобранным. Методы случайного отбора выборок респондентов (опрашиваемых) или единиц штучной продукции рассматриваются в инструктивно-методических и нормативно-технических документах. Один из методов отбора таков: объекты отбирают один из другим, причем на каждом шаге каждый из оставшихся в совокупности объектов имеет одинаковые шансы быть отобранным. В литературе для рассматриваемого типа выборок используются также термины «случайная выборка», «случайная выборка без возвращения».

Поскольку объемы генеральной совокупности (партии) N и выборки n обычно известны, то подлежащим оцениванию параметром гипергеометрического распределения является D . В статистических методах управления качеством продукции D – обычно число дефектных единиц продукции в партии. Представляет интерес также характеристика распределения D / N – уровень дефектности.

Для гипергеометрического распределения

Последний множитель в выражении для дисперсии близок к 1, если N >10 n . Если при этом сделать замену p = D / N , то выражения для математического ожидания и дисперсии гипергеометрического распределения перейдут в выражения для математического ожидания и дисперсии биномиального распределения. Это не случайно. Можно показать, что

при N >10 n , где p = D / N . Справедливо предельное соотношение

и этим предельным соотношением можно пользоваться при N >10 n .

Третье широко используемое дискретное распределение – распределение Пуассона. Случайная величина Y имеет распределение Пуассона, если

,

где λ – параметр распределения Пуассона, и P (Y = y )= 0 для всех прочих y (при y=0 обозначено 0! =1). Для распределения Пуассона

M (Y ) = λ, D (Y ) = λ.

Это распределение названо в честь французского математика С.Д.Пуассона (1781-1840), впервые получившего его в 1837 г. Распределение Пуассона является предельным случаем биномиального распределения, когда вероятность р осуществления события мала, но число испытаний n велико, причем np = λ. Точнее, справедливо предельное соотношение

Поэтому распределение Пуассона (в старой терминологии «закон распределения») часто называют также «законом редких событий».

Распределение Пуассона возникает в теории потоков событий (см. выше). Доказано, что для простейшего потока с постоянной интенсивностью Λ число событий (вызовов), происшедших за время t , имеет распределение Пуассона с параметром λ = Λt . Следовательно, вероятность того, что за время t не произойдет ни одного события, равна e - Λ t , т.е. функция распределения длины промежутка между событиями является экспоненциальной.

Распределение Пуассона используется при анализе результатов выборочных маркетинговых обследований потребителей, расчете оперативных характеристик планов статистического приемочного контроля в случае малых значений приемочного уровня дефектности, для описания числа разладок статистически управляемого технологического процесса в единицу времени, числа «требований на обслуживание», поступающих в единицу времени в систему массового обслуживания, статистических закономерностей несчастных случаев и редких заболеваний, и т.д.

Описание иных параметрических семейств дискретных распределений и возможности их практического использования рассматриваются в литературе.


В некоторых случаях, например, при изучении цен, объемов выпуска или суммарной наработки на отказ в задачах надежности, функции распределения постоянны на некоторых интервалах, в которые значения исследуемых случайных величин не могут попасть.

Предыдущая
Поделитесь с друзьями или сохраните для себя:

Загрузка...