Дискуссионный математический форумМатематический форум
Математический форум Math Help Planet

Обсуждение и решение задач по математике, физике, химии, экономике

Теоретический раздел
Часовой пояс: UTC + 3 часа [ Летнее время ]
новый онлайн-сервис
число, сумма и дата прописью

Часовой пояс: UTC + 3 часа [ Летнее время ]


Функции случайных величин

Функции случайных величин


Определение функции случайных величин. Функция дискретного случайного аргумента и ее числовые характеристики. Функция непрерывного случайного аргумента и ее числовые характеристики. Функции двух случайных аргументов. Определение функции распределения вероятностей и плотности для функции двух случайных аргументов.

Закон распределения вероятностей функции одной случайной величины


При решении задач, связанных с оценкой точности работы различных автоматических систем, точности производства отдельных элементов систем и др., часто приходится рассматривать функции одной или нескольких случайных величин. Такие функции также являются случайными величинами. Поэтому при решении задач необходимо знать законы распределения фигурирующих в задаче случайных величин. При этом обычно известны закон распределения системы случайных аргументов и функциональная зависимость.


Таким образом, возникает задача, которую можно сформулировать так.


Дана система случайных величин (X_1,X_2,\ldots,X_n), закон распределения которой известен. Рассматривается некоторая случайная величина Y как функция данных случайных величин:


Y=\varphi(X_1,X_2,\ldots,X_n).
(6.1)

Требуется определить закон распределения случайной величины Y, зная вид функций (6.1) и закон совместного распределения ее аргументов.


Рассмотрим задачу о законе распределения функции одного случайного аргумента


Y=\varphi(X).

Пусть X — дискретная случайная величина, имеющая ряд распределения


\begin{array}{|c|c|c|c|c|}\hline{X}&x_1&x_2&\cdots&x_n\\\hline{P}&p_1&p_2&\cdots&p_n\\\hline\end{array}

Тогда Y=\varphi(X) также дискретная случайная величина с возможными значениями y_1=\varphi(x_1),y_2=\varphi(x_2),\ldots,y_n=\varphi(x_n). Если все значения y_1,y_2,\ldots,y_n различны, то для каждого k=1,2,\ldots,n события \{X=x_k\} и \{Y=y_k=\varphi(x_k)\} тождественны. Следовательно,


P\{Y=y_k\}=P\{X=x_k\}=p_k

и искомый ряд распределения имеет вид


\begin{array}{|c|c|c|c|c|}\hline{Y}&y_1=\varphi(x_1)&y_2=\varphi(x_2)&\cdots&y_n=\varphi(x_n)\\\hline{P}&p_1&p_2&\cdots&p_n\\\hline\end{array}

Если же среди чисел y_1=\varphi(x_1),y_2=\varphi(x_2),\ldots,y_n=\varphi(x_n) есть одинаковые, то каждой группе одинаковых значений y_k=\varphi(x_k) нужно отвести в таблице один столбец и соответствующие вероятности сложить.


Для непрерывных случайных величин задача ставится так: зная плотность распределения f(x) случайной величины X, найти плотность распределения g(y) случайной величины Y=\varphi(X). При решении поставленной задачи рассмотрим два случая.


Предположим сначала, что функция y=\varphi(x) является монотонно возрастающей, непрерывной и дифференцируемой на интервале (a;b), на котором лежат все возможные значения величины X. Тогда обратная функция x=\psi(y) существует, при этом являясь также монотонно возрастающей, непрерывной и дифференцируемой. В этом случае получаем


g(y)=f\bigl(\psi(y)\bigr)\cdot |\psi'(y)|.
(6.2)



Пример 1. Случайная величина X распределена с плотностью


f(x)=\frac{1}{\sqrt{2\pi}}e^{-x^2/2}

Найти закон распределения случайной величины Y, связанной с величиной X зависимостью Y=X^3.


Решение. Так как функция y=x^3 монотонна на промежутке (-\infty;+\infty), то можно применить формулу (6.2). Обратная функция по отношению к функции \varphi(x)=x^3 есть \psi(y)=\sqrt[\LARGE{\LARGE{3}}]{y}, ее производная \psi'(y)=\frac{1}{3\sqrt[\LARGE{\LARGE{3}}]{y^2}}. Следовательно,


g(y)=\frac{1}{3\sqrt{2\pi}}e^{-\sqrt[\LARGE{\LARGE{3}}]{y^2}/2}\frac{1}{\sqrt[\LARGE{\LARGE{3}}]{y^2}}



Рассмотрим случай немонотонной функции. Пусть функция y=\varphi(x) такова, что обратная функция x=\psi(y) неоднозначна, т. е. одному значению величины y соответствует несколько значений аргумента x, которые обозначим x_1=\psi_1(y),x_2=\psi_2(y),\ldots,x_n=\psi_n(y), где n — число участков, на которых функция y=\varphi(x) изменяется монотонно. Тогда


g(y)=\sum\limits_{k=1}^{n}f\bigl(\psi_k(y)\bigr)\cdot |\psi'_k(y)|.
(6.3)



Пример 2. В условиях примера 1 найти распределение случайной величины Y=X^2.


Решение. Обратная функция x=\psi(y) неоднозначна. Одному значению аргумента y соответствуют два значения функции x


\begin{gathered}x_1=\psi_1(y)=+\sqrt{y};\\x_2=\psi_2(y)=-\sqrt{y}.\end{gathered}

Применяя формулу (6.3), получаем:
\begin{gathered}g(y)=f(\psi_1(y))|\psi'_1(y)|+f(\psi_2(y))|\psi'_2(y)|=\\\\=\frac{1}{\sqrt{2\pi}}\,e^{-\left(-\sqrt{y^2}\right)^2/2}\!\left|-\frac{1}{2\sqrt{y}}\right|+\frac{1}{\sqrt{2\pi}}\,e^{-\left(\sqrt{y^2}\right)^2/2}\!\left|\frac{1}{2\sqrt{y}}\right|=\frac{1}{\sqrt{2\pi{y}}}\,e^{-y/2}.\end{gathered}



Закон распределения функции двух случайных величин


Пусть случайная величина Y является функцией двух случайных величин, образующих систему (X_1;X_2), т. е. Y=\varphi(X_1;X_2). Задача состоит в том, чтобы по известному распределению системы (X_1;X_2) найти распределение случайной величины Y.


Пусть f(x_1;x_2) — плотность распределения системы случайных величин (X_1;X_2). Введем в рассмотрение новую величину Y_1, равную X_1, и рассмотрим систему уравнений


\left\{\!\begin{gathered}y=\varphi(x_1;x_2);\hfill\\y_1=x_1.\hfill\end{gathered}\right.

Будем полагать, что эта система однозначно разрешима относительно x_1,x_2


\left\{\!\begin{gathered}x_2=\psi(y;y_2);\hfill\\x_1=y_1.\hfill\end{gathered}\right.

и удовлетворяет условиям дифференцируемости.


Плотность распределения случайной величины Y


g_1(y)=\int\limits_{-\infty}^{+\infty}f(x_1;\psi(y;x_1))\!\left|\frac{\partial\psi(y;x_1)}{\partial{y}}\right|dx_1.

Заметим, что рассуждения не изменяются, если введенную новую величину Y_1 положить равной X_2.




Математическое ожидание функции случайных величин


На практике часто встречаются случаи, когда нет особой надобности полностью определять закон распределения функции случайных величин, а достаточно только указать его числовые характеристики. Таким образом, возникает задача определения числовых характеристик функций случайных величин помимо законов распределения этих функций.


Пусть случайная величина Y является функцией случайного аргумента X с заданным законом распределения


Y=\varphi(X).

Требуется, не находя закона распределения величины Y, определить ее математическое ожидание


M(Y)=M[\varphi(X)].

Пусть X — дискретная случайная величина, имеющая ряд распределения


\begin{array}{|c|c|c|c|c|}\hline{x_i}&x_1&x_2&\cdots&x_n\\\hline{p_i}&p_1&p_2&\cdots&p_n\\\hline\end{array}

Составим таблицу значений величины Y и вероятностей этих значений:


\begin{array}{|c|c|c|c|c|}\hline{y_i=\varphi(x_i)}&y_1=\varphi(x_1)&y_2=\varphi(x_2)&\cdots&y_n=\varphi(x_n)\\\hline{p_i}&p_1&p_2&\cdots&p_n\\\hline\end{array}

Эта таблица не является рядом распределения случайной величины Y, так как в общем случае некоторые из значений могут совпадать между собой и значения в верхней строке не обязательно идут в возрастающем порядке. Однако математическое ожидание случайной величины Y можно определить по формуле


M[\varphi(X)]=\sum\limits_{i=1}^{n}\varphi(x_i)p_i,
(6.4)

так как величина, определяемая формулой (6.4), не может измениться от того, что под знаком суммы некоторые члены будут заранее объединены, а порядок членов изменен.


Формула (6.4) не содержит в явном виде закон распределения самой функции \varphi(X), а содержит только закон распределения аргумента X. Таким образом, для определения математического ожидания функции Y=\varphi(X) вовсе не требуется знать закон распределения функции \varphi(X), а достаточно знать закон распределения аргумента X.


Для непрерывной случайной величины математическое ожидание вычисляется по формуле


M[\varphi(X)]=\int\limits_{-\infty}^{+\infty}\varphi(x)f(x)\,dx,

где f(x) — плотность распределения вероятностей случайной величины X.


Рассмотрим случаи, когда для нахождения математического ожидания функции случайных аргументов не требуется знание даже законов распределения аргументов, а достаточно знать только некоторые их числовые характеристики. Сформулируем эти случаи в виде теорем.


Теорема 6.1. Математическое ожидание суммы как зависимых, так и независимых двух случайных величин равно сумме математических ожиданий этих величин:


M(X+Y)=M(X)+M(Y).

Теорема 6.2. Математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий плюс корреляционный момент:


M(XY)=M(X)M(Y)+\mu_{xy}.

Следствие 6.1. Математическое ожидание произведения двух некоррелированных случайных величин равно произведению их математических ожиданий.


Следствие 6.2. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий.




Дисперсия функции случайных величин


По определению дисперсии имеем D[Y]=M[(Y-M(Y))^2].. Следовательно,


D[\varphi(x)]=M[(\varphi(x)-M(\varphi(x)))^2], где M(\varphi(x))=M[\varphi(X)].

Приведем расчетные формулы только для случая непрерывных случайных аргументов. Для функции одного случайного аргумента Y=\varphi(X) дисперсия выражается формулой


D[\varphi(x)]=\int\limits_{-\infty}^{+\infty}(\varphi(x)-M(\varphi(x)))^2f(x)\,dx,
(6.5)

где M(\varphi(x))=M[\varphi(X)] — математическое ожидание функции \varphi(X); f(x) — плотность распределения величины X.


Формулу (6.5) можно заменить на следующую:


D[\varphi(x)]=\int\limits_{-\infty}^{+\infty}\varphi^2(x)f(x)\,dx-M^2(X)

Рассмотрим теоремы о дисперсиях, которые играют важную роль в теории вероятностей и ее приложениях.


Теорема 6.3. Дисперсия суммы случайных величин равна сумме дисперсий этих величин плюс удвоенная сумма корреляционных моментов каждой из слагаемых величин со всеми последующими:


D\!\left[\sum\limits_{i=1}^{n}X_i\right]=\sum\limits_{i=1}^{n}D[X_i]+2\sum\limits_{i<j}\mu_{x_ix_j}

Следствие 6.3. Дисперсия суммы некоррелированных случайных величин равна сумме дисперсий слагаемых:


D\!\left[\sum\limits_{i=1}^{n}X_i\right]=\sum\limits_{i=1}^{n}D[X_i]

Теорема 6.4. Дисперсия произведения двух независимых случайных величин вычисляется по формуле


D[XY]=D[X]D[Y]+M^2(X)D[Y]+M^2(Y)D[X].



Корреляционный момент функций случайных величин


Согласно определению корреляционного момента двух случайных величин X и Y, имеем


\mu_{xy}=M[(X-M(X))(Y-M(Y))].

Раскрывая скобки и применяя свойства математического ожидания, получаем


\mu_{xy}=M(XY)-M(X)M(Y).
(6.6)

Рассмотрим две функции случайной величины X


Y_1=\varphi_1(X);\qquad Y_2=\varphi_2(X).

Согласно формуле (6.6)

\mu_{y_1y_2}= M(Y_1Y_2)-M(Y_1)M(Y_2).

отсюда

\mu_{y_1y_2}=M(\varphi_1(X)\varphi_2(X))-M(\varphi_1(X))M(\varphi_2(X)).

т.е. корреляционный момент двух функций случайных величин равен математическому ожиданию произведения этих функций минус произведение из математических ожиданий.


Рассмотрим основные свойства корреляционного момента и коэффициента корреляции.


Свойство 1. От прибавления к случайным величинам постоянных величин корреляционный момент и коэффициент корреляции не изменяются.


Свойство 2. Для любых случайных величин X и Y абсолютная величина корреляционного момента не превосходит среднего геометрического дисперсий данных величин:


|\mu_{xy}|\leqslant\sqrt{D[X]\cdot D[Y]}=\sigma_x\cdot \sigma_y,

где \sigma_x,\sigma_y — средние квадратические отклонения величин X и Y.


Следствие 6.5. Для любых случайных величин X и Y абсолютная величина коэффициента корреляции не превосходит единицы:


|r_{xy}|\leqslant1.
Математический форум (помощь с решением задач, обсуждение вопросов по математике).
Кнопка "Поделиться"
Если заметили ошибку, опечатку или есть предложения, напишите в комментариях.

Часовой пояс: UTC + 3 часа [ Летнее время ]


Яндекс.Метрика

Copyright © 2010-2023 MathHelpPlanet.com. All rights reserved