Дискуссионный математический форумМатематический форум

Математический форум Math Help Planet

Обсуждение и решение задач по математике, физике, химии, экономике

Теоретический раздел
Часовой пояс: UTC + 4 часа [ Летнее время ]
MathHelpPlanet.com RSS-лента Математического форума

Часовой пояс: UTC + 4 часа [ Летнее время ]


Многомерные случайные величины

Многомерные случайные величины


Определение многомерной случайной величины и закон ее распределения. Система двух дискретных случайных величин, числовые характеристики системы, корреляционный момент, коэффициент корреляции и его свойство. Функция распределения вероятностей и плотность вероятностей системы, их свойства. Числовые характеристики системы двух непрерывных случайных величин. Условные законы распределения и их числовые характеристики. Определение корреляционной зависимости. Система n случайных величин, числовые характеристики системы, корреляционная матрица, нормированная корреляционная матрица.

Многомерная случайная величина


При изучении случайных явлений в зависимости от их сложности иногда приходится использовать две, три и более случайных величин. Например, точка попадания снаряда определяется не одной, а двумя случайными величинами: абсциссой и ординатой. При различных измерениях очень часто имеем дело с двумя или тремя случайными величинами.


Совместное рассмотрение двух или нескольких случайных величин приводит к понятию системы случайных величин. Условимся систему нескольких случайных величин [math]X,Y,\ldots,W[/math] обозначать [math](X,Y,\ldots,W)[/math]. Такая система называется также многомерной случайной величиной. При изучении системы случайных величин недостаточно изучить отдельно случайные величины, составляющие систему, а необходимо учитывать связи или зависимости между этими величинами.


При рассмотрении системы случайных величин удобно пользоваться геометрической интерпретацией системы. Например, систему двух случайных величин [math](X,Y)[/math] можно рассматривать как случайную точку на плоскости [math]XOY[/math] с координатами [math]X[/math] и [math]Y[/math] или как случайный вектор на плоскости со случайными составляющими [math]X[/math] и [math]Y[/math]. По аналогии систему [math]n[/math] случайных величин можно рассматривать как случайную точку в [math]n[/math]-мерном пространстве или как n-мерный случайный вектор.


При изучении систем случайных величин ограничимся подробным рассмотрением системы двух случайных величин.




Закон распределения вероятностей системы случайных величин


Законом распределения системы случайных величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях.[/b]


Так же, как и для одной случайной величины, закон распределения системы случайных величин может быть задан в различных формах. Рассмотрим таблицу распределения вероятностей системы дискретных случайных величин. Пусть [math]X[/math] и [math]Y[/math] — дискретные случайные величины, возможные значения которых [math](x_i,y_j)[/math], где [math]i=1,2,\ldots,n;~j=1,2,\ldots,m[/math] Тогда распределение системы таких случайных величин может быть охарактеризовано указанием вероятностей [math]p_{i,j}=P\{X=x,Y=y\}[/math] того, что случайная величина [math]X[/math] примет значение [math]x_i[/math] и одновременно с этим случайная величина [math]Y[/math] примет значение [math]y_j[/math]. Вероятности [math]p_{i,j}[/math] фиксируют в таблице.


Такая таблица называется таблицей распределения системы двух дискретных случайных величин с конечным числом возможных значений. Все возможные события [math]\{X=x_i,Y=y_j\}[/math] при [math]i=1,2,\ldots,n[/math] [math]j=1,2,\ldots,m[/math] составляют полную группу несовместных событий, поэтому


[math]\sum\limits_{i,j}p_{i,j}=\sum\limits_{i,j}P\{X=x_i,Y=y_j\}=1[/math]

При этом


[math]\begin{aligned}\sum\limits_{j}p_{i,j}&=\sum\limits_{j}P\{X=x_i,Y=y_j\}=P\{X=x_i\};\\[2pt] \sum\limits_{i}p_{i,j}&=\sum\limits_{i}P\{X=x_i,Y=y_j\}=P\{Y=y_j\}.\end{aligned}[/math]



Функция распределения


Функцией распределения вероятностей системы двух случайных величин называется функция двух аргументов [math]F(x;y)[/math], равная вероятности совместного выполнения двух неравенств [math]X<x[/math] и [math]Y<y[/math], т. е.


[math]F(x;y)=P\{X<x,\,Y<y\}.[/math]

Геометрически функцию распределения системы двух случайных величин можно интерпретировать как вероятность попадания случайной точки [math](X,Y)[/math] в левый нижний бесконечный квадрант плоскости (рис. 14) с вершиной в точке [math](x,y)[/math].


Сформулируем основные свойства функции распределения вероятностей системы двух случайных величин.


Свойство 1.

[math]\lim_{y\to+\infty}F(x;y)=F_1(x);\qquad \lim_{x\to+\infty}F(x;y)=F_2(y)[/math]
или символически
[math]F(x;+\infty)=F_1(x);\qquad F(+\infty;y)=F_2(y)[/math]

Свойство 2.

[math]\lim_{\substack{x\to+\infty\\y\to+\infty}}F(x;y)=1[/math] или [math]F(+\infty;+\infty)=1[/math]

Свойство 3.

[math]\lim_{x\to-\infty}F(x;y)=\lim_{y\to-\infty}F(x;y)=\lim_{\substack{x\to-\infty\\y\to-\infty}}F(x;y)=0.[/math]
или
[math]F(-\infty;y)=F(x,-\infty)=F(-\infty;-\infty)=0.[/math]

Свойство 4. Функция распределения является неубывающей функцией по каждому аргументу:


[math]F(x_2;y)\geqslant{F(x_1;y)}\quad \text{if}\quad x_2>x_1;\qquad F(x;y_2)\geqslant{F(x;y_1)}\quad \text{if}\quad y_2>y_1.[/math]

Свойство 5. Вероятность попадания случайной точки [math](X,Y)[/math] в произвольный прямоугольник со сторонами, параллельными координатным осям (рис. 15), вычисляется, по формуле


[math]P\{a\leqslant{X}<b,c\leqslant{Y}<d\}=F(b,d)-F(a,d)-F(b,c)+F(a,c).[/math]

Вероятность попадания случайной точки в произвольный треугольник



Плотность распределения вероятностей системы двух случайных величин


Предположим, что функция распределения [math]F(x,y)[/math] непрерывна и дважды дифференцируема. Тогда смешанная частная производная функции [math]F(x,y)[/math]


[math]f(x,y)=\frac{\partial^2F(x,y)}{\partial{x}\partial{y}}=F''_{xy}(x,y).[/math]

Функция [math]f(x,y)[/math] называется плотностью распределения системы непрерывных случайных величин [math](X,Y)[/math]. Зная плотность распределения [math]f(x,y)[/math], можно определить вероятность попадания случайной точки [math](X,Y)[/math] в произвольную область [math]D:[/math]


[math]P\{(X,Y)\subset{D}\}=\iint\limits_{D}f(x,y)\,dxdy\,.[/math]
(5.1)

Используя формулу (5.1), выразим функцию распределения системы [math]F(x,y)[/math] через плотность распределения [math]f(x,y)[/math]:


[math]F(x,y)=\int\limits_{-\infty}^{x}\int\limits_{-\infty}^{y}f(x,y)\,dxdy\,.[/math]
(5.2)

Рассмотрим свойства плотности распределения системы двух случайных величин.


Свойство 1. Плотность распределения есть функция неотрицательная: [math]f(x,y)\geqslant0[/math].


Свойство 2. Двойной несобственный интеграл с бесконечными пределами от плотности распределения системы равен единице:


[math]\int\limits_{-\infty}^{+\infty}\int\limits_{-\infty}^{+\infty} f(x,y)\,dxdy=1.[/math]



Пример 1. Плотность распределения системы двух случайных величин [math](X,Y)[/math] задана выражением


[math]f(x,y)=\frac{a}{1+x^2+x^2y^2+y^2}.[/math]

Найти параметр [math]a[/math]. Определить функцию распределения [math]F(x,y)[/math] и вероятность попадания случайной точки в прямоугольник с вершинами [math]O(0;0),\,A(0;1),\,B(\sqrt{3};0)[/math] и [math]C(\sqrt{3};0)[/math].


Решение. Использовав свойство 2 плотности распределения, найдем постоянную величину [math]a:[/math]


[math]\int\limits_{-\infty}^{+\infty}\int\limits_{-\infty}^{+\infty}\frac{a}{1+x^2+x^2y^2+y^2}\,dxdy=a\int\limits_{-\infty}^{+\infty}\int\limits_{-\infty}^{+\infty}\frac{dxdy}{(1+x^2)(1+y^2)}=[/math]

[math]=a\int\limits_{-\infty}^{+\infty}\frac{dx}{1+x^2}\int\limits_{-\infty}^{+\infty}\frac{dy}{1+y^2}=a\,\Bigl.{\operatorname{arctg}x}\Bigl|_{-\infty}^{+\infty}\,\Bigl.{\operatorname{arctg}y}\Bigl|_{-\infty}^{+\infty}=a\pi^2.[/math]

Следовательно, [math]a=\frac{1}{\pi^2}[/math]. Функцию распределения [math]F(x,y)[/math] определим по формуле (5.2):


[math]F(x,y)=\frac{1}{\pi^2}\int\limits_{-\infty}^{x}\int\limits_{-\infty}^{y}\frac{dx\,dy}{(1+x^2)(1+y^2)}=\left(\frac{1}{\pi}\,\operatorname{arctg}x+\frac{1}{2}\right)\!\!\left(\frac{1}{\pi}\operatorname{arctg}y+\frac{1}{2}\right).[/math]

Согласно формуле (5.1) вероятность попадания случайной точки [math](X,Y)[/math] в заданный прямоугольник


[math]\begin{aligned}P\{(X,Y)\subset{D}\}&=\frac{1}{\pi^2}\iint\limits_{D}\frac{dxdy}{(1+x^2)(1+y^2)}=\frac{1}{\pi^2}\int\limits_{0}^{\sqrt{3}}\frac{dx}{1+x^2}\int\limits_{0}^{1}\frac{dy}{1+y^2}=\\[2pt] &=\frac{1}{\pi^2}\cdot\Bigl.{\operatorname{arctg}x}\Bigl|_{0}^{\sqrt{3}}\,\Bigl.{\operatorname{arctg}y}\Bigl|_{0}^{1}= \frac{1}{\pi^2}\cdot\frac{\pi}{3}\cdot\frac{\pi}{4}=\frac{1}{12}.\end{aligned}[/math]



Условные законы распределения


Пусть известна плотность распределения системы двух случайных величин. Используя свойства функций распределения, можно вывести формулы для нахождения плотности распределения одной величины, входящей в систему:


[math]\begin{aligned}f_1(x)&= F'_1(x)=\int\limits_{-\infty}^{+\infty} f(x,y)\,dy\,;\\[2pt] f_2(y)&= F'_2(y)=\int\limits_{-\infty}^{+\infty} f(x,y)\,dx\,.\end{aligned}[/math]
(5.3)

Перейдем теперь к решению обратной задачи: по известным законам распределения отдельных величин, входящих в систему, найти закон распределения системы. Легко увидеть, что в общем случае эта задача неразрешима. Действительно, с одной стороны, законы распределения отдельных случайных величин, входящих в систему, характеризуют каждую из случайных величин в отдельности, но ничего не говорят о том, как они взаимосвязаны. С другой стороны, искомый закон распределения системы должен содержать все сведения о случайных величинах системы, в том числе и о характере связей между ними.


Таким образом, если случайные величины [math]X,Y[/math] взаимозависимы, то закон распределения системы не может быть выражен через законы распределения отдельных случайных величин, входящих в систему. Это приводит к необходимости введения условных законов распределения.


Распределение одной случайной величины, входящей в систему, найденное при условии, что другая случайная величина, входящая в систему, приняла определенное значение, называется условным законом распределения.


Условный закон распределения можно задавать как функцией распределения, так и плотностью распределения. Условная функция распределения обозначается [math]F(x\mid y)[/math], условная плотность распределения — [math]f(x\mid y)[/math] (мы записали условные законы распределения случайной величины [math]X[/math] при условии, что другая случайная величина [math]Y[/math] приняла определенное значение).


Плотностью распределения для случайной величины [math]X[/math] при условии, что случайная величина [math]Y[/math] приняла определенное значение (условной плотностью распределения), назовем величину


[math]f(x\mid y)=\frac{f(x,y)}{f_2(y)}\,.[/math]

Аналогично плотностью распределения для случайной величины [math]Y[/math] при условии, что случайная величина [math]X[/math] приняла определенное значение, назовем величину


[math]f(y\mid x)=\frac{f(x,y)}{f_1(x)}[/math]. Отсюда получаем [math]f(x,y)=f_1(x)f(y\mid x)=f_2(y)f(x\mid y)[/math].

или с учетом формул (5.3)
[math]f(x\mid y)=\dfrac{f(x,y)}{\int\limits_{-\infty}^{+\infty}f(x,y)\,dx};\qquad f(y\mid x)=\dfrac{f(x,y)}{\int\limits_{-\infty}^{+\infty}f(x,y)\,dy}.[/math]

Условная плотность распределения обладает всеми свойствами безусловной плотности распределения. В частности,


[math]\int\limits_{-\infty}^{+\infty}f(x\mid y)\,dx=1;\qquad\int\limits_{-\infty}^{+\infty}f(y\mid x)\,dy=1.[/math]



Числовые характеристики условных законов распределения


Для описания условных законов распределения можно использовать различные характеристики подобно тому, как для одномерных распределений.


Наиболее важной характеристикой является условное математическое ожидание.


Условным математическим ожиданием дискретной случайной величины [math]X[/math] при [math]Y=y[/math] ([math]Y[/math] — определенное возможное значение случайной величины [math]Y[/math]) называется сумма произведений возможных значений [math]X[/math] на их условные вероятности:


[math]M(x\mid y)=\sum\limits_{i=1}^{n}x_iP(x_i|y).[/math]

Для непрерывных случайных величин, где [math]f(x\mid y)[/math] — условная плотность распределения случайной величины [math]X[/math] при [math]Y=y:[/math]


[math]M(x\mid y)=\int\limits_{-\infty}^{+\infty}xf(x\mid y)\,dx.[/math]

Аналогично условным математическим ожиданием дискретной случайной величины [math]Y[/math] при [math]X=x[/math] называется сумма произведений возможных значений [math]Y[/math] на их условные вероятности:


[math]M(y\mid x)=\sum\limits_{j=1}^{n}y_jP(y_j|x).[/math]

Для непрерывных случайных величин, где [math]f(y\mid x)[/math] — условная плотность распределения случайной величины [math]Y[/math] при [math]X=x:[/math]


[math]M(y\mid x)=\int\limits_{-\infty}^{+\infty}yf(y\mid x)\,dy.[/math]

Аналогично вводятся условные дисперсии и условные моменты более высоких порядков.




Числовые характеристики системы двух случайных величин


Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие возможные значения приняла другая величина. Из этого определения следует, что условные распределения независимых величин равны их безусловным распределениям. Укажем необходимые и достаточные условия независимости случайных величин.


Теорема 5.1. Для того чтобы случайные величины [math]X[/math] и [math]Y[/math] были независимыми, необходимо и достаточно, чтобы функция распределения системы [math](X,Y)[/math] была равна произведению функций распределения составляющих:


[math]F(x,y)=F_1(x)F_2(y).[/math]

Теорема 5.2. Для того чтобы непрерывные случайные величины [math]X[/math] и [math]Y[/math] были независимыми, необходимо и достаточно, чтобы плотность вероятности системы [math](X,Y)[/math] была равна произведению плотностей вероятностей составляющих:


[math]f(x,y)=f_1(x)f_2(y).[/math]

Для описания системы двух случайных величин кроме математических ожиданий и дисперсий составляющих используют и другие характеристики, к которым относятся корреляционный момент и коэффициент корреляции.


Корреляционным моментом [math]\mu_{xy}[/math] случайных величин [math]X[/math] и [math]Y[/math] называют математическое ожидание произведения отклонений этих величин:


[math]\mu_{xy}=M((X-M(X))(Y-M(Y))).[/math]

Для вычисления корреляционного момента дискретных величин используют формулу


[math]\mu_{xy}=\sum\limits_{i=1}^{n}\sum\limits_{j=1}^{m}(x_i-M(X))(y_j-M(Y))P(x_i,y_j).[/math]

а для непрерывных величин
[math]\mu_{xy}=\int\limits_{-\infty}^{+\infty}\int\limits_{-\infty}^{+\infty}(x-M(X))(y-M(Y))f(x,y)\,dxdy.[/math]

Корреляционный момент служит для характеристики связи между величинами [math]X[/math] и [math]Y[/math].


Теорема 5.3. Корреляционный момент двух независимых случайных величин [math]X[/math] и [math]Y[/math] равен нулю.


Из теоремы 5.3 следует, что если корреляционный момент двух случайных величин [math]X[/math] и [math]Y[/math] не равен нулю, то [math]X[/math] и [math]Y[/math] — зависимые случайные величины.


Коэффициентом корреляции [math]r_{xy}[/math] случайных величин [math]X[/math] и [math]Y[/math] называют отношение корреляционного момента к произведению средних квадратических отклонений этих величин:


[math]r_{xy}=\frac{\mu_{xu}}{\sigma_x\sigma_y}.[/math]

Очевидно, коэффициент корреляции двух независимых случайных величин равен нулю (так как [math]\mu_{xy}=0[/math]).




Коррелированность и зависимость случайных величин


Две случайные величины [math]X[/math] и [math]Y[/math] называют коррелированными, если их корреляционный момент (или коэффициент корреляции) отличен от нуля; [math]X[/math] и [math]Y[/math] называют некоррелированными величинами, если их корреляционный момент равен нулю.


Две коррелированные величины также и зависимы. Обратное утверждение не всегда имеет место, т. е. если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Другими словами, корреляционный момент двух зависимых величин может быть не равен нулю, но может и равняться нулю.




Функция и плотность распределения системы случайных величин


На практике очень часто приходится рассматривать системы более чем двух случайных величин. Функция распределения системы нескольких случайных величин вводится как обобщение функции распределения системы двух случайных величин. Так, функцией распределения системы [math]n[/math] случайных величин [math](X_1,X_2,\ldots,X_n)[/math] называется функция [math]n[/math] аргументов [math]x_1,x_2,\ldots,x_n[/math] равная вероятности совместного выполнения [math]n[/math] неравенств [math]X_i<x_i,~i=1,2,\ldots,n[/math], т. е.


[math]F(x_1,x_2,\ldots,x_n)=P\{X_1<x_1,X_2<x_2,\ldots,X_n<x_n\}.[/math]

Эта функция является неубывающей функцией каждой переменной при фиксированных значениях других переменных. Если хотя бы одна из переменных стремится к [math]-\infty[/math], то функция распределения стремится к нулю. Если все переменные стремятся к [math]+\infty[/math], то функция распределения стремится к единице. Функция распределения каждой из величин, входящих в систему, получится, если в функции распределения системы все остальные аргументы положить равными [math]+\infty[/math]:


[math]F_1(x_1)=F(x_1,+\infty,\ldots,+\infty).[/math]

Аналогично одномерному случаю можно вывести формулу, связывающую функцию распределения [math]F(x_1,x_2,\ldots,x_n)[/math] и плотность вероятности [math]f(x_1,x_2,\ldots,x_n)[/math]:


[math]F(x_1,x_2,\ldots,x_n)=\int\limits_{-\infty}^{x_1}\int\limits_{-\infty}^{x_2}\cdots\int\limits_{-\infty}^{x_n} f(x_1,x_2,\ldots,x_n)\,dx_1dx_2 \ldots dx_n,[/math]

или, что то же самое
[math]f(x_1,x_2,\ldots,x_n)=\frac{\partial^nF(x_1,x_2,\ldots,x_n)}{\partial{x_1}\partial{x_2}\cdots\partial{x_n}}.[/math]

Плотность распределения системы случайных величин не может быть отрицательной:


[math]f(x_1,x_2,\ldots,x_n)\geqslant0.[/math]

Вероятность попадания случайной точки с координатами [math](X_1,X_2,\ldots,X_n)[/math] в [math]n[/math]-мерную область [math]D[/math] выражается интегралом


[math]P\{(X_1,X_2,\ldots,X_n)\subset{D}\}=\mathop{\iint\cdots\int}\limits_D{f(x_1,x_2,\ldots,x_n)\,dx_1dx_2\ldots{dx_n}}.[/math]

Используя свойства плотности функции распределения, получаем:


[math]\int\limits_{-\infty}^{+\infty}\int\limits_{-\infty}^{+\infty}\cdots\int\limits_{-\infty}^{+\infty} f(x_1,x_2, \ldots,x_n)\,dx_1dx_2\ldots dx_n=1.[/math]

Плотность распределения каждой из величин, входящих в систему, получится, если плотность распределения системы проинтегрировать в бесконечных пределах по всем остальным аргументам:


[math]f_1(x_1)=\int\limits_{-\infty}^{+\infty}\int\limits_{-\infty}^{+\infty}\cdots\int\limits_{-\infty}^{+\infty} f(x_1,x_2,\ldots,x_n)\,dx_2dx_3\ldots dx_n.[/math]



Числовые характеристики произвольного числа случайных величин


Основными числовыми характеристиками, с помощью которых может быть охарактеризована система [math]n[/math] случайных величин [math](X_1,X_2,\ldots,X_n)[/math], являются следующие:


1) математические ожидания случайных величин, входящих в систему, [math]m_{x_1},m_{x_2},\ldots,m_{x_n},[/math], которые в совокупности определяют математическое ожидание n-мерного случайного вектора;


2) дисперсии [math]D[X_1],D[X_2],\ldots,D[X_n][/math] случайных величин, входящих в систему;


3) корреляционные моменты каждой пары из [math]n[/math] случайных величин [math]\mu_{x_ix_j}=M((X_i-m_{x_i})(X_j-m_{x_j})),~~i\ne{j}[/math], характеризующие попарно корреляцию всех случайных величин, входящих в систему.


Зная корреляционные моменты, можно найти коэффициенты корреляции [math]r_{x_ix_j}[/math], которые характеризуют степень связи между каждой парой случайных величин

[math]r_{x_ix_j}=\frac{\mu_{x_ix_j}}{\sigma_{x_i}\sigma_{x_j}}\,.[/math]

Так как дисперсия каждой из случайных величин системы [math](X_1,X_2,\ldots,X_2)[/math] есть не что иное, как частный случай корреляционного момента, а именно: корреляционный момент величины [math]X_i[/math] и той же величины [math]X_i[/math]


[math]\sigma_{x_i}^2=D[X_i]=\mu_{x_ix_j},[/math]

то все корреляционные моменты и дисперсии располагают в виде прямоугольной таблицы, которая называется корреляционной матрицей системы [math]n[/math] случайных величин.

[math]\left(\!\begin{array}{*{20}{c}}\mu_{x_1x_1}&\mu_{x_1x_2}&\cdots&\mu_{x_1x_n}\\\mu_{x_2x_1}&\mu_{x_2x_2}&\cdots&\mu_{x_2x_n}\\\vdots&\vdots&\ddots&\vdots\\\mu_{x_nx_1}&\mu_{x_nx_2}&\cdots&\mu_{x_nx_n}\\\end{array}\!\right)[/math]

Из определения корреляционного момента следует, что [math]\mu_{x_ix_j}=\mu_{x_jx_i}[/math]. Это означает, что элементы корреляционной матрицы, расположенные симметрично по отношению к главной диагонали, равны. В-этой связи часто для простоты в корреляционной матрице заполняют только ее половину:


[math]\left(\!\begin{array}{*{20}{c}}\mu_{x_1x_1}& \mu_{x_1x_2}& \cdots&\mu_{x_1x_n}\\&\mu_{x_2x_2}&\cdots&\mu_{x_2x_n}\\&&\cdots&\cdots\\&&&\mu_{x_nx_n}\\\end{array}\!\right)[/math]

Если случайные величины системы некоррелированы, имеем [math]\mu_{x_ix_j}=0[/math] при [math]i\ne{j}[/math]. Следовательно, корреляционная матрица системы некоррелированных случайных величин имеет вид


[math]\left(\!\begin{array}{*{20}{c}}D[X_1]&0&\cdots&0\\ &D[X_2]&\cdots&0\\&&\cdots&\cdots\\&&&D[X_n]\\\end{array}\!\right)[/math]

Такая матрица называется диагональной. Вместо корреляционной матрицы часто используют нормированную корреляционную матрицу. Нормированной корреляционной называется такая матрица, элементами которой являются коэффициенты корреляции. Все элементы главной диагонали нормированной корреляционной матрицы равны единице. Нормированная корреляционная матрица имеет вид


[math]\left(\!\begin{array}{*{20}{c}}1&r_{x_1x_2}&\cdots& r_{x_1x_n}\\&1&\cdots&r_{x_2x_n}\\&&\cdots&\cdots\\&&&1\\\end{array}\!\right)[/math]



Перейти к следующему разделу Функции случайных величин

Часовой пояс: UTC + 4 часа [ Летнее время ]


Яндекс.Метрика

Copyright © 2010-2016 MathHelpPlanet.com. All rights reserved