Дискуссионный математический форумМатематический форум

Математический форум Math Help Planet

Обсуждение и решение задач по математике, физике, химии, экономике

Теоретический раздел
Часовой пояс: UTC + 4 часа [ Летнее время ]
MathHelpPlanet.com RSS-лента Математического форума

Часовой пояс: UTC + 4 часа [ Летнее время ]


Предельные теоремы теории вероятностей

Предельные теоремы теории вероятностей


Неравенство Чебышева и его значение. Теорема Чебышева. Теорема Бернулли. Центральная предельная теорема теории вероятностей (теорема Ляпунова) и её использование в математической статистике.

Теория вероятностей изучает закономерности, свойственные массовым случайным явлениям. Предельные теоремы теории вероятностей устанавливают зависимость между случайностью и необходимостью. Изучение закономерностей, проявляющихся в массовых случайных явлениях, позволяет научно предсказывать результаты будущих испытаний.


Предельные теоремы теории вероятностей делятся на две группы, одна из которых получила название закона больших чисел, а другая — центральной предельной теоремы.


Рассмотрим теоремы, относящих к закону больших чисел: неравенство Чебышева, теоремы Чебышева и Бернулли.


Закон больших чисел состоит из нескольких теорем, в которых доказывается приближение средних характеристик при соблюдении определённых условий к некоторым постоянным значениям.




Неравенство Чебышева


Если случайная величина [math]X[/math] имеет конечное математическое ожидание и дисперсию, то для любого положительного числа [math]\tau[/math] справедливо неравенство


[math]P\{|X-M(X)|\leqslant\tau\}>1-\frac{D[X]}{\tau^2},[/math]
(9.1)

то есть вероятность того, что отклонение случайной величины [math]X[/math] от своего математического ожидания по абсолютной величине не превосходит [math]\tau[/math] и больше разности между единицей и отношением дисперсии этой случайной величины к квадрату [math]\tau[/math].

Запишем вероятность события [math]|X-M(X)|>\tau[/math], то есть события, противоположного событию [math]|X-M(X)|\leqslant\tau[/math]. Очевидно, что


[math]P\{|X-M(X)|>\tau\}\leqslant1-\frac{D[X]}{\tau^2}.[/math]
(9.2)

Неравенство Чебышева справедливо для любого закона распределения случайной величины [math]X[/math] и применимо как к положительным, так и к отрицательным случайным величинам. Неравенство (9.2) ограничивает сверху вероятность того, что случайная величина отклонится от своего математического ожидания на величину больше [math]\tau[/math]. Из этого неравенства следует, что при уменьшении дисперсии верхняя граница вероятности также уменьшается, и значения случайной величины с небольшой дисперсией сосредотачиваются около её математического ожидания.




Пример 1. Для правильной организации сборки узла необходимо оценить вероятность, с которой размеры деталей отклоняются от середины поля допуска не более чем на 2 мм. Известно, что середина поля допуска совпадает с математическим ожиданием размеров обрабатываемых деталей, а среднее квадратическое отклонение равно 0,25 мм.


Решение. По условию задачи [math]\tau=2[/math]мм и [math]\sigma_x=0,\!25[/math]. В данном случае [math]X[/math] — размер обрабатываемых деталей. Используя неравенство Чебышева, получаем


[math]P\{|X-M(X)|\leqslant2\}>1-\frac{0,\!25^2}{2^2}\approx0,\!9844.[/math]



Теорема Чебышева


При достаточно большом числе независимых испытаний [math]n[/math] с вероятностью, близкой к единицы, можно утверждать, что разность между средним арифметическим наблюдавшихся значений случайной величины [math]X[/math] и математическим ожиданием этой величины [math]M(X)[/math] по абсолютной величине окажется меньше сколь угодно малого числа [math]\tau>0[/math] при условии, что случайная величина [math]X[/math] имеет конечную дисперсию, то есть


[math]P\{|\overline{X}-M(X)|\leqslant\tau\}>1-\eta,[/math]

где [math]\eta[/math] — положительное число, близкое к единице.

Переходя в фигурных скобках к противоположному событию, получаем


[math]P\{|\overline{X}-M(X)|>\tau\}\leqslant\eta.[/math]

Теорема Чебышева позволяет с достаточной точностью по средней арифметической судить о математическом ожидании или, наоборот, по математическому ожиданию предсказывать ожидаемую величину средней. Так, на основании этой теоремы можно утверждать, что если проведено достаточно большое количество измерений определённого параметра прибором, свободным от систематической погрешности, то средняя арифметическая результатов этих измерений сколь угодно мало отличается от истинного значения измеряемого параметра.




Пример 2. Для определения потребности в жидком металле и сырье выборочно устанавливают средний вес отливки гильзы к автомобильному двигателю, так как вес отливки, рассчитанный по металлической модели, отличается от фактического веса. Сколько нужно взять отливок, чтобы с вероятностью более 0,9 можно было утверждать, что средний вес отобранных отливок отличается от расчётного веса, принятого за математическое ожидание, не более чем на 0,2 кг? Установлено, что среднее квадратическое отклонение веса равно 0,45 кг.


Решение. По условию задачи, имеем


[math]\sigma_x=0,\!45;~~~\tau=0,\!2;~~~P\{|\oerline{x}-M(X)|\leqslant\tau\}[>0,\!9[/math],

где [math]\overline{X}[/math] — средний вес отливок гильзы. Если применить к случайной величине [math]\overline{X}[/math] неравенство Чебышева, получим

[math]P\{|\oerline{X}-M(\overline{X})|\leqslant\tau\}>1-\frac{D[\overline{X}]}{\tau^2},[/math]

а с учётом равенств свойства математического ожидания и дисперсии средней

[math]P\{|\oerline{X}-M(X)|\leqslant\tau\}>1-\frac{D[X]}{\tau^2n}.[/math]

Подставляя в последнюю формулу данные задачи, получаем


[math]1-\frac{D[X]}{\tau^2n}>0,\!9[/math], откуда [math]n>50[/math]



Теорема Бернулли


Теорема Бернулли устанавливает связь между относительной частотой появления события и его вероятностью.


При достаточно большом числе независимых испытаний [math]n[/math] с вероятностью, близкой к единице, можно утверждать, что разность между относительной частой появления события [math]A[/math] в этих испытаниях е го вероятностью в отдельном испытании по абсолютной величине окажется меньше сколь угодно малого числа [math]\tau[/math], если вероятность наступления этого события в каждом испытании постоянна и равна [math]p[/math].


Утверждение теоремы Бернулли можно записать в виде неравенства


[math]P\!\left\{\left|\frac{m}{n}-p\right|\leqslant\tau\right\}>1-\eta,[/math]
(9.3)

где [math]r,\eta[/math] — любые сколь угодно малые положительные числа.

Используя свойства математического ожидания и дисперсии, а также неравенство Чебышева, формулу (9.3) можно записать в виде


[math]P\!\left\{\left|\frac{m}{n}-p\right|\leqslant\tau\right\}>1-\frac{pq}{n\tau^2},~~q=1-p.[/math]
(9.4)

При решение практических задач иногда бывает необходимо оценить вероятность наибольшего отклонения частоты появлений события от её ожидаемого значения. В этом случае случайной величиной является число появления события [math]A[/math] в [math]n[/math] независимых испытаниях. Имеем


[math]\begin{gathered}m=X_1+X_2+\cdots+X_n;\\M(m)=\sum\limits_{i=1}^{n}M(X_i)=\sum\limits_{i=1}^{n}p=np;\\D[m]=\sum\limits_{i=1}^{n}D[X_i]=\sum\limits_{i=1}^{n}pq=npq.\end{gathered}[/math]

Используя неравенство Чебышева, получаем


[math]P\{|m-np|\leqslant\tau\}>1-\frac{npq}{\tau^2}.[/math]



Пример 3. Из 1000 изделий, отправляемых в сборочный цех, обследованию было подвергнуто 200 отобранных случайным образом изделий. Среди низ оказалось 25 бракованных. Приняв долю бракованных изделий среди отобранных за вероятность изготовления бракованного изделия, оценить вероятность того, что во всей партии окажется бракованных изделий не более 15% и не менее 10%.


Решение. Определем вероятность изготовления бракованного изделия:


[math]p=\frac{25}{200}=\frac{1}{8}=0,\!125.[/math]

Наибольшее отклонение относительной частоты появления бракованных изделий от вероятности [math]p[/math] по абсолютной величине равно [math]\left|\frac{m}{n}-p\right|=0,\!025[/math]; число испытаний [math]n=1000[/math]. Используя формулу (9.4), находим искомую вероятность:


[math]P\!\left\{\left|\frac{m}{n}-p\right|\leqslant0,\!025\right\}>1-\frac{0,\!125\cdot(1-0,\!125)}{1000\cdot0,\!025^2}=0,\!825.[/math]



Теорема Ляпунова


Рассмотренные теоремы закона больших чисел касаются вопросов приближения некоторых случайных величин к определённым предельным значениям независимо от их закона распределения. В теории вероятностей существует другая группа теорем, касающихся предельных законов распределения суммы случайных величин. Общее название этой группы теорем — центральная предельная теорема. Различными её формы различаются условиями, накладываемыми на сумму составляющих случайных величин.


Закон распределения суммы независимых случайных величин [math]X_i~(i=1,2,\ldots,n)[/math] приближается к нормальному закону распределения при неограниченном увеличении [math]n[/math], если выполняются следующие условия:


1) все величины имеют конечные математические ожидания и дисперсии:


[math]M(X_i)=m_i;\quad M((X_i-m_i)^2)=D[X_i];\quad M((X_i-m_i)^{2+\varepsilon})=c_i,[/math] где [math]\varepsilon>0;~i=1,2,\ldots,n[/math].

2) ни одна из величин по значению резко не отличается от остальных:


[math]\lim\limits_{n\to\infty}\dfrac{\sum\limits_{i=1}^{n}c_i}{{\left(\sum\limits_{i=1}^{n}D[X_i]\right)\!}^{1+\varepsilon/2}}=0.[/math]

При решении многих практических задач используют следующую формулировку теоремы Ляпунова для средней арифметической наблюдавшихся значений случайной величины [math]\overline{x}[/math], которая также является случайной величиной (при этом соблюдаются перечисленные два условия):


если случайная величина [math]X[/math] имеет конечные математическое ожидания [math]M(X)[/math] и дисперсию [math]D[X][/math], то распределение средней арифметической [math]\overline{x}=\frac{x_1+x_2+\cdots+x_n}{n}[/math], вычисленной по наблюдавшимся значениям случайной величины в [math]n[/math] независимых испытаниях, при [math]n\to\infty[/math] приближается к нормальному закону с математическим ожиданием [math]M(\overline{x})[/math] и дисперсией [math]D[\overline{x}][/math], то есть

[math]P\{\overline{x}<x\}\to\frac{1}{\sqrt{2\pi\,D[\overline{x}]}}\int\limits_{-\infty}^{x}\exp\!\left(-\frac{(x-M(\overline{x}))^2}{2D[\overline{x}]}\right)dx.[/math]

Поэтому вероятность того, что [math]\overline{x}[/math] заключена в интервале [math][a;b][/math], можно вычислить по формуле


[math]P\{a<\overline{x}<b\}\approx\frac{1}{\sqrt{2\pi\,D[\overline{x}]}} \int\limits_{a}^{b}\exp\!\left(-\frac{(x-M(\overline{x}))^2}{2D[\overline{x}]}\right)dx.[/math]
(9.5)

Используя функцию Лапласа ([url]см. приложение 2[/url]), формулу (9.5) можно записать в удобном для расчётов виде:


[math]P\{a<\overline{x}<b\}\approx\Phi(t_2)-\Phi(t_1),[/math] где [math]t_1=\frac{a-M(\overline{x})}{\sigma_{\overline{x}}};~t_1=\frac{b-M(\overline{x})}{\sigma_{\overline{x}}}.[/math]

Следует отметить, что центральная предельная теорема справедлива не только для непрерывных, но и для дискретных случайных величин. Практическое значение теоремы Ляпунова огромно. Опыт показывает, что закон распределения суммы независимых случайных величин, сравнимых по своему рассеиванию, достаточно быстро приближается к нормальному. Уже при числе слагаемых порядка десяти закон распределения суммы можно заменить на нормальный.


Частным случаем предельной центральной теоремы является интегральная теорема теорема Лапласа (см. пункт 5, часть 3). В ней рассматриваются случаи, когда случайные величины [math]X_i,~i=1,2,\ldots,n[/math] дискретны, одинаково распределены и принимают только два возможных значения: 0 и 1. О применении этой теоремы в математической статистике cм. пункт 6, часть 3.




Перейти к следующему разделу Элементы математической статистики. Выборочный метод

Часовой пояс: UTC + 4 часа [ Летнее время ]


Яндекс.Метрика

Copyright © 2010-2016 MathHelpPlanet.com. All rights reserved