Собственно дана задача на нахождение дисперсии суммы случайного числа СВ.
Есть ее решение(здесь представлено не до конца, тк в этом нет необходимости, вопрос в другом)
Есть там строка, где мы от условной вероятности переходим к безусловной, дублирую: [math]\sum\limits_{k=1}^{ \infty }[/math] [math]= P(Sk<x| \nu =k)P( \nu =k)=\sum\limits_{k=1}^{ \infty } P(Sk<x)P( \nu =k)[/math]. Так вот вопрос: как обосновать это равенство? Необходимо наложить какое-то условие на оба эти события, чтобы мы могли считать их независимыми, или что-то нужно сделать, чтобы с уверенностью можно было сказать о том, что они независимы...? Попытка найти ответ в пособие Тархова Д.А. привела только к нахождению критерия независимости случ.величин в терминах функций распр.и связи с сигма-алгербой. Как это может быть применимо здесь не совсем понятно. Заранее спасибо.
|