Дискуссионный математический форумМатематический форум

Математический форум Math Help Planet

Обсуждение и решение задач по математике, физике, химии, экономике

Теоретический раздел
Часовой пояс: UTC + 4 часа [ Летнее время ]
MathHelpPlanet.com RSS-лента Математического форума

Часовой пояс: UTC + 4 часа [ Летнее время ]


Методы решения систем нелинейных уравнений

Методы решения систем нелинейных уравнений


Содержание

Постановка задачи


Дана система [math]n[/math] нелинейных уравнений с [math]n[/math] неизвестными:


[math]\begin{cases}f_1(x_1,\ldots,x_n)=0,\\ f_2(x_1,\ldots,x_n)=0,\\ \quad\vdots\\ f_n(x_1,\ldots,x_n)=0, \end{cases}\qquad \mathsf{(3.22)}[/math]

где [math]f_i(x_1,\ldots,x_n)\colon \mathbb{R}^n\to \mathbb{R},~ i=1,\ldots,n[/math], — нелинейные функции, определенные и непрерывные в некоторой области [math]G\subset\mathbb{R}^n[/math], или в векторном виде (где [math]x=\bigl(x_1,\ldots,x_n\bigr)^T,~ F(x)=\bigl[f_1(x),\ldots,f_n(x)\bigr]^T[/math])


[math]F(x)=0.\qquad \mathsf{(3.23)}[/math]

Требуется найти такой вектор [math]x_{\ast}=\bigl(x_{\ast1},\ldots,x_{\ast n}\bigr)^T[/math], который при подстановке в систему (3.22) превращает каждое уравнение в верное числовое равенство.


Замечания


1. Проблема решения системы (3.22) возникает при решении многих прикладных задач, например, поиска безусловного экстремума функций многих переменных с помощью необходимых условий, при применении неявных методов интегрирования обыкновенных дифференциальных уравнений и т.д.


2. Задача нахождения комплексных корней [math]f(z)=0[/math] может быть сведена к проблеме решения двух уравнений с двумя неизвестными. Для этого следует положить [math]z=x+iy[/math] и выделить действительную и мнимую части функции:


[math]f(z)=u(x,y)+i\,v(x,y)=0.[/math]

Отсюда получаем систему [math]\begin{cases}u(x,y)=0,\\ v(x,y)=0,\end{cases}[/math] которая может быть решена одним из рассматриваемых в данном разделе методов:


3. Для всех рассматриваемых далее методов требуется находить начальное приближение [math]x^{(0)}[/math]. В случае [math]n=2[/math] это можно сделать графически, определив координаты точки пересечения кривых, описываемых уравнениями [math]f_1(x_1,x_2)=0[/math] и [math]f_2(x_1,x_2)=0[/math].


4. Задача решения системы (3.22) может быть сведена к задаче поиска минимума функции [math]\textstyle{\Psi(x)= \sum\limits_{i=1}^{n} f_i^2(x_1,\ldots, x_n)}[/math]. Так как функция [math]\Psi(x)[/math] неотрицательная, ее минимальное значение, равное нулю, достигается в точке [math]x_{\ast}[/math], являющейся решением системы (3.22). Для поиска минимума функции [math]\Psi(x)[/math] можно применить различные методы поиска безусловного экстремума функций многих переменных (первого, второго, нулевого порядков).


Далее рассмотрим основные методы решения задачи (3.22).




Метод простых итераций для решения нелинейных систем


Для применения метода требуется привести систему (3.22) к равносильному виду:


[math]\begin{cases}x_1=\varphi_1(x_1,\ldots,x_n),\\ x_2=\varphi_1(x_2,\ldots,x_n),\\ \quad\vdots\\ x_n=\varphi_n(x_1,\ldots,x_n), \end{cases}[/math]
(3.24)

или в векторной форме

[math]x=\Phi(x),[/math]
(3.25)

где [math]x=\bigl(x_1,\ldots,x_n\bigr)^T,~ \Phi(x)= \bigl[\varphi_1(x_1),\ldots, \varphi_n(x_n) \bigr]^T[/math], функции [math]\varphi_i(x)[/math] определены и непрерывны в окрестности изолированного решения [math]x_{\ast}[/math] системы (3.24).




Алгоритм метода простых итераций для систем


1. Задать начальное приближение [math]x^{(0)}= \bigl(x_{10},x_{20},\ldots, x_{n0}\bigr)^T[/math] и малое положительное число [math]\varepsilon[/math] (точность). Положить [math]k=0[/math].


2. Вычислить [math]x^{(k+1)}[/math] по формуле


[math]x^{(k+1)}=\Phi(x^{(k)})[/math]
(3.26)

или

[math]x^{(k+1)}_1= \varphi_1 \bigl(x^{(k)}_1,x^{(k)}_2,\ldots, x^{(k)}_n\bigr),[/math]
(3.27)

3. Если [math]\Delta^{(k+1)}= \max\limits_{i} \bigl|x^{(k+1)}_i-x^{(k)}_i\bigr|\leqslant \varepsilon[/math], процесс завершен и [math]x_{\ast}\cong x^{(k+1)}[/math]. Если [math]\Delta^{(k+1)}> \varepsilon[/math], то положить [math]k=k+1[/math] и перейти к п.2.


Замечания


1. Итерационный процесс, реализуемый согласно (3.27), соответствует параллельному итерированию, так как для вычисления (k+1)-го приближения всех неизвестных учитываются вычисленные ранее их k-е приближения.


2. Система (3.22) может быть преобразована к виду (3.24) различными способами, например, с помощью выражения переменных [math]x_i,~i=1,\ldots,n[/math], таким образом, чтобы выполнялось условие сходимости.


Другой способ заключается в замене системы [math]F(x)=0[/math] системой [math]x=\underbrace{x+ \Lambda F(x)}_{\Phi(x)}[/math], где [math]\Lambda[/math] — неособенная матрица. В качестве матрицы [math]\Lambda[/math] можно использовать, например, [math]\Lambda=-W^{-1}(x^{(0)})[/math], если [math]\det W(x^{(0)})\ne0[/math], где


[math]W(x)= \begin{pmatrix}\dfrac{\partial f_1(x)}{\partial x_1}& \cdots& \dfrac{\partial f_1(x)}{\partial x_n}\\ \vdots& \ddots& \vdots\\ \dfrac{\partial f_n(x)}{\partial x_1}& \cdots& \dfrac{\partial f_n(x)}{\partial x_n} \end{pmatrix}[/math] — матрица Якоби.

В случае, если [math]\det W(x^{(0)})=0[/math], следует выбрать другое начальное приближение. Заметим, что при таком выборе [math]\Lambda[/math] метод простых итераций совпадает с упрощенным методом Ньютона.


3. В качестве [math]\Delta^{(k+1)}[/math] можно использовать различные нормы векторов.


Теорема 3.13 (о достаточном условии сходимости метода простых итераций). Пусть функции [math]\varphi_i(x)[/math] и [math]\varphi'_i(x),~ i=1,\ldots,n[/math], непрерывны в области [math]G[/math], причем выполнено неравенство (где [math]q[/math] — некоторая постоянная)


[math]\max\limits_{x\in G}\max\limits_{i} \sum\limits_{j=1}^{n} \left|\frac{\partial \varphi_i(x)}{\partial x_j}\right| \leqslant q<1,[/math]
(3.28)

Если последовательные приближения [math]x^{(k+1)}= \Phi(x^{(k)}),~ k=0,1,2,\ldots[/math] не выходят из области [math]G[/math], то процесс последовательных приближений сходится: [math]x_{\ast}= \lim\limits_{k\to\infty} x^{(k)}[/math] и вектор [math]x_{\ast}[/math] является в области [math]G[/math] единственным решением системы (3.25).


Замечания


1. Вместо условия (3.28) можно также использовать


[math]\max\limits_{x\in G}\max\limits_{j} \sum\limits_{i=1}^{n} \left|\frac{\partial \varphi_i(x)}{\partial x_j}\right| \leqslant q<1,[/math]
(3.29)

2. Условия (3.28), (3.29) выполняются, если для любого [math]x\in G[/math] справедливы неравенства [math]\left\|\frac{\partial\Phi}{\partial x}\right\|_1<1,~ \left\|\frac{\partial\Phi}{\partial x}\right\|_2<1[/math] соответственно, где


[math]\frac{\partial\Phi}{\partial x}=\begin{pmatrix}\dfrac{\partial f_1(x)}{\partial x_1}& \cdots& \dfrac{\partial f_1(x)}{\partial x_n}\\ \vdots& \ddots& \vdots\\ \dfrac{\partial f_n(x)}{\partial x_1}& \cdots& \dfrac{\partial f_n(x)}{\partial x_n} \end{pmatrix}\!.[/math]

Пример 3.17. Найти корни нелинейной системы уравнений [math]\begin{cases}2x_1^2-x_1x_2-5x_1+1=0,\\ x_1+3\lg x_1-x_2^2=0.\end{cases}[/math] расположенные в первом квадранте, методом простых итераций с точностью [math]\varepsilon=0,\!001[/math]


▼ Решение

Преобразуем систему к виду (3.24) так, чтобы выполнялось условие сходимости:


[math]x_1=\sqrt{\frac{x_1(x_2+5)-1}{2}}=\varphi_1(x),\qquad x_2=\sqrt{x_1+3\lg x_1}= \varphi_2(x).[/math]

Найдем частные производные:


[math]\begin{gathered}\frac{\partial \varphi_1}{\partial x_1}= \frac{x_2+5}{4 \sqrt{\dfrac{x_1(x_2+5)-1}{2}}},\qquad \frac{\partial \varphi_1}{\partial x_2}= \frac{x_1}{4 \sqrt{\dfrac{x_1(x_2+5)-1}{2}}}\,;\\ \frac{\partial \varphi_2}{\partial x_1}= \frac{1+\dfrac{3\cdot 0,\!43429}{x_1}}{2 \sqrt{x_1+3\lg x_1}},\qquad \frac{\partial \varphi_2}{\partial x_2}=0. \end{gathered}[/math]

Здесь принято [math]\lg e\cong 0,\!43429[/math]. Далее воспользуемся методикой решения задачи.


1. Для выбора начального приближения найдем координаты точек пересечения кривых, соответствующих первому и второму уравнениям (рис. 3.17).


Находим приближенные значения координат решения (по условию задачи нас интересуют только корни с положительными координатами): [math]x^{(0)}= \begin{pmatrix}3,\!5& 2,\!2\end{pmatrix}^T[/math].


Проверим выполнение условий сходимости. Будем рассматривать окрестность найденной точки [math]x^{(0)}\colon[/math]


[math]G= \bigl\{|x_1-3,\!5| \leqslant 0,\!1;~ |x_2-2,\!2| \leqslant 0,\!1\bigr\}.[/math]

Тогда

[math]\begin{gathered}\left|\frac{\partial \varphi_1}{\partial x_1}\right| \leqslant \frac{2,\!3+5}{4 \sqrt{\dfrac{3,\!4\cdot (2,\!1+5)-1}{2}}}=0,\!536<0,\!54;\qquad \left|\frac{\partial \varphi_1}{\partial x_2}\right| \leqslant \frac{3,\!6}{4 \sqrt{\dfrac{3,\!4\cdot (2,\!1+5)-1}{2}}}=0,\!265<0,\!27;\\ \left|\frac{\partial \varphi_2}{\partial x_1}\right| \leqslant \frac{1+\dfrac{3\cdot 0,\!43429}{3,\!4}}{2 \sqrt{3,\!4+ 3\lg3,\!4}}=0,\!309<0,\!31;\qquad \left|\frac{\partial \varphi_2}{\partial x_2}\right|=0. \end{gathered}[/math]

Следовательно, можно получить оценки:


[math]\begin{aligned}& \left|\frac{\partial \varphi_1(x)}{\partial x_1}\right|+\left|\frac{\partial \varphi_2(x)}{\partial x_1}\right|< 0,\!54+ 0,\!31=0,\!85<1,\\ & \left|\frac{\partial \varphi_1(x)}{\partial x_2}\right|+\left|\frac{\partial \varphi_2(x)}{\partial x_2}\right|< 0,\!27+ 0=0,\!27<1. \end{aligned}[/math]

Очевидно, условие (3.28) выполняется. Если последовательные приближения не будут выходить из области [math]G[/math], то согласно теореме 3.13 итерационный процесс будет сходящимся. В поставленной задаче [math]\varepsilon=0,\!001[/math].


2,3. Выполним расчеты по формулам (3.27):


[math]x_1^{(k+1)}= \sqrt{\frac{x_1^{(k)}\cdot[x_2^{(k)}+5]-1}{2}},\qquad x_2^{(k+1)}= \sqrt{x_1^{(k)}+3\cdot\lg x_1^{(k)}},\quad k=0,1,2,\ldots[/math]

а результаты поместим в табл. 3.17.


[math]\begin{array}{|c|c|c|c|c|c|} \multicolumn{6}{r}{\mathit{Table~3.17}}\\\hline k & 0& 1& 2& 3& 4\\\hline x_1^{(k)}& 3,\!5000& 3,\!4785& 3,\!4837& 3,\!4848& 3,\!4957\\\hline x_2^{(k)}& 2,\!2000& 2,\!2654& 2,\!2589& 2,\!26049&2,\!26082 \\\hline \Delta^{(k+1)}&-& 0,\!0654& 0,\!0065& 0,\!00159&0,\!0009 \\\hline \end{array}[/math]

Заметим, что величина [math]\Delta^{(k+1)}[/math] при увеличении номера итерации уменьшается, что характерно для любого сходящегося процесса. Найдено приближенное решение: [math]x_{\ast}\cong \begin{pmatrix}3,\!4857& 2,\!2608\end{pmatrix}^T[/math]. При этом [math]f_1(x_{\ast})=-0,\!0083;~ f_2(x_{\ast})= 0,\!00126[/math].




Метод Зейделя для решения нелинейных систем уравнений


Метод Зейделя предназначен для решения систем, записанных в форме (3.24). Этот метод является модификацией метода простых итераций, где после задания начального приближения [math]x^{(0)}[/math] вместо параллельного итерирования производится последовательное итерирование, причем на каждой итерации в каждое последующее уравнение подставляются значения неизвестных, полученных из предыдущих уравнений.


Алгоритм метода Зейделя для решения нелинейных систем


1. Задать начальное приближение [math]x^{(0)}[/math] и малое положительное число (точность). Положить [math]k=0[/math].


2. Вычислить [math]x^{(k+1)}[/math] по формулам


где прямоугольниками отмечены значения, которые берутся из предшествующих уравнений на текущей итерации.


3. Если [math]\Delta^{(k+1)}= \max_{i} \bigl|x_i^{(k+1)}-x_i^{(k)}\bigr|\leqslant \varepsilon[/math], процесс завершить и положить [math]x_{\ast}\cong x^{(k+1)}[/math]. Если [math]\Delta^{(k+1)}> \varepsilon[/math], то положить [math]k=k+1[/math] и перейти к п.2.


Пример 3.18. Найти корни системы расположенные в первом квадранте, методом Зейделя с точностью [math]\varepsilon=0,\!001[/math]

[math]\left\{\!\begin{aligned}& f_1(x_1,x_2)= 2x_1^2-x_1x_2-5x_1+1=0,\\ & f_2(x_1,x_2)= x_1+3\cdot \lg x_1-x_2^2=0. \end{aligned}\right.[/math]

▼ Решение

Преобразование системы к виду (3.24) и поиск начального приближения описаны в примере 3.17.


1. Зададим начальное приближение [math]x^{(0)}= (3,\!5;\, 2,\!2)^T[/math]. В поставленной задаче [math]\varepsilon=0,\!001[/math].


2, 3. Выполним расчеты по формулам (3.30):


[math]x_1^{(k+1)}= \sqrt{\frac{x_1^{(k)}[x_2^{(k)}+5]-1}{2}},\qquad x_2^{(k+1)}= \sqrt{x_1^{(k+1)}+ 3\cdot \lg x_1^{(k+1)}},\quad k=0,1,2,\ldots[/math]

а результаты поместим в табл. 3.18.


[math]\begin{array}{|c|c|c|c|c|c|c|} \multicolumn{7}{r}{\mathit{Table~3.18}}\\\hline k& 0& 1& 2& 3& 4& 5\\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} x_1^{(k)}& 3,\!5000& 3,\!4785& 3,\!4821& 3,\!484250& 3,\!485537& 3,\!486305 \\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} x_2^{(k)}& 2,\!2000& 2,\!2588& 2,\!2600& 2,\!260658& 2,\!261049& 2,\!26128 \\\hline \begin{matrix}{}\\[-8pt]{}\end{matrix} \Delta&-& 0,\!0588& 0,\!0036& 0,\!00215& 0,\!00128& 0,\!0007 \\\hline \end{array}[/math]

Найдено приближенное решение [math]x_{\ast}\cong (3,\!4863;\, 2,\!2613)^T[/math]. При этом [math]f_1(x_{\ast})=-0,\!006425,~ f_2(x_{\ast})= 0,\!000007[/math].




Метод Ньютона для решения нелинейных систем уравнений


Метод используется для решения систем вида (3.22) или (3.23). Формула для нахождения решения является естественным обобщением формулы (3.14):


[math]x^{(k+1)}= x^{(k)}-W^{-1}(x^{(k)})\cdot F(^{(k)}),\quad k=0,1,2,\ldots[/math]
(3.31)

где [math]W(x)= \begin{pmatrix}\dfrac{\partial f_1(x)}{\partial x_1}& \cdots& \dfrac{\partial f_1(x)}{\partial x_n}\\ \vdots& \ddots& \vdots\\ \dfrac{\partial f_n(x)}{\partial x_1}& \cdots& \dfrac{\partial f_n(x)}{\partial x_n}\end{pmatrix}[/math] — матрица Якоби.


Так как процесс вычисления обратной матрицы является трудоемким, преобразуем (3.31) следующим образом:


[math]\Delta x^{(k)}=-W^{-1}(x^{(k)})\cdot F(x^{(k)}).\quad k=0,1,2,\ldots[/math]

где [math]\Delta x^{(k)}= x^{(k+1)}-x^{(k)}[/math] — поправка к текущему приближению [math]x^{(k)}[/math].


Умножим последнее выражение слева на матрицу Якоби [math]W(x^{(k)})\colon[/math]


[math]W(x^{(k)})\cdot \Delta x^{(k)}=-W(x^{(k)})W^{-1}(x^{(k)}) F(x^{(k)})=-F(x^{(k)}),\quad k=0,1,2,\ldots[/math]

В результате получена система линейных алгебраических уравнений относительно поправки [math]\Delta x^{(k)}[/math]. После ее определения вычисляется следующее приближение [math]x^{(k+1)}= x^{(k)}+\Delta x^{(k)}[/math].




Алгоритм метода Ньютона для решения нелинейных систем


1. Задать начальное приближение [math]x^{(0)}[/math] и малое положительное число [math]\varepsilon[/math] (точность). Положить [math]k=0[/math].


2. Решить систему линейных алгебраических уравнений относительно поправки [math]\Delta x^{(k)}\colon[/math]


[math]W(x^{(k)})\cdot \Delta x^{(k)}=-F(x^{(k)}).[/math]
(3.32)

3. Вычислить следующее приближение: [math]x^{(k+1)}= x^{(k)}+ \Delta x^{(k)}[/math].


4. Если [math]\Delta^{(k+1)}= \max_{i} \bigl|x_i^{(k+1)}-x_i^{(k)}\bigr|\leqslant \varepsilon[/math], процесс закончить и положить [math]x_{\ast}\cong x^{(k+1)}[/math]. Если [math]\Delta^{(k+1)}>\varepsilon[/math], то положить [math]k=k+1[/math] и перейти к пункту 2.


Достаточные условия сходимости метода Ньютона для систем


Теорем а 3.14 (о достаточных условиях сходимости метода Ньютона). Пусть функция [math]F(x)[/math] непрерывно дифференцируема в открытом выпуклом множестве [math]G\subset \mathbb{R}^n[/math]. Предположим, что существуют [math]x_{\ast}\in \mathbb{R}^n[/math] и [math]r,\beta>0[/math], такие, что [math]N(x_{\ast},r)\subset G,~ F(x_{\ast})=0[/math], и существует [math]W^{-1}(x_{\ast})[/math], причем [math]\|W^{-1}(x_{\ast})\|\leqslant \beta[/math] и [math]W(x)\in \operatorname{Lip}_{\gamma} (N(x_{\ast},r))[/math]. Тогда существует [math]\varepsilon>0[/math] такое, что для всех [math]x^{(0)}\in N(x_{\ast}, \varepsilon)[/math] последовательность [math]x^{(1)}, x^{(2)},\ldots[/math], порождаемая соотношением (3.31), сходится к [math]x_{\ast}[/math] и удовлетворяет неравенству


[math]\bigl\|x^{(k+1)}-x_{\ast}\bigr\| \leqslant \beta \cdot \gamma \cdot \bigl\|x^{(k)}-x_{\ast} \bigr\|^2,\quad k=0,1,2,\ldots[/math]

Здесь использованы следующие обозначения: [math]N(x,r)[/math] — открытая окрестность радиуса [math]r[/math] с центром в точке [math]x\colon\, N(x,r)= \bigl\{\overline{x}\in \mathbb{R}^n\colon\, |\overline{x}-x|<r\bigr\}[/math]; запись [math]W(x)\in \operatorname{Lip}_{\gamma} (N(x_{\ast},r))[/math] означает, что [math]W(x)[/math] непрерывна по Липшицу, где [math]\gamma[/math] — константа Липшица, то есть


[math]\bigl\|W(y)-W(x)\bigr\|\leqslant \gamma\cdot \bigl\|y-x\bigr\|\quad \forall x,y\in N(x_{\ast},r).[/math]

Замечания


1. Теорема 3.14 свидетельствует о локальной квадратичной сходимости метода Ньютона.

2. К недостаткам метода Ньютона следует отнести:

– необходимость задавать достаточно хорошее начальное приближение;

– отсутствие глобальной сходимости для многих задач;

– необходимость вычисления матрицы Якоби на каждой итерации;

– необходимость решения на каждой итерации системы линейных уравнений, которая может быть плохо обусловленной.


Достоинством метода является квадратичная сходимость из хорошего начального приближения при условии невырожденности матрицы Якоби.


▼ Примеры 3.19-3.21

Пример 3.19. Решить систему [math]\begin{cases}x_1+x_2-3=0,\\ x_1^2+x_2^2-9=0.\end{cases}[/math] методом Ньютона с точностью [math]\varepsilon= 0,\!001[/math]


▼ Решение

Очевидно, корнями системы являются [math]x_{\ast1}=(3;\,0)^T,~ x_{\ast2}=(0;\,3)^T[/math]. Найдем приближенно второй корень [math]x_{\ast2}[/math].


1. Зададим начальное приближение [math]x^{(0)}= (1;\,5)^T[/math]. В поставленной задаче [math]\varepsilon= 0,\!001[/math]. Положим [math]k=0[/math].


2°. Составим систему (3.32). Так как [math]W(x)= \begin{pmatrix}1&1\\ 2x_1& 2x_2 \end{pmatrix}[/math], то система [math]W(x^{(0)})\cdot \Delta x^{(0)}=-F(x^{(0)})[/math] имеет вид [math]\begin{pmatrix}1&1\\ 2&10\end{pmatrix}\!\cdot\! \begin{pmatrix}\Delta x_1^{(0)}\\ \Delta x_2^{(0)}\end{pmatrix}=-\!\begin{pmatrix}3\\17\end{pmatrix}[/math]. Отсюда [math]\Delta x^{(0)}= \begin{pmatrix}\Delta x_1^{(0)}\\ \Delta x_2^{(0)}\end{pmatrix}= \begin{pmatrix}-13\!\!\not{\phantom{|}}\,8\\ -11\!\!\not{\phantom{|}}\,8\end{pmatrix}[/math]. Для вычисления [math]\Delta x^{(k)},~ k=0,1,\ldots[/math], здесь и далее используется метод Гаусса единственного деления.


3°. Вычислим [math]x^{(1)}= x^{(0)}+ \Delta x^{(0)}= \begin{pmatrix}1\\5\end{pmatrix}+ \begin{pmatrix}-13\!\!\not{\phantom{|}}\,8\\ -11\!\!\not{\phantom{|}}\,8\end{pmatrix}= \begin{pmatrix}-5\!\!\not{\phantom{|}}\,8\\ 29\!\!\not{\phantom{|}}\,8\end{pmatrix}= \begin{pmatrix}-0,\!625\\ 3,\!625 \end{pmatrix}[/math].


4° .Так как [math]\Delta^{(1)}= \max\! \left\{\left|-\frac{13}{8}\right|, \left|-\frac{11}{8}\right|\right\}= \frac{13}{8}> \varepsilon[/math], то положим [math]k=1[/math] и перейдем к п.2.


2(1). Составим систему [math]W(x^{(1)})\cdot \Delta x^{(1)}=-F(x^{(1)})\colon[/math]


[math]\begin{pmatrix}1&1\\-\dfrac{5}{4}& \dfrac{29}{4}\end{pmatrix}\!\cdot \Delta x^{(1)}=-\!\begin{pmatrix}0\\ \dfrac{145}{32}\end{pmatrix}[/math]. Отсюда [math]\Delta x^{(1)}= \begin{pmatrix}\dfrac{145}{272}\\[8pt]-\dfrac{145}{272}\end{pmatrix}= \begin{pmatrix} 0,\!5333\\-0,\!5333\end{pmatrix}[/math].

3(1). Вычислим [math]x^{(2)}= x^{(1)}+ \Delta x^{(1)}= \begin{pmatrix}-0,\!625\\ 3,\!625 \end{pmatrix}+ \begin{pmatrix}0,\!5333\\-0,\!5333\end{pmatrix}= \begin{pmatrix}-0,\!0919\\ 3,\!0919 \end{pmatrix}[/math].


4(1). Так как [math]\Delta^{(2)}= 0,\!5333>\varepsilon[/math], то положим [math]k=2[/math] и перейдем к п.2. Результаты дальнейших вычислений приведены в табл. 3.19.


[math]\begin{array}{|c|c|c|c|c|c|c|} \multicolumn{7}{r}{\mathit{Table~3.19}}\\\hline k& 0& 1& 2& 3& 4&5 \\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} x_1^{(k)} & 1& -0,\!625& -0,\!091911& -0,\!002653& -0,\!0000023&0,\!0000 \\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} x_2^{(k)} & 5& 3,\!625& 3,\!091911& 3,\!002653& 3,\!0000023&3,\!0000 \\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} \Delta^{(k+1)}&-& 1,\!625& 0,\!5333& 0,\!089258& 0,\!0026507&0,\!0000023 \\\hline \end{array}[/math]

Найденное приближенное решение [math]x_{\ast}\cong (0;\, 3,\!0000)^T[/math]. Из анализа решения, приведенного в табл. 3.19, следует, что количество верных знаков на каждой итерации удваивается, что соответствует квадратичной сходимости.


Пример 3.20. Найти решение системы расположенное в первом квадранте с точностью [math]\varepsilon= 10^{-5}[/math]

[math]\begin{aligned}& f_1(x)= x_1+3\cdot \lg x_1-x_2^2=0,\\ & f_2(x)= 2x_1^2-x_1x_2-5x_1+1=0. \end{aligned}[/math]

▼ Решение

1. Выберем начальное приближение [math]x^{(0)}= (3,\!5;\, 2,\!2)^T[/math]. В поставленной задаче [math]\varepsilon= 10^{-5}[/math]. Положим [math]k=0[/math].


2°. Составим систему (3.32). Так как


[math]W(x)= \begin{pmatrix}\dfrac{\partial f_1(x)}{\partial x_1}& \cdots& \dfrac{\partial f_1(x)}{\partial x_n}\\ \vdots& \ddots& \vdots\\ \dfrac{\partial f_n(x)}{\partial x_1}& \cdots& \dfrac{\partial f_n(x)}{\partial x_n}\end{pmatrix}= \begin{pmatrix}1+\dfrac{3\cdot 0,\!43429}{x_1}&-2x_2\\ 4x_1-x_2-5&-x_1\end{pmatrix}\!,[/math] то

[math]\begin{gathered}W(x^{(0)})= \begin{pmatrix}1+\dfrac{3\cdot 0,\!43429}{3,\!5}&-2\cdot 2,\!2\\ 4\cdot 3,\!5-2,\!2-5&-x_1\end{pmatrix}= \begin{pmatrix}1,\!372248571&-4,\!4\\ 6,\!8&-3,\!5 \end{pmatrix}\!, \\[2pt] \begin{pmatrix}1,\!372248571&-4,\!4\\ 6,\!8&-3,\!5 \end{pmatrix}\! \Delta x^{(0)}=-F(x^{(0)})=-\begin{pmatrix}3,\!5+3\cdot \lg3,\!5-2,\!2^2\\ 2\cdot 3,\!5-3,\!5\cdot 2,\!2-5\cdot 3,\!5+1\end{pmatrix}= \begin{pmatrix}-0,\!29220413\\-0,\!3\end{pmatrix}\!. \end{gathered}[/math]

Отсюда с помощью метода Гаусса единственного деления находим [math]\Delta x^{(0)}= \begin{pmatrix}-0,\!011835967\\ 0,\!062718692\end{pmatrix}[/math].


3°. Вычислим [math]x^{(1)}= x^{(0)}+ \Delta x^{(0)}= \begin{pmatrix}3,\!5\\ 2,\!2\end{pmatrix}+ \begin{pmatrix}-0,\!011835967\\ 0,\!062718692\end{pmatrix}= \begin{pmatrix}3,\!488164032\\ 2,\!262718691\end{pmatrix}[/math].


Этот же результат может быть непосредственно получен по формуле (3.31):


[math]x^{(1)}= \begin{pmatrix}3,\!5\\ 2,\!2\end{pmatrix}-\frac{1}{25,\!11713}\cdot\! \begin{pmatrix}-3,\!5&4,\!4\\-6,\!8&1,\!37248571\end{pmatrix}\!\cdot\! \begin{pmatrix}-0,\!29220413\\-0,\!3\end{pmatrix}= \begin{pmatrix}3,\!488164032\\ 2,\!262718691\end{pmatrix}\!.[/math]

4°. Так как [math]\Delta^{(1)}= \max \bigl\{0,\!011835967; 0,\!062718692\bigr\}= 0,\!062718692> \varepsilon[/math], то положим [math]k=1[/math] и перейдем к пункту 2.


2(1). Составим систему (3.32): [math]\begin{pmatrix}1,\!373511678&-4,\!525437382\\ 6,\!689937437&-3,\!488164032\end{pmatrix}\!\cdot \Delta x^{(1)}= \begin{pmatrix}0,\!00394114&-0,\!00102252 \end{pmatrix}[/math].


Применяя метод Гаусса единственного деления, получаем


[math]\Delta x^{(1)}= \begin{pmatrix}-7,\!21032383\cdot 10^4\\[2pt]-0,\!001089727 \end{pmatrix}\!.[/math]

3.1. Вычислим [math]x^{(2)}= x^{(2)}+ \Delta x^{(2)}= \begin{pmatrix}3,\!487443\\ 2,\!261628964 \end{pmatrix}[/math].


4(1). Так как [math]\Delta^{(2)}= \max\! \left\{|-7,\!21032383\cdot 10^4|,\, |-0,\!001089727|\right\}= 0,\!001089727> \varepsilon[/math], то положим [math]k=2[/math] и продолжим решение по алгоритму. Результаты дальнейших расчетов приведены в табл. 3.20.


[math]\begin{array}{|c|c|c|c|c|} \multicolumn{5}{r}{\mathit{Table~3.20}}\\\hline k& 0& 1& 2& 3\\\hline\begin{matrix}{}\\[-6pt]{}\end{matrix} x_1^{(k)}& 3,\!500000& 3,\!488164032& 3,\!487443000& 3,\!487442788 \\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} x_2^{(k)}& 2,\!200000& 2,\!262718691& 2,\!261628964&2,\!261628631 \\\hline \begin{matrix}{}\\[-8pt]{}\end{matrix} \Delta &-& 0,\!062718692& 0,\!001089727&3,\!33446159\cdot 10^{-7} \\\hline \end{array}[/math]

Из сопоставления полученных результатов с табл. 3.17 следует, что по методу простых итераций точность [math]\varepsilon= 0,\!001[/math] достигается за четыре итерации, а методом Ньютона точность [math]\varepsilon=10^{-5}[/math] достигнута всего за три приближения.


Пример 3.21. Найти решение системы методом Ньютона с точностью [math]\varepsilon= 0,\!005[/math]

[math]\begin{cases}x_1^2+x_2^2+x_3^2=1,\\ 2x_1^2+x_2^2-4x_3=0,\\ 3x_1^2-4x_2+x_3^2=0.\end{cases}[/math]

▼ Решение

1. Выберем в качестве начального приближения [math]x^{(0)}= (0,\!5;\, 0,\!5;\, 0,\!5)^T[/math]. В поставленной задаче [math]\varepsilon= 0,\!005[/math]. Положим [math]k=0[/math].


2(0), 3(0). Воспользуемся формулой (3.31). Матрица Якоби имеет вид


[math]W(x)= \begin{pmatrix}2x_1& 2x_2& 2x_3\\ 4x_1&4x_2&-4\\ 6x_1&-4&2x_3 \end{pmatrix}\!.[/math]

В точке [math]x^{(0)}[/math] справедливо


[math]\begin{gathered}W(x^{(0)})= \begin{pmatrix}1&1&1\\ 2&1&-4\\ 3&-4&1 \end{pmatrix}\!,\qquad F(x^{(0)})= \begin{pmatrix}0,\!25+0,\!25+0,\!25-1\\ 0,\!5+0,\!25-2\\ 0,\!75-2+0,\!25 \end{pmatrix}= \begin{pmatrix}-0,\!25\\-1,\!25\\-1\end{pmatrix}\!,\\ \det W(x^{(0)})=-40,\qquad W^{-1}(x^{(0)})=-\frac{1}{40}\! \begin{pmatrix}3\!\!\not{\phantom{|}}\,8& 1\!\!\not{\phantom{|}}\,8& 1\!\!\not{\phantom{|}}\,8\\ 7\!\!\not{\phantom{|}}\,20& 1\!\!\not{\phantom{|}}\,20&-3\!\!\not{\phantom{|}}\,20\\ 11\!\!\not{\phantom{|}}\,40&-7\!\!\not{\phantom{|}}\,40& 1\!\!\not{\phantom{|}}\,40\end{pmatrix}\!. \end{gathered}[/math]

В результате

[math]\begin{aligned}x^{(1)}&= x^{(0)}-W^{-1}(x^{(0)})\cdot F(x^{(0)})=\\ &=\begin{pmatrix}0,\!5\\ 0,\!5\\ 0,\!5\end{pmatrix}-\begin{pmatrix}3\!\!\not{\phantom{|}}\,8& 1\!\!\not{\phantom{|}}\,8& 1\!\!\not{\phantom{|}}\,8\\ 7\!\!\not{\phantom{|}}\,20& 1\!\!\not{\phantom{|}}\,20&-3\!\!\not{\phantom{|}}\,20\\ 11\!\!\not{\phantom{|}}\,40&-7\!\!\not{\phantom{|}}\,40& 1\!\!\not{\phantom{|}}\,40\end{pmatrix}\!\cdot\! \begin{pmatrix}-0,\!25\\-1,\!25\\-1\end{pmatrix}=\\ &= \begin{pmatrix}0,\!5\\ 0,\!5\\ 0,\!5\end{pmatrix}+ \begin{pmatrix}0,\!375\\ 0\\-0,\!125\end{pmatrix}= \begin{pmatrix}0,\!875\\ 0,\!5\\ 0,\!375\end{pmatrix}\!. \end{aligned}[/math]

4(0). Так как [math]\Delta^{(1)}= \max \bigl\{0,\!375; 0; |-0,\!125|\bigr\}= 0,\!375> \varepsilon[/math], то положим [math]k=1[/math] и перейдем к пункту 2.


2(1). В точке [math]x^{(1)}[/math] справедливо


[math]\begin{aligned}W(x^{(1)})&= \begin{pmatrix}2\cdot 0,\!875& 2\cdot 0,\!5& 2\cdot 0,\!375\\ 4\cdot 0,\!875& 2\cdot0,\!5&-4\\ 6\cdot0,\!875&-4&2\cdot0,\!375\end{pmatrix}= \begin{pmatrix}1,\!75& 1& 0,\!75\\ 3,\!5& 1&-4\\ 5,\!25&-4& 0,\!75 \end{pmatrix}\!,\\[4pt] F(x^{(1)})&= \begin{pmatrix}0,\!875^2+0,\!5^2+0,\!375^2-1\\ 2\cdot0,\!875^2+0,\!5^2-4\cdot 0,\!375\\ 3\cdot0,\!875^2-4\cdot0,\!5+ 0,\!375^2\end{pmatrix}= \begin{pmatrix}0,\!15625\\ 0,\!28125\\ 0,\!4375 \end{pmatrix}\!. \end{aligned}[/math]

Составим и решим систему


[math]\begin{pmatrix}1,\!75&1& 0,\!75\\ 3,\!5&1&-4\\ 5,\!25&-4&0,\!75\end{pmatrix}\cdot \Delta x^{(1)}=-\begin{pmatrix}0,\!15625\\ 0,\!28125\\ 0,\!4375\end{pmatrix}\!.[/math]

С помощью метода Гаусса единственного деления получаем


[math]\Delta x^{(1)}= \begin{pmatrix}-0,\!084995\\ -0,\!0032467\\ -0,\!0056818 \end{pmatrix}\!.[/math]

3(1). Вычислим

[math]x^{(2)}= x^{(1)}+ \Delta x^{(1)}= \begin{pmatrix}0,\!790005\\ 0,\!496753\\ 0,\!369318 \end{pmatrix}\!.[/math]

4(1). Так как [math]\Delta^{(2)}= \max_{i} \bigl|\Delta x_i^{(1)}\bigr|= 0,\!084995> \varepsilon= 0,\!005[/math], то положим [math]k=2[/math] и перейдем к пункту 2.


2(2). Составим и решим систему

[math]\begin{pmatrix}1,\!58001& 0,\!993506& 0,\!738636\\ 3,\!16002\!& 1,\!987012\!&-4\\ 4,\!74003&-4&0,\!738636 \end{pmatrix}\!\cdot \Delta x^{(2)}=-\begin{pmatrix}0,\!007267\\ 0,\!017707\\ 0,\!021707 \end{pmatrix}\!.[/math]

Применяя метод Гаусса, находим

[math]\Delta x^{(2)}=-\begin{pmatrix}-0,\!004785\\-0,\!000136\\0,\!000579 \end{pmatrix}\!.[/math]

3(2). Вычислим

[math]x^{(3)}= x^{(2)}+ \Delta x^{(2)}= \begin{pmatrix}0,\!785220\\ 0,\!496617\\ 0,\!369897\end{pmatrix}\!.[/math]

4(2).Так как [math]\Delta x^{(3)}= \max_{i} \bigl|\Delta x_i^{(2)}\bigr|= 0,\!004785< 0,\!005[/math], то процесс завершен и [math]x_{\ast}\cong x^{(3)}[/math].




Упрощенный метод Ньютона для нелинейных систем


В этом методе в отличие от метода Ньютона (3.31) обратная матрица ищется только один раз в начальной точке [math]x^{(0)}\colon[/math]


[math]x^{(k+1)}= x^{(k)}-W^{-1}(x^{(0)})\cdot F(x^{(k)}),\quad k=0,1,2,\ldots[/math]
(3.33)

Заметим, что при решении одного уравнения [math]f(x)=0[/math] упрощенным методом Ньютона производная функции вычисляется также один раз в начальной точке.


Методика решения задачи аналогична изложенной в предыдущем разделе, где вместо (3.32) используется система


[math]W(x^{(0)})\cdot \Delta x^{(k)}=-F(x^{(k)}),\quad k=0,1,2,\ldots[/math]

матрица которой [math]W(x^{(0)})[/math] не изменяется от итерации к итерации.


Очевидно, сходимость упрощенного метода Ньютона в общем случае хуже по сравнению со сходимостью процесса (3.31).


Пример 3.22. Найти положительное решение системы [math]\left\{\!\begin{aligned}& f_1(x)= x_1^2+x_2^2-1,\\ & f_2(x)= x_1^3-x_2=0 \end{aligned}\right.[/math] упрощенным методом Ньютона с точностью [math]\varepsilon=10^{-4}[/math]


▼ Решение

1. Выберем начальное приближение. Из рис. 3.18 следует, что для нахождения положительного решения системы можно принять [math]x^{(0)}= (0,\!9;\, 0,\!5)^T[/math].


В поставленной задаче [math]\varepsilon=10^{-4}[/math]. Положим [math]k=0[/math].


2(0), 3(0). Так как [math]W(x)= \begin{pmatrix}2x_1& 2x_2\\ 3x_1^2&-1\end{pmatrix}\!,~ F(x)= \begin{pmatrix}x_1^2+x_2^2-1\\ x_1^3-x_2\end{pmatrix}[/math], то для выполнения вычислений по формуле (3.33) найдем обратную матрицу [math]W^{-1}(x^{(0)})\colon[/math]


[math]\begin{gathered}W(x^{(0)})= \begin{pmatrix}1,\!8&1\\ 2,\!43&-1\end{pmatrix}\!,\qquad \det W(x^{(0)})=-1,\!8-2,\!43=-4,\!23\,;\\[2pt] W^{-1}(x^{(0)})=-\frac{1}{4,\!23}\! \begin{pmatrix}-1&-1\\-2,\!43&1,\!8 \end{pmatrix}= \begin{pmatrix}0,\!2364& 0,\!2364\\ 0,\!5745&-0,\!4255 \end{pmatrix}\!. \end{gathered}[/math]

Поэтому

[math]\begin{aligned}x^{(1)}&= x^{(0)}-W^{-1}(x^{(0)})\cdot F(x^{(0)})=\\ &=\begin{pmatrix} 0,\!9\\ 0,\!5\end{pmatrix}-\begin{pmatrix}0,\!2364& 0,\!2364\\ 0,\!5745&-0,\!4255\end{pmatrix}\!\cdot\! \begin{pmatrix}0,\!060\\ 0,\!229\end{pmatrix}=\\ &=\begin{pmatrix}0,\!9\\ 0,\!5\end{pmatrix}-\begin{pmatrix} 0,\!06832\\-0,\!06297\end{pmatrix}= \begin{pmatrix}0,\!83167\\ 0,\!56298\end{pmatrix}\!. \end{aligned}[/math]

4(0). Так как [math]\Delta x^{(1)}= \max \bigl\{|-0,\!06832|,|0,\!06297|\bigr\}= 0,\!06832> \varepsilon[/math], то положим [math]k=1[/math] и перейдем к п.2.


2(1), 3(1). По формуле (3.33) получаем


[math]\begin{aligned}x^{(2)}&= x^{(1)}-W^{-1}(x^{(0)})\cdot F(x^{(1)})= \\ &=\begin{pmatrix}0,\!83167\\ 0,\!56298\end{pmatrix}-\begin{pmatrix}0,\!2364& 0,\!2364\\ 0,\!5745&-0,\!4255\end{pmatrix}\!\cdot\! \begin{pmatrix}0,\!008619\\ 0,\!012267\end{pmatrix}=\\ &=\begin{pmatrix} 0,\!83167\\ 0,\!56298\end{pmatrix}-\begin{pmatrix}0,\!004937\\-0,\!000268\end{pmatrix}= \begin{pmatrix}0,\!826732\\ 0,\!563246\end{pmatrix}\!.\end{aligned}[/math]

4(1). Так как [math]\Delta^{(2)}= 0,\!004937>\varepsilon[/math], то положим [math]k=2[/math] и перейдем к пункту 2.


2(2), 3(2). По формуле (3.33) получаем


[math]\begin{aligned}x^{(3)}&= x^{(2)}-W^{-1}(x^{(0)})\cdot F(x^{(2)})= \\ &=\begin{pmatrix}0,\!826732\\ 0,\!563246\end{pmatrix}-\begin{pmatrix}0,\!2364& 0,\!2364\\ 0,\!5745&-0,\!4255\end{pmatrix}\!\cdot\! \begin{pmatrix}0,\!000732\\ 0,\!001814\end{pmatrix}=\\ &=\begin{pmatrix} 0,\!826732\\ 0,\!563246\end{pmatrix}-\begin{pmatrix}0,\!000602\\-0,\!00035l\end{pmatrix}= \begin{pmatrix}0,\!82613\\ 0,\!56359\end{pmatrix}\!.\end{aligned}[/math]

4(2). Поскольку [math]\Delta^{(3)}=0,\!000602> \varepsilon[/math], то положим [math]k=3[/math] и перейдем к пункту 2.


2(3), 3(3). По формуле (3.33) имеем


[math]\begin{aligned}x^{(4)}&= x^{(3)}-W^{-1}(x^{(0)})\cdot F(x^{(3)})= \\ &=\begin{pmatrix}0,\!82613\\ 0,\!56359\end{pmatrix}-\begin{pmatrix}0,\!2364& 0,\!2364\\ 0,\!5745&-0,\!4255\end{pmatrix}\!\cdot\! \begin{pmatrix}0,\!000124\\ 0,\!000236\end{pmatrix}=\\ &=\begin{pmatrix} 0,\!82613\\ 0,\!56359\end{pmatrix}-\begin{pmatrix}8,\!524\cdot 10^{-5}\\-2,\!89692\cdot 10^{-5} \end{pmatrix}= \begin{pmatrix}0,\!8260447\\ 0,\!5636189 \end{pmatrix}\!. \end{aligned}[/math]

4(3).Поскольку [math]\Delta^{(4)}= 8\!524\cdot 10^{-5}< \varepsilon= 0,\!0001[/math], то процесс завершен и [math]x_{\ast}\cong x^{(4)}[/math].




Метод секущих для решения нелинейных систем уравнений


Идея метода секущих (метода Бройдена) заключается в аппроксимации матрицы Якоби с использованием уже вычисленных значений функций, образующих систему (сравните с методом секущих для уравнения [math]f(x)=0[/math], изложенным ранее).


Алгоритм метода секущих для нелинейных систем[/indent]
1. Задать начальное приближение [math]x^{(0)}[/math] и малое положительное число е.
2. Положить [math]k=0[/math] и [math]A_0=W(x^{(0)})[/math], где [math]W(x)[/math] — матрица Якоби.
3. Решить систему линейных алгебраических уравнений [math]A_ks_k=-F(x^{(k)})[/math] относительно [math]s_k[/math] — поправки к текущему приближению.
4. Вычислить [math]x^{(k+1)}= x^{(k)}+s_k[/math].
5. Если [math]\|s_k\|\leqslant \varepsilon[/math], процесс завершить и положить [math]x_{\ast}= x^{(k+1)}[/math]. Если [math]\|s_k\|>\varepsilon[/math], вычислить
[math]y_k= F(x^{(k+1)})-F(x^{(k)}),\qquad A_{k+1}= A_k+\frac{(y_k-A_ks_k)\cdot s_k^T}{s_k^Ts_k}\,,[/math]
положить [math]k=k+1[/math] и перейти к п.3.

Замечания


1. Можно доказать, что если [math]x^{(0)}[/math] достаточно близко к корню [math]x_{\ast}[/math], где матрица Якоби [math]W(x_{\ast})[/math] не вырождена, и если [math]A_0[/math] достаточно близка к [math]W(x^{(0)})[/math], то последовательность итераций [math]\{x^{(k)}\}[/math] сходится к [math]x_{\ast}[/math] сверхлинейно.


2. Когда метод секущих сходится к [math]x_{\ast}[/math] сверхлинейно, нельзя предполагать, что последняя из аппроксимаций якобиана [math]A_k[/math] будет приблизительно равняться [math]W(x_{\ast})[/math], хотя часто это именно так.


▼ Примеры 3.23-3.24

Пример 3.23. Решить систему нелинейных уравнений методом секущих [math]\left\{\!\begin{aligned}& f_1(x)=x_1+x_2-3=0,\\ & f_2(x)=x_1^2+x_2^2-9=0. \end{aligned}\right.[/math]


▼ Решение

1. Как следует из примера 3.18, для нахождения корня [math]x_{\ast}= (0;\,3)^T[/math] можно выбрать начальное приближение [math]x^{(0)}=(1;\,5)^T[/math] и [math]\varepsilon=0,\!001[/math].


2. Положим [math]k=0[/math] и [math]A_0= W(x^{(0)})= \begin{pmatrix}1&1\\ 2&10 \end{pmatrix}[/math], так как [math]W(x)= \begin{pmatrix}1&1\\ 2x_2&2x_2\end{pmatrix}[/math].


3(0). Решим систему [math]A_0\cdot s_0=-F(x^{(0)})[/math]. Так как [math]F(x^{(0)})= \begin{pmatrix} 3\\17\end{pmatrix}[/math], то [math]s_0=-A_0^{-1}F(x^{(0)})= \begin{pmatrix}-1,\!625\\-1,\!375 \end{pmatrix}[/math].


4(0). Вычислим [math]x^{(1)}=x^{(0)}+s_0= \begin{pmatrix}1\\5\end{pmatrix}+ \begin{pmatrix}-1,\!625\\-1,\!375\end{pmatrix}= \begin{pmatrix}-0,\!625\\3,\!625\end{pmatrix}[/math].


5(0). Поскольку [math]\|s_0\|_1=1,\!625>\varepsilon[/math], то вычислим


[math]\begin{aligned}y_0&=F(x^{(1)})-F(x^{(0)})= \begin{pmatrix}0\\4,\!53125\end{pmatrix}-\begin{pmatrix}3\\17 \end{pmatrix}= \begin{pmatrix}-3\\-12,\!46875\end{pmatrix}\!,\\[4pt] s_0^Ts_0&= \begin{pmatrix}-1,\!625&-1,\!375\end{pmatrix}\!\cdot\! \begin{pmatrix}-1,\!625\\-1,\!375\end{pmatrix}= 4,\!53125,\\[4pt] y_0-A_0s_0&= \begin{pmatrix}-3\\-12,\!46875\end{pmatrix}-\begin{pmatrix}1&1\\2&10 \end{pmatrix}\!\cdot\! \begin{pmatrix}-1,\!625\\-1,\!375\end{pmatrix}= \begin{pmatrix}-3\\-12,\!46875\end{pmatrix}-\begin{pmatrix}-3\\-17\end{pmatrix}= \begin{pmatrix}0\\4,\!53125 \end{pmatrix}\!,\\[4pt] (y_0-A_0s_0)\cdot s_0^T&= \begin{pmatrix}0\\4,\!53125 \end{pmatrix}\!\cdot\! \begin{pmatrix}-1,\!625&-1,\!375\end{pmatrix}\!;\\[4pt] A_1&=A_0+\frac{(y_0-A_0s_0)\cdot s_0^T}{s_0^Ts_0}= \begin{pmatrix}1&1\\2&10 \end{pmatrix}+ \begin{pmatrix}0&0\\-1,\!625&-1,\!375\end{pmatrix}= \begin{pmatrix}1&1\\0,\!375&8,\!625\end{pmatrix}\!. \end{aligned}[/math]

Положим [math]k=1[/math] и перейдем к пункту 3.


3(1). Решим систему [math]A_1\cdot s_1=-F(x^{(1)})[/math], то есть [math]\begin{pmatrix}1&1\\ 0,\!375&8,\!625\end{pmatrix}\!s_1=-\begin{pmatrix}0\\4,\!53125\end{pmatrix}[/math].


Применяя метод Гаусса, получаем [math]s_1=-A_1^{-1}\cdot F(x^{(1)})= \begin{pmatrix}0,\!549\\-0,\!549 \end{pmatrix}[/math].


4(1). Вычислим [math](x^{(2)}= (x^{(1)}+s_1= \begin{pmatrix}-0,\!625\\ 3,\!625\end{pmatrix}+ \begin{pmatrix}0,\!549\\-0,\!549 \end{pmatrix}= \begin{pmatrix}-0,\!076\\3,\!076 \end{pmatrix}[/math].


5(1). Поскольку [math]\|s_1\|_1=01,\!549>\varepsilon[/math], то вычислим [math]A_2= \begin{pmatrix} 1&1\\-0,\!799& 8,\!201\end{pmatrix}[/math], положим [math]k=2[/math] и перейдем к пункту 3. Результаты вычислений приведены в табл. 3.21.


[math]\begin{array}{|c|c|c|c|c|c|c|}\multicolumn{7}{r}{\mathit{Table~3.21}}\\\hline k& 0& 1& 2& 3& 4&5 \\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} x_1^{(k)}&1 &-0,\!625 &-0,\!0757575 &-0,\!0127942 &-0,\!0003138 &0,\!0000013 \\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} x_2^{(k)}&5 &3,\!625 &3,\!0757575 &3,\!0127942 &3,\!0003138 &3,\!0000013 \\\hline \begin{matrix}{}\\[-8pt]{}\end{matrix} \Delta&-&1,\!625 &0,\!549 &0,\!0629 &0,\!01248 &0,\!00031 \\\hline \end{array}[/math]

Полученное приближенное решение [math]x_{\ast}\cong (0,\!0000013;\, 3,\!0000013)^T[/math].


Пример 3.24. Решить систему [math]\begin{cases}x_1^2+x_2^2-2=0,\\ e^{x_1-1}+x_2^3-2=0\end{cases}[/math] методом секущих с точностью [math]\varepsilon= 0,\!01[/math].


▼ Решение

Очевидно, точное решение системы [math]x_{\ast}= (1;\,1)^T[/math]. Выберем начальное приближение [math]x^{(0)}= (1,\!5;\,2)^T[/math]. В поставленной задаче [math]\varepsilon= 0,\!01[/math].


Так как [math]W(x)= \begin{pmatrix}2x_1& 2x_2\\ e^{x_1-1}& 3x_2^2\end{pmatrix}[/math], то положим [math]A_0= W(x^{(0)})= \begin{pmatrix}3&4\\ 1,\!6487&12\end{pmatrix}[/math].


Результаты расчетов приведены в табл. 3.22.


[math]\begin{array}{|c|c|c|c|c|c|c|c|} \multicolumn{8}{r}{\mathit{Table~3.22}}\\\hline k& 0& 1& 2& 3& 4& 5&6 \\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} x_1^{(k)}& 1,\!5& 0,\!8060692& 0,\!7410741& 0,\!8022786& 0,\!9294701& 1,\!004003&1,\!003084 \\\hline \begin{matrix}{}\\[-6pt]{}\end{matrix} x_2^{(k)}& 2& 1,\!457948& 1,\!277067& 1,\!159900& 1,\!070406& 1,\!003084&0,\!9992213 \\\hline \begin{matrix}{}\\[-8pt]{}\end{matrix} \Delta&-& 0,\!69393& 0,\!18088& 0,\!11717& 0,\!12719& 0,\!07453&0,\!0038 \\\hline \end{array}[/math]

Найдено приближенное решение: [math]x_{\ast}\cong (1,\!003084;\,0,\!9992213)^T[/math].


Часовой пояс: UTC + 4 часа [ Летнее время ]


Яндекс.Метрика

Copyright © 2010-2016 MathHelpPlanet.com. All rights reserved