Математический форум Math Help Planet
Обсуждение и решение задач по математике, физике, химии, экономике Теоретический раздел |
Часовой пояс: UTC + 3 часа [ Летнее время ] |
новый онлайн-сервис число, сумма и дата прописью |
|
Часовой пояс: UTC + 3 часа [ Летнее время ] |
Численные методы решения СЛАУ | |
---|---|
Онлайн-сервисы
Нахождение НОД и НОК
Разложение числа на простые множители
Сравнения по модулю
Операции над множествами
Операции над векторами
Разложение вектора по базису. Доказательство, что векторы образуют базис
Чертёж треугольника по координатам вершин
Решение треугольника
Решение Пирамиды
Построение Пирамиды по координатам вершин
Чертёж многоугольника по координатам вершин
Решение систем методом Крамера и Матричным
Онлайн построение графика кривой 2-го порядка
Определение вида кривой или поверхности 2-го порядка по инвариантам
МНК и регрессионный анализ Онлайн + графики
Онлайн число, сумма и дата прописью
Алгоритмы JavaScript
Алгоритмы поиска
Алгоритмы сортировки
Уникальные элементы массива
Объединение, пересечение и разность массивов
НОД и НОК
Операции над матрицами
Дата прописью
Введение в анализ
Функции: понятие, определение, графики
Непрерывность функции
Исследование функции и построение графика
Теория множеств
Множества: понятие, определение, примеры
Точечные множества
Замкнутые и открытые множества
Мера множества
Группы, кольца, поля в математике
Поле комплексных чисел
Кольцо многочленов
Основная теорема алгебры и ее следствия
Математическая логика
Алгебра высказываний
Аксиоматика и логические рассуждения
Методы доказательств теорем
Алгебра высказываний и операции над ними
Формулы алгебры высказываний
Тавтологии алгебры высказываний
Логическая равносильность формул
Нормальные формы для формул высказываний
Логическое следование формул
Приложение алгебры высказываний для теорем
Дедуктивные и индуктивные умозаключения
Решение логических задач
Принцип полной дизъюнкции
Булевы функции
Множества, отношения и функции в логике
Булевы функции от одного и двух аргументов
Булевы функции от n аргументов
Системы булевых функций
Применение булевых функций к релейно-контактным схемам
Релейно-контактные схемы в ЭВМ
Практическое применение булевых функций
Теория формального
Формализованное исчисление высказываний
Полнота и другие свойства формализованного исчисления высказываний
Независимость системы аксиом формализованного исчисления высказываний
Логика предикатов
Логика предикатов
Логические операции над предикатами
Кванторные операции над предикатами
Формулы логики предикатов
Тавтологии логики предикатов
Преобразования формул и следование их предикатов
Проблемы разрешения для общезначимости и выполнимости формул
Применение логики предикатов в математике
Строение математических теорем
Аристотелева силлогистика и методы рассуждений
Принцип полной дизъюнкции в предикатной форме
Метод полной математической индукции
Необходимые и достаточные условия
Логика предикатов и алгебра множеств
Формализованное исчисление предикатов
Неформальные и формаль-ные аксиоматические теории
Неформальные аксиоматические теории
Свойства аксиоматических теорий
Формальные аксиоматические теории
Формализация теории аристотелевых силлогизмов
Свойства формализованного исчисления предикатов
Формальные теории первого порядка
Формализация математической теории
Теория алгоритмов
Интуитивное представление об алгоритмах
Машины Тьюринга и тезис
Рекурсивные функции
Нормальные алгоритмы Маркова
Разрешимость и перечислимость множеств
Неразрешимые алгоритмические проблемы
Теорема Гёделя о неполноте формальной арифметики
Математическая логика и компьютеры
Дискретная математика
Множества и отношения
Теория множеств: понятия и определения
Операции над множествами
Кортеж и декартово произведение множеств
Соответствия и бинарные отношения на множествах
Операции над соответствиями на множествах
Семейства множеств
Специальные свойства бинарных отношений
Отношения эквивалентности на множестве
Упорядоченные множества
Теорема о неподвижной точке
Мощность множества
Парадокс Рассела
Метод характеристических функций
Группы и кольца
Алгебраические структуры и операции
Группоиды, полугруппы, группы
Кольца, тела, поля
Области целостности в теории колец
Модули и линейные пространства
Подгруппы и подкольца
Теорема Лагранжа о порядке конечной группы
Гомоморфизмы групп и нормальные делители
Гомоморфизмы и изоморфизмы колец
Алгебра кватернионов
Полукольца и булевы алгебры
Полукольца: определение, аксиомы, примеры
Замкнутые полукольца
Полукольца и системы линейных уравнений
Булевы алгебры и полукольца
Решетки и полурешетки
Алгебраические системы
Алгебраические системы: модели и алгебры
Подсистемы алгебраических систем
Конгруэнции и фактор-системы
Гомоморфизмы алгебраических систем
Прямые произведения алгебраических систем
Конечные булевы алгебры
Многосортные алгебры
Теория графов
Теория графов: основные понятия и определения
Способы представления графов
Неориентированные и ориентированные деревья
Остовное дерево и алгоритм Краскала
Методы систематического обхода вершин графа
Алгоритмы поиска в глубину и ширину в графах
Задача о путях во взвешенных ориентированных графах
Изоморфизм, гомоморфизм и автоморфизм графов
Топологическая сортировка вершин графа
Элементы цикломатики в теории графов
Булева алгебра и функции
Булевы функции и булев куб
Таблицы булевых функций и булев оператор
Равенство булевых функций. Фиктивные переменные
Формулы и суперпозиции булевых функций
Дизъюнктивные и конъюнктивные нормальные формы
Построение минимальных ДНФ
Теорема Поста и классы
Критерий Поста
Схемы из функциональных элементов
Конечные автоматы и регулярные языки
Конечные автоматы и регулярные языки
Алфавит, слово, язык в программировании
Порождающие грамматики (грамматики Хомского)
Классификация грамматик и языков
Регулярные языки и регулярные выражения
Конечные автоматы
Допустимость языка конечным автоматом
Теорема Клини
Детерминизация конечных автоматов
Минимизация конечных автоматов
Лемма о разрастании для регулярных языков
Обоснование алгоритма детерминизации автоматов
Конечные автоматы с выходом
Морфизмы и конечные подстановки
Машины Тьюринга
Контекстно-свободные языки
Контекстно-свободные языки и грамматики
Приведенная форма КС-грамматики
Лемма о разрастании для КС-языков
Магазинные автоматы (автомат с магазинной памятью)
Алгоритм построения МП-автомата по КС-грамматике
Алгоритм построения КС-грамматики по МП-автомату
Алгебраические свойства КС-языков
Основное свойство суперпозиции КС-языков
Пересечение контекстно-свободных языков
Методы синтаксического анализа КС-языков
Восходящий синтаксический анализ и LR(k)-грамматики
Семантика формальных языков
Принцип индукции по неподвижной точке
Графовое представление МП-автоматов
Интегральное исчисление
Неопределённый и определённый
Неопределенный и определенный интегралы
Свойства интегралов
Интегрирование по частям
Интегрирование методом замены переменной
Интегрирование различных рациональных функций
Интегрирование различных иррациональных функций
Интегрирование различных тригонометрических функций
Определенный интеграл и его основные свойства
Необходимое и достаточное условие интегрируемости
Теоремы существования первообразной
Свойства определенных интегралов
Несобственные интегралы
Интегральное определение логарифмической функции
Приложения интегралов
Вычисление площадей плоских фигур
Площади фигур в различных координатах
Вычисление объемов тел с помощью интегралов
Объём тела вращения
Вычисление длин дуг кривых
Формулы длины дуги регулярной кривой
Кривизна плоской кривой
Площадь поверхности вращения тела
Интегралы в физике
Статические моменты и координаты центра тяжести
Теоремы Гульдина–Паппа
Вычисление моментов инерции
Другие приложения интегралов в физике
Основные интегралы
Вариационное исчисление
Примеры вариационных задач
Дифференциальное уравнение Эйлера
Функционалы, зависящие от нескольких функций
Задача о минимуме кратного интеграла
Финансовый анализ
Анализ эффективности
Критерии и показатели эффективности предприятия
Методы анализа эффективности деятельности
Факторный анализ прибыли от операционной деятельности
Анализ безубыточности предприятия
Операционный рычаг и эффект финансового рычага
Анализ и оценка состава, структуры и динамики доходов и расходов
Анализ рентабельности и резервов устойчивого роста капитала
Анализ распределения прибыли предприятия
Анализ и оценка чувствительности показателей эффективности
Анализ устойчивости
Финансовая устойчивость и долгосрочная платежеспособность
Характеристика типов финансовой устойчивости
Рыночная активность
Финансовый анализ рыночной активности
Методика анализа рыночной активности
Анализ и оценка дивидендного дохода на одну акцию
Инвестиционная деятельность
Инвестиции: экономическая сущность и классификация
Государственное регулирование инвестиционной деятельности
Источники финансовых ресурсов на капитальные вложения
Инвестиции в основные фонды
Оценка состояния основных фондов
Амортизация основных фондов
Капитальное строительство в инвестиционном процессе
Планирование инвестиций в форме капитальных вложений
Экономическая эффективность инвестиций
Финансирование капитальных вложений
Кредитование капитальных вложений
Кредитоспособность
Финансирование и кредитование затрат
Финансирование и кредитование инвестиционной деятельности потребительской кооперации
Финансирование и кредитование капитальных вложений потребительской кооперации
Инвестиционное строительное проектирование
Анализ инвестиций
Инвестиции и инвестиционная деятельность предприятия
Задачи финансового анализа инвестиций предприятия
Учет фактора времени в инвестиционной деятельности
Аннуитет и финансовая рента в инвестициях
Учет фактора инфляции при инвестировании
Оценка фактора риска инвестиционного проекта
Методы оценки эффективности инвестиций
Показатели эффективности инвестиционного проекта
Стоимость компании
Концепция построения международных стандартов финансовой отчетности (МСФО)
Экономическое содержание международных стандартов финансовой отчётности
Цели и принципы оценки стоимости акций и активов компании
Оценка акций и активов предприятия по справедливой стоимости
Методы оценки справедливой стоимости акций предприятия
Затратный подход к оценки стоимости компаний и акций
Сравнительный подход к оценки стоимости предприятий и акций
Доходный подход к оценке стоимости компании и акций
Выбор ставки дисконтирования при инвестировании в акции
Метод капитализации прибыли
Сравнение подходов к оценке стоимости компаний и пакетов акций
Форвардные контракты
Форвардный контракт и цена
Форвардная цена акции на бирже
Цена форвардного контракта инвестора
Форвардная цена акции с учетом величины дивиденда
Форвардная цена акции с учетом ставки дивиденда
Форвардная цена валюты на рынке форекс
Форвардный валютный курс и инфляция на рынке
Форвардная цена товара и спотовый рынок
Форвардная цена при различии ставок по кредитам и депозитам
Синтетический форвардный контракт на акции и валюту
Теория вероятностей
Основные понятия теории вероятностей
Зависимые и независимые случайные события
Повторные независимые испытания
Формула Бернулли
Одномерные случайные величины
Многомерные случайные величины
Функции случайных величин
Законы распределения целочисленных случайных величин
Законы распределения непрерывных случайных величин
Предельные теоремы теории вероятностей
Закон больших чисел и предельные теоремы
Вероятностные закономерности
Математическая статистика
Элементы математической статистики
Выборочный метод
Оценки параметров генеральной совокупности
Статистические гипотезы
Критерии согласия
Теоретические и эмпирические частоты
Теория очередей (СМО)
Определение системы массового обслуживания
Уравнения Колмогорова
Предельные вероятности состояний
Определение СМО с отказами
Определение СМО с ожиданием (очередью)
Аналитическая геометрия
Векторная алгебра
Метрические понятия и аксиомы геометрии
Равенство и подобие геометрических фигур
Бинарные отношения
Вектор, его направление и длина
Линейные операции над векторами
Линейная зависимость и независимость векторов
Отношение коллинеарных векторов
Проекции векторов на прямую и на плоскость
Угол между векторами
Ортогональные проекции векторов
Координата вектора на прямой и базис
Координаты вектора на плоскости и базис
Координаты вектора в пространстве и базис
Операции над векторами в координатной форме
Ортогональный и ортонормированный базисы
Cкалярное произведение векторов и его свойства
Выражение скалярного произведения через координаты векторов
Векторное произведение векторов и его свойства
Смешанное произведение векторов и его свойства
Ориентированные площади и объемы
Двойное векторное произведение и его свойства
Применение векторов в задачах на аффинные свойства фигур
Применение произведений векторов при решении геометрических задач
Применение векторной алгебры в механике
Системы координат
Прямоугольные координаты
Преобразования прямоугольных координат
Полярная система координат
Цилиндрическая система координат
Сферические координаты
Аффинные координаты
Аффинные преобразования координат
Аффинные преобразования плоскости
Примеры аффинных преобразований плоскости
Аффинные преобразования пространства
Многомерное координатное пространство
Линейные и аффинные подпространства
Скалярное произведение n-мерных векторов
Преобразования систем координат
Геометрия на плоскости
Алгебраические линии на плоскости
Общие уравнения геометрических мест точек
Алгебраические уравнения линий на плоскости
Уравнения прямой, проходящей через точку перпендикулярно вектору
Уравнения прямой, проходящей через точку коллинеарно вектору
Уравнения прямой, проходящей через две точки
Уравнения прямой с угловым коэффициентом
Взаимное расположение прямых
Примеры задач с прямыми на плоскости
Системы неравенств с двумя неизвестными
Системы линейных уравнений с двумя неизвестными
Линии 2-го порядка
Канонические уравнения линий второго порядка
Порядок приведения уравнения линии к каноническому виду
Эллипс
Гипербола
Парабола
Квадратичные неравенства с двумя неизвестными
Применение линий 1-го и 2-го порядков в задачах на экстремум функций
Инварианты линий
Классификация линий 2-го порядка по инвариантам
Приведение уравнения линии к каноническому виду по инвариантам
Геометрия в пространстве
Способы задания ГМТ в пространстве
Алгебраические уравнения поверхностей
Уравнения плоскости, проходящей через точку перпендикулярно вектору
Уравнения плоскости, компланарной двум неколлинеарным векторам
Уравнения плоскости, проходящей через три точки
Взаимное расположение плоскостей
Типовые задачи с плоскостями
Уравнения прямых в пространстве
Взаимное расположение прямых в пространстве
Типовые задачи с прямыми в пространстве
Поверхности 2-го порядка
Канонические уравнения поверхностей
Порядок приведения уравнения поверхности к каноническому виду
Поверхности второго порядка
Эллипсоиды
Гиперболоиды
Конусы
Параболоиды
Применение поверхностей 1-го и 2-го порядков в задачах на экстремум функций
Инварианты поверхностей
Линейная алгебра
Матрицы и операции
Линейные операции над матрицами
Умножение матриц
Возведение матриц в степень
Многочлены от матриц
Транспонирование и сопряжение матриц
Блочные матрицы
Произведение и сумма матриц Кронекера
Метод Гаусса приведения матрицы к ступенчатому виду
Элементарные преобразования матриц
Определители
Определители матриц и их основные свойства
Формула полного разложения определителя
Формула Лапласа полного разложения определителя
Определитель произведения матриц
Методы вычисления определителей
Ранг матрицы
Линейная зависимость и линейная независимость строк (столбцов) матрицы
Ранг матрицы и базисный минор матрицы
Методы вычисления ранга матрицы
Ранг системы столбцов (строк)
Обратная матрица
Обратные матрицы и их свойства
Ортогональные и унитарные матрицы
Способы нахождения обратной матрицы
Матричные уравнения
Односторонние обратные матрицы
Скелетное разложение матрицы
Полуобратная матрица
Псевдообратная матрица
Системы уравнений
Системы линейных алгебраических уравнений
Метод Гаусса решения систем линейных уравнений
Структура общего решения системы уравнений
Решение систем с помощью полуобратных матриц
Псевдорешения системы линейных уравнений
Функциональные матрицы
Функциональные матрицы скалярного аргумента
Производные матриц по векторному аргументу
Линейные и квадратичные формы и их преобразования
Приведение форм к каноническому виду
Закон инерции вещественных квадратичных форм
Знакоопределенность форм вещественных квадратичных
Формы и исследование функций на экстремум
Многочленные матрицы
Многочленные матрицы (лямбда-матрицы)
Операции над лямбда-матрицами
Простые преобразования многочленных матриц
Инвариантные множители многочленной матрицы
Функции от матриц
Собственные векторы и значения матрицы
Подобие числовых матриц
Характеристический многочлен матрицы
Минимальный многочлен матрицы
Теорема Гамильтона-Кэли
Жорданова форма матрицы
Приведение матрицы к жордановой форме
Многочлены от матриц
Применение многочленов от матриц
Функции от матриц
Линейные пространства
Линейные пространства: определение и примеры
Линейная зависимость и независимость n-мерных векторов
Размерность и базис линейного пространства
Преобразования координат в линейном пространстве
Изоморфизм линейных пространств
Подпространства
Подпространства линейного пространства
Пересечение и сумма подпространств
Способы описания подпространств
Нахождение дополнения и суммы подпространств
Нахождение пересечения подпространств
Линейные отображения
Линейные многообразия
Линейные отображения
Матрица линейного отображения
Ядро и образ линейного отображения
Линейные операторы
Линейные операторы (преобразования)
Инвариантные подпространства
Собственные векторы и значения оператора
Свойства собственных векторов операторов
Канонический вид линейного оператора
Методика приведения линейного преобразования к каноническому виду
Евклидовы пространства
Евклидовы пространства
Ортогональные векторы евклидова пространства
Ортогональный базис евклидова пространства
Ортонормированный базис евклидова пространства
Ортогональные дополнения в евклидовом пространстве
Задача о перпендикуляре
Матрица и определитель Грама и его свойства
Линейные преобразования евклидовых пространств
Канонический вид ортогонального оператора евклидова пространства
Сопряженные операторы евклидова пространства
Самосопряженные операторы евклидова пространства
Приведение квадратичной формы к главным осям
Унитарные пространства и их линейные преобразования
Комплексный анализ
Комплексные числа
Комплексные числа в алгебраической форме
Комплексные числа в тригонометрической и показательной формах
Множества на комплексной плоскости
Последовательности и ряды комплексных чисел
Комплексные функции
Функции комплексного переменного. Предел, непрерывность и производная
Элементарные функции комплексного переменного
Дифференцирование функций комплексного переменного
Аналитические функции и их свойства
Конформные отображения
Функциональные ряды в комплексной области
и их свойства Интегрирование функций комплексного переменного
Функциональные ряды и последовательности
Степенные ряды и их свойства
Разложение функций в степенные ряды
Нули аналитических функций
Ряд Лорана и разложение функций по целым степеням
Особые точки, Вычеты
Изолированные особые точки функций и полюсы
Вычеты и их применение
Вычисление интегралов с помощью вычетов
Вычеты и расположение нулей многочлена
Операционное исчисление
Дифференциальные уравнения
ДУ первого порядка
Основные понятия и определения ДУ
Метод изоклин для ДУ 1-го порядка
Метод последовательных приближений
ДУ с разделяющимися переменными
Однородные ДУ
Линейные ДУ 1-го порядка
Дифференциальное уравнение Бернулли
ДУ в полных дифференциалах
Интегрирующий множитель
ДУ, не разрешенные относительно производной
Дифференциальное уравнение Риккати
Составление ДУ семейств линий
Задачи на траектории
Особые решения ДУ
ДУ высших порядков
Понятия и определения ДУ высших порядков
ДУ, допускающие понижение порядка
Линейная независимость функций
Определители Вронского и Грама
Однородные и неоднородные дифференциальные уравнения
Задача Коши и Уравнение Эйлера
Линейные ДУ с переменными коэффициентами
Метод Лагранжа решения ДУ
Краевые задачи для ДУ высших порядков
Разложение решения ДУ в степенной ряд
Разложение решения ДУ в обобщенный степенной ряд
Нахождение периодических решений ДУ
Асимптотическое интегрирование ДУ
Системы ДУ
Системы ДУ: понятия и определения
Сведение системы ДУ к одному уравнению
Нахождение интегрируемых комбинаций
Интегрирование однородных линейных систем ДУ
Методы интегрирования неоднородных систем ДУ
Преобразование Лапласа и решение ДУ и систем
Теория устойчивости
Численные методы
Методы алгебры
Численные методы линейной алгебры
Численные методы решения СЛАУ
Итерационный метод Шульца обратной матрицы
Методы решения задач о собственных значениях и векторах матрицы
Методы решения нелинейных уравнений
Методы решения систем нелинейных уравнений
Методы теории приближений
Методы приближения сеточных функций
Методы функциональной интерполяции
Методы интегрально-дифференциальной интерполяции
Методы интегрального сглаживания
Методы интерполяции и сглаживания сплайнами
Методы численного дифференцирования и интегрирования
Методы численного дифференцирования
Методы численного интегрирования
Методы решения обыкновенных ДУ
Численные методы решения задачи Коши
Разностные схемы для решения задачи Коши
Составные схемы для решения задачи Коши
Экстраполяционные методы решения задачи Коши
Непрерывно-дискретные методы решения задачи Коши
Численные методы решения краевых задач
Методы решения ДУ в частных производных
Численные методы решения уравнений математической физики с двумя переменными
Принципы построения разностных схем для уравнений в частных производных
Разностные схемы решения уравнений в частных производных 1-го порядка
Разностные схемы решения уравнений в частных производных 2-го порядка
Численные методы решения уравнений в частных производных
Численные методы решения уравнений математической физики с тремя переменными
|
Численные методы решения СЛАУПостановка задачиПрикладные задачи, характерные для проектирования современных объектов новой техники, часто сводятся к многомерным в общем случае нелинейным уравнениям, которые решаются методом линеаризации, т.е. сведением нелинейных уравнений к линейным. В общем случае система [math]n[/math] уравнений с [math]n[/math] неизвестными записывается в виде [math]\begin{cases}f_1(x_1,x_2,\ldots,x_n)=0,\\ f_2(x_1,x_2,\ldots,x_n)=0,\\[-3pt] \quad\vdots\\[-2pt] f_n(x_1,x_2,\ldots,x_n)=0, \end{cases}\quad \mathsf{(1.1)}[/math] где [math]f_1,f_2,\ldots,f_n[/math] - функции [math]n[/math] переменных, нелинейные или линейные ([math]x_i[/math] в функции [math]f_i[/math] входят в первых или частично в нулевых степенях). Здесь рассматривается частный случай задачи (1.1) — линейная неоднородная задача для систем линейных алгебраических уравнений (СЛАУ), которая сокращенно записывается в виде [math]Ax=b[/math] или [math]\begin{pmatrix}a_{11}& \cdots& a_{1n}\\ \vdots& \ddots& \vdots\\ a_{n1}&\cdots&a_{nn} \end{pmatrix}\! \cdot\! \begin{pmatrix}x_1\\ \vdots\\x_n \end{pmatrix}= \begin{pmatrix}b_1\\ \vdots\\b_n\end{pmatrix}\!,\qquad \mathsf{(1.2)}[/math] где [math]A=(a_{ij}\in \mathbb{R}^{n\times n}[/math] — действительная матрица размера [math](n\times n),~i,\,j[/math] — переменные, соответствующие номерам строк и столбцов (целые числа); [math]b=(b_1,\ldots,b_n)^T\in \mathbb{R}^n[/math] — вектор-столбец размера [math](n\times1),~ x=(x_1,\ldots,x_n)^T\in \mathbb{R}^n[/math] — вектор-столбец неизвестных, [math]\mathbb{R}^n[/math] — n-мерное евклидово пространство, верхний индекс [math]T[/math] здесь и далее обозначает операцию транспонирования. Требуется найти решение [math]x_{\ast}= (x_{\ast1},\ldots, x_{\ast n})^T\in \mathbb{R}^n[/math] системы (1.2), подстановка которого в (1.2) приводит к верному равенству [math]Ax_{\ast}=b[/math]. Замечания 1. Из линейной алгебры известно, что решение задачи (1.2) существует и единственно, если детерминант матрицы [math]A[/math] отличен от нуля, т.е. [math]\det A \equiv |A|\ne0[/math] ([math]A[/math] — невырожденная матрица, называемая также неособенной). 2. Поставленная задача часто именуется первой задачей линейной алгебры. Подчеркнем, что в ней входными (исходными) данными являются матрица [math]A[/math] и вектор [math]b[/math], а выходными — вектор [math]x[/math]. 3. Задача (1.2) имеет следующие особенности: а) задача линейная (все переменные [math]x_{i}[/math], входящие в систему, имеют степени не выше первой) и неоднородная [math](b\ne0)[/math]; б) количество уравнений равно количеству неизвестных (система замкнута); в) количество уравнений для некоторых практических задач велико: [math]n>k\cdot10^3~ (k=1\div10^3)[/math]; г) при больших [math]n[/math] использовать формулу [math]x=A^{-1}b[/math] не рекомендуется в силу трудностей нахождения обратной матрицы. 4. Важнейшим признаком любой математической задачи, который надо в первую очередь принимать во внимание при ее анализе и выборе метода решения, является ее линейность или нелинейность. Это связано с тем, что нелинейные задачи с вычислительной точки зрения являются наиболее трудными. Так, нелинейная задача (1.1) является достаточно сложной при числе уравнений [math]n[/math], пропорциональном [math]10^2[/math], а линейная задача — при [math]n[/math], пропорциональном [math]10^6[/math]. Число обусловленностиХарактер задачи и точность получаемого решения в большой степени зависят от ее обусловленности, являющейся важнейшим математическим понятием, влияющим на выбор метода ее решения. Поясним это понятие на примере двумерной задачи: [math]\begin{cases}a_{11}x_1+ a_{12}x_2=b_1,\\ a_{21}x_1+ a_{22}x_2=b_2.\end{cases}[/math]. Точным решением этой задачи является вектор [math]x_{\ast}= (x_{\ast1}, x_{\ast2})^T[/math], компоненты которого определяются координатами точки пересечения двух прямых, соответствующих уравнениям [math]a_{11}x_1+ a_{12}x_2=b_1,[/math] [math]a_{21}x_1+ a_{22}x_2=b_2[/math] (рис. 1.1,а). На рис. 1.1,б применительно к трем наборам входных данных, заданных с некоторыми погрешностями и соответствующих различным системам линейных уравнений, иллюстрируется характер обусловленности системы. Если [math]\det A[/math] существенно отличен от нуля, то точка пересечения пунктирных прямых, смещенных относительно сплошных прямых из-за погрешностей задания [math]A[/math] и [math]b[/math], сдвигается несильно. Это свидетельствует о хорошей обусловленности системы. При [math]\det A\approx0[/math] небольшие погрешности в коэффициентах могут привести к большим погрешностям в решении (плохо обусловленная задача), поскольку прямые близки к параллельным. При [math]\det A=0[/math] прямые параллельны или они совпадают, и тогда решение задачи не существует или оно не единственно. Более строго обусловленность задачи характеризуется числом обусловленности [math]\nu(A)= \|A\|\cdot \|A^{-1}\|[/math], где [math]\|A\|[/math] - норма матрицы [math]A[/math], а [math]\|A^{-1}\|[/math] - норма обратной матрицы. Чем больше это число, тем хуже обусловленность системы (при [math]\nu(A)\approx 10^3\div 10^4[/math] система линейных алгебраических уравнений плохо обусловлена). В качестве нормы матрицы может быть принято число, являющееся максимальным из сумм (по модулю) элементов всех строк этой матрицы. Подчеркнем, что реализация хорошей или плохой обусловленности в корректной и некорректной задачах напрямую связана с вытекающей отсюда численной устойчивостью или неустойчивостью. При этом для решения некорректных задач обычно применяются специальные методы или математические преобразования этих задач к корректным. В численном анализе используются два класса численных методов решения систем линейных алгебраических уравнений: 1. Прямые методы, позволяющие найти решение за определенное число операций. К прямым методам относятся: метод Гаусса и его модификации (в том числе метод прогонки), метод [math]LU[/math] — разложения и др. 2. Итерационные методы, основанные на использовании повторяющегося (циклического) процесса и позволяющие получить решение в результате последовательных приближений. Операции, входящие в повторяющийся процесс, составляют итерацию. К итерационным методам относятся: метод простых итераций, метод Зейделя и др. Численные схемы реализации метода ГауссаРассмотрим частный случай решения СЛАУ — задачу нахождения решения системы линейных алгебраических уравнений [math]\begin{cases} a_{11}x_1+a_{12}x_2+\ldots+a_{1n}x_n=b_1,\\ a_{21}x_1+a_{22}x_2+\ldots+a_{2n}x_n=b_2,\\[-2pt] \quad\vdots\\[-4pt] a_{n1}x_1+a_{n2}x_2+ \ldots+a_{nn}x_n=b_n, \end{cases}\Leftrightarrow\quad Ax=b,[/math] (10.1) где [math]A=\begin{pmatrix}a_{11}&\cdots&a_{1n}\\ \vdots&\ddots&\vdots\\ a_{n1}&\cdots& a_{nn} \end{pmatrix}\!,[/math] — квадратная матрица n-го порядка; [math]x=\begin{pmatrix} x_1\\\vdots\\x_n \end{pmatrix}\!,~ b=\begin{pmatrix}b_1\\\vdots\\b_n\end{pmatrix}[/math] столбцы размеров [math]n\times 1[/math]. Это означает, что число уравнений совпадает с числом неизвестных, т.е. [math]m=n[/math]. Предполагается, что выполняется условие [math]\det{A}\equiv|A|\ne0[/math]. Тогда по теореме 5.1 решение системы (10.1) существует и единственно. Согласно изложенному ранее, метод Гаусса содержит две совокупности операций, которые условно названы прямым ходом и обратным ходом. Прямой ход состоит в исключении элементов, расположенных ниже элементов, соответствующих главной диагонали матрицы [math]A[/math]. При этом матрица [math]A[/math] с помощью элементарных преобразований преобразуется к верхней треугольной, а расширенная матрица [math](A\mid b)[/math] — к трапециевидной: [math](A\mid b)= \begin{pmatrix} a_{11}&a_{12}& \cdots&a_{1n}\!\!&\vline\!\!&b_1\\ a_{21}& a_{22}&\cdots&a_{2n} \!\!&\vline\!\!&b_2\\ \vdots&\vdots& \ddots&\vdots\!\!&\vline\!\!&\vdots\\ a_{n1}&a_{n2}&\cdots& a_{nn}\!\!&\vline\!\!&b_n \end{pmatrix}\sim \begin{pmatrix} 1& \widetilde{a}_{12}& \cdots& \widetilde{a}_{1n}\!\!& \vline\!\!&\widetilde{b}_1\\ 0&1&\cdots& \widetilde{a}_{2n}\!\!& \vline\!\!&\widetilde{b}_2\\ \vdots&\vdots&\ddots&\vdots \!\!&\vline\!\!& \vdots\\ 0&0&\cdots&1\!\!&\vline\!\!&\widetilde{b}_n \end{pmatrix}= \bigl(\widetilde{A}\mid \widetilde{b}\bigr).[/math] Заметим, что в отличие от общего подхода здесь не требуется приводить расширенную матрицу к упрощенному виду. Считается, что для реализации эффективных численных процедур достаточно свести проблему к решению системы с треугольной матрицей коэффициентов. Обратный ход состоит в решении системы [math]\widetilde{A}x= \widetilde{b}[/math]. Алгоритм численного метода Гаусса1. Прямой ход. а) Положить номер шага [math]k=1[/math]. Переобозначить все элементы расширенной матрицы [math](A\mid b)[/math] через [math]a_{ij}^{(0)},[/math] [math]i=1,\ldots,n;[/math] [math]j=1,\ldots,n+1[/math]; б) Выбрать ведущий элемент одним из двух способов. Первый способ (схема единственного деления). Выбрать в качестве ведущего элемента [math]a_{kk}^{(k-1)}\ne0[/math]. Второй способ (схема с выбором ведущего элемента). На k-м шаге сначала переставить [math](n-k+1)[/math] оставшихся уравнений так, чтобы наибольший по модулю коэффициент при переменной [math]x_k[/math] попал на главную диагональ, а затем выбрать в качестве ведущего элемента [math]a_{kk}^{(k-1)}[/math]. в) каждый элемент строки, в которой находится ведущий элемент, поделить на него: [math]a_{kj}^{k}=\frac{a_{kj}^{(k-1)}}{a_{kk}^{(k-1)}},\quad j=1,2,\ldots,n+1;[/math] г) элементы строк, находящихся ниже строки с ведущим элементом, подсчитать по правилу прямоугольника, схематически показанного на рис. 10.1 (исключить элементы, стоящие ниже ведущего элемента). Поясним алгоритм исключения на рис. 10.1. Пусть рассчитывается значение [math]a_{ij}^{(k)}[/math] на k-м шаге. Следует соединить элемент [math]a_{ij}^{(k-1)}[/math] с ведущим элементом [math]a_{kk}^{(k-1)}[/math]. Получена одна из диагоналей прямоугольника. Вторую диагональ образует соединение элементов [math]a_{ik}^{(k-1)}[/math] и [math]a_{kj}^{(k-1)}[/math]. Для нахождения значения [math]a_{ij}^{(k)}[/math] из его текущего значения [math]a_{ij}^{(k-1)}[/math] вычитается произведение элементов [math]a_{ik}^{(k-1)}[/math] и [math]a_{kj}^{(k-1)}[/math], деленное на ведущий элемент; д) если [math]k\ne n[/math], то перейти к пункту "б", где вместо [math]k[/math] положить [math]k+1[/math]. Если [math]k=n[/math], завершить прямой ход. Получена расширенная трапециевидная матрица из элементов [math]a_{ij}^{(n)}[/math], соответствующая [math]\bigl(\widetilde{A}\mid \widetilde{b}\bigr)[/math]. 2. Обратный ход. Составить систему [math]\widetilde{A}x= \widetilde{b}[/math] и решить ее, начиная с последнего уравнения. Замечания 10.2 1. Схема единственного деления имеет ограничение, связанное с тем, что ведущие элементы должны быть отличны от нуля. Одновременно желательно, чтобы они не были малыми по модулю, поскольку тогда погрешности при соответствующем делении будут большими. С этой точки зрения схема с выбором ведущего элемента является более предпочтительной. 2. По окончании прямого хода может быть вычислен определитель матрицы [math]A[/math] путем перемножения ведущих элементов. 3. В расчетных формулах все элементы расширенной матрицы обозначаются одним символом [math]a[/math], так как они преобразуются по единым правилам. 4. Понятие нормы квадратной невырожденной матрицы позволяет исследовать влияние малых изменений правой части и элементов матрицы на решение систем линейных уравнений. Положительное число [math]A=\|A\|\cdot\|A^{-1}\|[/math] называется числом обусловленности матрицы. Существует и более общее определение числа обусловленности, применимое к вырожденным матрицам: [math]\operatorname{cond}A= \sup_{x\ne0}\frac{\|Ax\|}{\|x\|}: \inf_{y\ne0}\frac{\|Ay\|}{\|y\|}[/math]. Чем больше число обусловленности, тем сильнее ошибка в исходных данных сказывается на решении линейной системы. Если число [math]\operatorname{cond}A[/math] велико, система считается плохо обусловленной, т.е. решение системы может существенно изменяться даже при малых изменениях элементов матрицы [math]A[/math] и столбца свободных членов [math]b[/math]. ▼ Примеры 10.3-10.6
Метод прогонки для решения СЛАУМетод применяется в случае, когда матрица [math]A[/math] — трехдиагональная. Сформулируем общую постановку задачи. Дана система линейных алгебраических уравнений с трехдиагональной матрицей [math]A[/math]. Развернутая запись этой системы имеет вид [math]\alpha_i x_{i-1}-\beta_i x_i+\gamma_i x_{i+1}=\delta_i,\quad \alpha_1= \gamma_n=0,\quad i=1,2,\ldots,n,[/math] (10.2) которому соответствует расширенная матрица [math]\begin{pmatrix}-\beta_1& \gamma_1&0&0&\cdots&0&0&\delta_1\\[2pt] \alpha_2&-\beta_2&\gamma_2&0&\cdots&0&0&\delta_2\\[2pt] 0&\alpha_3&-\beta_3&\gamma_3&\cdots& 0&0&\delta_3\\[2pt] \cdots& \cdots& \cdots& \cdots& \cdots& \cdots& \cdots& \cdots\\[2pt] 0&0& \cdots&\cdots&\cdots&\alpha_n&-\beta_n&\delta_n \end{pmatrix}\!.[/math] Здесь первое и последнее уравнения, содержащие по два слагаемых, знак минус (–) при коэффициенте [math]\beta_i[/math] взят для более удобного представления расчетных формул метода. Требуется найти решение [math]x_{\ast}= \begin{pmatrix} x_{\ast1}&x_{\ast2}&\cdots&x_{\ast n} \end{pmatrix}^T[/math] системы (10.2) методом исключения Гаусса. Если к (10.2) применить алгоритм прямого хода метода Гаусса, то вместо исходной расширенной матрицы получится трапециевидная: [math]\begin{pmatrix}1&-P_1&0&0&\cdots&0&Q_1\\[2pt] 0&1&-P_2&0&\cdots&0&Q_2\\[2pt] 0&0&1&-P_3&\cdots&0&Q_3\\[2pt] \cdots&\cdots& \cdots&\cdots& \cdots&\cdots& \cdots\\[2pt] 0&0& 0&0&\cdots&1& Q_n \end{pmatrix}[/math] Учитывая, что последний столбец в этой матрице соответствует правой части, и переходя к системе, включающей неизвестные, получаем рекуррентную формулу: [math]x_i=P_i x_{i+1}+Q_i,\quad i=1,2,\ldots,n-1.[/math] (10.3) Соотношение (10.3) есть формула для обратного хода, а формулы для коэффициентов [math]P_i,\,Q_i[/math] которые называются прогоночными, определяются из (10.2), (10.3). Запишем (10.3) для индекса [math]i-1\colon[/math] [math]x_{i-1}=P_{i-1}x_i+Q_{i-1}[/math] и подставим в (10.2). Получим [math]\alpha_i\bigl(P_{i-1}x_i+Q_{i-1}\bigr)-\beta_ix_i+ \gamma_ix_{i+1}= \delta_i.[/math] Приводя эту формулу к виду (10.3) и сравнивая, получаем рекуррентные соотношения для [math]P_i,\,Q_i\colon[/math] [math]P_i=\frac{\gamma_i}{\beta_i-\alpha_iP_{i-1}},\quad Q_i=\frac{\alpha_iQ_{i-1}-\delta_i}{\beta_i-\alpha_{i}P_{i-1}},\quad i=1,2,\ldots,n-1.[/math] (10.4) Определение прогоночных коэффициентов по формулам (10.4) соответствует прямому ходу метода прогонки. Обратный ход метода прогонки начинается с вычисления [math]x_n[/math]. Для этого используется последнее уравнение, коэффициенты которого определены в прямом ходе, и последнее уравнение исходной системы: [math]\begin{cases}x_{n-1}=P_{n-1}x_n+Q_{n-1},\\ \alpha_nx_{n-1}-\beta_nx_n+0\cdot x_{x+1}=\delta_n.\end{cases}[/math] Тогда определяется [math]x_n:[/math] [math]x_n=\frac{\alpha_nQ_{n-1}-\delta_n}{\beta_n-\alpha_nP_{n-1}}=Q_n.[/math] (10.5) Остальные значения неизвестных находятся по рекуррентной формуле (10.3). Алгоритм решения систем уравнений методом прогонкиПрямой ход. 1. Вычислить [math]P_1=\frac{\gamma_1}{\beta_1},~ Q_1=-\frac{\delta_1}{\beta_1}[/math] (в (10.4) подставить [math]\alpha_1=0[/math]). 2. Вычислить прогоночные коэффициенты: [math]P_2,Q_2;\,P_3,Q_3;\,\ldots;\,P_{n-1}Q_{n-1}[/math] по формулам (10.4). Обратный ход. 1. Найти [math]x_n=\frac{\alpha_nQ_{n-1}-\delta_n}{\beta_n-\alpha_nP_{n-1}}[/math]. 2. Значения [math]x_{n-1},x_{n-2},\ldots,x_1[/math] определить по формуле (10.3): [math]x_{n-1}=P_{n-1}x_n+Q_{n-1},\quad x_{n-2}=P_{n-2}x_{n-1}+Q_{n-2},\quad \ldots,\quad x_{1}=P_{1}x_2+Q_{1}.[/math] Замечания 10.3 1. Аналогичный подход используется для решения систем линейных алгебраических уравнений с пятидиагональными матрицами. 2. Алгоритм метода прогонки называется корректным, если для всех [math]i=1,\ldots,n,~ \beta_i-\alpha_iP_{i-1}\ne0[/math], и устойчивым, если [math]|P_i|<1,~ i=1,\ldots,n-1[/math]. 3. Достаточным условием корректности и устойчивости прогонки является условие преобладания диагональных элементов в матрице [math]A[/math], в которой [math]\alpha_i\ne0[/math] и [math]\gamma_i\ne0[/math] [math](i=2,3,\ldots,n-1)\colon[/math] [math]\bigl|\beta_i\bigr|\geqslant \bigl|\alpha_i\bigr|+\bigl|\gamma_i\bigr|[/math] (10.5) и в (10.6) имеет место строгое неравенство хотя бы при одном [math]i[/math]. 4. Алгоритм метода прогонки является экономичным и требует для своей реализации количество операций, пропорциональное [math]n[/math]. ▼ Примеры 10.7-10.9
Метод LU-разложения для решения СЛАУРассмотрим ещё один метод решения задачи (10.1). Метод опирается на возможность представления квадратной матрицы [math]A[/math] системы в виде произведения двух треугольных матриц: [math]A=L\cdot U,[/math] (10.7) где [math]L[/math] — нижняя, a [math]U[/math] — верхняя треугольные матрицы, [math]L=\begin{pmatrix}l_{11}&0&\cdots&0\\ l_{21}&l_{22}&\cdots&0\\ \vdots&\vdots& \ddots&\vdots\\ l_{n1}&l_{n2}&\cdots&l_{nn} \end{pmatrix}\!,\qquad U=\begin{pmatrix} 1&u_{12}& \cdots&u_{1n}\\ 0&1&\cdots&y_{2n}\\ \vdots&\vdots&\ddots&\vdots\\ 0&0&\cdots&1 \end{pmatrix}\!.[/math] С учётом (10.7) система [math]Ax=b[/math] представляется в форме [math]L\cdot U\cdot x=b.[/math] (10.8) Решение системы (10.8) сводится к последовательному решению двух простых систем с треугольными матрицами. В итоге процедура решения состоит из двух этапов. Прямой ход. Произведение [math]Ux[/math] обозначим через [math]y[/math]. В результате решения системы [math]Ly=b[/math] находится вектор [math]y[/math]. Обратный ход. В результате решения системы [math]Ux=y[/math] находится решение задачи — столбец [math]x[/math]. В силу треугольности матриц [math]L[/math] и [math]U[/math] решения обеих систем находятся рекуррентно (как в обратном ходе метода Гаусса). Из общего вида элемента произведения [math]A=LU[/math], а также структуры матриц [math]L[/math] и [math]U[/math] следуют формулы для определения элементов этих матриц: [math]l_{ij}=a_{ij}-\sum_{s=1}^{j-1}l_{is}u_{sj},\quad i\geqslant j,\quad u_{ij}= \frac{1}{l_{ii}}\! \left(a_{ij}-\sum_{s=1}^{i-1}l_{is}u_{sj}\right)\!,\quad i<j.[/math] (10.9) Результат представления матрицы [math]A[/math] в виде произведения двух треугольных матриц (операции факторизации) удобно хранить в одной матрице следующей структуры: [math]\begin{pmatrix} l_{11}&u_{12}&u_{13}&\cdots&u_{1n}\\ l_{21}&l_{22}&u_{23}&\cdots&u_{2n}\\ l_{31}&l_{32}&l_{33}&\cdots&u_{3n}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ l_{n1}&l_{n2}&l_{n3}&\cdots&l_{nn} \end{pmatrix}\!.[/math] Вычисления на k-м шаге метода LU-разложения удобно производить, пользуясь двумя схемами, изображенными на рис. 10.2. Замечания 10.4 1. Всякую квадратную матрицу [math]A[/math], имеющую отличные от нуля угловые миноры [math]\Delta_1=a_{11}\ne0,\quad \Delta_2=\begin{vmatrix}a_{11}&a_{12}\\ a_{21}&a_{22} \end{vmatrix}\ne0,\quad \ldots,\quad \Delta_n=|A|\ne0,[/math] можно представить в виде LU-разложения, причем это разложение будет единственным. Это условие выполняется для матриц с преобладанием диагональных элементов, у которых [math]\bigl|a_{ii}\bigr|> \sum_{\substack{j=1\\j\ne i}}^{n}\bigl|a_{ij}\bigr|,\quad i=1,2,\ldots,n.[/math] 2. В результате прямого хода может быть вычислен определитель матрицы [math]A[/math] по свойствам определителя произведения матриц (теорема 2.2) и определителя треугольных матриц: [math]\det{A}=\det{L}\cdot\det{U}=l_{11}\cdot l_{22}\cdot\ldots\cdot l_{nn}.[/math] Алгоритм метода LU-разложение1. Выполнить операцию факторизации исходной матрицы [math]A[/math], применяя схемы (рис. 10.2) или формулы (10.9), и получить матрицы [math]L[/math] и [math]U[/math]. 2. Решить систему [math]L\cdot y=b[/math]. 3. Решить систему [math]U\cdot x=b[/math]. ▼ Примеры 10.10-10.12
Метод квадратных корней для решения СЛАУПри решении систем линейных алгебраических уравнений с симметрическими матрицами можно сократить объем вычислений почти вдвое. Пусть [math]A[/math] — симметрическая квадратная матрица системы [math]Ax=b[/math] порядка [math]n[/math]. Решим задачу ее представления в виде [math]A=U^T\cdot U[/math], где [math]U=\begin{pmatrix} u_{11}&u_{12}&\cdots&u_{1n}\\ 0&u_{22}&\cdots&u_{2n}\\ \vdots&\vdots&\ddots&\vdots\\ 0&0&\cdots&u_{nn} \end{pmatrix}\!,~ U^T= \begin{pmatrix}u_{11}&0&\cdots&0\\ u_{12}&u_{22}&\cdots&0\\ \vdots&\vdots& \ddots& \vdots\\ u_{1n}&u_{2n}&\cdots&u_{nn} \end{pmatrix}[/math]. Находя произведение [math]U^T\cdot U[/math], составим систему уравнении относительно неизвестных элементов матрицы [math]U:[/math] [math]\begin{pmatrix} u_{11}&0&\cdots&0\\ u_{12}&u_{22}&\cdots&0\\ \vdots&\vdots& \ddots& \vdots\\ u_{1n}&u_{2n}&\cdots&u_{nn}\end{pmatrix}\!\cdot\! \begin{pmatrix} u_{11}& u_{12}&\cdots&u_{1n}\\ 0&u_{22}&\cdots&u_{2n}\\ \vdots&\vdots&\ddots&\vdots\\ 0&0&\cdots& u_{nn} \end{pmatrix}= \begin{pmatrix} a_{11}&a_{12}&\cdots&a_{1n}\\ a_{12}& a_{22}& \cdots& a_{2n}\\ \vdots&\vdots&\ddots&\vdots\\ a_{1n}&a_{2n}&\cdots&u_{nn} \end{pmatrix}\!.[/math] Система имеет следующий вид: [math]\left\{\!\begin{aligned}&u_{11}^2=a_{11},\quad u_{11}\cdot u_{12}=a_{12},\quad \ldots,\quad u_{11}\cdot u_{1n}=a_{1n}\,;\\ &u_{12}^2+u_{22}^2=a_{22},\quad \ldots,\quad u_{12}\cdot u_{1n}+ u_{22}\cdot u_{2n}=a_{2n}\,;\\ &\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots\\ &u_{1n}^2+ u_{2n}^2+ \ldots+u_{nn}^2=a_{nn}\,.\end{aligned}\right.[/math] Из первой строки системы находим [math]u_{11}=\sqrt{a_{11}}\,,\qquad u_{1j}=\frac{a_{1j}}{u_{11}}\,\quad j=2,3,\ldots,n\,.[/math] Из второй строки определяем [math]u_{22}=\sqrt{a_{22}-u_{12}^2}\,,\qquad u_{2j}=\frac{a_{2j}-u_{12}\cdot u_{1j}}{u_{22}}\,,\quad j=3,4,\ldots,n[/math] и т.д. Из последней строки имеем [math]\textstyle{u_{nn}=\sqrt{a_{nn}-\sum\limits_{k=1}^{n-1}u_{kn}^2}}[/math]. Таким образом, элементы матрицы [math]U[/math] находятся из соотношений [math]\begin{gathered}u_{ii}=\sqrt{a_{ii}-\sum_{k=1}^{n-1}u_{ki}^2}\,,\quad i=1,2,\ldots,n\,;\\ u_{ij}=\frac{1}{u_{ii}}\left(a_{ij}-\sum_{k=1}^{i-1}u_{ki}u_{kj}\right)\!,\quad j=2,3,\ldots,n;~j>i;\quad u_{ij}=0~(j<i).\end{gathered}[/math] (10.10) При осуществлении [math]U^TU[/math]-разложения симметрической матрицы могут возникать ситуации, когда [math]u_{ii}=0[/math] при некотором [math]i[/math] или подкоренное выражение отрицательно. Для симметрических положительно определенных матриц разложение выполнимо. Если матрица [math]A[/math] представима в форме [math]U^TU[/math], то система [math]Ax=b[/math] имеет вид [math]U^TUx=b[/math]. Решение этой системы сводится к последовательному решению двух систем с треугольными матрицами. В итоге процедура решения состоит их двух этапов. 1. Прямой ход. Произведение [math]Ux[/math] обозначается через [math]y[/math]. В результате решения системы [math]U^Ty=b[/math] находится столбец [math]y[/math]. 2. Обратный ход. В результате решения системы [math]Ux=y[/math] находится решение задачи — столбец [math]x[/math]. Алгоритм метода квадратных корней1. Представить матрицу [math]A[/math] в форме [math]A=U^T\cdot U[/math], используя (10.10). 2. Составить систему уравнений [math]U^T\cdot y=b[/math] и найти [math]y[/math]. 3. Составить систему уравнений [math]U\cdot x=y[/math]и найти [math]x[/math]. ▼ Пример 10.13
Метод простых итераций для решения СЛАУАльтернативой прямым методам решения СЛАУ являются итерационные методы, основанные на многократном уточнении [math]x^{(0)}[/math], заданного приближенного решения системы [math]A\cdot x=b[/math]. Верхним индексом в скобках здесь и далее по тексту обозначается номер итерации (совокупности повторяющихся действий). Реализация простейшего итерационного метода — метода простых итераций — состоит в выполнении следующих процедур. 1. Исходная задача [math]A\cdot x=b[/math] преобразуется к равносильному виду: [math]x=\alpha\cdot x+\beta\,,[/math] (10.11) где [math]\alpha[/math] — квадратная матрица порядка [math]n[/math]; [math]\beta[/math] — столбец. Это преобразование может быть выполнено различными путями, но для обеспечения сходимости итераций (см. процедуру 2) нужно добиться выполнения условия [math]\|\alpha\|<1[/math]. 2. Столбец [math]\beta[/math] принимается в качестве начального приближения [math]x^{(0)}= \beta[/math] и далее многократно выполняются действия по уточнению решения, согласно рекуррентному соотношению [math]x^{(k+1)}= \alpha\cdot x^{(k)}+ \beta,\quad k=0,1,2,\ldots[/math] (10.12) или в развернутом виде [math]\begin{cases}x_1^{(k+1)}= \alpha_{11}\cdot x_1^{(k)}+ \alpha_{12}\cdot x_2^{(k)}+ \ldots+ \alpha_{1n}\cdot x_n^{(k)}+ \beta_1,\\ x_2^{(k+1)}= \alpha_{21}\cdot x_1^{(k)}+ \alpha_{22}\cdot x_2^{(k)}+ \ldots+ \alpha_{2n}\cdot x_n^{(k)}+ \beta_2,\\ \vdots\\ x_n^{(k+1)}= \alpha_{n1}\cdot x_1^{(k)}+ \alpha_{n2}\cdot x_2^{(k)}+ \ldots+ \alpha_{nn}\cdot x_n^{(k)}+ \beta_n. \end{cases}[/math] 3. Итерации прерываются при выполнении условия (где [math]\varepsilon>0[/math] — заданная точность, которую необходимо достигнуть при решении задачи) [math]\Bigl\|x^{(k+1)}-x^{(k)}\Bigr\|<\varepsilon\,.[/math] (10.13) Замечания 10.5 1. Процесс (10.12) называется параллельным итерированием, так как для вычисления (k+1)-го приближения всех неизвестных учитываются вычисленные ранее их k-е приближения. 2. Начальное приближение [math]x^{(0)}[/math] может выбираться произвольно или из некоторых соображений. При этом может использоваться априорная информация о решении или просто "грубая" прикидка. При выполнении итераций (любых) возникают следующие вопросы: а) сходится ли процесс (10.12), т.е. имеет ли место [math]x^{(k)}\to x_{\ast}[/math], при [math]k\to\infty[/math], где [math]x_{\ast}[/math] — точное решение? б) если сходимость есть, то какова ее скорость? в) какова погрешность найденного решения [math]x^{(k+1)}[/math], т.е. чему равна норма разности [math]\bigl\|x^{(k)}-x_{\ast}\bigr\|[/math]? Ответ на вопросы о сходимости дают следующие две теоремы. Теорема (10.1) о достаточном условии сходимости метода простых итераций. Метод простых итераций, реализующийся в процессе последовательных приближений (10.12), сходится к единственному решению исходной системы [math]Ax=b[/math] при любом начальном приближении [math]x^{(0)}[/math] со скоростью не медленнее геометрической прогрессии, если какая-либо норма матрицы [math]\alpha[/math] меньше единицы, т.е. [math]\|\alpha\|_s<1~ (s\in\{1,2,3\})[/math]. Замечания 10.6 1. Условие теоремы 10.1, как достаточное, предъявляет завышенные требования к матрице [math]\alpha[/math], и потому иногда сходимость будет, если даже [math]\|\alpha\|\geqslant1[/math]. 2. Сходящийся процесс обладает свойством "самоисправляемости", т.е. отдельная ошибка в вычислениях не отразится на окончательном результате, так как ошибочное приближение можно рассматривать, как новое начальное. 3. Условия сходимости выполняются, если в матрице [math]A[/math] диагональные элементы преобладают, т.е. [math]\bigl|a_{ii}\bigr| \geqslant \bigl|a_{i1}\bigr|+\ldots+ \bigl|a_{i,i-1}\bigr|+ \bigl|a_{i,i+1}\bigr|+\ldots+ \bigl|a_{in}\bigr|,\quad i=1,2,\ldots,n,[/math] (10.14) и хотя бы для одного [math]i[/math] неравенство строгое. Другими словами, модули диагональных коэффициентов в каждом уравнении системы больше суммы модулей недиагональных коэффициентов (свободные члены не рассматриваются). 4. Чем меньше величина нормы [math]\|\alpha\|[/math], тем быстрее сходимость метода. Теорема (10.2) о необходимом и достаточном условии сходимости метода простых итераций. Для сходимости метода простых итераций (10.12) при любых [math]x^{(0)}[/math] и [math]\beta[/math] необходимо и достаточно, чтобы собственные значения матрицы [math]\alpha[/math] были по модулю меньше единицы, т.е. [math]\bigl|\lambda_i(\alpha)\bigr|<1,~ i=1,\ldots,n[/math]. Замечание 10.7. Хотя теорема 10.2 дает более общие условия сходимости метода простых итераций, чем теорема 10.1, однако ею воспользоваться сложнее, так как нужно предварительно вычислить границы собственных значений матрицы [math]\alpha[/math] или сами собственные значения. Преобразование системы [math]Ax=b[/math] к виду [math]x=\alpha x+\beta[/math] с матрицей [math]\alpha[/math], удовлетворяющей условиям сходимости, может быть выполнено несколькими способами. Приведем способы, используемые наиболее часто. 1. Уравнения, входящие в систему [math]Ax=b[/math], переставляются так, чтобы выполнялось условие (10.14) преобладания диагональных элементов (для той же цели можно использовать другие элементарные преобразования). Затем первое уравнение разрешается относительно [math]x_1[/math], второе — относительно [math]x_2[/math] и т.д. При этом получается матрица [math]\alpha[/math] с нулевыми диагональными элементами. Например, система [math]\begin{cases}-2,\!8x_1+x_2+4x_3=60,\\ 10x_1-x_2+8x_3=10,\\ -x_1+2x_2-0,\!6x_3=20\end{cases}[/math] с помощью перестановки уравнений приводится к виду [math]\begin{cases}10x_1-x_2+8x_3=10,\\ -x_1+2x_2-0,\!6x_3=20,\\-2,\!8x_1+x_2+4x_3=60, \end{cases}[/math] где [math]|10|>|-1|+|8|,~ |2|>|-1|+|-0,\!6|,~ |4|>|-2,\!8|+|1|[/math], т.е. диагональные элементы преобладают. Выражая [math]x_1[/math] из первого уравнения, [math]x_2[/math] — из второго, а [math]x_3[/math] — из третьего, получаем систему вида [math]x=\alpha x+\beta:[/math] [math]\begin{cases}x_1=0\cdot x_1+0,\!1x_2-0,\!8x_3+1,\\ x_2=0,\!5x_1+0\cdot x_2+0,\!3x_3+10,\\ x_3=0,\!7x_1-0,\!25x_2+0\cdot x_3+15, \end{cases}[/math], где [math]\alpha= \begin{pmatrix} 0&0,\!1&-0,\!8\\ 0,\!5&0&0,\!3\\ 0,\!7&-0,\!25&0 \end{pmatrix}\!,~ \beta= \begin{pmatrix}1\\10\\15 \end{pmatrix}[/math]. Заметим, что [math]\|\alpha\|_1=\max\{0,\!9;\,0,\!8;\,0,\!95 \}=0,\!95<1[/math], т.е. условие теоремы 10.1 выполнено. Проиллюстрируем применение других элементарных преобразований. Так, система [math]\begin{cases}4x_1+x_2+9x_3=-7,\\ 3x_1+8x_2-7x_3=-6,\\ x_1+x_2-8x_3=7\end{cases}[/math] путем сложения первого и третьего уравнений и вычитания из второго уравнения третьего уравнения преобразуется к виду с преобладанием диагональных элементов: [math]\begin{cases} 5x_1+2x_1+x_3=0,\\ 2x_1+7x_2+x_3=-13,\\ x_1+x_2-8x_3=7. \end{cases}[/math] 2. Уравнения преобразуются так, чтобы выполнялось условие преобладания диагональных элементов, но при этом коэффициенты [math]\alpha_{ii}[/math] не обязательно равнялись нулю. Например, систему [math]\begin{cases}1,\!02x_1-0,\!15x_2=2,\!7,\\ 0,\!8x_1+1,\!05x_2=4 \end{cases}[/math] можно записать в форме [math]\begin{cases}x_1=-0,\!02x_1+0,\!15x_2+2,\!7,\\ x_2=-0,\!8x_1-0,\!05x_2+4,\end{cases}[/math] для которой [math]\|\alpha\|_1= \max\{0,\!17;\,0,\!85\}= 0,\!85<1[/math]. 3. Если [math]\det{A}\ne0[/math], систему [math]Ax=b[/math] следует умножить на матрицу [math]D=A^{-1}-\varepsilon[/math], где [math]\{\varepsilon_{ij}\}[/math] — матрица с малыми по модулю элементами. Тогда получается система [math](A^{-1}-\varepsilon)Ax=Db[/math] или [math]A^{-1}Ax-\varepsilon Ax=Db[/math], которую можно записать в форме [math]x=\alpha x+\beta[/math], где [math]\alpha=\varepsilon A,[/math] [math]\beta=Db[/math]. Если [math]|\varepsilon_{ij}|,~ i,j=1,\ldots,n[/math] достаточно малы, условие сходимости выполняется. Алгоритм метода простых итераций1. Преобразовать систему [math]Ax=b[/math] к виду [math]x=\alpha x+\beta[/math] одним из описанных способов. 2. Задать начальное приближение решения [math]x^{(0)}[/math] произвольно или положить [math]x^{(0)}=\beta[/math], а также малое положительное число [math]\varepsilon[/math] (точность). Положить [math]k=0[/math]. 3. Вычислить следующее приближение [math]x^{(k+1)}[/math] по формуле [math]x^{(k+1)}= \alpha x^{(k)}+\beta[/math]. 4. Если выполнено условие [math]\bigl\|x^{(k+1)}-x^{(k)}\bigr\|<\varepsilon[/math], процесс завершить и в качестве приближенного решения задачи принять [math]x_{\ast}\cong x^{(k+1)}[/math]. Иначе положить [math]k=k+1[/math] и перейти к пункту 3 алгоритма. ▼ Пример 10.14
Метод Зейделя для решения СЛАУЭтот метод является модификацией метода простых итераций и в некоторых случаях приводит к более быстрой сходимости. Итерации по методу Зейделя отличаются от простых итераций (10.12) тем, что при нахождении i-й компоненты (k+1)-го приближения сразу используются уже найденные компоненты (к +1) -го приближения с меньшими номерами [math]1,2,\ldots,i-1[/math]. При рассмотрении развернутой формы системы итерационный процесс записывается в виде [math]\begin{cases}x_1^{(k+1)}= \alpha_{11}\cdot x_1^{(k)}+ \alpha_{12}\cdot x_2^{(k)}+ \alpha_{13}\cdot x_3^{(k)}+ \ldots+ \alpha_{1n}\cdot x_n^{(k)}+ \beta_1,\\[4pt] x_2^{(k+1)}= \alpha_{21}\cdot \boxed{x_1^{(k+1)}}+ \alpha_{22}\cdot x_2^{(k)}+ \alpha_{23}\cdot x_3^{(k)}+ \ldots+ \alpha_{2n}\cdot x_n^{(k)}+ \beta_2,\\[4pt] x_3^{(k+1)}= \alpha_{31}\cdot \boxed{x_1^{(k+1)}}+ \alpha_{32}\cdot \boxed{x_2^{(k+1)}}+ \alpha_{33}\cdot x_3^{(k)}+ \ldots+ \alpha_{3n}\cdot x_n^{(k)}+ \beta_3,\\ ~~\vdots\\ x_n^{(k+1)}= \alpha_{n1}\cdot \boxed{x_1^{(k+1)}}+ \alpha_{n2}\cdot \boxed{x_2^{(k+1)}}+ \alpha_{n3}\cdot \boxed{x_3^{(k+1)}}+ \ldots+ \alpha_{n\,n-1}\cdot \boxed{x_{n-1}^{(k+1)}}+ \alpha_{nn}\cdot x_n^{(k)}+ \beta_n. \end{cases}[/math] (10.15) В каждое последующее уравнение подставляются значения неизвестных, полученных из предыдущих уравнений. Теорема (10.3) о достаточном условии сходимости метода Зейделя. Если для системы [math]x=\alpha x+\beta[/math] какая-либо норма матрицы [math]\alpha[/math] меньше единицы, т.е. [math]\|\alpha\|_s<1,~s\in\{1,2,3\}[/math], то процесс последовательных приближений (10.15) сходится к единственному решению исходной системы [math]Ax=b[/math] при любом начальном приближении [math]x^{(0)}[/math]. Записывая (10.15) в матричной форме, получаем [math]x^{(k+1)}=L\cdot x^{(k+1)}+U\cdot x^{(k)}+\beta\,,[/math] (10.16) где [math]L,\,U[/math] являются разложениями матрицы [math]\alpha:[/math] [math]L=\begin{pmatrix}0&0&0&\cdots&0\\ \alpha_{21}&0&0&\cdots&0\\ \alpha_{31}& \alpha_{32}& 0&\cdots&0\\ \vdots& \vdots& \vdots& \ddots& \vdots\\ \alpha_{n1}& \alpha_{n2}& \alpha_{n3}&\cdots&0 \end{pmatrix}\!,\qquad U=\begin{pmatrix} \alpha_{11}& \alpha_{12}& \alpha_{13}&\cdots& \alpha_{1n}\\ 0& \alpha_{22}& \alpha_{23}&\cdots& \alpha_{2n}\\ 0&0& \alpha_{33}&\cdots& \alpha_{3n}\\ \vdots& \vdots& \vdots& \ddots& \vdots\\ 0&0&0&\cdots&\alpha_{nn} \end{pmatrix}\!.[/math] Преобразуя (10.16) к виду [math]x=\alpha x+\beta[/math], получаем матричную форму итерационного процесса метода Зейделя: [math]x^{(k+1)}= (E-L)^{-1}\cdot U\cdot x^{(k)}+ (E-L)^{-1}\cdot\beta\,.[/math] (10.17) Тогда достаточное, а также необходимое и достаточное условия сходимости будут соответственно такими (см. теоремы 10.1 и 10.2): [math]\bigl\|\alpha\bigr\|=\Bigl\|\bigl(E-L\bigr)^{-1}\cdot U\Bigr\|<1,\qquad \bigl|\lambda_i(\alpha)\bigr|= \Bigl|\lambda_i\bigl[(E-L)^{-1}\cdot U\bigr]\Bigr|<1.[/math] Замечания 10.8 1. Для обеспечения сходимости метода Зейделя требуется преобразовать систему [math]Ax=b[/math] к виду [math]x=\alpha x+\beta[/math] с преобладанием диагональных элементов в матрице а (см. метод простых итераций). 2. Процесс (10.15) называется последовательным итерированием, так как на каждой итерации полученные из предыдущих уравнений значения подставляются в последующие. Как правило, метод Зейделя обеспечивает лучшую сходимость, чем метод простых итераций (за счет накопления информации, полученной при решении предыдущих уравнений). Метод Зейделя может сходиться, если расходится метод простых итераций, и наоборот. 3. При расчетах на ЭВМ удобнее пользоваться формулой (10.16). 4. Преимуществом метода Зейделя, как и метода простых итераций, является его "самоисправляемость". 5. Метод Зейделя имеет преимущества перед методом простых итераций, так как он всегда сходится для нормальных систем линейных алгебраических уравнений, т.е. таких систем, в которых матрица [math]A[/math] является симметрической и положительно определенной. Систему линейных алгебраических уравнений с невырожденной матрицей [math]A[/math] всегда можно преобразовать к нормальной, если ее умножить слева на матрицу [math]A^T[/math] (матрица [math]A^TA[/math] — симметрическая). Система [math]A^TAx= A^Tb[/math] является нормальной. Алгоритм метода Зейделя1. Преобразовать систему [math]Ax=b[/math] к виду [math]x=\alpha x+\beta[/math] одним из описанных способов. 2. Задать начальное приближение решения [math]x^{(0)}[/math] произвольно или положить [math]x^{(0)}=\beta[/math], а также малое положительное число [math]\varepsilon[/math] (точность). Положить [math]k=0[/math]. 3. Произвести расчеты по формуле (10.15) или (10.16) и найти [math]x^{(k+1)}[/math]. 4. Если выполнено условие окончания [math]\bigl\|x^{(k+1)}-x^{(k)}\bigr\|<\varepsilon[/math], процесс завершить и в качестве приближенного решения задачи принять [math]x_{\ast}\cong x^{(k+1)}[/math]. Иначе положить [math]k=k+1[/math] и перейти к пункту 3. ▼ Примеры 10.15-10.16
Математический форум (помощь с решением задач, обсуждение вопросов по математике).
Если заметили ошибку, опечатку или есть предложения, напишите в комментариях.
|
Часовой пояс: UTC + 3 часа [ Летнее время ] |