Дискуссионный математический форумМатематический форум

Математический форум Math Help Planet

Обсуждение и решение задач по математике, физике, химии, экономике

Теоретический раздел
Часовой пояс: UTC + 4 часа [ Летнее время ]
MathHelpPlanet.com RSS-лента Математического форума

Часовой пояс: UTC + 4 часа [ Летнее время ]


Производные скалярной, векторной и матричной функций по векторному аргументу
ОглавлениеЛинейная алгебра

Производные скалярной, векторной и матричной функций по векторному аргументу


Рассмотрим скалярную (числовую) функцию нескольких переменных [math]f(x_1,x_2,\ldots,x_n)[/math]. Упорядоченный набор переменных [math]x_1,x_2,\ldots,x_n[/math] будем называть векторным аргументом этой функции и обозначать [math]x[/math]. Первый дифференциал функции [math]f(x)=f(x_1,x_2,\ldots,x_n)[/math] имеет вид:


[math]df(x)= \frac{\partial f(x)}{\partial x_1}dx_1+\frac{\partial f(x)}{\partial x_2}dx_2+\ldots+\frac{\partial f(x)}{\partial x_n}dx__n.[/math]
(6.1)

Сумму в правой части можно представить как произведение строки [math]\frac{df(x)}{dx}=\begin{pmatrix}\dfrac{\partial f(x)}{\partial x_1}&\cdots&\dfrac{\partial f(x)}{\partial x_n}\end{pmatrix}[/math] на столбец [math]dx=\begin{pmatrix}dx_1\\\vdots\\dx_n \end{pmatrix}[/math], либо как произведение строки [math]dx^T[/math] на столбец [math]\frac{df(x)}{dx^T}=\begin{pmatrix}\dfrac{df(x)}{dx}\end{pmatrix}^T\colon[/math] [math]df(x)=\frac{df(x)}{dx}dx=dx^T\frac{df(x)}{dx^T}[/math].


Матрица-строка [math]\frac{df(x)}{dx}=\begin{pmatrix}\dfrac{\partial f(x)}{\partial x_1}&\cdots& \dfrac{\partial f(x)}{\partial x_n}\end{pmatrix}[/math] или матрица-столбец [math]\frac{df(x)}{dx^T}[/math] определяют производную скалярной функции по векторному аргументу (градиент скалярной функции). Двойственность определения относится только к форме записи, поскольку векторный аргумент функции можно считать столбцом (в этом случае дифференциал [math]dx[/math] — столбец) или понимать как строку. В любом случае для первого дифференциала получаем одно и то же выражение (6.1).


Второй дифференциал функции [math]f(x)=f(x_1,x_2,\ldots,x_n)[/math] имеет вид


[math]d^2f(x)= \sum_{i=1}^{n}\sum_{j=1}^{n}\frac{\partial^2f(x)}{\partial x_i\,\partial x_j}dx_i\,dx_j\,.[/math]
(6.2)

Обозначим через [math]\frac{d^2f(x)}{dx^Tdx}=\begin{pmatrix} \dfrac{\partial^2f(x)}{\partial x_1^2}&\cdots&\dfrac{\partial^2f(x)}{\partial x_1\,\partial x_n}\\ \vdots&\ddots&\vdots\\ \dfrac{\partial^2f(x)}{\partial x_n\,\partial x_1}&\cdots& \dfrac{\partial^2f(x)}{\partial x_n^2} \end{pmatrix}[/math] матрицу частных производных второго порядка (матрицу Гессе). Тогда правую часть (6.2) можно записать в виде произведения


[math]d^2f(x)=dx^T\frac{d^2f(x)}{dx^Tdx}dx\,.[/math]



Замечания 6.1


1. Для записи производных можно использовать символические векторы (столбцы или строки):


[math]\nabla=\frac{d}{dx}= \begin{pmatrix}\frac{\partial}{\partial x_1}&\cdots& \frac{\partial}{\partial x_n} \end{pmatrix}\!,\quad \nabla^T=\frac{d}{dx^T}= \begin{pmatrix} \dfrac{\partial}{\partial x_1}\\\vdots\\\dfrac{\partial}{\partial x_n} \end{pmatrix}\!.[/math]

При этом дифференцирование функции формально записывается как умножение функции на символический вектор производных. Например, градиент функции есть произведение вектора [math]\nabla[/math] на функцию [math]f(x)\colon[/math] [math]\nabla f=\begin{pmatrix} \dfrac{\partial f}{\partial x_1}&\cdots&\dfrac{\partial f}{\partial x_n}\end{pmatrix}[/math], а матрица Гессе есть произведение символической матрицы


[math]\nabla^T\nabla= \begin{pmatrix}\dfrac{\partial}{\partial x_1}\\\vdots\\ \dfrac{\partial}{\partial x_n} \end{pmatrix}\!\cdot\! \begin{pmatrix}\dfrac{\partial}{\partial x_1}&\cdots&\dfrac{\partial}{\partial x_n}\end{pmatrix}= \begin{pmatrix} \dfrac{\partial^2}{\partial x_1^2} &\cdots&\dfrac{\partial^2}{\partial x_1\partial x_n}\\ \vdots&\ddots&\vdots\\ \dfrac{\partial^2}{\partial x_n\partial x_1}&\cdots&\dfrac{\partial^2}{\partial x_n^2} \end{pmatrix}[/math] на функцию [math]f(x)[/math].

2. Определитель матрицы Гессе называется гессианом.


3. Свойства градиента функции и матрицы Гессе используются в методах поиска экстремума функции.




Пример 6.2. Найти первую и вторую производные сложной функции [math]g(t)=f(x(t))=f(x_1(t),\ldots,x_n(t))[/math], применяя матричные обозначения.


Решение. Находим производные функции [math]g(t)[/math], заменяя суммирование операциями умножения соответствующих матриц:


[math]\begin{gathered}\frac{dg(t)}{dt}= \sum_{i=1}^{n}\frac{\partial f(x(t))}{\partial x_i}\cdot\frac{dx_i(t)}{dt}= \frac{df(x(t))}{dx}\cdot\frac{dx(t)}{dt}\,;\\[5pt] \begin{aligned} \dfrac{d^2g(t)}{dt^2}&= \sum_{i=1}^{n}\sum_{j=1}^{n}\frac{\partial^2 f(x(t))}{\partial x_j\partial x_i}\cdot \frac{dx_i(t)}{dt}\cdot \frac{dx_j(t)}{dt}+ \sum_{i=1}^{n}\frac{\partial f(x(t))}{\partial x_i}\cdot\frac{d^2x_i(t)}{dt^2}=\\[2pt] &=\begin{pmatrix}\dfrac{dx(t)}{dt}\end{pmatrix}^T \frac{d^2f(x(t))}{dx^Tdx}\cdot\frac{dx(t)}{dt}+ \frac{df(x(t))}{dx}\cdot\frac{d^2x(t)}{dt^2}\,. \end{aligned}\end{gathered}[/math]

Сравним матричную форму записи этих производных с производными в случае скалярной функции [math]x(t):[/math]


[math]\frac{dg(t)}{dt}=\frac{df(x(t))}{dx}\cdot\frac{dx(t)}{dt};\quad \frac{d^2g(t)}{dt^2}=\frac{df(x(t))}{dx}\cdot\frac{d^2x(t)}{dt^2}+\frac{d^2f(x(t))}{dx^2}{\left(\frac{dx(t)}{dt}\right)\!}^2.[/math]

Выражения для первой производной совпадают, а для второй производной -отличаются незначительно, причем полное совпадение будет, если учесть, что [math]x^T=x[/math] для скалярной величины [math]x[/math].




Производные векторной функции по векторному аргументу


Пусть задан столбец [math]f(x)=\begin{pmatrix}f_1(x_1,\ldots,x_n)\\\vdots \\f_m(x_1,\ldots,x_n) \end{pmatrix}[/math] функций нескольких переменных (говорят, что задана вектор-функция векторного аргумента). Первый дифференциал вектор-функции имеет вид:


[math]df(x)= \begin{pmatrix}\sum\limits_{j=1}^{n}\dfrac{\partial f_1(x)}{\partial x_j}dx_j\\ \vdots\\ \sum\limits_{j=1}^{n}\dfrac{\partial f_m(x)}{\partial x_j}dx_j\end{pmatrix}= \sum_{j=1}^{n}\! \begin{pmatrix} \dfrac{\partial f_1(x)}{\partial x_j}\\ \vdots\\ \dfrac{\partial f_m(x)}{\partial x_j} \end{pmatrix}\!dx_j.[/math]

Обозначим через [math]\frac{df(x)}{dx}= \begin{pmatrix} \dfrac{\partial f_1(x)}{\partial x_1}&\cdots&\dfrac{\partial f_1(x)}{\partial x_n}\\ \vdots&\ddots&\vdots\\ \dfrac{\partial f_m(x)}{\partial x_1}&\cdots& \dfrac{\partial f_m(x)}{\partial x_n}\end{pmatrix}[/math] матрицу частных производных первого порядка заданных функций (матрицу Якоби). Тогда выражение для первого дифференциала можно записать в виде [math]df(x)=\frac{df(x)}{dx}dx[/math], т.е. [math]\frac{df(x)}{dx}[/math]производная вектор-функции векторного аргумента.


Как и в случае с аргументом [math]x[/math], упорядоченный набор функций можно считать не матрицей-столбцом, а матрицей-строкой [math](f(x))^T[/math]. Этот случай сводится к предыдущему, учитывая, что операции дифференцирования и транспонирования можно выполнять в любом порядке, так как [math]d(f^T)=(df)^T[/math] (здесь и далее аргумент [math]x[/math] для упрощения записи опущен). Поэтому из равенства [math]df=\frac{df}{dx}dx[/math] получаем


[math]df^T= (dx)^T\cdot\! \begin{pmatrix}\dfrac{df}{dx}\end{pmatrix}^T= (dx)^T\cdot\frac{df^T}{dx^T}[/math], где [math]\frac{df^T}{dx^T}= \begin{pmatrix} \dfrac{\partial f_1(x)}{\partial x_1}&\cdots&\dfrac{\partial f_m(x)}{\partial x_1}\\ \vdots&\ddots&\vdots\\ \dfrac{\partial f_1(x)}{\partial x_n}&\cdots& \dfrac{\partial f_m(x)}{\partial x_n}\end{pmatrix}[/math]

— транспонированная матрица Якоби вектор-функции [math]f(x)[/math].

Заметим, что из равенства [math]d(f^T)=(df)^T[/math] следует правило транспонирования производных вектор-функции: [math]\frac{df^T}{dx^T}= \begin{pmatrix} \dfrac{df}{dx} \end{pmatrix}^T[/math].




Правила дифференцирования по векторному аргументу


Векторный аргумент [math]x[/math], его приращение [math]dx[/math] считаем матрицами-столбцами размеров [math]n\times1[/math].


1. Первый дифференциал скалярной функции [math]f(x)[/math] имеет вид:


[math]df=\frac{df}{dx}\,dx=dx^T\frac{df}{dx^T}\,,[/math]

где [math]\frac{df}{dx}=\begin{pmatrix}\dfrac{df}{dx_1}&\cdots&\dfrac{df}{dx_n} \end{pmatrix}[/math] — градиент функции, а [math]\frac{df}{dx^T}=\begin{pmatrix} \dfrac{df}{dx} \end{pmatrix}^T[/math].


2. Второй дифференциал скалярной функции [math]f(x)[/math] имеет вид


[math]d^2f=dx^T\frac{d^2f}{dx^Tdx}\,dx,[/math] где [math]\frac{d^2f(x)}{dx^Tdx}= \begin{pmatrix} \dfrac{\partial^2f(x)}{\partial x_1^2}&\cdots& \dfrac{\partial^2f(x)}{\partial x\partial x_n}\\ \vdots&\ddots&\vdots\\ \dfrac{\partial^2f(x)}{\partial x_n\partial x_1}&\cdots& \dfrac{\partial^2f(x)}{\partial x_n^2}\end{pmatrix}[/math] — матрица Гессе.

3. Первый дифференциал вектор-функции {матрицы-столбца) [math]f(x)=\begin{pmatrix} f_1(x)\\\vdots\\ f_m(x)\end{pmatrix}[/math] имеет вид:


[math]df=\frac{df}{dx}\,dx[/math], где [math]\frac{df(x)}{dx}= \begin{pmatrix} \dfrac{\partial f_1(x)}{\partial x_1}& \cdots&\dfrac{\partial f_1(x)}{\partial x_n}\\ \vdots&\ddots&\vdots\\ \dfrac{\partial f_m(x)}{\partial x_1}&\cdots& \dfrac{\partial f_m(x)}{\partial x_n} \end{pmatrix}[/math] — матрица Якоби.

Первый дифференциал матрицы-строки: [math]d(f^T)=dx^T\frac{df^T}{dx^T}[/math].


4. В частном случае, когда [math]f(x)=x[/math], получаем


[math]\frac{dx}{dx}=E,~~\frac{dx^T}{dx^T}=E[/math], где [math]E[/math] — единичная матрица n-го порядка.

5. Числовую матрицу [math]C[/math] (соответствующих размеров) можно выносить за знак производной:


[math]\frac{d(Cf)}{dx}=C\,\frac{df}{dx};\quad \frac{d(f^TC)}{dx^T}= \frac{df^T}{dx^T}\,C[/math]

Последняя формула следует из правила транспонирования производных:

[math]\frac{d(f^TC)}{dx^T}= \begin{pmatrix}\dfrac{d(C^Tf)}{dx}\end{pmatrix}^T= \begin{pmatrix}C^T\,\dfrac{df}{dx}\end{pmatrix}^T= \frac{df^T}{dx^T}\,C.[/math]

6. Производные суммы, разности и произведения вектор-функций [math]u(x)[/math] и [math]v(x)[/math] одинаковых размеров [math]m\times1:[/math]


[math]\begin{gathered} \frac{d(u+v)}{dx}=\frac{du}{dx}+\frac{dv}{dx};\qquad \frac{d(u-v)}{dx}=\frac{du}{dx}-\frac{dv}{dx};\\[5pt] \frac{d(u^Tv)}{dx}= v^T\,\frac{du}{dx}+ u^T\,\frac{dv}{dx};\qquad \frac{d(u^Tv)}{dx^T}= \frac{du^T}{dx^T}\,v+ \frac{dv^T}{dx^T}\,u. \end{gathered}[/math]

Докажем, например, последнее равенство. Найдем частную производную скалярной функции [math]u^Tv[/math] по переменной [math]x_j:[/math]


[math]\frac{\partial(u^Tv)}{\partial x_j}=\frac{\partial}{\partial x_j}\!\left(\sum_{i=1}^{m} u_iv_i\right)= \sum_{i=1}^{m}\!\left(\frac{\partial u_i}{\partial x_j}\,v_i+ u_i\,\frac{\partial v_i}{\partial x_j}\right)= \sum_{i=1}^{m}\frac{\partial u_i}{\partial x_j}\,v_i+ \sum_{i=1}^{m} u_i\,\frac{\partial v_i}{\partial x_j}\,.[/math]

Тогда первый дифференциал функции [math]u^Tv[/math] имеет вид

[math]d(u^Tv)= \sum_{j=1}^{n}\left(\sum_{i=1}^{m}\frac{\partial u_i}{\partial x_j}\,v_i+ \sum_{i=1}^{m} u_i\,\frac{\partial v_i}{\partial x_j}\right)\!dx_j\,.[/math]

Запишем это выражение, используя матричные обозначения

[math]\begin{aligned}d(u^Tv)&= \begin{pmatrix}dx_1&\cdots&dx_n\end{pmatrix}\!\! \begin{bmatrix} \begin{pmatrix} \dfrac{\partial u_1}{\partial x_1}&\cdots&\dfrac{\partial u_m}{\partial x_1}\\ \vdots&\ddots&\vdots\\ \dfrac{\partial u_1}{\partial x_n}&\cdots&\dfrac{\partial u_m}{\partial x_n} \end{pmatrix}\!\cdot\! \begin{pmatrix}v_1\\\vdots\\v_m\end{pmatrix}+ \begin{pmatrix} \dfrac{\partial v_1}{\partial x_1}&\cdots&\dfrac{\partial v_m}{\partial x_1}\\ \vdots&\ddots&\vdots\\ \dfrac{\partial v_1}{\partial x_n}&\cdots&\dfrac{\partial v_m}{\partial x_n} \end{pmatrix}\!\cdot\! \begin{pmatrix} u_1\\\vdots\\u_m\end{pmatrix}\end{bmatrix}=\\ &=dx^T\!\begin{bmatrix} \dfrac{du^T}{dx^T}\,v+ \dfrac{dv^T}{dx^T}\,u\end{bmatrix}\!.\end{aligned}[/math]

Сравнивая полученное выражение с [math]d(u^Tv)=dx^T\frac{d(u^Tv)}{dx^T}[/math], приходим к равенству [math]\frac{d(u^Tv)}{dx^T}=\frac{du^T}{dx^T}\,v+\frac{dv^T}{dx^T}\,u[/math], что и требовалось доказать.


7. Производная сложной функции [math]z=(y(x))[/math], где [math]z=z(y)= \begin{pmatrix} z_1(y)\\\vdots\\z_k(y)\end{pmatrix}[/math] и [math]y=y(x)= \begin{pmatrix} y_1(x)\\\vdots\\y_m(x) \end{pmatrix}[/math] вычисляется по формуле:


[math]\frac{dz(y(x))}{dx}=\frac{dz(y(x))}{dy}\cdot\frac{dy(x)}{dx}[/math] или, опуская аргументы, [math]\frac{dz}{dx}=\frac{dz}{dy}\cdot\frac{dy}{dx}[/math].

Действительно, запишем первый дифференциал вектор-функции: [math]dz(x)=\frac{dz}{dy}\,dy=\frac{dz}{dy}\frac{dy}{dx}\,dx[/math]. Заметим, что матрицы Якоби в правой части формулы согласованы: матрица [math]\frac{dz}{dy}[/math] имеет размеры [math]k\times m[/math], матрица [math]\frac{dy}{dx}-m\times n[/math]. Найдем, используя обычные правила дифференцирования, частную производную [math]\frac{\partial z_i(y(x))}{\partial x_j}= \sum_{k=1}^{m}\frac{\partial z_i}{\partial y_k}\frac{\partial y_k}{\partial x_j}[/math]. В правой части стоит произведение i-й строки матрицы [math]\frac{dz}{dy}[/math] на j-й столбец матрицы [math]\frac{dy}{dx}[/math], что и требовалось показать.


Использование матричных обозначений позволяет записывать и применять правила дифференцирования по векторному аргументу аналогично правилам дифференцирования в скалярном случае. Например, правило 7 дифференцирования сложной вектор-функции формально совпадает с обычным "цепным" правилом [math]\frac{dz}{dx}=\frac{dz}{dy}\frac{dy}{dx}[/math] дифференцирования скалярной сложной функции одной переменной. Разумеется, что формальное совпадение правил становится фактическим в скалярном случае, когда все матрицы имеют размеры [math]1\times1[/math].




Пример 6.3. Применяя правила дифференцирования по векторному аргументу, найти производные следующих функций:


а) [math]c^Tx[/math]; б) [math]x^Tc[/math]; в) [math]x^TA[/math]; г) [math]x^TA[/math]; д) [math]x^TAx[/math],


где [math]A[/math] — квадратная числовая матрица n-го порядка; [math]x,\,c[/math] — столбцы размеров [math]n\times1[/math], причем столбец [math]c[/math] числовой.


Решение. а) Вынося постоянный множитель (матрицу-строку) [math]c^T[/math] по правилу 5 и учитывая правило 4, получаем:


[math]\frac{d(c^Tx)}{dx}=c^T\,\frac{dx}{dx}=c^Tec^T.[/math]

б) Учитывая, что величина [math]x^Tc[/math] скалярная, т.е. [math]x^Tc=(x^Tc)^T=c^Tx[/math], получаем [math]\frac{d(x^Tc)}{dx}=\frac{d(c^Tx)}{dx}=c^T[/math]. Заметим, что [math]\frac{d(c^Tx)}{dx^T}=\frac{d(x^Tc)}{dx^T}=c[/math].


в) По правилам 4 и 5 находим: [math]\frac{d(Ax)}{dx}=A\,\frac{dx}{dx}=AE=A[/math].


г) По правилам 4 и 5 находим: [math]\frac{d(x^TA)}{dx^T}=\frac{dx^T}{dx^T}\,A=EA=A[/math].


д) Представляя скалярное выражение [math]x^TAx[/math] как произведение строки [math]x^T[/math] на столбец [math]Ax[/math], по правилу 6 (где [math]u^T=x^T,\,v=Ax[/math]) получаем


[math]\frac{d(x^TAx)}{dx}=(Ax)^T\frac{dx}{dx}+x^T\,\frac{dx}{dx}=x^TA^T\,\frac{dx}{dx}+ x^TA\frac{dx}{dx}= x^T(A^T+A).[/math]

с учетом правила транспонирования производных

[math]\frac{d(x^TAx)}{dx^T}= frac{d(x^TA^Tx)^T}{dx^T}= \begin{pmatrix} \frac{d(x^TA^Tx)}{dx^T} \end{pmatrix}^T= \begin{bmatrix}x^T(A+A^T)\end{bmatrix}^T= (A^T+A)x.[/math]

Учитывая результат п. "б", имеем [math]frac{d^2(x^TAx)}{dx^Tdx}=A^T+A[/math].




Замечания 6.2


1. В некоторых областях прикладной математики, например, в методах оптимизации и теории управления, часто используются другие соглашения, совпадающие с изложенными с точностью до операции транспонирования. Производная [math]\frac{df(x)}{dx}[/math] (градиент функции [math]f(x)[/math]) считается матрицей-столбцом, а производная [math]\frac{df(x)}{dx^T}[/math] — матрицей-строкой:


[math]\frac{}{}= \begin{pmatrix}\dfrac{\partial f}{\partial x_1}\\\vdots\\\dfrac{\partial f}{\partial x_n}\end{pmatrix}\!;\qquad \frac{df(x)}{dx^T}= \begin{pmatrix}\dfrac{\partial f}{\partial x_1}&\cdots&\dfrac{\partial f}{\partial x_n}\end{pmatrix}\!.[/math]

Тогда соответствующие формулы дифференцирования, аналогичные полученным в примере 6.3, имеют вид:


[math]\begin{gathered}\frac{d(c^Tx)}{dx}=\frac{d(x^Tc)}{dx}=c;\qquad \frac{d(x^Tc)}{dx^T}= \frac{d(c^Tx)}{dx^T}=c^T;\\[5pt] \frac{d(Ax)}{dx^T}=A;\qquad \frac{d(x^TA)}{dx}=A;\\[5pt] \frac{d(x^TAx)}{dx^T}= x^T(A^T+A),\quad \frac{d(x^TAx)}{dx}=(A^T+A)x,\quad \frac{d^2(x^TAx)}{dx^Tdx}=A^T+A.\end{gathered}[/math]

2. Если матрица Якоби квадратная [math](m=n)[/math], то ее определитель называется якобианом.


3. След матрицы Якоби (при [math]m=n[/math]) определяет


[math]\operatorname{div}f=\operatorname{tr}\frac{df}{dx}=\sum_{i=1}^{n}\frac{\partial f_i}{\partial x_i}[/math] дивергенцию вектор-функции [math]f(x)[/math] векторного аргумента [math]x[/math].




Производные матричной функции по векторному аргументу


Рассмотрим функциональную матрицу [math]A(x)[/math], элементами которой служат функции [math]a_{ij}(x)[/math] векторного аргумента [math]x[/math]. Дифференциал этой функции имеет вид


[math]dA(x)=\sum_{i=1}^{n}\frac{\partial A(x)}{\partial x_i}\,dx_i,[/math]

где [math]\frac{\partial A(x)}{\partial x_i}[/math]частная производная матрицы по одной переменной. Совокупность частных производных (градиент функциональной матрицы) представляет объект, элементы которого [math]\frac{\partial a_{ij}(x)}{\partial x_k}[/math] нумеруются тремя индексами: номер строки, номер столбца и номер переменной дифференцирования. Поэтому заменить операцию суммирования в правой части формулы операцией умножения матриц в данном случае не представляется возможным. Необходимо вводить другие объекты — тензоры и операции над ними. Поясним формальную сторону получения удобных формул дифференцирования на примере функциональных матриц. Примем следующие правила индексирования:


1) элементы матрицы [math]A=\begin{pmatrix}a_j^i\end{pmatrix}[/math] обозначаются [math]a_j^i[/math], где [math]i[/math] — номер строки, a [math]j[/math] — номер столбца. В частности, [math]x=\begin{pmatrix}x^i\end{pmatrix}[/math] — матрица-столбец (или просто столбец), а [math]y=\begin{pmatrix}y_j\end{pmatrix}[/math] — матрица-строка (или просто строка);


2) частную производную функции [math]F(x)[/math] (скалярной, векторной или матричной) по переменной [math]x^i[/math] будем обозначать, приписывая нижний индекс [math]i[/math] в скобках: [math]\frac{\partial F}{\partial^i}=F_{(i)}[/math];


3) если в произведении одинаковые индексы встречаются сверху и снизу, то по ним производится суммирование (хотя знак суммы не указывается). Например, если [math]A=\begin{pmatrix}a_j^i\end{pmatrix}[/math] — матрица размеров [math]m\times n[/math], [math]x=\begin{pmatrix}x^i\end{pmatrix}[/math] — столбец размеров [math]n\times1[/math], [math]y=\begin{pmatrix}y_j\end{pmatrix}[/math] — строка размеров [math]1\times m[/math], то


[math]a_j^ix^j=\sum_{j=1}^{n}a_j^ix^j,\quad a_j^iy_i=\sum_{i=1}^{m}a_j^iy_i,\quad a_j^ix^jy_i=\sum_{i=1}^{m}\sum_{j=1}^{n}a_j^ix^jy_i,[/math]

т.е. [math]a_j^ix^j[/math] — i-й элемент столбца [math]Ax[/math], [math]a_j^iy_i[/math] — j-й элемент строки [math]yA[/math], [math]a_j^ix^jy_i[/math] — число [math]yAx[/math].


Применяя эти соглашения, запишем дифференциалы:


— скалярной функции: [math]df=f_{(i)}dx^i,~d^2f=f_{(i)(j)}dx^idx^j[/math];


— вектор-функции [math]f=\begin{pmatrix}f^i\end{pmatrix}[/math] (функции-столбца): [math]df^i=f_{(j)}^idx^j[/math];


— функциональной матрицы [math]F=(f_j^i)\colon\,df_j^i=f_{j(k)}^idx^k[/math], где [math]f_{j(k)}^i=\frac{\partial f_j^i}{\partial x^k}[/math] — частная производная первого порядка элемента [math]f_j^i[/math] функциональной матрицы [math]F[/math] по переменной [math]x^k[/math].


Одним из преимуществ принятых соглашений является получение простого вида формул. Другие преимущества раскрываются и используются в тензорном анализе.


Часовой пояс: UTC + 4 часа [ Летнее время ]


Яндекс.Метрика

Copyright © 2010-2016 MathHelpPlanet.com. All rights reserved