MIT 18.03 Differential Equation - 4.1 linear ode system

常微分方程组(一):引入&线性齐次方程组解法

我们开始研究一阶ODE组 First-order system of ODEs

微分方程需要得到什么?

  • 因变量关于自变量的显式表达

微分方程组需要得到什么?

  • 一组因变量关于自变量的显式表达

一阶常微分方程组

一阶:因变量最高一阶导

常微分:一个自变量

\[\left\{\begin{matrix} x' = f(x,y;t)\\ y' = f(x,y;t) \end{matrix}\right.\]

疑问:x’不能被x,y,t显示表达怎么办?

  • e.g. $x’^2x+x’y+sin(t)x = e^t$

一阶线性常微分方程组

因变量以线性形式出现

\[\left\{\begin{matrix} x' = a(t)x+b(t)y+r_1(t)\\ y' = c(t)x+d(t)y+r_2(t) \end{matrix}\right.\]

当a b c d为常数时 称为常系数

线性齐次

\[\left\{\begin{matrix} x' = a(t)x+b(t)y\\ y' = c(t)x+d(t)y \end{matrix}\right.\]

初始条件

最终解出现的任意常数数等于方程组的最高阶数和

所以所需初始条件数等于等于方程组的最高阶数和

e.g.

\[\left\{\begin{matrix} x' = a(t)x+b(t)y\\ y'' = c(t)x+d(t)y+e(t)y' \end{matrix}\right.\]

最终解出现的任意常数数为1+2 = 3个

所需初始条件数 = 3个

自治方程组 autonomous system

\[\left\{\begin{matrix} x' = f(x,y)\\ y' = g(x,y) \end{matrix}\right.\]

解 \(\begin{bmatrix} x(t)\\y(t)\end{bmatrix}\)是什么? 参数曲线

方程组 \(\begin{bmatrix} x'(t)\\y'(t)\end{bmatrix}\) 是什么?切向量

所以x, y平面上每一点都对应一个切向量

所一阶自治方程组相当于一个速度场


线性齐次方程组解法

消元法 elimination

将一个因变量用别的因变量表示

e.g.

\[\left\{\begin{matrix} x' = -2x + 2y\\ y' = 2x - 5y \end{matrix}\right.\]

$y = \frac{x’+2x}{2}$带入二式即可求解得

\[\left\{\begin{matrix} x = c_1e^{-t} + c_2e^{-6t}\\ y = \frac{1}{2}c_1e^{-t} - 2c_2e^{-6t} \end{matrix}\right.\]

矩阵法

\[\begin{pmatrix}x\\y\end{pmatrix}' = \begin{pmatrix}-2&2\\2&-5\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}\]

由消元法我们知道解的结构为指数函数的线性组合

不妨设解为

\[\begin{bmatrix}x\\y\end{bmatrix} = \begin{bmatrix}a_1\\a_2\end{bmatrix}e^{\lambda t}\]

带入方程组

\[\begin{bmatrix}x\\y\end{bmatrix}' = \lambda\begin{bmatrix}a_1\\a_2\end{bmatrix}e^{\lambda t} = \begin{bmatrix}-2&2\\2&-5\end{bmatrix}\begin{bmatrix}a_1\\a_2\end{bmatrix}e^{\lambda t}\]

于是就转换成了求特征值的问题

\[\begin{bmatrix}-2&2\\2&-5\end{bmatrix}\begin{bmatrix}a_1\\a_2\end{bmatrix} = \lambda\begin{bmatrix}a_1\\a_2\end{bmatrix}\]

回忆:$Ax = \lambda t \rightarrow (A-\lambda I)x = 0$ 令x有非零解的的条件即$det(A-\lambda I) = 0$

所以问题就转化为一个解特征方程的代数问题$(-2-\lambda)(-5-\lambda)-4 = 0$

注:这个特征方程和消元法带入得到的二阶ODE的特征方程相同 两者有本质联系

求出两个特征值 和两个特征向量即可知道\(\begin{bmatrix}x\\y\end{bmatrix}\)是$v e^{\lambda t}$的线性组合

其中$ve^{\lambda t}$在科学和工程领域一般被称为简正模 normal mode

总结:

2x2矩阵\(\begin{bmatrix}a&b\\c&d\end{bmatrix}\)特征方程$(a-\lambda)(d-\lambda)-bc = 0\rightarrow \lambda^2-(a+d)\lambda + ad-bc$

即$\lambda^2-tr(A)+det(A)$

$tr(A)$是矩阵的trace

对于n元一阶ODE组 $\overrightarrow{x’} = A\overrightarrow x$

解$\overrightarrow{x} = \overrightarrow{\alpha}e^{\lambda t}$

带入解$ |A-\lambda I| = 0$ 求出特征值$\lambda$ 再求出对应每个特征值的特征向量$\alpha $即可得到通解(特解的线性组合)

$\overrightarrow{x} = c_1\overrightarrow{\alpha_1}e^{\lambda_1 t} + \cdots + c_n\overrightarrow{\alpha_n}e^{\lambda_n t}$

相伴矩阵 Companion Matrix

解一个n元一阶齐次线性微分方程组用消元法可以得到n阶线性方程组

事实上工程上一般是反着来的 即 把n阶线性方程组表示成n元一阶线性方程组 再用矩阵方法解

这种方法叫反消元法 anti-elimination (网上查不到中文名)

e.g. 对于二阶齐次线性方程组 $x’‘+bx’+kx = 0$

另$y = x’$ 则$y’+by+kx = 0\Rightarrow y’ = -kx - by$

和$x’ = y$ 联立 即得到

\[\begin{pmatrix}x\\y\end{pmatrix}' = A\begin{pmatrix}x\\y\end{pmatrix} = \begin{pmatrix}0&1\\-k&-b\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}\]

其中矩阵A称为线性方程的相伴矩阵 Cmpanion Matrix (网上查不到中文 和多项式的相伴矩阵有联系)

即可求得解\(u(t) = \begin{bmatrix}x\\x'\end{bmatrix}\)


矩阵法具体分析

根据矩阵求出的特征值类型不同(非重实根,复根,重根),解大致可以分为三类

其中根据重根对应的特征向量个数又可以分为两类

对于n阶方阵特征多项式

重根数目称为代数重数 algebraic multiplicity

对应特征值$\lambda$的特征空间维数,$\mathrm{dim}{N}(A-\lambda I)$,亦即所能找到最大线性无关特征向量的个数,则称为$\lambda$的几何重数 geometric multiplicity

(1) 所有相异特征值的代数重数之和为n

(2) 对于任意特征值 几何重数必不大于代数重数

如果某一个特征值的几何重数小于其代数重数,即缺陷特征值 defective eigenvalue,我们称此方阵为缺陷(defective)矩阵

实特征值(两两相异)

求出特征值$\lambda $后直接求出特征向量$v$ 解为$ve^{\lambda t}$的线性组合

复特征值

求出特征值$\lambda $后取共轭复数之中的一个,求出复特征向量$z$ ,解为$Re(ze^{\lambda t})$和$Im(ze^{\lambda t})$的线性组合

重根

  • 完备特征值 complete eigenvalue

    特征值虽然是重复的 但是仍然能够得到代数重数个线性无关的特征向量

    对于2x2矩阵只有scaling matrix i.e. $\lambda I$ 满足 特征向量为二维平面中的任意向量

    (scaling matrix对于二维平面内的任意向量都有同等的沿原方向的放缩效果)

    扩展到三维的一个例子:矩阵对于一个平面内的向量具有同等缩放的效果 则必存在一个完备特征值(or 一对相等的根)

    抑或是整个空间的scaling matrix 那就是三重根

  • 主轴定理/谱定理 principle axis theorem/spectrum theorem

    对称实矩阵的特征值一定是完备的

  • 缺陷特征值 defective eigenvalue

    得到的特征向量数小于重根个数(几何重数小于代数重数)

    这时候需要求广义特征向量 generalized eigenvector

    其个数为代数重数减去几何重数

    对于2x2缺陷矩阵

    • $(A-\lambda I)\textbf{v}_1 = \textbf{0}$ $(A-\lambda I)\textbf{v}_2 = \textbf{v}_1$ or just $(A-\lambda I)^2\textbf{v}_2 = 0$
    • $\textbf{x}_1(t) = e^{\lambda t}\textbf{v}_1$ $\textbf{x}_2(t) = e^{\lambda t}(t\textbf{v}_1+\textbf{v}_2)$

    对于$p$个广义特征向量

    • 取特征空间基向量的一个线性组合$\textbf{v}$ 满足$(A-\lambda I)\textbf{v} = \textbf{0}$(至于为什么是线性组合 怎么样的线性组合 之后会说明)

    • \((A-\lambda I)\textbf{w}_1 = \textbf{v}\quad(A-\lambda I)\textbf{w}_2 = \textbf{w}_1\quad\cdots\quad(A-\lambda I)\textbf{w}_p = \textbf{w}_{p-1}\) 得到广义特征向量

    • or just $(A-\lambda I)^{q+1}\textbf{w}_q = 0$

      because $(A-\lambda I)\textbf{v} = \textbf{0}$, $(A-\lambda I)^2\textbf{w}_1 = (A-\lambda I)\textbf{v} = \textbf{0}$,etc.

      这样就逆向找到了所需的特征空间基向量的线性组合v

    • 则特解为

    • 包含广义特征向量的项

      \[e^{\lambda t}(tv+w_1),\quad e^{\lambda t}(\frac{t^2}{2}v+tw_1+w_2)\\,\cdots,e^{\lambda t}(\frac{t^p}{p!}v+\frac{t^{p-1}}{(p-1)!}w_1+\cdots+tw_{p-1}+w_p)\]
    • 以及代数重数个包含特征向量的项$e^{\lambda t}v_n$

    • 为什么取特征向量的线性组合?怎么样的线性组合?

      • 单个基向量可能使$(A-\lambda I)\textbf{w}_1 = \textbf{v}_n$无解
      • 对于2x2矩阵来说 必能找到广义特征向量 因为$(A-\lambda I)^2$必不满秩(奇异矩阵的幂必是奇异矩阵)
      • 2x2矩阵中 特征空间的基向量只有一个 所以没问题 但是高阶就不一样
      • 比如3x3矩阵 特征值的代数重数为3 几何重数为2 即只有两个特征向量 那末单个特征向量$\textbf{v}_n$可能会使得$(A-\lambda I)\textbf{w}_1 = \textbf{v}_n$无解
      • 所以必须找到一个特征向量的线性组合使得$(A-\lambda I)\textbf{w}_1 = \textbf{v}$有解
      • 通过 $(A-\lambda I)^2\textbf{w}_1 = \textbf{0}$和$(A-\lambda I)\textbf{w}_1 = \textbf{v}$其实能够逆向找出$\textbf{v}$
    • 为什么广义特征向量一定存在?

      • 因为奇异矩阵的幂必是奇异矩阵 所以$(A-\lambda I)^p$必不满秩 $w_p$一定有解
    • 求广义特征向量就是求$(A-\lambda I)^p$的核 $kernel$

    • 中间那个链状的公式叫若尔当链 Jordan chains

    • 其实低阶碰到这种情况 消元法似乎来得更快

    • 这个地方似乎和若尔当标准型还有关 这就是我的知识盲区乐……

    • 一些参考

      general-solution-of-a-system-of-linear-differential-equations-with-multiple-gene 写的最清楚

      generalized-eigenvectors-for-systems-of-odes

      system-of-differential-equations-with-triple-eigenvalue

      linear-ode-repeated-eigenvalues-how-to-find-more-than-2-generalized-eigenvectors

      slides8-01

      Generalized_eigenvector

Categories:

ODE   Math   MIT 18.03 Differential Equation