MIT 18.03 Differential Equation - 4.1 linear ode system
常微分方程组(一):引入&线性齐次方程组解法
引
我们开始研究一阶ODE组 First-order system of ODEs
解微分方程需要得到什么?
- 因变量关于自变量的显式表达
解微分方程组需要得到什么?
-
一组因变量关于自变量的显式表达
一阶常微分方程组
一阶:因变量最高一阶导
常微分:一个自变量
\[\left\{\begin{matrix} x' = f(x,y;t)\\ y' = f(x,y;t) \end{matrix}\right.\]疑问:x’不能被x,y,t显示表达怎么办?
- e.g. $x’^2x+x’y+sin(t)x = e^t$
一阶线性常微分方程组
因变量以线性形式出现
\[\left\{\begin{matrix} x' = a(t)x+b(t)y+r_1(t)\\ y' = c(t)x+d(t)y+r_2(t) \end{matrix}\right.\]当a b c d为常数时 称为常系数
线性齐次
\[\left\{\begin{matrix} x' = a(t)x+b(t)y\\ y' = c(t)x+d(t)y \end{matrix}\right.\]初始条件
最终解出现的任意常数数等于方程组的最高阶数和
所以所需初始条件数等于等于方程组的最高阶数和
e.g.
\[\left\{\begin{matrix} x' = a(t)x+b(t)y\\ y'' = c(t)x+d(t)y+e(t)y' \end{matrix}\right.\]最终解出现的任意常数数为1+2 = 3个
所需初始条件数 = 3个
自治方程组 autonomous system
\[\left\{\begin{matrix} x' = f(x,y)\\ y' = g(x,y) \end{matrix}\right.\]解 \(\begin{bmatrix} x(t)\\y(t)\end{bmatrix}\)是什么? 参数曲线
方程组 \(\begin{bmatrix} x'(t)\\y'(t)\end{bmatrix}\) 是什么?切向量
所以x, y平面上每一点都对应一个切向量
所一阶自治方程组相当于一个速度场
线性齐次方程组解法
消元法 elimination
将一个因变量用别的因变量表示
e.g.
\[\left\{\begin{matrix} x' = -2x + 2y\\ y' = 2x - 5y \end{matrix}\right.\]$y = \frac{x’+2x}{2}$带入二式即可求解得
\[\left\{\begin{matrix} x = c_1e^{-t} + c_2e^{-6t}\\ y = \frac{1}{2}c_1e^{-t} - 2c_2e^{-6t} \end{matrix}\right.\]
矩阵法
\[\begin{pmatrix}x\\y\end{pmatrix}' = \begin{pmatrix}-2&2\\2&-5\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}\]由消元法我们知道解的结构为指数函数的线性组合
不妨设解为
\[\begin{bmatrix}x\\y\end{bmatrix} = \begin{bmatrix}a_1\\a_2\end{bmatrix}e^{\lambda t}\]带入方程组
\[\begin{bmatrix}x\\y\end{bmatrix}' = \lambda\begin{bmatrix}a_1\\a_2\end{bmatrix}e^{\lambda t} = \begin{bmatrix}-2&2\\2&-5\end{bmatrix}\begin{bmatrix}a_1\\a_2\end{bmatrix}e^{\lambda t}\]于是就转换成了求特征值的问题
\[\begin{bmatrix}-2&2\\2&-5\end{bmatrix}\begin{bmatrix}a_1\\a_2\end{bmatrix} = \lambda\begin{bmatrix}a_1\\a_2\end{bmatrix}\]回忆:$Ax = \lambda t \rightarrow (A-\lambda I)x = 0$ 令x有非零解的的条件即$det(A-\lambda I) = 0$
所以问题就转化为一个解特征方程的代数问题$(-2-\lambda)(-5-\lambda)-4 = 0$
注:这个特征方程和消元法带入得到的二阶ODE的特征方程相同 两者有本质联系
求出两个特征值 和两个特征向量即可知道\(\begin{bmatrix}x\\y\end{bmatrix}\)是$v e^{\lambda t}$的线性组合
其中$ve^{\lambda t}$在科学和工程领域一般被称为简正模 normal mode
总结:
2x2矩阵\(\begin{bmatrix}a&b\\c&d\end{bmatrix}\)特征方程$(a-\lambda)(d-\lambda)-bc = 0\rightarrow \lambda^2-(a+d)\lambda + ad-bc$
即$\lambda^2-tr(A)+det(A)$
$tr(A)$是矩阵的trace
对于n元一阶ODE组 $\overrightarrow{x’} = A\overrightarrow x$
解$\overrightarrow{x} = \overrightarrow{\alpha}e^{\lambda t}$
带入解$ |A-\lambda I| = 0$ 求出特征值$\lambda$ 再求出对应每个特征值的特征向量$\alpha $即可得到通解(特解的线性组合)
$\overrightarrow{x} = c_1\overrightarrow{\alpha_1}e^{\lambda_1 t} + \cdots + c_n\overrightarrow{\alpha_n}e^{\lambda_n t}$
相伴矩阵 Companion Matrix
解一个n元一阶齐次线性微分方程组用消元法可以得到n阶线性方程组
事实上工程上一般是反着来的 即 把n阶线性方程组表示成n元一阶线性方程组 再用矩阵方法解
这种方法叫反消元法 anti-elimination (网上查不到中文名)
e.g. 对于二阶齐次线性方程组 $x’‘+bx’+kx = 0$
另$y = x’$ 则$y’+by+kx = 0\Rightarrow y’ = -kx - by$
和$x’ = y$ 联立 即得到
\[\begin{pmatrix}x\\y\end{pmatrix}' = A\begin{pmatrix}x\\y\end{pmatrix} = \begin{pmatrix}0&1\\-k&-b\end{pmatrix}\begin{pmatrix}x\\y\end{pmatrix}\]其中矩阵A称为线性方程的相伴矩阵 Cmpanion Matrix (网上查不到中文 和多项式的相伴矩阵有联系)
即可求得解\(u(t) = \begin{bmatrix}x\\x'\end{bmatrix}\)
矩阵法具体分析
根据矩阵求出的特征值类型不同(非重实根,复根,重根),解大致可以分为三类
其中根据重根对应的特征向量个数又可以分为两类
对于n阶方阵特征多项式
重根数目称为代数重数 algebraic multiplicity
对应特征值$\lambda$的特征空间维数,$\mathrm{dim}{N}(A-\lambda I)$,亦即所能找到最大线性无关特征向量的个数,则称为$\lambda$的几何重数 geometric multiplicity
(1) 所有相异特征值的代数重数之和为n
(2) 对于任意特征值 几何重数必不大于代数重数
如果某一个特征值的几何重数小于其代数重数,即缺陷特征值 defective eigenvalue,我们称此方阵为缺陷(defective)矩阵
实特征值(两两相异)
求出特征值$\lambda $后直接求出特征向量$v$ 解为$ve^{\lambda t}$的线性组合
复特征值
求出特征值$\lambda $后取共轭复数之中的一个,求出复特征向量$z$ ,解为$Re(ze^{\lambda t})$和$Im(ze^{\lambda t})$的线性组合
重根
-
完备特征值 complete eigenvalue
特征值虽然是重复的 但是仍然能够得到代数重数个线性无关的特征向量
对于2x2矩阵只有scaling matrix i.e. $\lambda I$ 满足 特征向量为二维平面中的任意向量
(scaling matrix对于二维平面内的任意向量都有同等的沿原方向的放缩效果)
扩展到三维的一个例子:矩阵对于一个平面内的向量具有同等缩放的效果 则必存在一个完备特征值(or 一对相等的根)
抑或是整个空间的scaling matrix 那就是三重根
-
主轴定理/谱定理 principle axis theorem/spectrum theorem
对称实矩阵的特征值一定是完备的
-
缺陷特征值 defective eigenvalue
得到的特征向量数小于重根个数(几何重数小于代数重数)
这时候需要求广义特征向量 generalized eigenvector
其个数为代数重数减去几何重数
对于2x2缺陷矩阵
- $(A-\lambda I)\textbf{v}_1 = \textbf{0}$ $(A-\lambda I)\textbf{v}_2 = \textbf{v}_1$ or just $(A-\lambda I)^2\textbf{v}_2 = 0$
- $\textbf{x}_1(t) = e^{\lambda t}\textbf{v}_1$ $\textbf{x}_2(t) = e^{\lambda t}(t\textbf{v}_1+\textbf{v}_2)$
对于$p$个广义特征向量
-
取特征空间基向量的一个线性组合$\textbf{v}$ 满足$(A-\lambda I)\textbf{v} = \textbf{0}$(至于为什么是线性组合 怎么样的线性组合 之后会说明)
-
\((A-\lambda I)\textbf{w}_1 = \textbf{v}\quad(A-\lambda I)\textbf{w}_2 = \textbf{w}_1\quad\cdots\quad(A-\lambda I)\textbf{w}_p = \textbf{w}_{p-1}\) 得到广义特征向量
-
or just $(A-\lambda I)^{q+1}\textbf{w}_q = 0$
because $(A-\lambda I)\textbf{v} = \textbf{0}$, $(A-\lambda I)^2\textbf{w}_1 = (A-\lambda I)\textbf{v} = \textbf{0}$,etc.
这样就逆向找到了所需的特征空间基向量的线性组合v
-
则特解为
-
包含广义特征向量的项
\[e^{\lambda t}(tv+w_1),\quad e^{\lambda t}(\frac{t^2}{2}v+tw_1+w_2)\\,\cdots,e^{\lambda t}(\frac{t^p}{p!}v+\frac{t^{p-1}}{(p-1)!}w_1+\cdots+tw_{p-1}+w_p)\] -
以及代数重数个包含特征向量的项$e^{\lambda t}v_n$
-
为什么取特征向量的线性组合?怎么样的线性组合?
- 单个基向量可能使$(A-\lambda I)\textbf{w}_1 = \textbf{v}_n$无解
- 对于2x2矩阵来说 必能找到广义特征向量 因为$(A-\lambda I)^2$必不满秩(奇异矩阵的幂必是奇异矩阵)
- 2x2矩阵中 特征空间的基向量只有一个 所以没问题 但是高阶就不一样
- 比如3x3矩阵 特征值的代数重数为3 几何重数为2 即只有两个特征向量 那末单个特征向量$\textbf{v}_n$可能会使得$(A-\lambda I)\textbf{w}_1 = \textbf{v}_n$无解
- 所以必须找到一个特征向量的线性组合使得$(A-\lambda I)\textbf{w}_1 = \textbf{v}$有解
- 通过 $(A-\lambda I)^2\textbf{w}_1 = \textbf{0}$和$(A-\lambda I)\textbf{w}_1 = \textbf{v}$其实能够逆向找出$\textbf{v}$
-
为什么广义特征向量一定存在?
- 因为奇异矩阵的幂必是奇异矩阵 所以$(A-\lambda I)^p$必不满秩 $w_p$一定有解
-
求广义特征向量就是求$(A-\lambda I)^p$的核 $kernel$
-
中间那个链状的公式叫若尔当链 Jordan chains
-
其实低阶碰到这种情况 消元法似乎来得更快
-
这个地方似乎和若尔当标准型还有关 这就是我的知识盲区乐……
-
一些参考
general-solution-of-a-system-of-linear-differential-equations-with-multiple-gene 写的最清楚
generalized-eigenvectors-for-systems-of-odes
system-of-differential-equations-with-triple-eigenvalue
linear-ode-repeated-eigenvalues-how-to-find-more-than-2-generalized-eigenvectors