线代笔记整理

写在前面:
这份讲义是笔者在学习时的一些思考和题目复盘。尤其想说的是,在2025-2026年的期末考里,讲义里不少核心思路和题目都“押中”了。

关于这份讲义:
笔记的初稿是笔者自己整理的,后来在Gemini的帮助下重新梳理了逻辑、调整了排版。

比起复杂的行列式计算,笔者总觉得几何直觉(Geometric Intuition) 更自然,也更能帮助理解本质。所以如果你在读的时候,发现里面有不少从几何角度出发的解释——嗯,那大概就是笔者个人偏好了。


🛫 第 0 章:矩阵乘法的本源 (The Origins)

可以用以下五种视角进行矩阵运算的理解。

0.1 矩阵乘向量:$Ax$ 的两种核心视角

设 $A = \begin{pmatrix} \mathbf{c}_1 & \mathbf{c}_2 & \dots & \mathbf{c}_n \end{pmatrix}$,其中 $\mathbf{c}_i$ 是列向量。

视角 A:列的线性组合 (The Column Picture) —— 最重要!

$$A \mathbf{x} = \begin{pmatrix} \mathbf{c}_1 & \mathbf{c}_2 & \dots & \mathbf{c}_n \end{pmatrix} \begin{pmatrix} x_1 \ \vdots \ x_n \end{pmatrix} = x_1 \mathbf{c}_1 + x_2 \mathbf{c}_2 + \dots + x_n \mathbf{c}_n$$

  • 直觉: $Ax$ 是对 $A$ 的列向量进行线性组合。

  • 应用:

    • 解方程 $Ax=b$: 实际上是在问“能不能用 $A$ 的列向量组合出 $b$?”(即 $b$ 是否在列空间里)。

    • 列空间 $C(A)$: 就是所有这些组合 $Ax$ 构成的集合。

视角 B:行的点积 (The Row Picture)

$$A \mathbf{x} = \begin{pmatrix} \mathbf{r}_1^T \ \vdots \ \mathbf{r}_m^T \end{pmatrix} \mathbf{x} = \begin{pmatrix} \mathbf{r}_1^T \cdot \mathbf{x} \ \vdots \ \mathbf{r}_m^T \cdot \mathbf{x} \end{pmatrix}$$

  • 直觉: 看作 $x$ 在 $A$ 的每一行方向上的投影。

  • 应用: 在 $Ax=0$ 中,意味着 $x$ 必须垂直于 $A$ 的每一行(所以零空间 $\perp$ 行空间)。


0.2 向量乘矩阵:$y^T A$

$$\mathbf{y}^T A = \begin{pmatrix} y_1 & \dots & y_m \end{pmatrix} \begin{pmatrix} \mathbf{r}_1^T \ \vdots \ \mathbf{r}_m^T \end{pmatrix} = y_1 \mathbf{r}_1^T + \dots + y_m \mathbf{r}_m^T$$

  • 直觉: $y^T A$ 是对 $A$ 的行向量进行线性组合。

  • 口诀: 左乘行组合,右乘列组合。


0.3 矩阵乘矩阵:$AB$ 的四种视角

设 $A_{m \times n}$,$B_{n \times p}$

视角 A:列操作 (Column-wise) —— $A$ 作用于 $B$ 的列

把 $B$ 看作一堆列向量 $\begin{pmatrix} \mathbf{b}_1 & \dots & \mathbf{b}_p \end{pmatrix}$。

$$AB = A \begin{pmatrix} \mathbf{b}_1 & \dots & \mathbf{b}_p \end{pmatrix} = \begin{pmatrix} A\mathbf{b}_1 & \dots & A\mathbf{b}_p \end{pmatrix}$$

  • 直觉: $AB$ 的第 $j$ 列,是 $A$ 对 $B$ 的第 $j$ 列做变换。

  • 结论: $AB$ 的列空间是 $A$ 的列空间的子空间。

视角 2:行操作 (Row-wise) —— $B$ 作用于 $A$ 的行

把 $A$ 看作一堆行向量。

$$AB = \begin{pmatrix} \mathbf{a}_1^T \ \vdots \ \mathbf{a}_m^T \end{pmatrix} B = \begin{pmatrix} \mathbf{a}_1^T B \ \vdots \ \mathbf{a}_m^T B \end{pmatrix}$$

  • 直觉: $AB$ 的第 $i$ 行,是 $B$ 对 $A$ 的第 $i$ 行做组合。

  • 结论: $AB$ 的行空间是 $B$ 的行空间的子空间。

视角 3:列乘行 (Outer Product Expansion) —— 高阶大招

这是谱分解和SVD的灵魂。

$$AB = \sum_{k=1}^n (\text{A的第k列}) \times (\text{B的第k行}) = \mathbf{c}_1 \mathbf{r}_1^T + \mathbf{c}_2 \mathbf{r}_2^T + \dots + \mathbf{c}_n \mathbf{r}_n^T$$

  • 直觉: 矩阵乘法是 $n$ 个秩1矩阵的和。

  • 应用:

    • 谱分解: $A = \sum \lambda_i q_i q_i^T$ 其实就是这个视角。

    • SVD: $A = \sum \sigma_i u_i v_i^T$ 也是这个视角。

    • 如果只需近似矩阵,取前几项相加即可(主成分分析)。

0.4 变换的黄金法则 (The Golden Rule)

这是 Gilbert Strang 老爷子反复强调的:

Left Multiply = Row Operation (左乘做行变换)

Right Multiply = Column Operation (右乘做列变换)

  • 想对 $A$ 做行变换(高斯消元)?

    在 $A$ 的左边乘一个初等矩阵 $E$。

    $$EA = \text{对A的行进行组合}$$

  • 想对 $A$ 做列变换?

    在 $A$ 的右边乘一个初等矩阵 $E$。

    $$AE = \text{对A的列进行组合}$$

举个栗子🌰:

  • $A^{-1}A = I$: 用 $A^{-1}$ 在左边不断乘,相当于做初等行变换把 $A$ 变成 $I$。

  • $AP = B$: $P$ 在右边,说明 $B$ 是 $A$ 的列的重新排列或组合(比如交换两列)。


🚀 第一章:分块矩阵与行列式 (The Block Art)

1.1 分块对角/反对角矩阵求逆

遇到分块矩阵,不要死算,看结构。

  • 分块对角阵求逆: 直接对角线求逆。

    $$ \begin{pmatrix} A_1 & & \ & \ddots & \ & & A_n \end{pmatrix}^{-1} = \begin{pmatrix} A_1^{-1} & & \ & \ddots & \ & & A_n^{-1} \end{pmatrix}$$

  • 分块反对角阵求逆: 注意! 逆矩阵的顺序是反过来的,且位置维持反对角。

    $$ \begin{pmatrix} & & A_1 \ & \dots & \ A_n & & \end{pmatrix}^{-1} = \begin{pmatrix} & & A_n^{-1} \ & \dots & \ A_1^{-1} & & \end{pmatrix}$$

1.2 舒尔补公式 (Schur Complement) —— 行列式降维神器

口诀: 提主元,扣尾款。

当 $A$ 可逆时(以 $A$ 为主元):

$$\begin{vmatrix} A & B \ C & D \end{vmatrix} = |A| \cdot |D - C A^{-1} B|$$

当 $D$ 可逆时(以 $D$ 为主元):

$$\begin{vmatrix} A & B \ C & D \end{vmatrix} = |D| \cdot |A - B D^{-1} C|$$

直觉来源: 这本质上是分块高斯消元:

$$\begin{pmatrix} I & 0 \ -CA^{-1} & I \end{pmatrix} \begin{pmatrix} A & B \ C & D \end{pmatrix} = \begin{pmatrix} A & B \ 0 & D - CA^{-1}B \end{pmatrix}$$

1.3 降阶公式 (Sylvester’s Determinant Identity)

当矩阵维度不同时($A_{m \times n}, B_{n \times m}$),这是连接两个维度的桥梁。

$$|\lambda E_m - AB| = \lambda^{m-n} |\lambda E_n - BA|$$

特例($\lambda=1$):

$$|E_m - AB| = |E_n - BA|$$

应用: 如果 $A$ 是列向量 $u$, $B$ 是行向量 $v^T$,则 $AB$ 是大矩阵,$BA$ 是标量!

1.4 秩1修正行列式 (Matrix Determinant Lemma)

这是上述降阶公式的推论,用于处理“单位阵+秩1矩阵”。

$$|A + \mathbf{u}\mathbf{v}^T| = |A|(1 + \mathbf{v}^T A^{-1} \mathbf{u})$$

常见考题形式($A=I, u=\alpha, v=-\alpha$):

$$|I - \alpha\alpha^T| = 1 - \alpha^T \alpha$$


🛠 第二章:矩阵求逆进阶 (Inverse Pro)

2.1 秩1修正求逆 (Sherman-Morrison Formula)

$$(A + uv^T)^{-1} = A^{-1} - \frac{A^{-1}uv^TA^{-1}}{1 + v^TA^{-1}u}$$

特例(当 $A=I$):

$$(I - uv^T)^{-1} = I + \frac{uv^T}{1 - v^T u}$$

记忆法:

  1. 符号相反(左边加,右边减)。

  2. 分母是标量 $1+\text{trace}$。

  3. 分子被 $A^{-1}$ 夹在中间。

2.2 二阶矩阵求逆口诀

$$\begin{pmatrix} a & b \ c & d \end{pmatrix}^{-1} = \frac{1}{ad-bc} \begin{pmatrix} d & -b \ -c & a \end{pmatrix}$$

口诀: 主对调,副变号,除以行列式。


📈 第三章:秩与不等式 (Rank & Inequalities)

3.1 秩的重要连等式

$$r(A) = r(A^T A) = r(A^T) = r(AA^T)$$

推论: $Ax=0$ 与 $A^TAx=0$ 是同解方程组。(最小二乘法的理论基础)

3.1.0 拓展:投影矩阵与最小二乘

现实世界是不完美的。

当方程组 $Ax=b$ 无解时(比如 $b$ 不在 $A$ 的列空间里),工程思维不是“两手一摊”,而是 “退而求其次” 。

我们找不到精确解,但我们可以找“最近的解”(误差最小的解)。

3.1.1 最小二乘法 (Least Squares)

  • 问题: $b$ 飞出去了,不在 $A$ 的管辖范围(列空间)里。

  • 目标: 在 $A$ 的列空间里找一个替身 $p$,让 $p$ 离 $b$ 最近。几何上,这意味着 $b-p$(误差向量 $e$)必须垂直于 $A$ 的列空间。

  • 核心方程 (Normal Equation):
    $$A^T A \hat{x} = A^T b$$

3.1.2 投影矩阵 (Projection Matrix $P$)

  • 公式:

    $$P = A(A^T A)^{-1} A^T$$

    (推导:因为 $p = A\hat{x}$,把上面解出来的 $\hat{x}$ 带进去即得)

  • 若 $A$ 为列向量 $a$(投影到直线):
    $$P = \frac{aa^T}{a^Ta}$$

3.1.3 灵魂性质:幂等性 ($P^2 = P$)

  • 代数意义: $P^2 = P \cdot P = P$。

  • 几何直觉:

    • 把一个向量投影到桌面上(变成了影子)。

    • 再对这个影子做一次投影。

    • 结论: 投影两次 = 投影一次。

3.2 秩的不等式链条

  • 和的秩: $r(A+B) \le r(A) + r(B)$

  • 积的秩: $r(AB) \le \min { r(A), r(B) }$

  • 分块矩阵的秩:

    $$ \max {r(A), r(B)} \le r(A \quad B) \le r(A) + r(B)$$

    $$ r \begin{pmatrix} A & 0 \ 0 & B \end{pmatrix} = r(A) + r(B)$$

    $$ r \begin{pmatrix} A & 0 \ C & B \end{pmatrix} \ge r(A) + r(B)$$

  • 西尔维斯特不等式 (Sylvester): $r(AB) \ge r(A) + r(B) - n$ (其中 $A_{m \times n}, B_{n \times s}$)


🌀 第四章:特征值与对角化 (Eigenvalues)

4.0 特征值两大结论

  • 迹 (Trace): $\sum \lambda_i = \text{tr}(A) = \sum a_{ii}$

  • 行列式 (Determinant): $\prod \lambda_i = |A|$

4.1 普通矩阵可对角化判据

$n$ 阶矩阵 $A$ 可对角化 $\iff$ 有 $n$ 个线性无关特征向量。

判别流程:

  1. 无重根: $\lambda$ 互异 $\Rightarrow$ 必可对角化。

  2. 有重根: 若 $\lambda_i$ 是 $k$ 重根,必须检查 几何重数 == 代数重数。

    即:$n - r(A - \lambda_i I) = k$。

    (缺一个特征向量都不能对角化!)

4.2 秩1矩阵的特征值 ($\alpha \beta^T$)

对于矩阵 $C = \alpha \beta^T$(秩为1):

  • 特征值 $\lambda_1$: 等于迹,即 $\text{tr}(C) = \beta^T \alpha$。

  • 其余特征值: 全为 $0$。

  • 特征向量:

    • 对应非零特征值的特征向量是 $\alpha$ ($C \alpha = \alpha (\beta^T \alpha)$)。

    • 对应0特征值的特征向量是所有垂直于 $\beta$ 的向量。

4.3 秩1修正矩阵 ($E - k\alpha\alpha^T$) 的特征值

这类矩阵在几何上对应“反射”或“压缩”,在Householder变换中极常见。

对于矩阵 $B = E - k \alpha \alpha^T$($E$为单位阵):

  1. 特征值:

    • 主特征值: $\lambda_1 = 1 - k(\alpha^T \alpha)$ (对应特征向量 $\alpha$)。

    • 重特征值: 其余 $n-1$ 个特征值均为 $1$ (对应特征向量为所有垂直于 $\alpha$ 的向量)。

  2. 行列式: $|B| = \prod \lambda_i = 1 - k(\alpha^T \alpha)$。

  3. 几何直觉:

    • 矩阵只在 $\alpha$ 方向上进行了缩放(缩放倍数为 $1 - k|\alpha|^2$)。

    • 在垂直于 $\alpha$ 的平面上,它就是单位阵 $E$(没动)。

一般推广 (Rank-1 Update):

对于 $C = A + \mathbf{u}\mathbf{v}^T$,若已知 $A$ 的特征值,通常无法直接求 $C$ 的特征值。

但如果 $A = \lambda I$(即 $C = \lambda I + \mathbf{u}\mathbf{v}^T$),则结论同上:

一个特征值为 $\lambda + \mathbf{v}^T \mathbf{u}$,其余为 $\lambda$。

4.4 实对称矩阵 (Real Symmetric Matrix)

最好的矩阵: $A = A^T$

  1. 特征值全为实数

  2. 不同特征值对应的特征向量天然正交

  3. 必可正交对角化:$Q^T A Q = \Lambda$ ($Q$为正交阵)。

4.5 谱分解的高阶处理 (Spectral Decomposition Pro)

实对称矩阵可以分解为 $n$ 个投影矩阵的加权和:

$$A = \lambda_1 P_1 + \lambda_2 P_2 + \dots + \lambda_n P_n$$

其中 $P_i = q_i q_i^T$ 是向第 $i$ 个特征方向的投影矩阵。

4.6 特征向量速算外挂:叉积法 (Cross Product Trick)

仅适用于 3阶矩阵 ($n=3$) 的手算神器。

当求 $3\times 3$ 矩阵 $A$ 对应特征值 $\lambda$ 的特征向量 $x$ 时,我们需要解 $(A - \lambda I)x = 0$。

传统方法: 高斯消元,容易算错。

叉积外挂:

  1. 写出矩阵 $M = A - \lambda I$。

  2. 因为 $M$ 是奇异的(秩<3),它的行向量线性相关。

  3. 任选 $M$ 中两个不共线的行向量 $r_1, r_2$(看都不用看直接选非零且不成比例的两行)。

  4. 直接计算叉积:$x = r_1 \times r_2$

  5. 得到的 $x$ 即为特征向量(无需归一化)。

原理: $Mx=0$ 意味着 $x$ 垂直于 $M$ 的每一行。三维空间中同时垂直于两个向量的方向,就是它们的叉积方向。

注意: 如果算出是 $\mathbf{0}$,说明选的两行共线了,换两行再叉即可。


📐 第五章:空间与变换 (Spaces & Geometry)

5.1 线性变换判定

映射 $T: V \to W$ 是线性的,必须同时满足:

  1. 加法性: $T(\alpha + \beta) = T(\alpha) + T(\beta)$

  2. 齐次性: $T(k\alpha) = k T(\alpha)$

避坑指南:

  1. 检查 $T(\mathbf{0})$ 是否为 $\mathbf{0}$。如果 $T(x) = x + b$ ($b \neq 0$),那是平移,不是线性变换。

  2. 出现平方、取模、行列式运算通常不是线性变换。

5.2 欧氏空间与内积判定

一个运算 $\langle \alpha, \beta \rangle$ 要成为内积,必须满足 4 条公理:

  1. 对称性: $\langle \alpha, \beta \rangle = \langle \beta, \alpha \rangle$

  2. 线性(对第一变元): $\langle k\alpha + l\beta, \gamma \rangle = k\langle \alpha, \gamma \rangle + l\langle \beta, \gamma \rangle$

  3. 非负性: $\langle \alpha, \alpha \rangle \ge 0$

  4. 严格正性: $\langle \alpha, \alpha \rangle = 0 \iff \alpha = \mathbf{0}$

5.3 空间相等的证明

要证明线性空间 $V_1 = V_2$,通常只需证两点:

  1. 包含关系: $V_1 \subseteq V_2$ (即 $V_1$ 的基都能被 $V_2$ 的基线性表示)。

  2. 维数相等: $\dim(V_1) = \dim(V_2)$。

5.4 施密特正交化 (Gram-Schmidt Orthogonalization)

1. 核心直觉 (The Intuition)

给我们一组“乱七八糟、互相歪斜”的基 $\alpha_1, \alpha_2, \dots$,我们想把它们变成一组“横平竖直、互相垂直”的基 $\beta_1, \beta_2, \dots$

  • 做法: 也就是 “去投影”

  • 保留第一个向量不动

  • 第二个向量 = 原来的第二个 - (在第一个上的影子)

  • 第三个向量 = 原来的第三个 - (在第一个上的影子) - (在第二个上的影子)

2. 计算公式 (The Algorithm)

设原向量组为 $\alpha_1, \alpha_2, \alpha_3$

  • Step 1 (定基准):

    $$\beta_1 = \alpha_1$$

  • Step 2 (去投影):

    $$\beta_2 = \alpha_2 - \frac{\langle \alpha_2, \beta_1 \rangle}{\langle \beta_1, \beta_1 \rangle} \beta_1$$

  • Step 3 (如法炮制):

    $$\beta_3 = \alpha_3 - \frac{\langle \alpha_3, \beta_1 \rangle}{\langle \beta_1, \beta_1 \rangle} \beta_1 - \frac{\langle \alpha_3, \beta_2 \rangle}{\langle \beta_2, \beta_2 \rangle} \beta_2$$

最后一步(单位化): 如果题目要求“标准正交基”,别忘了最后除以模长:$\eta_i = \frac{\beta_i}{|\beta_i|}$。

3. 避坑指南 (The Trap)

  1. 对象搞错: 公式里减去的投影,是基于已经正交化好的 $\beta_1, \beta_2$,绝对不是基于原来的 $\alpha_1, \alpha_2$!

    • 错解: $\beta_3 = \alpha_3 - k_1 \alpha_1 - k_2 \alpha_2$ (❌)

    • 正解: $\beta_3 = \alpha_3 - k_1 \beta_1 - k_2 \beta_2$

  2. 计算量爆炸: 如果在中间过程就急着“单位化”(带上了根号),后面的计算会算到怀疑人生。

    • 策略: 先只做正交化(只搞垂直,不管长短),算出清爽的整数 $\beta_i$,最后再统一除以模长。

🎢 第六章:二次型与合同 (Quadratic Forms & Congruence)

如何理解?

二次型 $f(x) = x^T A x$ 描述的是一个 “地势图”

我们做的所有变换(配方、正交变换),都是在不改变地形凹凸性质的前提下,换个角度看这个地势。

  1. 正定 = 碗(有最低点,稳定)
  2. 负定 = 山峰(有最高点,不稳定)
  3. 不定 = 马鞍面(鞍点,临界状态)

6.1 合同矩阵 (Congruent Matrices)

定义: 若存在可逆矩阵 $C$,使得 $C^T A C = B$,则称 $A$ 与 $B$ 合同

概念比较:合同 vs 相似

维度 相似 (Similarity) 合同 (Congruence)
公式 $P^{-1} A P = B$ $C^T A C = B$
核心不变量 特征值 ($\lambda$), 迹, 行列式 惯性指数 ($p, q$), 秩 ($r$)
物理意义 同一个线性变换在不同基下的表示 同一个**二次型(能量)**在不同坐标系下的表示
几何直觉 拉伸/旋转的倍数没变 抛物面的开口方向和凹凸性没变
联系 若 $P$ 是正交矩阵 ($P^T=P^{-1}$),则相似 $\iff$ 合同 实对称矩阵必可合同于对角阵 $\text{diag}(\pm 1, 0)$

避坑:

两个矩阵 $A, B$ 特征值相同,它们相似,也合同(因为特征值符号肯定一样)。

两个矩阵 $A, B$ 特征值不同,但正负个数相同,它们合同,但不相似。

6.2 惯性定律 (Sylvester’s Law of Inertia)

定理: 无论你用什么可逆变换(配方法、初等变换、正交变换)把二次型化为标准形,其正系数的个数 ($p$)负系数的个数 ($q$)永恒不变的。

  • 正惯性指数 ($p$): 能量增加的维度数量(向上的开口)。

  • 负惯性指数 ($q$): 能量减少的维度数量(向下的开口)。

  • 秩 ($r$): $r = p + q$ (起作用的总维度)。

6.3 正定性判据的全景图 (Positive Definiteness)

判断 $A$ 是否正定(即 $x^T A x > 0$ 对任意 $x \neq 0$),其实是在问:“这真的是一个碗吗?”

四大判据(按解题优先级排序):

  1. 特征值判据(最本质):

    全为正实数 ($\lambda_i > 0$)。

    (物理意义:在所有主轴方向上,都是往上弯的)

  2. 顺序主子式判据(手算最快):

    所有顺序主子式 $D_k > 0$ ($k=1, \dots, n$)。

    (代数意义:高斯消元过程中,主元 pivot 永远为正)

  3. 惯性指数判据(配方法):

    正惯性指数 $p = n$ (或者标准形系数全正)。

  4. 定义判据:

    $x^T A x > 0$。


🌌 终章:线性代数的四个基本空间 (The Big Picture)

核心图景:

任何一个 $m \times n$ 的矩阵 $A$,都在做一件事:

将 $n$ 维输入空间 ($\mathbb{R}^n$) 里的向量,映射到 $m$ 维输出空间 ($\mathbb{R}^m$)。

这个过程中,两个世界被精准地切割成了四块:

四个基本空间

1. 输入世界的切割 ($\mathbb{R}^n$)

输入向量 $x$ 被分解为两部分:$x = x_r + x_n$。

  • 行空间 $C(A^T)$ (Row Space):

    • 维数: $r$ (秩)

    • 身份: “有效输入区”

    • 理解: 只有落在这个空间里的分量,$A$ 才会对它处理(拉伸、旋转)。这一部分的信息被保留并传递到了输出端。

  • 零空间 $N(A)$ (Null Space):

    • 维数: $n - r$

    • 身份: “无效输入区”“信息的黑洞”

    • 理解: 落在这里的分量,$A$ 直接把它变成了 $\mathbf{0}$。这是解方程 $Ax=0$ 的所有解。

    • 几何关系: 它与行空间正交互补 ($N(A) \perp C(A^T)$)。

    • 工程意义: 系统中无法被观测到的状态,或者被滤波器滤掉的噪声。

2. 输出世界的切割 ($\mathbb{R}^m$)

输出向量 $b$ (或目标向量) 也就处于两个区域之一。

  • 列空间 $C(A)$ (Column Space):

    • 维数: $r$ (秩)

    • 身份: “可达区域” (Reachable Set)。

    • 理解: 系统 $Ax$ 能产生的所有可能的输出。如果 $b$ 在这里,方程有解。

  • 左零空间 $N(A^T)$ (Left Null Space):

    • 维数: $m - r$

    • 身份: “不可达的禁区”

    • 理解: 这里的向量 $y$ 满足 $A^T y = 0$ (即 $y^T A = 0$,所以叫“左”零空间)。

    • 几何关系: 它与列空间正交互补 ($N(A^T) \perp C(A)$)。

    • 工程意义: “误差空间”。当我们做最小二乘法解不可解方程 $Ax=b$ 时,最小误差向量 $e = b - p$ 就必须死死地躺在这个左零空间里(因为它必须垂直于列空间)。

3. 总结:线性变换的全过程

当矩阵 $A$ 作用于向量 $x$ 时,实际上发生了这三步:

  1. 分解: 把 $x$ 拆成 行空间分量 (有效) 和 零空间分量 (无效)。

  2. 毁灭: 零空间分量直接被消灭,变成 0。

  3. 映射: 行空间分量被一对一地、可逆地映射到了 列空间

维度守恒定律 (Rank-Nullity Theorem):

输入的总维度 $n$ = 活下来的维度 ($r$) + 死掉的维度 ($n-r$)。

4. 为什么叫“左”零空间?(记忆技巧)

  • Null Space: $Ax = 0$ ($x$ 在 $A$ 的右边)

  • Left Null Space: $y^T A = 0$ ($y^T$ 在 $A$ 的左边)

  • 这实际上就是 $A^T$ 的零空间。


最后,感谢学科营的辅导员们,在讨论中给予的耐心指导和启发;也感谢搬运并翻译 MIT 18.06 课程视频的 B 站 up 主,让经典的课程得以被更多人看见和学习。
正是这些来自师长、同好与开源分享的帮助,让这段学习旅程更加丰满。

希望这份带着个人视角与几何偏好的梳理,能给你带来一些不一样的启发。
Enjoy the Journey of LINEAR ALGEBRA! 💐

学习资料参考:

  1. 致大一新生【2024新版】 - 知乎
  2. 麻省理工学院—线性代数课(完整版72讲)通俗易懂,绝对是线性代数课程天花板!
  3. 高数数分代数学科营(SJTU园区)
  4. 【熟肉】线性代数的本质 - 01 - 向量究竟是什么?
  5. Visual Kernel - YouTube

整理不易,如果发现笔误或是有更好的理解,欢迎传承!
祝学习顺利 ✨