MATH1205H HW26

Exercise 1 (1) 利用内积的双线性性质,对于任意 $ u \in V $,有 $ \langle u, 0 \rangle = \langle u, 0 + 0 \rangle = \langle u, 0 \rangle + \langle u, 0 \rangle $,即可得到 $ \langle u, 0 \rangle = 0 $。 (2) 若对于所有 $ u \in V $ 都有 $ \langle u, v \rangle = 0 $,那么我们可以取特例 $ u = v $,此时有 $ \langle v, v \rangle = 0 $。根据内积的正定性公理,$ \langle v, v \rangle = 0 $ 当且仅当 $ v = 0 $。 ...

December 28, 2025 · 4 min · diefish

MATH1205H HW25

Exercise 1 不唯一。考虑有奇异值相等的情况,那么最优子空间不唯一。假设 $ \sigma_{k}=\sigma_{k+1} $,那么在由 $ v_{k} $ 和 $ v_{k+1} $ 张成的平面内进行任意旋转后得到的向量组也满足条件。 Exercise 2 根据给定的分解,$ A $ 有唯一的非零奇异值 $ \sigma_1=5 $,对应的 $ u_1 = \begin{bmatrix} 0.6 \\ 0.8 \end{bmatrix} $,$ v_1 = [1] $。 首先计算伪逆 $ A^+ = \frac{1}{\sigma_1} v_1 u_1^T = \frac{1}{5} [1] \begin{bmatrix} 0.6 & 0.8 \end{bmatrix} = \begin{bmatrix} 0.12 & 0.16 \end{bmatrix} $。 接着计算 $ A^+ A = \begin{bmatrix} 0.12 & 0.16 \end{bmatrix} \begin{bmatrix} 3 \\ 4 \end{bmatrix} = 0.36 + 0.64 = 1 $(即 $ I_1 $)。 ...

December 24, 2025 · 3 min · diefish

MATH1205H HW24

Exercise 1 注意到 $$ \begin{aligned} \left\| \sum_{i=1}^k c_i w_i \right\|^2 &= \left\langle \sum_{i=1}^k c_i w_i, \sum_{j=1}^k c_j w_j \right\rangle \\ &= \sum_{i=1}^k \sum_{j=1}^k c_i c_j \langle w_i, w_j \rangle \end{aligned} $$ 根据题设,我们知道当 $ i \neq j $ 时 $ \langle w_i, w_j \rangle = 0 $,当 $ i = j $ 时 $ \langle w_i, w_j \rangle = 1 $。因此,上述双重求和中仅保留 $ i=j $ 的项 $$ \sum_{i=1}^k c_i^2 \cdot 1 = \sum_{i=1}^k c_i^2 $$ 得证。 ...

December 20, 2025 · 2 min · diefish

MATH1205H HW23

Exercise 1 不唯一。只有奇异值 $ \Sigma $ 是唯一的,而 $ U,V $ 通常不唯一。首先我们改变 $ U,V $ 中对应列的符号不会产生影响;其次相同的奇异值对应的奇异向量可以在保持正交的情况下任意变换,也不会对 SVD 分解产生影响;并且如果存在零奇异值,也可以任意选择。 Exercise 2 我们需要证明对于所有 $ k\in \{ r+1,\dots, m\} $ 满足 $ AA^{T}u_{k}=\mathbf{0} $。 首先根据正交矩阵,因此对于任意 $ j\in [r] $ 和 $ k\in \{ r+1,\dots,m \} $,有 $ u_{j}^{T}u_{k}=0 $。我们考虑 $ A $ 的列空间,显然 $ \{ u_{j} \}_{j=1}^{r} $ 是 $ AA^{T} $ 的非零特征值对应的特征向量,构成了 $ \text{Col}(A) $ 的一组正交基,从而 $ \{ u_{k} \}_{k=r+1}^{m} $ 属于 $ \text{Col}(A) $ 的正交补空间,也就属于 $ A^{T} $ 的零空间,因此 $$ A^{T}u_{k} = \mathbf{0},\quad k=r+1,\dots,m $$ 带入就有 $ AA^{T}u_{k}=\mathbf{0} $,证毕。 ...

December 19, 2025 · 2 min · diefish

MATH1205H HW21

Exercise 2 根据定义,对于任意 $ \phi \in V' $,有 $$ T_{\text{incl}}'(\phi) = \phi \circ T_{\text{incl}} $$ 由于 $ T_{\text{incl}} $ 是包含映射,因此 $ T_{\text{incl}}' $ 实际上将 $ \phi $ 的定义域限制在了 $ U $ 上,也就是 $ T_{\text{incl}}'(\phi)=\phi|_{U} $,因此 $ \mathrm{Im}(T_{\text{incl}}') $ 由所有形式为 $ \phi|_{U} $ 的线性泛函组成,从而 $ \mathrm{Im}(T_{\text{incl}}')\subseteq U' $。 证明满射。即证对于任意 $ \psi \in U' $,都存在 $ \phi \in V' $ 使得 $ T_{\text{incl}}'(\phi)=\psi $。设 $ \{ u_{1},\dots,u_{m} \} $ 是 $ U $ 的一组基,将它扩充为 $ V $ 的一组基 $ \{ u_{1},\dots,u_{m},v_{m+1},\dots,v_{n} \} $。那么对于给定的 $ \psi \in U' $,在 $ V $ 的基上定义 $ \phi \in V' $ 满足 $$ \begin{cases} \phi(u_{i}) = \psi(u_{i}), \\ \phi(v_{j}) = 0 \end{cases} $$ 根据线性扩展定理,$ \phi $ 在 $ V $ 上唯一确定。从而对于任意 $ u \in U $,$ \phi(u) = \psi(u) $,即 $ \phi|_U = \psi $。因此就有 $ U'\subseteq \mathrm{Im}(T_{\text{incl}}') $。 ...

December 12, 2025 · 3 min · diefish

MATH1205H HW20

Exercise 1 根据对偶变换的定义 $$ (T'(L))(v) = L(T(v)) $$ 带入 $ T(v)=v $,就有 $$ (T'(L))(v) = L(v) $$ 由于这对所有 $ v \in V $ 均成立,从而 $ T'(L) $ 和 $ L $ 是一个函数,因为输入输出完全相同,因此 $ T'(L)=L $,是恒等变换。 Exercise 2 先证充分性,如果 $ T=\mathbf{0} $,那么对于任意 $ v \in V $,都有 $ T(v)=\vec{0} $。根据定义 $$ (T'(L))(v) = L(T(v)) = 0 $$ 说明 $ T'(L) $ 是零泛函,从而 $ T'=\mathbf{0} $。 如果 $ T'=\mathbf{0} $,那么对于任意 $ L\in W' $,$ T'(L) $ 是 $ V $ 上的零泛函。带入定义就有 $$ L(T(v)) =(T'(L))(v) = 0 $$ 由于对所有的线性泛函均成立,那么可以证明 $ T(v)=\vec{0} $。否则将 $ T(v)=w $ 扩充为 $ W $ 的一组基,定义 $ L $ 只在 $ w $ 上为 $ 1 $,否则为 $ 0 $,这样就构造出了一个不符合的 $ L $,因此矛盾。从而 $ T(v)=\vec{0} $ 对所有 $ v $ 均成立,也就有 $ T=\mathbf{0} $。 ...

December 9, 2025 · 3 min · diefish

MATH1205H HW19

Exercise 1 根据分块对角矩阵的性质,秩等于对角线上各个子块的秩之和,因此 $$ \text{rank}(AB)+n = \text{rank}\left(\begin{bmatrix} AB & 0 \\ 0 & I \end{bmatrix}\right) $$ 接着由于初等列变换不改变矩阵的秩,将第二列右乘 $ B $ 加到第一列得到 $$ \text{rank}\left(\begin{bmatrix} AB & 0 \\ 0 & I \end{bmatrix}\right) = \text{rank}\left(\begin{bmatrix} AB & 0 \\ B & I \end{bmatrix}\right) $$ 同样由于初等行变换也不改变矩阵的秩,将第二行左乘 $ A $ 再和第一行相减,得到 $$ \text{rank}\left(\begin{bmatrix} AB & 0 \\ B & I \end{bmatrix}\right) = \text{rank}\left(\begin{bmatrix} 0 & -A \\ B & I \end{bmatrix}\right) $$ 交换上下两行,得到 $$ \text{rank}\left(\begin{bmatrix} 0 & -A \\ B & I \end{bmatrix}\right) = \text{rank}\left(\begin{bmatrix} B & I \\ 0 & -A \end{bmatrix}\right) $$ 第二行乘以 $ -1 $ 就得到了 $$ \text{rank}\left(\begin{bmatrix} B & I \\ 0 & -A \end{bmatrix}\right) = \text{rank}\left(\begin{bmatrix} B & -I \\ 0 & A \end{bmatrix}\right) $$ 再根据上三角分块矩阵的性质,就有 $$ \text{rank}\left(\begin{bmatrix} B & -I \\ 0 & A \end{bmatrix}\right) \geq \text{rank}(A) + \text{rank}(B) $$ ...

December 5, 2025 · 2 min · diefish

MATH1205H HW18

Exercise 1 (1) 对于任意标量 $ c $ 和向量 $ x,y\in U $,都有 $$ \begin{align*} TS(cx+y) & = T(S(cx+y)) \\ & = T(cS(x)+S(y)) \\ & = cT(S(x)) + T(S(y)) \\ & = cTS(x) + TS(y) \end{align*} $$ 从而证明了这是一个线性变换。 (2) 设 $ U,V,W $ 的基为 $$ \bar{u} = \{ u_{1},\dots,u_{p} \},\bar{v}=\{ v_{1},\dots,v_{n} \},\bar{w}=\{ w_{1},\dots,w_{m} \} $$ 根据线性变换矩阵的定义,有 $$ S(u_{i}) = \sum_{k=1}^{n} (A_{S})_{k,i}v_{k},\quad T(v_{i})=\sum_{k=1}^{m} (A_{T})_{k,i}w_{k} $$ 计算 $ TS(u_{i}) $ 并观察系数 $$ \begin{align*} TS(u_{j}) & = T(S(u_{j})) \\ & = T\left( \sum_{k=1}^{n} (A_{S})_{k,j}v_{k} \right) \\ & = \sum_{k=1}^{n} (A_{S})_{k,j}T(v_{k}) \\ & = \sum_{k=1}^{n} (A_{S})_{k,j}\left( \sum_{i=1}^{m} (A_{T})_{i,k}w_{i} \right) \\ & = \sum_{i=1}^{m} \left( \sum_{k=1}^{n} (A_{T})_{i,k}(A_{S})_{k,j} \right)w_{i} \\ & = \sum_{i=1}^{m} (A_{T}A_{S})_{i,j}w_{i} \end{align*} $$ 再结合 $ A_{TS} $ 的定义就证明了 $$ A_{TS}=A_{T}A_{S} $$ ...

December 2, 2025 · 5 min · diefish

MATH1205H HW17

Exercise 1 设 $ A $ 的特征多项式为 $ P(\lambda) = \det(A-\lambda I) $。由于特征值 $ \lambda_{1},\lambda_{2},\dots,\lambda_{n} $ 是 $ P(\lambda) $ 的根,因此 $$ P(\lambda) = (-1)^{n}(\lambda-\lambda_{1})(\lambda-\lambda_{2})\dots(\lambda-\lambda_{n}) $$ 我们首先证明 $ \prod_{i=1}^{n}\lambda_{i}=\det(A) $。首先直接带入 $$ P(0)=\det(A-0\cdot I)=\det A $$ 又有 $$ P(0) = (-1)^{n}(0-\lambda_{1})(0-\lambda_{2})\dots(0-\lambda_{n})=\prod_{i=1}^{n} \lambda_{i} $$ 这样就得到了 $ \prod_{i=1}^{n}\lambda_{i}=\det(A) $。 接着证明 $ \sum_{i=1}^{n}\lambda_{i}=\mathrm{trace}(A) $。展开 $ P(\lambda) $ 考察 $ \lambda^{n-1} $ 的系数,为 $$ (-1)^{n}\cdot \sum_{i=1}^{n} (-\lambda_{i}) = (-1)^{n+1}\sum_{i=1}^{n} \lambda_{i} $$ 同时对于矩阵 $ M=A-\lambda I $,利用行列式定义,有 $$ \det(A-\lambda I)=\sum_{\sigma \in S_{n}}\text{sgn}(n)\prod_{i=1}^{n} (A-\lambda I)_{i,\sigma(i)} $$ 其中 $ S_{n} $ 表示 $ [n] $ 中所有置换的集合。 ...

November 28, 2025 · 3 min · diefish

MATH1205H HW16

Exercise 1 设 $ A $ 是一个 $ n\times n $ 的矩阵,记 $ A $ 的不同特征值为 $ \lambda_{1},\lambda_{2},\dots,\lambda_{k} $,代数重数分别为 $ a_{i} $,几何重数为 $ g_{i}=\text{dim ker}(A-\lambda_{i}I) $。 (⇒) 若 $ A $ 可对角化,则存在可逆矩阵 $ P $ 使得 $ P^{-1}AP=D $ 为对角阵。由于 $$ \begin{align*} \det(A - \lambda I) & = \det(P^{-1}DP-\lambda I) \\ & = \det(P^{-1}(D-\lambda I)P) \\ & = \det(D-\lambda I) \end{align*} $$ 说 $ A $ 和 $ D $ 的特征多项式相同,从而有一样的特征值和代数重数。 ...

November 15, 2025 · 4 min · diefish