Exercise 1

设 $ A $ 是一个 $ n\times n $ 的矩阵,记 $ A $ 的不同特征值为 $ \lambda_{1},\lambda_{2},\dots,\lambda_{k} $,代数重数分别为 $ a_{i} $,几何重数为 $ g_{i}=\text{dim ker}(A-\lambda_{i}I) $。

(⇒) 若 $ A $ 可对角化,则存在可逆矩阵 $ P $ 使得 $ P^{-1}AP=D $ 为对角阵。由于 $$ \begin{align*} \det(A - \lambda I) & = \det(P^{-1}DP-\lambda I) \\ & = \det(P^{-1}(D-\lambda I)P) \\ & = \det(D-\lambda I) \end{align*} $$ 说 $ A $ 和 $ D $ 的特征多项式相同,从而有一样的特征值和代数重数。

由于 $ A $ 可对角化,这意味着存在 $ n $ 个线性无关的特征向量构成的基 $ B=\{ v_{1},v_{2},\dots,v_{n} \} $ 构成了矩阵 $ P $ 的列空间,每个特征向量都属于某个特征值 $ \lambda $ 的特征空间 $ E_{\lambda} $,并且该特征值的几何重数 $ g_{\lambda}=\text{dim }E_{\lambda} $。由于 $ B $ 是一个 $ n $ 维线性空间,因此这些特征向量构成了一个 $ n $ 维线性空间的一个基,于是 $$ \sum_{i=1}^{k} g_{i}=n $$ 我们又知道任何特征值的几何重数总是小于等于代数重数,也就是 $ g_{k}\leq a_{k} $,但是我们又有 $$ \sum_{i=1}^{k} a_{i}=n $$ 这就得到了 $ a_{i}=g_{i} $,每个特征值的代数重数等于几何重数。

(⇐) 反过来,若对每个 $ i $ 有 $ g_i=a_i $。注意代数重数之和等于矩阵阶数: $$ \sum_{i=1}^k a_i = n $$ 由假设得 $ \sum_{i=1}^k g_i=\sum_{i=1}^k a_i=n $。而不同特征值对应的特征向量属于不同的特征子空间,这些特征子空间两两交为 $ {0} $,所以可以从每个特征子空间中取一组基向量,合并得到 $ n $ 个线性无关的特征向量,从而构成 $ \mathbb{C}^n $ 的基。于是存在由特征向量构成的可逆矩阵 $ P $,使得 $ P^{-1}AP $ 为对角矩阵——即 $ A $ 可对角化。

综上,$ A $ 可对角化当且仅当对每个特征值 $ \lambda $,代数重数等于几何重数。

Exercise 2

首先根据特征值的性质,我们得到方差 $$ \lambda^{2}=\lambda $$ 其中 $ \lambda $ 是 $ A $ 的特征值。因此我们得到 $ \lambda=0,1 $。从而证明了特征值只可能是 $ 0 $ 或 $ 1 $。

(1)

我们构造 $ A $ 为所有元素全为 $ 0 $ 的矩阵,显然满足 $ A^{2}=A $ 并且 $ A $ 的特征值均为 $ 0 $。

(2)

我们构造 $ A=I $,显然满足 $ A^{2}=A=I $,并且 $ A $ 的特征值均为 $ 1 $。

(3)

我们构造 $$ A = \begin{pmatrix} I_{n} & \mathbf{0} \\ \mathbf{0} & \mathbf{0} \end{pmatrix} $$ 此时有 $$ A^{2} = \begin{pmatrix} I_{n}+\mathbf{0} & \mathbf{0} \\ \mathbf{0} & \mathbf{0} \end{pmatrix} = A $$ 并且 $ A $ 的特征值为 $ 0 $ 和 $ 1 $。

Exercise 3

我们首先计算 $ A $ 的特征值 $$ \det(A-\lambda I) = \begin{vmatrix} -3-\lambda & 2 \\ -2 & 2-\lambda \end{vmatrix} = \lambda^{2}+\lambda-2 = 0 $$ 解得 $ \lambda = 1,-2 $。

分别计算 $ \lambda_{1}=1,\lambda_{2}=-2 $ 时的特征值 $$ (A-\lambda_{1}I)v_{1} = 0,(A-\lambda_{2}I)v_{2} = 0 $$ 得到 $$ v_{1} = \begin{pmatrix} 2 \\ 1 \end{pmatrix},\quad v_{2} = \begin{pmatrix} 1 \\ 2 \end{pmatrix} $$ 从而有 $$ P = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix},\quad P^{-1}AP = \begin{pmatrix} 1 & \\ & -2 \end{pmatrix} $$

Exercise 4

我们将 $ A $ 对角化即可。

首先计算 $ A $ 的特征值,有 $$ \det(A-\lambda I) = \begin{vmatrix} 1-\lambda & 2 & 2 \\ 2 & 1-\lambda & 2 \\ 2 & 2 & 1-\lambda \end{vmatrix} = -(\lambda+1)^{2}(\lambda-5) $$ 分别计算 $ \lambda_{1}=-1,\lambda_{2}=5 $ 时的特征向量。

当 $ \lambda=-1 $,我们计算 $$ (A+I)v = 0 $$ 得到 $$ v_{1} = \begin{pmatrix} -1 \\ 1 \\ 0 \end{pmatrix},\quad v_{2} = \begin{pmatrix} -1 \\ 0 \\ 1 \end{pmatrix} $$ 当 $ \lambda=5 $,计算 $$ (A-5I)v = 0 $$ 得到 $$ v_{3} = \begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix} $$ 从而我们取 $$ P = \begin{pmatrix} -1 & -1 & 1 \\ 1 & 0 & 1 \\ 0 & 1 & 1 \end{pmatrix} \implies P^{-1}AP = D = \begin{pmatrix} -1 & & \\ & -1 & \\ & & 5 \end{pmatrix} $$ 就有 $$ A = PDP^{-1} \implies A^{100} = PD^{100}P^{-1} $$ 计算得到 $$ \begin{align*} A^{100} & = \begin{pmatrix} -1 & -1 & 1 \\ 1 & 0 & 1 \\ 0 & 1 & 1 \end{pmatrix}\begin{pmatrix} 1 & & \\ & 1 & \\ & & 5^{100} \end{pmatrix} \dfrac{1}{3} \begin{pmatrix} -1 & 2 & -1 \\ -1 & -1 & 2 \\ 1 & 1 & 1 \end{pmatrix} \\ & = \dfrac{1}{3} \begin{pmatrix} 2+5^{100} & -1+5^{100} & -1+5^{100} \\ -1+5^{100} & 2+5^{100} & -1+5^{100} \\ -1+5^{100} & -1+5^{100} & 2+5^{100} \end{pmatrix} \end{align*} $$

Exercise 5

(1)

根据系数可以直接得到 $$ S = \begin{pmatrix} 2 & -2 & 3 \\ -2 & -1 & 0 \\ 3 & 0 & 3 \end{pmatrix} $$ 由于 $$ \det \begin{pmatrix} 2 & -2 \\ -2 & -1 \end{pmatrix} < 0 $$ 我们知道 $ S $ 不是正定的。

(2)

根据系数得到 $$ S = \begin{pmatrix} 2 & 1 & 1 \\ 1 & 2 & -1 \\ 1 & -1 & 2 \end{pmatrix} $$ 由于 $$ x^{T}Sx \geq 0 $$ 根据定义,我们知道 $ S $ 是正定的。