線型代数第8講
線型変換と直和分解
【第8講のポイント】
本講では、基底の概念を拡張し、線型変換($n$次正方行列)の固有多項式から得られる情報を精査し、具体的な計算例を扱う。
【第8講の目標】
学習後、以下のことが身についたかチェックしよう。
- 正方行列から導かれる広義固有空間の概念を理解する
- Jordan標準形の計算法を習得する
- 行列のべき乗や指数の計算法を理解する
【第8講の構成】
- 1節 直和分解と射影
- 2節 正方行列が導く直和分解
- 3節 計算例
- 4節 対角化可能な場合
- 5節 Jordan標準形再考
本書の見方
- ページをめくる
- 左(右)ページの左(右)端クリックまたはドラッグする
左(右)矢印キーを押す
- 1ページ分の移動
- 左右上端にある[Next]、[Previous]タブをクリックする
- 節の頭に移動
- 右上の【節の移動】タブをクリックし、現れた節を選ぶ
- ページのジャンプ
- 右上のページ番号表示タブをクリックし、現れたページを選ぶ
- 画像の拡大およびリンク先への移動
- 画像やリンク先をクリックすれば、別ウィンドウ(タブ)で表示される
第1節 直和分解と射影
本節では、第4講での基底の概念を拡張する。$n$次元線型空間$V$が基底$\vect{i}_1,\vect{i}_2,\dots,\vect{i}_n$を持てば$V$のベクトルは$\vect{i}_i$の定数倍$c_i\vect{i}_i$($\vect{i}_i$が張る線型部分空間のベクトル)の和で一意に表される。ここでは、$V$がその線型部分空間のベクトルの和として一意に表される場合を扱う。
線型空間$V$の線型部分空間$V_i,\ i=1,2,\dots,k$に対し、その
和(空間)を
$\sum_{i=1}^k V_i:=\{\sum_{i=1}^k\vect{v}_i\mid \vect{v}_i\in V_i\}$
で定義する。明らかに、$\sum_{i=1}^k V_i=\overline{\bigcup_{i=1}^k V_i}^+$である。
定理.線型部分空間の和$\sum_{i=1}^k V_i$に対する次の3条件は同値である。
-
$\sum_{i=1}^k V_i$のベクトルは各$V_i$のベクトルの和として一意に表される
-
$i=2,\dots,k$ に対し、$(\sum_{j=1}^{i-1} V_j)\cap V_i=\{\vect{o}\}$
-
$\dim V=\sum_{i=1}^k \dim V_i$
証明.$\vect{v}_j,\vect{v}'_j\in V_j,\ j=1,\dots,k$ とする。
$1\Rightarrow 2$:$\vect{v}=\vect{v}_i=\sum_{j=1}^{i-1}\vect{v}_j$ ならば、和の一意性より $\vect{v}=\vect{v}_i=\vect{o}$。
$2\Rightarrow 1$:$\sum_{i=1}^k\vect{v}_i=\sum_{i=1}^k\vect{v}'_i$ ならば、$\vect{v}_k-\vect{v}'_k=\sum_{i=1}^{k-1}\vect{v}'_i-\sum_{i=1}^{k-1}\vect{v}_i=\sum_{i=1}^{k-1}(\vect{v}'_i-\vect{v}_i) \in V_k\cap \sum_{i=1}^{k-1}V_i=\{\vect{o}\}$ より
$\vect{v}_k=\vect{v}'_k,\ \sum_{i=1}^{k-1}\vect{v}_i=\sum_{i=1}^{k-1}\vect{v}'_i$。以下この議論を繰返せばよい。
$2\Leftrightarrow 3$:$V_i$の基底を集めて$V$の基底が得られることから明らか。
定理の条件を満たすとき$\sum_{i=1}^k V_i$を$V_i$の
直和(空間)といい、$\bigoplus_{i=1}^k V_i$ と表す。$k=2$の時、$V=V_1+V_2$が$V=V_1\oplus V_2$と書ける必要十分条件は$V_1\cap V_2=\{\vect{o}\}$であり、このとき$V_2$を$V$における$V_1$の
直和補空間という。$V_1\subseteq V$に対し、$V$における$V_1$の直和補空間は必ず存在するが、本節の最後の例に見るように、通常一意には定まらない。
線型空間$V$の線型変換$T$と部分空間$U\subseteq V$に対し、$T(U)\subseteq U$となるとき、$U$を
$T$不変部分空間といい、$T$の定義域を$U$に制限した$U$上の変換を$T|_U$と表す。$V$が$T$不変部分空間$V_i,\ i=1,\dots,k$の直和で表される時、$V_i$の基底を合せて$V $の基底を作れば、$V_i$の基底のもとで$T|_{V_i}$を表す行列$D_i$の直和$\bigoplus_{i=1}^k D_i$で$T$を表現できる。言い換えると、変換$T$は各$V_i$上の変換に分割できる。
直和分解$V=\bigoplus_{i=1}^k V_i$による射影(列)$\langle T_i\rangle^k$を$T_i:\sum_{i=1}^k\vect{v}_i\in V\mapsto \vect{v}_i \in V_i$で定義すれば、$T_iT_j=\delta_{ij}T_i,\ \sum_{i=1}^k T_i=I$で、$V_i$は$T_i$不変部分空間である。
【$aT:\vect{v}\mapsto aT(\vect{v}),\ \sum_{i=1}^k T_i:\vect{v}\mapsto\sum_{i=1}^k T_i(\vect{v}), I:\vect{v}\mapsto\vect{v}$と定義する】
一般に$T^2=T$を満たす線型変換$T$を
射影という。射影$T$は$T(V)$上で恒等写像【$T(T(\vect{v}))=T(\vect{v})$】で、$T(V)$は$V$の$T$不変部分空間である。
定理.$T$が線型空間$V$の射影ならば、$I-T,\ T$は直和分解$V=T^{-1}\{\vect{o}\}\oplus T(V)$による射影である。
証明.$\vect{v}\in T^{-1}(\vect{o})\cap T(V)\Rightarrow \vect{v}=T(\vect{v})=\vect{o}$。
$\vect{v}\in V$に対し、$\vect{v}':=\vect{v}-T(\vect{v})\in T^{-1}(\vect{o})$とおけば、$\vect{v}=\vect{v}'+T(\vect{v})$で、
$T(\vect{v}'+T(\vect{v}))=T(\vect{v}),\
(I-T)(\vect{v}'+T(\vect{v}))=\vect{v}'+T(\vect{v})-T(\vect{v}')-T^2(\vect{v})=\vect{v}'$
次の定理は、線型変換の集まりが直和分解を導く条件を与える。
定理.線型空間$V$の線型変換$\langle T_i\rangle^k$が、$i\ne j \Rightarrow T_iT_j=O$と$\sum_{i=1}^k T_i=I$を満たせば、$\langle T_i\rangle^k$は直和分解$V=\bigoplus_{i=1}^k T_i(V)$による射影である。
証明.仮定より $T_i$ は射影である。【$\because)\ T_i=T_i(\sum_{j=1}^k T_j)=T_i^2$】
$\sum_{i=1}^k T_i=I$ より $\sum_{i=1}^k T_i(V)=V$。$\vect{v}=T_i(\vect{v}_i)=\sum_{j=1}^{i-1} T_j(\vect{v}_j)$ と書ければ $\vect{v}=T_i(\vect{v})=T_i(\sum_{j=1}^{i-1} T_j(\vect{v}_j))=\sum_{j=1}^{i-1} T_iT_j(\vect{v}_j)=\vect{o}$ より、$V=\bigoplus_{i=1}^k T_i(V)$。
$\vect{v}=\sum_{j=1}^k T_j(\vect{v}_j)$ ならば $T_i(\vect{v})=T_i(T_i(\vect{v}_i))=T_i(\vect{v}_i)$ だから、$\langle T_i\rangle^k$ は直和分解による射影である。
例.平面$\mathbb{R}^2:=\{(x,y)\mid x,y\in\mathbb{R}\}$の部分空間 $V_1:=\{(x,0)\mid x\in\mathbb{R}\}$、$V_2:=\{(0,y)\mid y\in\mathbb{R}\}$、$V_0:=\{(x,x)\mid x\in\mathbb{R}\}$を考える。$V_2,\ V_0$はともに$\mathbb{R}^2$における$V_1$の直和補空間である。直和分解による射影は、$\mathbb{R}^2=V_1\oplus V_2$に対し$T_1(x,y):=(x,0),\ T_2(x,y):=(0,y)$であるが、$\mathbb{R}^2=V_1\oplus V_0$に対し$S_1(x,y):=(x-y,0),\ S_0(x,y):=(y,y)$である。
問.以下を示せ。
-
$(V_0\cup V_1)\cap V_2 = \{\vect{o}\} \ne (V_0+V_1)\cap V_2$
-
$S_1,T_2$は直和分解$\mathbb{R}^2=V_1\oplus V_2$による射影ではない
第2節 正方行列が導く直和分解
$A$を$n$次(正方)行列とする。ケーリー・ハミルトンの定理より$A$の固有多項式$f(x)$に対し$f(A)=O$である。以下、本講では、$\mathbb{K}$上の任意の多項式は一次式の積に分解される(あるいは$\mathbb{K}=\mathbb{C}$)とする。一般に、$A$の最小多項式が多項式$f(x)$を割切ることと、$f(A)=O$とは同値である。以下、$f(A)=O$を満たす多項式を考えよう。
以下の議論は$A\sim B \Rightarrow f(A)\sim f(B),\ (J(\alpha,k)-\alpha E)^k=O$を念頭においておくと、理解しやすいだろう。なお、本節の議論は正方行列に対して展開しているが、ベクトル空間上の線型変換に対しても同様に議論できる。
$n$次行列$A$に対し、$A^{-i}(\vect{o}):=\{\vect{v}\mid A^i\vect{v}=\vect{o}\}$とおくと、$i,j\ge 0$に対し、
-
$A^{-i}(\vect{o})$は$V$の線型部分空間
-
$A^{-i}(\vect{o})\subseteq A^{-i-1}(\vect{o})$
-
$A^{-i}(\vect{o})=A^{-i-1}(\vect{o})\Rightarrow A^{-i}(\vect{o})=A^{-i-j}(\vect{o})$
が成立つから、ある$n'\le n$に対し$A^{-n'}(\vect{o})=A^{-n'-j}(\vect{o}),\ j=1,2,\dots$である。【$A^{-i}(\vect{o})$と書いても本講では必ずしも“$A$が正則”を意味しない。もし$A$が正則なら$A^{-i}(\vect{o})=\{\vect{o}\}$である。】
-
$U_{\alpha}:=(A-\alpha E)^{-1}(\vect{o})$、
$\widetilde{U }_{\alpha}:=(A-\alpha E)^{-n}(\vect{o})$
と定義する。定義から、$U_{\alpha}\ne\{\vect{o}\}\Leftrightarrow \alpha$は$A$の固有値、である。
$A$の固有値$\alpha$に対し、
-
$U_{\alpha}$を$A$の$\alpha$に対する固有空間(固有ベクトルが張る空間)、
-
$\widetilde{U}_{\alpha}$を$A$の$\alpha$に対する広義固有空間、
-
$\vect{v}\in \widetilde{U}_{\alpha}-\{\vect{o}\}$を$A$の$\alpha$に対する広義固有ベクトル
という。$(A-\alpha E)^jA=A(A-\alpha E)^j$より$U_{\alpha},\ \widetilde{U}_{\alpha}$は$A$不変部分空間である。
本節の目標は以下の事実を示すことである。
-
${}_n[\mathbb{K}]$が$A$の固有値に対する広義固有空間に直和分解される
-
1. の直和分解による射影が$A$の多項式で表せる
-
行列 $A^r,\ e^{xA}:=\sum_{r=0}^\infty{x^r}/{r!}A^r$ の各成分を$r,\ x$の関数として表せる
-
2、の射影から広義固有空間の基底(固有ベクトルや広義固有ベクトルに関する情報)が得られる
多項式$f(x)$と正方行列$A$に対し、$\left(f(x)\right)_A:=f(A)$とする。また、$\left(f(x)\right)_A,\ f(A)$と書けば$f(x)$は$x$の多項式であることを意味するものとする。
定理.$n$次行列$A$に対し、多項式 $f(x)=\prod_{\alpha\in\mathfrak{A}}(x-\alpha)^{n_\alpha}$ が $f(A)=O$ を満たせば以下が成立つ。 【$\mathfrak{A}$は$f(x)=0$の解集合で$n_\alpha$は解$\alpha$の重複度】
-
$\widetilde{U}_{\alpha}=(A-\alpha E)^{-n_\alpha}(\vect{o})$
-
${}_n[\mathbb{K}]=\bigoplus_{\alpha\in\mathfrak{A}}\widetilde{U}_{\alpha}$
-
部分分数分解
$\dfrac{1}{f(x)}=\dsum_{\alpha\in\mathfrak{A}}\dfrac{g_\alpha(x)}{(x-\alpha)^{n_\alpha}}$に対し、$A_{\alpha}:=\left(\dfrac{f(x)g_\alpha(x)}{(x-\alpha)^{n_\alpha}}\right)_A$は直和分解が定める$\widetilde{U}_{\alpha}$への射影である。
証明.$f(A)=O$より、$f(x)$は$A$の最小多項式で割り切れ、$A$の固有値はすべて$\mathfrak{A}$に属す。3.の部分分数分解の存在および一意性は付録を参照してほしい。$f_\alpha(x):=\dfrac{f(x)g_\alpha(x)}{(x-\alpha)^{n_\alpha}}$とおくと、定義と$f(A)=O$から以下が成立つ。
-
① $\sum_{\alpha\in\mathfrak{A}}A_\alpha=E$【$\because)\ f_\alpha(A)=A_\alpha,\ \sum_{\alpha\in\mathfrak{A}}f_\alpha(x)=1$】
-
② $(A-\alpha E)^{n_\alpha}A_\alpha
=O$【$\because)\ ((x-\alpha)^{n_\alpha}f_\alpha(x))\%f(x){=}0$】
-
③ $(A-\alpha E)^{n_\alpha}\vect{v}=\vect{o}$で$\alpha\ne\beta \Longrightarrow A_\beta\vect{v}=\vect{o}$【$\because)\ f_\beta(x)\% (x-\alpha)^{n_\alpha}{=}0$】
-
④ $\alpha\ne\beta\Rightarrow A_\alpha A_\beta=O$【$\because)\ (f_\alpha(x)f_\beta(x))\% f(x){=}0$】
$A(V):=\{A\vect{v}\mid \vect{v}\in V\}$とおく。①、④と前節の定理より$A_\alpha,\ \alpha\in\mathcal{A}$は直和分解 ${}_n[\mathbb{K}]=\bigoplus_{\alpha\in\mathfrak{A}}A_\alpha({}_n[\mathbb{K}])$ による射影である。
以下、$\widetilde{f}(x):=\prod_{\alpha\in\mathfrak{A}}(x-\alpha)^n$を使って ${}_n[\mathbb{K}]=\bigoplus_{\alpha\in\mathfrak{A}}\widetilde{U}_{\alpha}$ を示す。$\widetilde{f}(A)=O$だから、定理の主張の3.と同様に$\widetilde{A}_\alpha$を定めれば、②より$\widetilde{A}_{\alpha}({}_n[\mathbb{K}])\subseteq \widetilde{U}_{\alpha}$で、①より${}_n[\mathbb{K}]=\sum_{\alpha\in\mathfrak{A}} \widetilde{A}_{\alpha}({}_n[\mathbb{K}])=\sum_{\alpha\in\mathfrak{A}}\widetilde{U}_{\alpha}$。
以下、$\mathfrak{A}=\{\alpha_1,\alpha_2,\dots,\alpha_k\}$とする。
$\vect{v}_j\in \widetilde{U}_{\alpha_j},\ j=1,\dots,k$で$\vect{v}=\vect{v}_i=\sum_{j=1}^{i-1}\vect{v}_j$と表せるとする。③は“$\vect{v}\in\widetilde{U}_{\alpha_i}$で$i\ne j\Longrightarrow \widetilde{A}_{\alpha_
j}\vect{v}=o$”と書換えられるから、
$\vect{v}=\vect{v}_i$より$\vect{v}=(\sum_{i=1}^k \widetilde{A}_{\alpha_i})\vect{v}=\widetilde{A}_{\alpha_i}\vect{v}$、$\vect{v}=\sum_{j=1}^{i-1}\vect{v}_j$より
$\widetilde{A}_{\alpha_i}\vect{v}=\widetilde{A}_{\alpha_i}(\sum_{j=1}^{i-1}\vect{v}_j)=\vect{o}$。よって、${}_n[\mathbb{K}]=\bigoplus_{i=1}^k \widetilde{U}_{\alpha_i}$。
さらに②より $A_{\alpha}({}_n[\mathbb{K}])\subseteq (A-\alpha)^{-n_\alpha}(\vect{o}) \subseteq \widetilde{U}_{\alpha}$ だから、$A_{\alpha}({}_n[\mathbb{K}])=(A-\alpha)^{-n_\alpha}(\vect{o})
=\widetilde{U}_{\alpha}$。
この定理では、$f(A)=O$より$A$の最小多項式が$f(x)$を割切るから、$A$の固有値はすべて$\mathfrak{A}$に属する。一方、$\alpha\in\mathfrak{A}$ は$A$の固有値である必要はないが、その場合 $A_\alpha=O$ で、$A_\alpha({}_n[\mathbb{K}])=\widetilde{U}_\alpha=\{\vect{o}\}$ である。以下、$\mathfrak{A}$は$A$の固有値の集合であるとする。
$A^r,\ e^{xA}$の計算式
$(A-\alpha E)^{n_\alpha}A_{\alpha}=O$より、$A^r,\ e^{xA}:=\sum_{r=0}^\infty{x^r}/{r!}A^r$が次のように(Jordan標準形を経ずに)計算できる。ここで、${}_n[\mathbb{K}]$のベクトル列$\vect{v}_0,\vect{v}_1,\dots$の漸化式$\vect{v}_{i+1}=A\vect{v}_i$の一般項は$\vect{v}_r=A^r\vect{v}_0$であり、実関数の列ベクトル$\vect{y}(x)$の微分方程式$\vect{y}'(x)=A\vect{y}(x)$の初期値$\vect{y}(0)$における解は$\vect{y}(x)=e^{xA}\vect{y}(0)$である。
$A^r=A^r(\sum_{\alpha\in\mathfrak{A}}A_\alpha)=\sum_{\alpha\in\mathfrak{A}}A^rA_{\alpha},\ r\ge 0\\
A^rA_\alpha=(\alpha E+(A-\alpha E))^rA_\alpha
=\dsum_{j=0}^{n_\alpha-1}\binom{r}{j}\alpha^{r-j}(A-\alpha E)^jA_\alpha$
$e^{xA}
=\dsum_{r=0}^\infty\left(\dsum_{\alpha\in\mathfrak{A}}\dfrac{x^r}{r!}A^rA_\alpha\right)
=\dsum_{\alpha\in\mathfrak{A}}\left(\dsum_{r=0}^\infty\dfrac{x^r}{r!}(AA_\alpha)^r\right)
=\dsum_{\alpha\in\mathfrak{A}} e^{xAA_\alpha}\\
e^{xAA_\alpha}=\dsum_{r=0}^\infty\dfrac{x^r}{r!}A^rA_\alpha
=\dsum_{r=0}^\infty\left(\dsum_{j=0}^{n_\alpha-1}\dfrac{x^r}{r!}\binom{r}{j}\alpha^{r-j}(A-\alpha E)^jA_\alpha\right)\\
=\dsum_{j=0}^{n_\alpha-1}\left(\dsum_{r=0}^\infty\dfrac{x^jx^{r-j}}{j!(r-j)!}\alpha^{r-j}(A-\alpha E)^jA_\alpha\right)
=\dsum_{j=0}^{n_\alpha-1}\dfrac{x^j}{j!}e^{\alpha x}(A-\alpha E)^jA_\alpha$
$A_\alpha$の別表現
定理より$A_\alpha({}_n[\mathbb{K}])=\widetilde{U}_\alpha$だから、$A_\alpha$の列ベクトルの集合は$\widetilde{U}_\alpha$を張り、それら(の線型結合)から$\widetilde{U}_\alpha$の基底が選べる。再び$\mathfrak{A}=\{\alpha_1,\alpha_2.\dots,\alpha_k\}$とする。$\widetilde{U}_{\alpha_i}$の基底を$\vect{p}_{i,j},\ 1\le j\le n_i$とし、$P_i:=[\vect{p}_{i,j}]^{n_i}\in {}_n[\mathbb{K}]^{n_i}$とおく。定理より $[P_i]^k\in {}_n[\mathbb{K}]^{n}$は正則だから、${}_k[P_i^\dagger][P_i]^k=E_n$が成立つように$P_i^\dagger\in {}_{n_i}[\mathbb{K}]^n$を定めれば、$P_i^\dagger P_i=E_{n_i},\ i\ne j \Rightarrow P_i^\dagger P_j=O$。よって、$(P_iP_i^\dagger)P_i=P_i$、$i\ne j\Rightarrow (P_iP_i^\dagger)P_j=O$だから、$P_iP_i^\dagger=A_{\alpha_i}$。即ち、このように定めた$P_iP_i^\dagger$は、$\widetilde{U}_{\alpha_i}$の基底の選び方によらず$A_{\alpha_i}$になる。この事は、次節の計算例のように、$A_{\alpha_i}$が$A$のジョルダン標準形とその変換行列および逆行列を用いても計算できることを意味する。
定理の$f(x)$は$f(A)=O$を満たしさえすればよいが、実際の計算では$A$の最小多項式(が分かればそれ)を使うのがよい。なお、$f(x)=\prod_{\alpha\in\mathfrak{A}} (x-\alpha)^{n_\alpha}$が$A$の固有多項式なら、$0\lt n_\alpha=\dim \widetilde{U}_\alpha=\rank A_\alpha$が成立つ。
第3節 計算例
前節での議論をもとに正方行列$A$に対し、$A_\alpha$を用いて、$A^r、e^{xA}$、広義固有ベクトル、ジョルダン標準形やその変換行列$P$などを計算してみよう。
例.3次正方行列$A=
\begin{bmatrix}
2 & 0 & 1\\
-1 & 3 & 1\\
1 & -1 & 2
\end{bmatrix}$の固有多項式は$(x-2)^2(x-3)$。
$A-2E=
\begin{bmatrix}
0 & 0 & 1\\
-1 & 1 & 1\\
1 & -1 & 0
\end{bmatrix}$。$\dim U_1=3-\rank (A-2E)=1$より、最小多項式も$(x-2)^2(x-3)$である。
$\dfrac{1}{(x-2)^2(x-3)}=\dfrac{-x+1}{(x-2)^2}+\dfrac{1}{(x-3)}$より、$A_3=(A-2E)^2=\begin{bmatrix}
1 & -1 & 0\\
0 & 0 & 0\\
1 & -1 & 0
\end{bmatrix},\
A_2=E-A_3=
\begin{bmatrix}
0 & 1 & 0\\
0 & 1 & 0\\
-1 & 1 & 1
\end{bmatrix}$。
$A^r=\dsum_{j=0}^{2-1}\binom{r}{j}2^{r-j}(A-2E)^jA_2+\dsum_{j=0}^{1-1}\binom{r}{j}3^{r-j}(A-3E)^jA_3\\
=2^rA_2{+}r2^{r-1}(A{-}2E)A_2{+}3^rA_3=
\begin{bmatrix}
-r2^{r-1}{+}3^r & 2^r{+}r2^{r-1}{-}3^r & r2^{r-1}\\
-r2^{r-1} & 2^r{+}r2^{r-1} & r2^{r-1}\\
-2^r{+}3^r & 2^r{-}3^r & 2^r
\end{bmatrix}$
$e^{xA}=\dsum_{j=0}^{2-1}\dfrac{x^j}{j!}e^{2x}(A-2E)^jA_2+\dsum_{j=0}^{1-1}\dfrac{x^j}{j!}e^{3x}(A-3E)^jA_3\\
=e^{2x}A_2{+}xe^{2x}(A{-}2E)A_2{+}e^{3x}A_3
=\begin{bmatrix}
-xe^{2x}{+}e^{3x} & e^{2x}{+}xe^{2x}{-}e^{3x} & xe^{2x}\\
-xe^{2x} & e^{2x}{+}xe^{2x} & xe^{2x}\\
-e^{2x}{+}e^{3x} & e^{2x}{-}e^{3x} & e^{2x}
\end{bmatrix}$
$A_3$より固有値$3$の(広義)固有ベクトル$\begin{bmatrix}
1\\
0\\
1
\end{bmatrix}$、$A_2$より広義固有ベクトル$\begin{bmatrix}
1\\
1\\
1
\end{bmatrix}$、$\begin{bmatrix}
0\\
0\\
1
\end{bmatrix}$を選べば、
$\begin{bmatrix}
1 & 1 & 0\\
0 & 1 & 0\\
1 & 1 & 1
\end{bmatrix}^{-1}=\begin{bmatrix}
1 & -1 & 0\\
0 & 1 & 0\\
-1 & 0 & 1
\end{bmatrix}$だから、
$A_3=\begin{bmatrix}
1 \\
0 \\
1
\end{bmatrix}\begin{bmatrix}
1 & -1 & 0\end{bmatrix},\
A_2=\begin{bmatrix}
1 & 0 \\
1 & 0 \\
1 & 1
\end{bmatrix}\begin{bmatrix}
0 & 1 & 0\\
-1 & 0 & 1
\end{bmatrix}$が成立つ。
固有値$2$の固有ベクトルは$A_2$の列ベクトルの線型結合$\begin{bmatrix}
1 \\
1\\
0
\end{bmatrix}=\begin{bmatrix}
1 \\
1\\
1
\end{bmatrix}-\begin{bmatrix}
0 \\
0\\
1
\end{bmatrix}$で表され、$(A-2E)\begin{bmatrix}
0 \\
0\\
1
\end{bmatrix}=\begin{bmatrix}
1 \\
1\\
0
\end{bmatrix}$である。以上より、$A$のジョルダン標準形$D=\begin{bmatrix}
3 & 0 & 0\\
0 & 2 & 1\\
0 & 0 & 2
\end{bmatrix}$への変換行列は$P=
\begin{bmatrix}
1 & 1 & 0\\
0 & 1 & 0\\
1 & 0 & 1
\end{bmatrix}$で$P^{-1}=\begin{bmatrix}
1 & -1 & 0\\
0 & 1 & 0\\
-1 & 1 & 1
\end{bmatrix}$。よって、$
A_2=\begin{bmatrix}
1 & 0 \\
1 & 0 \\
0 & 1
\end{bmatrix}\begin{bmatrix}
0 & 1 & 0\\
-1 & 1 & 1
\end{bmatrix}$も成立つ。
ここで、積の計算式 ${}_p[a_{ij}]^q{}_q[b_{jk}]^r{}_r[c_{kl}]^s
=\dsum_{j=1}^q\dsum_{k=1}^r b_{jk}
{\ }_p[a_{ij}][c_{kl}]^s$ を使えば
$A^r=(PDP^{-1})^r=PD^rP^{-1}
=\begin{bmatrix}
1 & 1 & 0\\
0 & 1 & 0\\
1 & 0 & 1
\end{bmatrix}\begin{bmatrix}
3^r & 0 & 0\\
0 & 2^r & r2^{r-1}\\
0 & 0 & 2^r
\end{bmatrix}\begin{bmatrix}
1 & -1 & 0\\
0 & 1 & 0\\
-1 & 1 & 1
\end{bmatrix}\\
=3^r\begin{bmatrix}
1 \\
0 \\
1
\end{bmatrix}\begin{bmatrix}
1 & -1 & 0\end{bmatrix}
+2^r\begin{bmatrix}
1 & 0 \\
1 & 0 \\
0 & 1
\end{bmatrix}\begin{bmatrix}
0 & 1 & 0\\
-1 & 1 & 1
\end{bmatrix}
+r2^{r-1}\begin{bmatrix}
1 \\
1 \\
0
\end{bmatrix}\begin{bmatrix}
-1 & 1 & 1\end{bmatrix}$
となり、$A^r=2^rA_2{+}r2^{r-1}(A{-}2E)A_2{+}3^rA_3$と同様の式を得る。
第4節 対角化可能な場合
$n$次正方行列$A$が対角化可能である時、$A$の固有値$\alpha\in\mathfrak{A}$に対し、$\widetilde{U}_\alpha=U_\alpha$だから、${}_n[\mathbb{K}]=\bigoplus_{\alpha\in\mathfrak{A}} U_\alpha$であり、$\psi(x)=\prod_{\alpha\in\mathfrak{A}}(x-\alpha)$が最小多項式になる。
$\psi_\alpha(x):=\psi(x)/(x-\alpha),\ g_\alpha:=1/\psi_\alpha(\alpha)$とおけば、$\beta\in\mathfrak{A}$に対し、$\sum_{\alpha\in\mathfrak{A}}\psi_\alpha(\beta)g_\alpha=\psi_\beta(\beta)g_\beta=1$。即ち、$|\mathfrak{A}|-1$次多項式$\sum_{\alpha\in\mathfrak{A}}\psi_\alpha(x)g_\alpha$は$|\mathfrak{A}|$個の異なる$\beta$に対して値が$1$になるので、恒等的に$\sum_{\alpha\in\mathfrak{A}}\psi_\alpha(x)g_\alpha=1$である。
よって $A_\alpha=1/\psi_\alpha(\alpha)\psi_\alpha(A)$、$A^r=\sum_{\alpha\in\mathfrak{A}} \alpha^r A_\alpha$、$e^{xA}=\sum_{\alpha\in\mathfrak{A}} e^{\alpha x}A_\alpha$。
例.3次正方行列$A=
\begin{bmatrix}
3 & -1 & 0\\
0 & 2 & 0\\
1 & -1 & 2
\end{bmatrix}$の固有多項式は$(x-2)^2(x-3)$。
$A-2E=
\begin{bmatrix}
1 & -1 & 0\\
0 & 0 & 0\\
1 & -1 & 0
\end{bmatrix}$。$\dim U_1=3-\rank (A-E)=2$より、$A$は対角化可能で
$\psi(x)=(x-2)(x-3)$。$A_3=1/(3-2)(A-2E)=A-2E,\
A_2=1/(2-3)(A-3E)=
\begin{bmatrix}
0 & 1 & 0\\
0 & 1 & 0\\
-1 & 1 & 1
\end{bmatrix}$
$A^r=2^rA_2+3^rA_3
=\begin{bmatrix}
3^r & 2^r-3^r & 0\\
0 & 2^r & 0\\
-2^r+3^r & 2^r-3^r & 2^r
\end{bmatrix}$
$e^{xA}=e^{2x}A_2+e^{3x}A_3
=\begin{bmatrix}
e^{3x} & e^{2x}-e^{3x} & 0\\
0 & e^{2x} & 0\\
-e^{2x}+e^{3x} & e^{2x}-e^{3x} & e^{2x}
\end{bmatrix}$。
$A_3$より$3$の固有ベクトルは$\begin{bmatrix}
1\\
0\\
1
\end{bmatrix}$。$A_2$より$2$の固有ベクトルは$\begin{bmatrix}
1 \\
1\\
1
\end{bmatrix},\ \begin{bmatrix}
0 \\
0\\
1
\end{bmatrix}$。
$A$の対角化は$\begin{bmatrix}
3 & 0 & 0\\
0 & 2 & 0\\
0 & 0 & 2
\end{bmatrix}=P^{-1}AP
=\begin{bmatrix}
1 & -1 & 0\\
0 & 1 & 0\\
-1 & 0 & 1
\end{bmatrix}A\begin{bmatrix}
1 & 1 & 0\\
0 & 1 & 0\\
1 & 1 & 1
\end{bmatrix}$と表せ、$A_3=\begin{bmatrix}
1 \\
0 \\
1
\end{bmatrix}\begin{bmatrix}
1 & -1 & 0\end{bmatrix},\
A_2=\begin{bmatrix}
1 & 0 \\
1 & 0 \\
1 & 1
\end{bmatrix}\begin{bmatrix}
0 & 1 & 0\\
-1 & 0 & 1
\end{bmatrix}$が成立つ。
第5節 Jordan標準形再考
第5講では、単因子論でJordan標準形の存在を証明する一方、計算法については簡単な例示にとどめ、Jordan標準形の形から“適切に計算”すれば求まる筈との議論であった。ここではより直截的に、計算法を含め議論する。本節では、$n$次行列$A$が導く直和分解$\displaystyle {}_n[\mathbb{K}]=\bigoplus_{Aの固有値\alpha}(A-\alpha E)^{-n}(\vect{o})$の構造をさらに精査することによって、Jordan標準形の別証明を与えることになる。
行列の三角化とケーリー・ハミルトンの定理
本節は単因子論を経ずにJordan標準形を導くことが目的なので、第2節で本質的な役割を果たしたケーリー・ハミルトンの定理を別途証明しておこう。
定理.任意の正方行列は上(下)三角行列に相似である。
証明.$n$次正方行列$A$に対し、$W_1:={}_n[\mathbb{K}]$とおいて、$W_i$中の$A$の固有ベクトルの1つを$\vect{p}_i$、$W_i$における$\overline{\vect{p}_i}^+$の直和補空間を$W_{i+1}$とすることを、$i=1,2,\dots,n$に対して繰返せば、$A(\overline{\langle\vect{p}_i\rangle^k}^+)\subseteq \overline{\langle\vect{p}_i\rangle^k}^+$となる${}_n[\mathbb{K}]$の基底$\langle\vect{p}_i\rangle^n$が取れる。この基底の下で$A$は上三角行列で表現される。下三角行列も同様である。
定理.正方行列$A$の固有多項式$f(x)$に対し$f(A)=O$が成立つ。
証明.前定理と$A\sim B \Rightarrow f(A)\sim f(B)$より、$A$は$n$次上三角行列であるとしてよい。$A$の対角成分を$\langle\alpha_i\rangle^n$とおけば、$f(x)=\prod_{i=1}^n(x-\alpha_i)$である。
$f(A)=\prod_{i=1}^k(A-\alpha_i E)$は、$k$を1から順に計算すると$\begin{bmatrix}
{}_k[0]^k & B_k\\
{}_{n-k}[0]^k & A_k
\end{bmatrix}$の形に書け、$A_k$は$n-k$次上三角行列となる。よって$f(A)=O$。
Jordan標準形
記述の便利と読み易さのため$N_\alpha:=A-\alpha E$とおく。第5講では、固有値$\alpha$の固有ベクトル$\vect{v_1}\ne\vect{o}$を選び、$\vect{v}_{j+1}\in N_\alpha^{-1}(\vect{v}_j)$を可能な限り($N_\alpha^{-1}(\vect{v}_k)=\emptyset$になるまで)求めた。この時$\langle\vect{v_j}\rangle^k$は、$A$不変線型部分空間$\overline{\langle\vect{v_j}\rangle^k}^+$の基底をなす。
実際、作り方から $\vect{v}_0:=\vect{o}$とおいて$N_\alpha\vect{v}_j=\vect{v}_{j-1},\ \vect{v}_j=N_\alpha^{k-j}\vect{v}_k$である。$\langle\vect{v_j}\rangle^k{}_k[c_j]=\vect{o}$とする。$N_\alpha^{k-1}(\langle\vect{v_j}\rangle^k{}_k[c_j])=c_k\vect{v}_1=\vect{o}$より、$c_k=0$。以下この議論を繰返せば${}_k[c_j]=\vect{o}$を得るから$\langle\vect{v_j}\rangle^k$は線型独立。$A\vect{v}_j=\alpha\vect{v}_j+\vect{v}_{j-1}$より、$\overline{\langle\vect{v_j}\rangle^k}^+$は$A$不変線型部分空間で、そこでの線型変換$A$は基底$\langle\vect{v_j}\rangle^k$のもとでジョルダン細胞$J(\alpha,k)$で表される。
この手順では、出発点となる固有ベクトルや$\vect{v}_{j+1}\in (A-\alpha E)^{-1}(\vect{v}_j)$の選択に任意性がある。第5講の例2でも触れたように、選択によっては広義固有空間の基底を得られず、その判定は実は容易でない。そこで第5講の操作を、固有空間$U_\alpha$の“適切に”選んだ基底$\langle\vect{v}_{i1}\rangle^l$に対して“適切に”遂行して得られる$\left\langle\langle\vect{v}_{ij}\rangle^{k_i}\right\rangle^l$が $\widetilde{U}_\alpha$の基底になることを示そう。ここで、$\langle \vect{v}_{ij}\rangle^{k_i}$は$\vect{v}_{ik_i}$から一意に定まる【$\because)\ \vect{v}_{ij}=N_\alpha^{k_i-j}\vect{v}_{ik_i}$】から、第5講の手順は一時脇に置き、$\left\langle\langle\vect{v}_{ij}\rangle^{k_i}\right\rangle^l$を第5講とは逆方向に以下で定める。
$\begin{array}{ll}
\ \underset{\lower2ex\huge\cup}{N_\alpha^{-(k+1)}(\vect{o})} & \underbrace{\hspace{12mm}}_{\Large V_{k+1}} \\
\ \underset{\lower2ex\huge\cup}{N_\alpha^{-k}(\vect{o})} & \underbrace{N_\alpha(V_{k+1})\quad W_k}_{\Large V_k}\\
\ N_\alpha^{-(k-1)}(\vect{o}) &
\end{array}$
$K{:=}\min\{j\mid N_\alpha^{-k}(\vect{o}){=}\widetilde{U}_\alpha\}$【$K$は最小多項式における$(x-\alpha)$のべきに等しい】とおく。$V_{K+1}=\{\vect{o}\}$とおき、各$k,\ K\ge k\ge 1$に対し順に、$N_\alpha^{-k}(\vect{o})$における$N_\alpha^{-(k-1)}(\vect{o})+N_\alpha(V_{k+1})$の直和補空間を$W_k$とおき、$V_k:=N_\alpha(V_{k+1})+W_k$とおく。これは、$N_\alpha$を$k$回適用して初めて$\vect{o}$になるベクトルの内、上のステップの線型空間$V_{k+1}$に$N_\alpha$を適用して得られる空間と直和をなす線型空間を$W_k$としている。
こうして定めた各$W_k$の基底を$W_K$の基底から順に並べ、通し番号$i$をつけ$\vect{v}_{ik}$とおく。$k$の値は通し番号$i$から定まるから、以後$\vect{v}_{ik}$を$\vect{v}_{ik_i}$と表し、$\vect{v}_{ij}:=N_\alpha^{k_i-j}\vect{v}_{ik_i},\ 1\le j\le k_i$とおく。$\left\langle\langle\vect{v}_{ij}\rangle^{k_i}\right\rangle^l$は、その定め方から第5講の手順を“適切に”遂行すれば“逆向き”に求められ、$\widetilde{U}_\alpha=N_\alpha^{-K}(\vect{o})=\sum_{i=1}^K V_i$だから$\widetilde{U}_\alpha$を張る。
最後に$\left\langle\langle\vect{v}_{ij}\rangle^{k_i}\right\rangle^l$が線型独立であることを示そう。まず、同じ$j$について横断的に集めた$\mathfrak{V}_j:=\{\vect{v}_{ij}\mid \ k_i\ge j\}$の線型関係は、$N_\alpha^{j-1}\vect{v}_{ij}=\vect{v}_{i1}$より$V_1$の基底$\mathfrak{V}_1$の線型関係を導くから、$\mathfrak{V}_j$は線型独立である。
次に、$\vect{u}_j\in\overline{\mathfrak{V}_j}^+, 1\le j\le K$に線型関係$\langle \vect{u}_j\rangle^K{}_K[c_j]=\vect{o}$があれば、$(A-\alpha E)^{K-i}(\langle \vect{u}_j\rangle^K{}_K[c_j])=\vect{o},\ i=1,2,\dots,K$より、順に$0=c_K=c_{K-1}=\cdots=c_1$を得る。よって$\sum_{j=1}^K\overline{\mathfrak{V}_j}^+=\bigoplus_{j=1}^k\overline{\mathfrak{V}_j}^+$である。
以上で証明は終り、第5講の手順の“適切な”遂行でJordan標準形が得られることが示された。なお、第5講の手順は比較的小さな行列に対し手計算でJordan標準形を求める際は有効であるが、コンピュータで機械的に求める際は本節の証明で示した方向から求めるのがよい。
付録 部分分数分解
部分分数分解のアルゴリズムについてはヘビサイドのカバーアップ法が知られており、次式を満たす$c_{ij}$は2行目の式で与えられる。なお $f^{(k)}(x)$は$f(x)$の$k$階微分、$\sum_{p=1}^{i,m}\ (\prod_{p=1}^{i,m})\ $は$p=1$から$m$までの$i$を除いた和(積)を表すとする。
$\dfrac{h(x)}{\prod_{i=1}^m(x-a_i)^{n_i}}
=\dsum_{i=1}^m\dfrac{\sum_{j=0}^{n_i-1}c_{ij}(x-a_i)^j}{(x-a_i)^{n_i}},\ \deg h(x)\lt \dsum_{i=1}^m n_i$
$\Longrightarrow c_{ij}=\dfrac{1}{j!}\left(h(x)\prod_{p=1}^{i,m}(x-a_p)^{-n_p}\right)^
{(j)}(a_i)$
実際、両辺に$(x-a_i)^{n_i}$を掛ければ、
$h(x)\prod_{p=1}^{i,m}(x{-}a_p)^{-n_p}
=\dsum_{j=0}^{n_i-1}c_{ij}(x{-}a_i)^j+
(x{-}a_i)^{n_i}\left(\dsum_{p=1}^{i,m}\dfrac{\sum_{j=0}^{n_p-1}c_{pj}(x{-}a_p)^j}{(x{-}a_p)^{n_p}}\right)$
より、$0\le j\lt n_i$ に対し、$\left(h(x)\prod_{p=1}^{i,m}(x-a_p)^{-n_p}\right)^{(j)}(a_i)=j!c_{ij}$である。
問.${\rm C}_j^{n}{:=}\dprod_{k=0}^{j-1}\dfrac{n{-}k}{k+1},\ j\ge 0$とおく。$\dfrac{\left((x{-}c)^{-n}\right)^
{(j)}(a)}{j!}{=}{\rm C}_j^{-n}(a{-}c)^{-n-j}$ を示せ。
注.$n$個から【重複を許して】$j\,$個選ぶ組合せの数は${\rm C}_j^{n}$【$\ (-1)^j{\rm C}_j^{-n}$】
積(多因子)の高階微分の展開公式を使えば、
$\dfrac{1}{j!}\left(\dprod_{p=1}^{i,m}(x{-}a_p)^{-n_p}\right)^
{(j)}\hspace{-5pt}(a_i)
=\dfrac{1}{j!}\left(\dsum_{\sum_{p=1}^{i,m}\hspace{2pt}j_p=j} \dfrac{j!}{\prod_{p=1}^{i,m}j_p!}\dprod_{p=1}^{i,m}\left((x{-}a_p)^{-n_p}\right)^{(j_p)}\right)(a_i)=\dsum_{\sum_{p=1}^{i,m}\hspace{2pt}j_p=j}\, \dprod_{p=1}^{i,m} {\rm C}_{j_p}^{-n_p}(a_i{-}a_p)^{-n_p-j_p}$
$h^{(\deg h(x) +1)}(x)=0$だから
$c_{ij}=\dfrac{1}{j!}\left(\dsum_{k=0}^j{\rm C}^j_k h^{(k)}(x)\left(\dprod_{p=1}^{i,m}(x{-}a_p)^{-n_p}\right)^{(j-k)}\right)(a_i)\\
\hspace{10pt}=\dsum_{k=0}^{\deg h(x)}\dfrac{h^{(k)}(a_i)}{k!}\left(\dsum_{\sum_{p=1}^{i,m}\hspace{2pt}j_p=j-k}\ \dprod_{p=1}^{i,m} {\rm C}_{j_p}^{-n_p}(a_i{-}a_p)^{-n_p-j_p}\right)
$
この結果を第2節の議論に適用すれば
$g_\alpha(x)=\dsum_{j=0}^{n_\alpha-1}\left(\dsum_{\sum_{\beta\in\mathfrak{A}-\{\alpha\}}\hspace{5pt}j_\beta=j}\ \dprod_{\beta\in\mathfrak{A}-\{\alpha\}} {\rm C}_{j_\beta}^{-n_\beta}(\alpha{-}\beta)^{-n_\beta-j_\beta}\right)(x-\alpha)^j$
固有値の数が2,3個の場合を書けば
$\mathfrak{A}=\{\alpha,\beta\} \Longrightarrow
g_\alpha(x)=\dsum_{j=0}^{n_\alpha-1}{\rm C}_j^{-n_\beta}(\alpha{-}\beta)^{-n_\beta-j}(x-\alpha)^j\\
\mathfrak{A}=\{\alpha,\beta,\gamma\} \Longrightarrow\\
\hspace{15pt}g_\alpha(x)=\dsum_{j=0}^{n_\alpha-1}\left(\dsum_{i=0}^j{\rm C}_i^{-n_\beta}(\alpha-\beta)^{-n_\beta-i}{\rm C}_{j-i}^{-n_\gamma}(\alpha-\gamma)^{-n_\gamma-j+i}\right)(x-\alpha)^j$