A.3 Matrizen
Referenz: Abschnitte 5.1.3, 5.3
A.3.1 Definition und das Produkt von Matrizen
Eine Matrix über \(K\) der Größe \(m\times n\) (mit \(m,n\in \mathbb N\)) ist eine Familie \((a_{ij})_{i,j}\) von Elementen aus \(K\) mit Indexmenge \(\{ 1,\dots , m\} \times \{ 1, \dots , n\} \). Die Menge \(M_{m\times n}(K)\) der Matrizen der Größe \(m\times n\) ist mit der eintragsweisen Addition und Skalarmultiplikation ein \(K\)-Vektorraum.
Eine Diagonalmatrix ist eine Matrix \(A=(a_{ij})_{i,j}\in M_n(K)\), so dass \(a_{ij}=0\) für alle \(i\ne j\). Für \(a_1,\dots , a_n\in K\) bezeichnen wir mit \(\operatorname{diag}(a_1,\dots , a_n)\) die Diagonalmatrix \((a_{ij})_{i,j}\) mit \(a_{ii}=a_i\) für alle \(i\). Für \(A=(a_{ij})_{i,j}\in M_{m\times n}(K)\) nennen wir \(A^t := (a_{ji})_{i,j}\in M_{n\times m}(K)\) die zu \(A\) transponierte Matrix.
Sind \(A\in M_{l\times m}(K)\), \(B\in M_{m\times n}\), so definieren wir das Produkt \(AB = (c_{ij})_{i,j}\in M_{l\times n}(K)\) der Matrizen \(A\) und \(B\) durch
Für das Matrizenprodukt gelten das Assoziativ- und das Distributivgesetz. Die Diagonalmatrix \(E_n :=\operatorname{diag}(1,\dots , 1)\in M_{n}(K)\) heißt die Einheitsmatrix. Es gilt \(E_mA=A\), \(AE_n=A\) für alle \(A\in M_{m\times n}(K)\). Wir schreiben \(M_n(K):=M_{n\times n}(K)\).
Eine Matrix \(A\in M_n(K)\) heißt invertierbar, wenn eine Matrix \(B\in M_n(K)\) mit \(AB=BA=E_n\) exitiert. Die allgemeine lineare Gruppe ist die Gruppe \(GL_n(K)\) der invertierbaren Matrizen in \(M_n(K)\) bezüglich der Multiplikation von Matrizen.
Für eine Permutation \(\sigma \in S_n\) sei \(P_{\sigma }\in M_{n}(K)\) die Matrix, deren \(j\)-te Spalte der Vektor \(e_{\sigma (j)}\) ist. Die Abbildung \(S_n\to GL_n(K)\), \(\sigma \mapsto P_\sigma \), ist ein injektiver Gruppenhomomorphismus. Die Matrizen \(P_\sigma \) bezeichnen wir als Permutationsmatrizen. Es gilt \(P_\sigma ^{-1} = P_{\sigma ^{-1}} = (P_\sigma )^t\).
A.3.2 Matrizen und lineare Abbildungen
(Abschnitt 7.3)
Für eine Matrix \(A\in M_{m\times n}(K)\) ist die Abbildung \(\mathbf f_A\colon K^n\to K^m\), \(x\mapsto Ax\), eine lineare Abbildung. Wir schreiben auch \(\operatorname{Ker}(A)\) statt \(\operatorname{Ker}(\mathbf f_A)\) und \(\operatorname{Im}(A)\) statt \(\operatorname{Im}(\mathbf f_A)\).
Die Abbildung \(M_{m\times n}(K)\to \operatorname{Hom}_K(K^n, K^m)\), \(A\mapsto \mathbf f_A\), ist ein Isomorphismus von \(K\)-Vektorräumen. Wir bezeichnen mit \(f\mapsto M(f)\) seine Umkehrabbildung. Dann ist die \(j\)-te Spalte von \(M(f)\) der Vektor \(f(e_j)\).
Für endlich-dimensionale Vektorräume \(V\) und \(W\) mit Basen \(\mathscr B\) und \(\mathscr C\) induzieren die Koordinatenisomorphsmen \(c_\mathscr B\colon V\to K^n\) und \(c_\mathscr C\colon W\to K^m\) (mit \(n:=\dim (V)\), \(m:=\dim (W))\)) einen Isomorphismus \(\operatorname{Hom}_K(V, W)\to \operatorname{Hom}_K(K^n, K^m)\), \(f\mapsto c_\mathscr C\circ f\circ c_\mathscr B^{-1}\). Durch Kombination mit dem vorherigen Satz bekommen wir:
Seien \(V\) und \(W\) endlich-dimensionale \(K\)-Vektorräume mit Basen \(\mathscr B\) und \(\mathscr C\). Die Abbildung \(\operatorname{Hom}_K(V, W)\to M_{m\times n}(K)\), \(f\mapsto M^\mathscr B_\mathscr C(f):= M(c_\mathscr C\circ f\circ c_\mathscr B^{-1})\) ist ein Isomorphismus.
Schreiben wir \(\mathscr B= (v_1, \dots , v_n)\), so ist die \(j\)-te Spalte von \(M^\mathscr B_\mathscr C(f)\) der Vektor \(c_\mathscr C(f(v_j))\), der aus den Koeffizienten besteht, mit denen \(f(v_j)\) als Linearkombination der Basis \(\mathscr C\) geschrieben wird.
Für die Verkettung von Homomorphismen \(f\colon U\to V\) und \(g\colon V\to W\) zwischen endlich-dimensionalen Vektorräumen mit Basen \(\mathscr B\), \(\mathscr C\), \(\mathscr D\) erhalten wir
Sind \(\mathscr B\), \(\mathscr B^\prime \) Basen desselben Vektorraums \(V\), so nennen wir \(M^{\mathscr B^\prime }_\mathscr B:=M^{\mathscr B^\prime }_\mathscr B(\operatorname{id}_V)\) die Basiswechselmatrix zwischen den Basen \(\mathscr B^\prime \) und \(\mathscr B\). Sind \(f\colon V\to W\) ein Homomorphismus und \(\mathscr B\), \(\mathscr B^\prime \) Basen von \(V\) und \(\mathscr C\), \(\mathscr C^\prime \) Basen von \(W\), so erhalten wir aus der obigen Formel die Basiswechselformel (Korollar 7.34)
Ein Homomorphismus \(f\) ist genau dann ein Isomorphismus, wenn die Matrix \(M^\mathscr B_\mathscr C\) invertierbar ist. Insbesondere ist die Basiswechselmatrix \(M^{\mathscr B^\prime }_\mathscr B\) invertierbar; ihre inverse Matrix ist \(M^{\mathscr B}_{\mathscr B^\prime }\).
Sind \(V\) und \(W\) endlich-dimensionale Abbildungen mit Basen \(\mathscr B\) und \(\mathscr C\), und sind \(\mathscr B^\vee \) bzw. \(\mathscr C^\vee \) die dualen Basen von \(\mathscr B\) und \(\mathscr C\), so gilt
Für eine Matrix \(A\in M_{m\times n}(K)\) heißt \(\operatorname{rg}(A) := \dim (\operatorname{Im}(\mathbf f_A))\) der Rang der Matrix \(A\).
Sei \(A\in M_{m\times n}(K)\). Dann gilt \(\operatorname{rg}(A) = \operatorname{rg}(A^t)\).
Sei \(f\colon V\to W\) ein Homomorphismus zwischen endlich-dimensionalen \(K\)-Vektorräumen. Dann existieren Basen \(\mathscr B\) von \(V\) und \(\mathscr C\) von \(W\), so dass \(M^\mathscr B_\mathscr C(f) = \begin{pmatrix} E_r & 0 \\ 0 & 0 \end{pmatrix}\) (als Blockmatrix geschrieben). Hier ist \(r = \operatorname{rg}(f)\).
Sei \(A\in M_{m\times n}(K)\). Dann existieren invertierbare Matrizen \(S\in M_m(K)\) und \(T\in M_n(K)\), so dass \(SAT = \begin{pmatrix} E_r & 0 \\ 0 & 0 \end{pmatrix}\) (als Blockmatrix geschrieben). Hier ist \(r = \operatorname{rg}(A)\).
A.3.3 Lineare Gleichungssysteme
Eine lineare Gleichung in \(n\) Unbestimmten über \(K\) ist eine Gleichung der Form
mit \(a_i, b\in K\). Sind \(m\) Gleichungen dieser Form gegeben, so sprechen wir von einem linearen Gleichungssystem. Wir schreiben die Koeffizienten \(a_{ij}\) dieser Gleichungen zusammen mit den Werten \(b_i\) auf der rechten Seiten der Gleichungen in die erweiterte Koeffizientenmatrix \((A\mid b)\) mit \(A\in M_{m\times n}(K)\), \(b\in K^m = M_{m\times 1}(K)\). Ist \(b=0\), so sprechen wir auch von einem homogenen linearen Gleichungssystem. Die Lösungsmenge des linearen Gleichungssystems ist \(\mathbf f_A^{-1}(b) = \{ x\in K^n;\ Ax=b\} \). Ist diese nicht leer, d.h. ist \(b\in \operatorname{Im}(A)\), und ist \(t\) ein Element dieser Lösungsmenge, so gilt \(\mathbf f_A^{-1}(b) = t + \operatorname{Ker}(A) := \{ t+v;\ v\in \operatorname{Ker}(A)\} \). Hier ist \(\operatorname{Ker}(A) = \{ x\in K^n;\ Ax=0\} \) die Lösungsmenge des zugehörigen homogenen linearen Gleichungssystems.
Sei \(m\in \mathbb N\). Die Matrizen \(E_{ij}(a)\), \(1\le i\ne j\le m\), \(a\in K\) und \(\operatorname{diag}(a_1,\dots , a_m)\), \(a_i\in K^\times \), erzeugen die Gruppe \(GL_m(K)\).
Ist \(A\in M_{m\times n}\), so existieren \(S\in GL_m(K)\) sowie eine Permutationsmatrix \(T\in GL_n(K)\), so dass \(SAT\) die Form
\[ \begin{pmatrix} E_r & A^\prime \\ 0 & 0 \end{pmatrix}\qquad \text{(als Blockmatrix geschrieben)} \]hat. Dabei ist \(r\) der Rang von \(A\) und \(A^\prime \in M_{r\times (n-r)}(K)\) eine Matrix, die durch \(A\) bis auf Vertauschung der Spalten eindeutig bestimmt ist.
Mit der Notation aus Teil (2) ist die Lösungsmenge \(\operatorname{Ker}(A)\) des durch \(A\) gegebenen homogenen linearen Gleichungssystems der von den Spalten der Matrix \(T\begin{pmatrix} -A^\prime \\ E_{n-r} \end{pmatrix}\) erzeugte Untervektorraum von \(K^n\).
A.3.4 Invertierbare Matrizen
Sei \(A\in M_n(K)\). Dann sind äquivalent:
\(A\) ist invertierbar.
Es existiert \(B\in M_n(K)\) mit \(AB = E_n\).
Es existiert \(B\in M_n(K)\) mit \(BA = E_n\).
Der Homomorphismus \(\mathbf f_A\) ist ein Isomorphismus.
Der Homomorphismus \(\mathbf f_A\) ist surjektiv.
Der Homomorphismus \(\mathbf f_A\) ist injektiv.
Für jedes \(b\in K^n\) ist das lineare Gleichungssystem \(Ax=b\) eindeutig lösbar.
Für jedes \(b\in K^n\) ist das lineare Gleichungssystem \(Ax=b\) lösbar.
Das homogene lineare Gleichungssystem \(Ax=0\) ist eindeutig lösbar.
Die reduzierte Zeilenstufenform der Matrix \(A\) ist \(E_n\). (Definition 5.13)
Es gilt \(\det (A)\ne 0\) (siehe den Abschnitt A.4.2 weiter unten).