A.3 Matrizen
Referenz: Abschnitte 5.1.3, 5.3
A.3.1 Definition und das Produkt von Matrizen
Eine Matrix über \(K\) der Größe \(m\times n\) (mit \(m,n\in \mathbb N\)) ist eine Familie \((a_{ij})_{i,j}\) von Elementen aus \(K\) mit Indexmenge \(\{ 1,\dots , m\} \times \{ 1, \dots , n\} \). Die Menge \(M_{m\times n}(K)\) der Matrizen der Größe \(m\times n\) ist mit der eintragsweisen Addition und Skalarmultiplikation ein \(K\)-Vektorraum.
Eine Diagonalmatrix ist eine Matrix \(A=(a_{ij})_{i,j}\in M_n(K)\), so dass \(a_{ij}=0\) für alle \(i\ne j\). Für \(a_1,\dots , a_n\in K\) bezeichnen wir mit \(\operatorname{diag}(a_1,\dots , a_n)\) die Diagonalmatrix \((a_{ij})_{i,j}\) mit \(a_{ii}=a_i\) für alle \(i\). Für \(A=(a_{ij})_{i,j}\in M_{m\times n}(K)\) nennen wir \(A^t := (a_{ji})_{i,j}\in M_{n\times m}(K)\) die zu \(A\) transponierte Matrix.
Sind \(A\in M_{l\times m}(K)\), \(B\in M_{m\times n}\), so definieren wir das Produkt \(AB = (c_{ij})_{i,j}\in M_{l\times n}(K)\) der Matrizen \(A\) und \(B\) durch
Für das Matrizenprodukt gelten das Assoziativ- und das Distributivgesetz. Die Diagonalmatrix \(E_n :=\operatorname{diag}(1,\dots , 1)\in M_{n}(K)\) heißt die Einheitsmatrix. Es gilt \(E_mA=A\), \(AE_n=A\) für alle \(A\in M_{m\times n}(K)\). Wir schreiben \(M_n(K):=M_{n\times n}(K)\).
Eine Matrix \(A\in M_n(K)\) heißt invertierbar, wenn eine Matrix \(B\in M_n(K)\) mit \(AB=BA=E_n\) exitiert. Die allgemeine lineare Gruppe ist die Gruppe \(GL_n(K)\) der invertierbaren Matrizen in \(M_n(K)\) bezüglich der Multiplikation von Matrizen.
Für eine Permutation \(\sigma \in S_n\) sei \(P_{\sigma }\in M_{n}(K)\) die Matrix, deren \(j\)-te Spalte der Vektor \(e_{\sigma (j)}\) ist. Die Abbildung \(S_n\to GL_n(K)\), \(\sigma \mapsto P_\sigma \), ist ein injektiver Gruppenhomomorphismus. Die Matrizen \(P_\sigma \) bezeichnen wir als Permutationsmatrizen. Es gilt \(P_\sigma ^{-1} = P_{\sigma ^{-1}} = (P_\sigma )^t\).
A.3.2 Matrizen und lineare Abbildungen
(Abschnitt 7.3)
Für eine Matrix \(A\in M_{m\times n}(K)\) ist die Abbildung \(\mathbf f_A\colon K^n\to K^m\), \(x\mapsto Ax\), eine lineare Abbildung. Wir schreiben auch \(\operatorname{Ker}(A)\) statt \(\operatorname{Ker}(\mathbf f_A)\) und \(\operatorname{Im}(A)\) statt \(\operatorname{Im}(\mathbf f_A)\).
Die Abbildung \(M_{m\times n}(K)\to \operatorname{Hom}_K(K^n, K^m)\), \(A\mapsto \mathbf f_A\), ist ein Isomorphismus von \(K\)-Vektorräumen. Wir bezeichnen mit \(f\mapsto M(f)\) seine Umkehrabbildung. Dann ist die \(j\)-te Spalte von \(M(f)\) der Vektor \(f(e_j)\).
Für endlich-dimensionale Vektorräume \(V\) und \(W\) mit Basen \(\mathscr B\) und \(\mathscr C\) induzieren die Koordinatenisomorphsmen \(c_\mathscr B\colon V\to K^n\) und \(c_\mathscr C\colon W\to K^m\) (mit \(n:=\dim (V)\), \(m:=\dim (W))\)) einen Isomorphismus \(\operatorname{Hom}_K(V, W)\to \operatorname{Hom}_K(K^n, K^m)\), \(f\mapsto c_\mathscr C\circ f\circ c_\mathscr B^{-1}\). Durch Kombination mit dem vorherigen Satz bekommen wir:
Seien \(V\) und \(W\) endlich-dimensionale \(K\)-Vektorräume mit Basen \(\mathscr B\) und \(\mathscr C\). Die Abbildung \(\operatorname{Hom}_K(V, W)\to M_{m\times n}(K)\), \(f\mapsto M^\mathscr B_\mathscr C(f):= M(c_\mathscr C\circ f\circ c_\mathscr B^{-1})\) ist ein Isomorphismus.
Schreiben wir \(\mathscr B= (v_1, \dots , v_n)\), so ist die \(j\)-te Spalte von \(M^\mathscr B_\mathscr C(f)\) der Vektor \(c_\mathscr C(f(v_j))\), der aus den Koeffizienten besteht, mit denen \(f(v_j)\) als Linearkombination der Basis \(\mathscr C\) geschrieben wird.
Für die Verkettung von Homomorphismen \(f\colon U\to V\) und \(g\colon V\to W\) zwischen endlich-dimensionalen Vektorräumen mit Basen \(\mathscr B\), \(\mathscr C\), \(\mathscr D\) erhalten wir
Sind \(\mathscr B\), \(\mathscr B'\) Basen desselben Vektorraums \(V\), so nennen wir \(M^{\mathscr B'}_\mathscr B:=M^{\mathscr B'}_\mathscr B(\operatorname{id}_V)\) die Basiswechselmatrix zwischen den Basen \(\mathscr B'\) und \(\mathscr B\). Sind \(f\colon V\to W\) ein Homomorphismus und \(\mathscr B\), \(\mathscr B'\) Basen von \(V\) und \(\mathscr C\), \(\mathscr C'\) Basen von \(W\), so erhalten wir aus der obigen Formel die Basiswechselformel (Korollar 7.34)
Ein Homomorphismus \(f\) ist genau dann ein Isomorphismus, wenn die Matrix \(M^\mathscr B_\mathscr C\) invertierbar ist. Insbesondere ist die Basiswechselmatrix \(M^{\mathscr B'}_\mathscr B\) invertierbar; ihre inverse Matrix ist \(M^{\mathscr B}_{\mathscr B'}\).
Sind \(V\) und \(W\) endlich-dimensionale Abbildungen mit Basen \(\mathscr B\) und \(\mathscr C\), und sind \(\mathscr B^\vee \) bzw. \(\mathscr C^\vee \) die dualen Basen von \(\mathscr B\) und \(\mathscr C\), so gilt
Für eine Matrix \(A\in M_{m\times n}(K)\) heißt \(\operatorname{rg}(A) := \dim (\operatorname{Im}(\mathbf f_A))\) der Rang der Matrix \(A\).
Sei \(A\in M_{m\times n}(K)\). Dann gilt \(\operatorname{rg}(A) = \operatorname{rg}(A^t)\).
Sei \(f\colon V\to W\) ein Homomorphismus zwischen endlich-dimensionalen \(K\)-Vektorräumen. Dann existieren Basen \(\mathscr B\) von \(V\) und \(\mathscr C\) von \(W\), so dass \(M^\mathscr B_\mathscr C(f) = \begin{pmatrix} E_r & 0 \\ 0 & 0 \end{pmatrix}\) (als Blockmatrix geschrieben). Hier ist \(r = \operatorname{rg}(f)\).
Sei \(A\in M_{m\times n}(K)\). Dann existieren invertierbare Matrizen \(S\in M_m(K)\) und \(T\in M_n(K)\), so dass \(SAT = \begin{pmatrix} E_r & 0 \\ 0 & 0 \end{pmatrix}\) (als Blockmatrix geschrieben). Hier ist \(r = \operatorname{rg}(A)\).
A.3.3 Lineare Gleichungssysteme
Eine lineare Gleichung in \(n\) Unbestimmten über \(K\) ist eine Gleichung der Form
mit \(a_i, b\in K\). Sind \(m\) Gleichungen dieser Form gegeben, so sprechen wir von einem linearen Gleichungssystem. Wir schreiben die Koeffizienten \(a_{ij}\) dieser Gleichungen zusammen mit den Werten \(b_i\) auf der rechten Seiten der Gleichungen in die erweiterte Koeffizientenmatrix \((A\mid b)\) mit \(A\in M_{m\times n}(K)\), \(b\in K^m = M_{m\times 1}(K)\). Ist \(b=0\), so sprechen wir auch von einem homogenen linearen Gleichungssystem. Die Lösungsmenge des linearen Gleichungssystems ist \(\mathbf f_A^{-1}(b) = \{ x\in K^n;\ Ax=b\} \). Ist diese nicht leer, d.h. ist \(b\in \operatorname{Im}(A)\), und ist \(t\) ein Element dieser Lösungsmenge, so gilt \(\mathbf f_A^{-1}(b) = t + \operatorname{Ker}(A) := \{ t+v;\ v\in \operatorname{Ker}(A)\} \). Hier ist \(\operatorname{Ker}(A) = \{ x\in K^n;\ Ax=0\} \) die Lösungsmenge des zugehörigen homogenen linearen Gleichungssystems.
Sei \(m\in \mathbb N\). Die Matrizen \(E_{ij}(a)\), \(1\le i\ne j\le m\), \(a\in K\) und \(\operatorname{diag}(a_1,\dots , a_m)\), \(a_i\in K^\times \), erzeugen die Gruppe \(GL_m(K)\).
Ist \(A\in M_{m\times n}\), so existieren \(S\in GL_m(K)\) sowie eine Permutationsmatrix \(T\in GL_n(K)\), so dass \(SAT\) die Form
\[ \begin{pmatrix} E_r & A’ \\ 0 & 0 \end{pmatrix}\qquad \text{(als Blockmatrix geschrieben)} \]hat. Dabei ist \(r\) der Rang von \(A\) und \(A'\in M_{r\times (n-r)}(K)\) eine Matrix, die durch \(A\) bis auf Vertauschung der Spalten eindeutig bestimmt ist.
Mit der Notation aus Teil (2) ist die Lösungsmenge \(\operatorname{Ker}(A)\) des durch \(A\) gegebenen homogenen linearen Gleichungssystems der von den Spalten der Matrix \(T\begin{pmatrix} -A’ \\ E_{n-r} \end{pmatrix}\) erzeugte Untervektorraum von \(K^n\).
A.3.4 Invertierbare Matrizen
Sei \(A\in M_n(K)\). Dann sind äquivalent:
\(A\) ist invertierbar.
Es existiert \(B\in M_n(K)\) mit \(AB = E_n\).
Es existiert \(B\in M_n(K)\) mit \(BA = E_n\).
Der Homomorphismus \(\mathbf f_A\) ist ein Isomorphismus.
Der Homomorphismus \(\mathbf f_A\) ist surjektiv.
Der Homomorphismus \(\mathbf f_A\) ist injektiv.
Für jedes \(b\in K^n\) ist das lineare Gleichungssystem \(Ax=b\) eindeutig lösbar.
Für jedes \(b\in K^n\) ist das lineare Gleichungssystem \(Ax=b\) lösbar.
Das homogene lineare Gleichungssystem \(Ax=0\) ist eindeutig lösbar.
Die reduzierte Zeilenstufenform der Matrix \(A\) ist \(E_n\). (Definition 5.13)
Es gilt \(\det (A)\ne 0\) (siehe den Abschnitt A.4.2 weiter unten).