Inhalt

A.3 Matrizen

Referenz: Abschnitte 5.1.3, 5.3

A.3.1 Definition und das Produkt von Matrizen

Definition A.18

Eine Matrix über \(K\) der Größe \(m\times n\) (mit \(m,n\in \mathbb N\)) ist eine Familie \((a_{ij})_{i,j}\) von Elementen aus \(K\) mit Indexmenge \(\{ 1,\dots , m\} \times \{ 1, \dots , n\} \). Die Menge \(M_{m\times n}(K)\) der Matrizen der Größe \(m\times n\) ist mit der eintragsweisen Addition und Skalarmultiplikation ein \(K\)-Vektorraum.

Eine Diagonalmatrix ist eine Matrix \(A=(a_{ij})_{i,j}\in M_n(K)\), so dass \(a_{ij}=0\) für alle \(i\ne j\). Für \(a_1,\dots , a_n\in K\) bezeichnen wir mit \(\operatorname{diag}(a_1,\dots , a_n)\) die Diagonalmatrix \((a_{ij})_{i,j}\) mit \(a_{ii}=a_i\) für alle \(i\). Für \(A=(a_{ij})_{i,j}\in M_{m\times n}(K)\) nennen wir \(A^t := (a_{ji})_{i,j}\in M_{n\times m}(K)\) die zu \(A\) transponierte Matrix.

Definition A.19 Matrizenprodukt

Sind \(A\in M_{l\times m}(K)\), \(B\in M_{m\times n}\), so definieren wir das Produkt \(AB = (c_{ij})_{i,j}\in M_{l\times n}(K)\) der Matrizen \(A\) und \(B\) durch

\[ c_{ij} = \sum _{k=1}^m a_{ik}b_{kj}. \]

Für das Matrizenprodukt gelten das Assoziativ- und das Distributivgesetz. Die Diagonalmatrix \(E_n :=\operatorname{diag}(1,\dots , 1)\in M_{n}(K)\) heißt die Einheitsmatrix. Es gilt \(E_mA=A\), \(AE_n=A\) für alle \(A\in M_{m\times n}(K)\). Wir schreiben \(M_n(K):=M_{n\times n}(K)\).

Eine Matrix \(A\in M_n(K)\) heißt invertierbar, wenn eine Matrix \(B\in M_n(K)\) mit \(AB=BA=E_n\) exitiert. Die allgemeine lineare Gruppe ist die Gruppe \(GL_n(K)\) der invertierbaren Matrizen in \(M_n(K)\) bezüglich der Multiplikation von Matrizen.

Beispiel A.20 Permutationsmatrizen, siehe Abschnitt 8.1.5

Für eine Permutation \(\sigma \in S_n\) sei \(P_{\sigma }\in M_{n}(K)\) die Matrix, deren \(j\)-te Spalte der Vektor \(e_{\sigma (j)}\) ist. Die Abbildung \(S_n\to GL_n(K)\), \(\sigma \mapsto P_\sigma \), ist ein injektiver Gruppenhomomorphismus. Die Matrizen \(P_\sigma \) bezeichnen wir als Permutationsmatrizen. Es gilt \(P_\sigma ^{-1} = P_{\sigma ^{-1}} = (P_\sigma )^t\).

A.3.2 Matrizen und lineare Abbildungen

(Abschnitt 7.3)

Für eine Matrix \(A\in M_{m\times n}(K)\) ist die Abbildung \(\mathbf f_A\colon K^n\to K^m\), \(x\mapsto Ax\), eine lineare Abbildung. Wir schreiben auch \(\operatorname{Ker}(A)\) statt \(\operatorname{Ker}(\mathbf f_A)\) und \(\operatorname{Im}(A)\) statt \(\operatorname{Im}(\mathbf f_A)\).

Satz A.21

Die Abbildung \(M_{m\times n}(K)\to \operatorname{Hom}_K(K^n, K^m)\), \(A\mapsto \mathbf f_A\), ist ein Isomorphismus von \(K\)-Vektorräumen. Wir bezeichnen mit \(f\mapsto M(f)\) seine Umkehrabbildung. Dann ist die \(j\)-te Spalte von \(M(f)\) der Vektor \(f(e_j)\).

Für endlich-dimensionale Vektorräume \(V\) und \(W\) mit Basen \(\mathscr B\) und \(\mathscr C\) induzieren die Koordinatenisomorphsmen \(c_\mathscr B\colon V\to K^n\) und \(c_\mathscr C\colon W\to K^m\) (mit \(n:=\dim (V)\), \(m:=\dim (W))\)) einen Isomorphismus \(\operatorname{Hom}_K(V, W)\to \operatorname{Hom}_K(K^n, K^m)\), \(f\mapsto c_\mathscr C\circ f\circ c_\mathscr B^{-1}\). Durch Kombination mit dem vorherigen Satz bekommen wir:

Satz A.22

Seien \(V\) und \(W\) endlich-dimensionale \(K\)-Vektorräume mit Basen \(\mathscr B\) und \(\mathscr C\). Die Abbildung \(\operatorname{Hom}_K(V, W)\to M_{m\times n}(K)\), \(f\mapsto M^\mathscr B_\mathscr C(f):= M(c_\mathscr C\circ f\circ c_\mathscr B^{-1})\) ist ein Isomorphismus.

Schreiben wir \(\mathscr B= (v_1, \dots , v_n)\), so ist die \(j\)-te Spalte von \(M^\mathscr B_\mathscr C(f)\) der Vektor \(c_\mathscr C(f(v_j))\), der aus den Koeffizienten besteht, mit denen \(f(v_j)\) als Linearkombination der Basis \(\mathscr C\) geschrieben wird.

Für die Verkettung von Homomorphismen \(f\colon U\to V\) und \(g\colon V\to W\) zwischen endlich-dimensionalen Vektorräumen mit Basen \(\mathscr B\), \(\mathscr C\), \(\mathscr D\) erhalten wir

\[ M^\mathscr B_\mathscr D(g\circ f) = M^\mathscr C_\mathscr D(g)\, M^\mathscr B_\mathscr C(f). \]

Sind \(\mathscr B\), \(\mathscr B^\prime \) Basen desselben Vektorraums \(V\), so nennen wir \(M^{\mathscr B^\prime }_\mathscr B:=M^{\mathscr B^\prime }_\mathscr B(\operatorname{id}_V)\) die Basiswechselmatrix zwischen den Basen \(\mathscr B^\prime \) und \(\mathscr B\). Sind \(f\colon V\to W\) ein Homomorphismus und \(\mathscr B\), \(\mathscr B^\prime \) Basen von \(V\) und \(\mathscr C\), \(\mathscr C^\prime \) Basen von \(W\), so erhalten wir aus der obigen Formel die Basiswechselformel (Korollar 7.33)

\[ M^{\mathscr B^\prime }_{\mathscr C^\prime }(f) = M^{\mathscr C}_{\mathscr C^\prime }\, M^\mathscr B_\mathscr C(f)\, M^{\mathscr B^\prime }_\mathscr B. \]

Ein Homomorphismus \(f\) ist genau dann ein Isomorphismus, wenn die Matrix \(M^\mathscr B_\mathscr C\) invertierbar ist. Insbesondere ist die Basiswechselmatrix \(M^{\mathscr B^\prime }_\mathscr B\) invertierbar; ihre inverse Matrix ist \(M^{\mathscr B}_{\mathscr B^\prime }\).

Satz A.23 Die darstellende Matrix der dualen Abbildung, Satz 7.54

Sind \(V\) und \(W\) endlich-dimensionale Abbildungen mit Basen \(\mathscr B\) und \(\mathscr C\), und sind \(\mathscr B^\vee \) bzw. \(\mathscr C^\vee \) die dualen Basen von \(\mathscr B\) und \(\mathscr C\), so gilt

\[ M^{\mathscr C^\vee }_{\mathscr B^\vee }(f^\vee ) = M^\mathscr B_\mathscr C(f)^t. \]

Für eine Matrix \(A\in M_{m\times n}(K)\) heißt \(\operatorname{rg}(A) := \dim (\operatorname{Im}(\mathbf f_A))\) der Rang der Matrix \(A\).

Theorem A.24 Zeilenrang \(=\) Spaltenrang, Theorem 7.41

Sei \(A\in M_{m\times n}(K)\). Dann gilt \(\operatorname{rg}(A) = \operatorname{rg}(A^t)\).

Satz A.25 Smith-Normalform, Satz 7.36
  1. Sei \(f\colon V\to W\) ein Homomorphismus zwischen endlich-dimensionalen \(K\)-Vektorräumen. Dann existieren Basen \(\mathscr B\) von \(V\) und \(\mathscr C\) von \(W\), so dass \(M^\mathscr B_\mathscr C(f) = \begin{pmatrix} E_r & 0 \\ 0 & 0 \end{pmatrix}\) (als Blockmatrix geschrieben). Hier ist \(r = \operatorname{rg}(f)\).

  2. Sei \(A\in M_{m\times n}(K)\). Dann existieren invertierbare Matrizen \(S\in M_m(K)\) und \(T\in M_n(K)\), so dass \(SAT = \begin{pmatrix} E_r & 0 \\ 0 & 0 \end{pmatrix}\) (als Blockmatrix geschrieben). Hier ist \(r = \operatorname{rg}(A)\).

A.3.3 Lineare Gleichungssysteme

Eine lineare Gleichung in \(n\) Unbestimmten über \(K\) ist eine Gleichung der Form

\[ a_1 X_1 + \cdots + a_n X_n = b \]

mit \(a_i, b\in K\). Sind \(m\) Gleichungen dieser Form gegeben, so sprechen wir von einem linearen Gleichungssystem. Wir schreiben die Koeffizienten \(a_{ij}\) dieser Gleichungen zusammen mit den Werten \(b_i\) auf der rechten Seiten der Gleichungen in die erweiterte Koeffizientenmatrix \((A\mid b)\) mit \(A\in M_{m\times n}(K)\), \(b\in K^m = M_{m\times 1}(K)\). Ist \(b=0\), so sprechen wir auch von einem homogenen linearen Gleichungssystem. Die Lösungsmenge des linearen Gleichungssystems ist \(\mathbf f_A^{-1}(b) = \{ x\in K^n;\ Ax=b\} \). Ist diese nicht leer, d.h. ist \(b\in \operatorname{Im}(A)\), und ist \(t\) ein Element dieser Lösungsmenge, so gilt \(\mathbf f_A^{-1}(b) = t + \operatorname{Ker}(A) := \{ t+v;\ v\in \operatorname{Ker}(A)\} \). Hier ist \(\operatorname{Ker}(A) = \{ x\in K^n;\ Ax=0\} \) die Lösungsmenge des zugehörigen homogenen linearen Gleichungssystems.

Theorem A.26 Gauß-Algorithmus
  1. Sei \(m\in \mathbb N\). Die Matrizen \(E_{ij}(a)\), \(1\le i\ne j\le m\), \(a\in K\) und \(\operatorname{diag}(a_1,\dots , a_m)\), \(a_i\in K^\times \), erzeugen die Gruppe \(GL_m(K)\).

  2. Ist \(A\in M_{m\times n}\), so existieren \(S\in GL_m(K)\) sowie eine Permutationsmatrix \(T\in GL_n(K)\), so dass \(SAT\) die Form

    \[ \begin{pmatrix} E_r & A^\prime \\ 0 & 0 \end{pmatrix}\qquad \text{(als Blockmatrix geschrieben)} \]

    hat. Dabei ist \(r\) der Rang von \(A\) und \(A^\prime \in M_{r\times (n-r)}(K)\) eine Matrix, die durch \(A\) bis auf Vertauschung der Spalten eindeutig bestimmt ist.

  3. Mit der Notation aus Teil (2) ist die Lösungsmenge \(\operatorname{Ker}(A)\) des durch \(A\) gegebenen homogenen linearen Gleichungssystems der von den Spalten der Matrix \(T\begin{pmatrix} -A^\prime \\ E_{n-r} \end{pmatrix}\) erzeugte Untervektorraum von \(K^n\).

A.3.4 Invertierbare Matrizen

Satz A.27

Sei \(A\in M_n(K)\). Dann sind äquivalent:

  1. \(A\) ist invertierbar.

  2. Es existiert \(B\in M_n(K)\) mit \(AB = E_n\).

  3. Es existiert \(B\in M_n(K)\) mit \(BA = E_n\).

  4. Der Homomorphismus \(\mathbf f_A\) ist ein Isomorphismus.

  5. Der Homomorphismus \(\mathbf f_A\) ist surjektiv.

  6. Der Homomorphismus \(\mathbf f_A\) ist injektiv.

  7. Für jedes \(b\in K^n\) ist das lineare Gleichungssystem \(Ax=b\) eindeutig lösbar.

  8. Für jedes \(b\in K^n\) ist das lineare Gleichungssystem \(Ax=b\) lösbar.

  9. Das homogene lineare Gleichungssystem \(Ax=0\) ist eindeutig lösbar.

  10. Die reduzierte Zeilenstufenform der Matrix \(A\) ist \(E_n\). (Definition 5.13)

  11. Es gilt \(\det (A)\ne 0\) (siehe den Abschnitt A.4.2 weiter unten).