Inhalt

A.3 Matrizen

Referenz: Abschnitte 5.1.3, 5.3

A.3.1 Definition und das Produkt von Matrizen

Definition A.18

Eine Matrix über $K$ der Größe $m\times n$ (mit $m,n\in \mathbb N$) ist eine Familie $(a_{ij})_{i,j}$ von Elementen aus $K$ mit Indexmenge $\{ 1,\dots , m\} \times \{ 1, \dots , n\} $. Die Menge $M_{m\times n}(K)$ der Matrizen der Größe $m\times n$ ist mit der eintragsweisen Addition und Skalarmultiplikation ein $K$-Vektorraum.

Eine Diagonalmatrix ist eine Matrix $A=(a_{ij})_{i,j}\in M_n(K)$, so dass $a_{ij}=0$ für alle $i\ne j$. Für $a_1,\dots , a_n\in K$ bezeichnen wir mit $\operatorname{diag}(a_1,\dots , a_n)$ die Diagonalmatrix $(a_{ij})_{i,j}$ mit $a_{ii}=a_i$ für alle $i$. Für $A=(a_{ij})_{i,j}\in M_{m\times n}(K)$ nennen wir $A^t := (a_{ji})_{i,j}\in M_{n\times m}(K)$ die zu $A$ transponierte Matrix.

Definition A.19 Matrizenprodukt

Sind $A\in M_{l\times m}(K)$, $B\in M_{m\times n}$, so definieren wir das Produkt $AB = (c_{ij})_{i,j}\in M_{l\times n}(K)$ der Matrizen $A$ und $B$ durch

\[ c_{ij} = \sum _{k=1}^m a_{ik}b_{kj}. \]

Für das Matrizenprodukt gelten das Assoziativ- und das Distributivgesetz. Die Diagonalmatrix $E_n :=\operatorname{diag}(1,\dots , 1)\in M_{n}(K)$ heißt die Einheitsmatrix. Es gilt $E_mA=A$, $AE_n=A$ für alle $A\in M_{m\times n}(K)$. Wir schreiben $M_n(K):=M_{n\times n}(K)$.

Eine Matrix $A\in M_n(K)$ heißt invertierbar, wenn eine Matrix $B\in M_n(K)$ mit $AB=BA=E_n$ exitiert. Die allgemeine lineare Gruppe ist die Gruppe $GL_n(K)$ der invertierbaren Matrizen in $M_n(K)$ bezüglich der Multiplikation von Matrizen.

Beispiel A.20 Permutationsmatrizen, siehe Abschnitt 8.1.5

Für eine Permutation $\sigma \in S_n$ sei $P_{\sigma }\in M_{n}(K)$ die Matrix, deren $j$-te Spalte der Vektor $e_{\sigma (j)}$ ist. Die Abbildung $S_n\to GL_n(K)$, $\sigma \mapsto P_\sigma $, ist ein injektiver Gruppenhomomorphismus. Die Matrizen $P_\sigma $ bezeichnen wir als Permutationsmatrizen. Es gilt $P_\sigma ^{-1} = P_{\sigma ^{-1}} = (P_\sigma )^t$.

A.3.2 Matrizen und lineare Abbildungen

(Abschnitt 7.3)

Für eine Matrix $A\in M_{m\times n}(K)$ ist die Abbildung $\mathbf f_A\colon K^n\to K^m$, $x\mapsto Ax$, eine lineare Abbildung. Wir schreiben auch $\operatorname{Ker}(A)$ statt $\operatorname{Ker}(\mathbf f_A)$ und $\operatorname{Im}(A)$ statt $\operatorname{Im}(\mathbf f_A)$.

Satz A.21

Die Abbildung $M_{m\times n}(K)\to \operatorname{Hom}_K(K^n, K^m)$, $A\mapsto \mathbf f_A$, ist ein Isomorphismus von $K$-Vektorräumen. Wir bezeichnen mit $f\mapsto M(f)$ seine Umkehrabbildung. Dann ist die $j$-te Spalte von $M(f)$ der Vektor $f(e_j)$.

Für endlich-dimensionale Vektorräume $V$ und $W$ mit Basen $\mathscr B$ und $\mathscr C$ induzieren die Koordinatenisomorphsmen $c_\mathscr B\colon V\to K^n$ und $c_\mathscr C\colon W\to K^m$ (mit $n:=\dim (V)$, $m:=\dim (W))$) einen Isomorphismus $\operatorname{Hom}_K(V, W)\to \operatorname{Hom}_K(K^n, K^m)$, $f\mapsto c_\mathscr C\circ f\circ c_\mathscr B^{-1}$. Durch Kombination mit dem vorherigen Satz bekommen wir:

Satz A.22

Seien $V$ und $W$ endlich-dimensionale $K$-Vektorräume mit Basen $\mathscr B$ und $\mathscr C$. Die Abbildung $\operatorname{Hom}_K(V, W)\to M_{m\times n}(K)$, $f\mapsto M^\mathscr B_\mathscr C(f):= M(c_\mathscr C\circ f\circ c_\mathscr B^{-1})$ ist ein Isomorphismus.

Schreiben wir $\mathscr B= (v_1, \dots , v_n)$, so ist die $j$-te Spalte von $M^\mathscr B_\mathscr C(f)$ der Vektor $c_\mathscr C(f(v_j))$, der aus den Koeffizienten besteht, mit denen $f(v_j)$ als Linearkombination der Basis $\mathscr C$ geschrieben wird.

Für die Verkettung von Homomorphismen $f\colon U\to V$ und $g\colon V\to W$ zwischen endlich-dimensionalen Vektorräumen mit Basen $\mathscr B$, $\mathscr C$, $\mathscr D$ erhalten wir

\[ M^\mathscr B_\mathscr D(g\circ f) = M^\mathscr C_\mathscr D(g)\, M^\mathscr B_\mathscr C(f). \]

Sind $\mathscr B$, $\mathscr B^\prime $ Basen desselben Vektorraums $V$, so nennen wir $M^{\mathscr B^\prime }_\mathscr B:=M^{\mathscr B^\prime }_\mathscr B(\operatorname{id}_V)$ die Basiswechselmatrix zwischen den Basen $\mathscr B^\prime $ und $\mathscr B$. Sind $f\colon V\to W$ ein Homomorphismus und $\mathscr B$, $\mathscr B^\prime $ Basen von $V$ und $\mathscr C$, $\mathscr C^\prime $ Basen von $W$, so erhalten wir aus der obigen Formel die Basiswechselformel (Korollar 7.33)

\[ M^{\mathscr B^\prime }_{\mathscr C^\prime }(f) = M^{\mathscr C}_{\mathscr C^\prime }\, M^\mathscr B_\mathscr C(f)\, M^{\mathscr B^\prime }_\mathscr B. \]

Ein Homomorphismus $f$ ist genau dann ein Isomorphismus, wenn die Matrix $M^\mathscr B_\mathscr C$ invertierbar ist. Insbesondere ist die Basiswechselmatrix $M^{\mathscr B^\prime }_\mathscr B$ invertierbar; ihre inverse Matrix ist $M^{\mathscr B}_{\mathscr B^\prime }$.

Satz A.23 Die darstellende Matrix der dualen Abbildung, Satz 7.54

Sind $V$ und $W$ endlich-dimensionale Abbildungen mit Basen $\mathscr B$ und $\mathscr C$, und sind $\mathscr B^\vee $ bzw. $\mathscr C^\vee $ die dualen Basen von $\mathscr B$ und $\mathscr C$, so gilt

\[ M^{\mathscr C^\vee }_{\mathscr B^\vee }(f^\vee ) = M^\mathscr B_\mathscr C(f)^t. \]

Für eine Matrix $A\in M_{m\times n}(K)$ heißt $\operatorname{rg}(A) := \dim (\operatorname{Im}(\mathbf f_A))$ der Rang der Matrix $A$.

Theorem A.24 Zeilenrang $=$ Spaltenrang, Theorem 7.41

Sei $A\in M_{m\times n}(K)$. Dann gilt $\operatorname{rg}(A) = \operatorname{rg}(A^t)$.

Satz A.25 Smith-Normalform, Satz 7.36
  1. Sei $f\colon V\to W$ ein Homomorphismus zwischen endlich-dimensionalen $K$-Vektorräumen. Dann existieren Basen $\mathscr B$ von $V$ und $\mathscr C$ von $W$, so dass $M^\mathscr B_\mathscr C(f) = \begin{pmatrix} E_r & 0 \\ 0 & 0 \end{pmatrix}$ (als Blockmatrix geschrieben). Hier ist $r = \operatorname{rg}(f)$.

  2. Sei $A\in M_{m\times n}(K)$. Dann existieren invertierbare Matrizen $S\in M_m(K)$ und $T\in M_n(K)$, so dass $SAT = \begin{pmatrix} E_r & 0 \\ 0 & 0 \end{pmatrix}$ (als Blockmatrix geschrieben). Hier ist $r = \operatorname{rg}(A)$.

A.3.3 Lineare Gleichungssysteme

Eine lineare Gleichung in $n$ Unbestimmten über $K$ ist eine Gleichung der Form

\[ a_1 X_1 + \cdots + a_n X_n = b \]

mit $a_i, b\in K$. Sind $m$ Gleichungen dieser Form gegeben, so sprechen wir von einem linearen Gleichungssystem. Wir schreiben die Koeffizienten $a_{ij}$ dieser Gleichungen zusammen mit den Werten $b_i$ auf der rechten Seiten der Gleichungen in die erweiterte Koeffizientenmatrix $(A\mid b)$ mit $A\in M_{m\times n}(K)$, $b\in K^m = M_{m\times 1}(K)$. Ist $b=0$, so sprechen wir auch von einem homogenen linearen Gleichungssystem. Die Lösungsmenge des linearen Gleichungssystems ist $\mathbf f_A^{-1}(b) = \{ x\in K^n;\ Ax=b\} $. Ist diese nicht leer, d.h. ist $b\in \operatorname{Im}(A)$, und ist $t$ ein Element dieser Lösungsmenge, so gilt $\mathbf f_A^{-1}(b) = t + \operatorname{Ker}(A) := \{ t+v;\ v\in \operatorname{Ker}(A)\} $. Hier ist $\operatorname{Ker}(A) = \{ x\in K^n;\ Ax=0\} $ die Lösungsmenge des zugehörigen homogenen linearen Gleichungssystems.

Theorem A.26 Gauß-Algorithmus
  1. Sei $m\in \mathbb N$. Die Matrizen $E_{ij}(a)$, $1\le i\ne j\le m$, $a\in K$ und $\operatorname{diag}(a_1,\dots , a_m)$, $a_i\in K^\times $, erzeugen die Gruppe $GL_m(K)$.

  2. Ist $A\in M_{m\times n}$, so existieren $S\in GL_m(K)$ sowie eine Permutationsmatrix $T\in GL_n(K)$, so dass $SAT$ die Form

    \[ \begin{pmatrix} E_r & A^\prime \\ 0 & 0 \end{pmatrix}\qquad \text{(als Blockmatrix geschrieben)} \]

    hat. Dabei ist $r$ der Rang von $A$ und $A^\prime \in M_{r\times (n-r)}(K)$ eine Matrix, die durch $A$ bis auf Vertauschung der Spalten eindeutig bestimmt ist.

  3. Mit der Notation aus Teil (2) ist die Lösungsmenge $\operatorname{Ker}(A)$ des durch $A$ gegebenen homogenen linearen Gleichungssystems der von den Spalten der Matrix $T\begin{pmatrix} -A^\prime \\ E_{n-r} \end{pmatrix}$ erzeugte Untervektorraum von $K^n$.

A.3.4 Invertierbare Matrizen

Satz A.27

Sei $A\in M_n(K)$. Dann sind äquivalent:

  1. $A$ ist invertierbar.

  2. Es existiert $B\in M_n(K)$ mit $AB = E_n$.

  3. Es existiert $B\in M_n(K)$ mit $BA = E_n$.

  4. Der Homomorphismus $\mathbf f_A$ ist ein Isomorphismus.

  5. Der Homomorphismus $\mathbf f_A$ ist surjektiv.

  6. Der Homomorphismus $\mathbf f_A$ ist injektiv.

  7. Für jedes $b\in K^n$ ist das lineare Gleichungssystem $Ax=b$ eindeutig lösbar.

  8. Für jedes $b\in K^n$ ist das lineare Gleichungssystem $Ax=b$ lösbar.

  9. Das homogene lineare Gleichungssystem $Ax=0$ ist eindeutig lösbar.

  10. Die reduzierte Zeilenstufenform der Matrix $A$ ist $E_n$. (Definition 5.13)

  11. Es gilt $\det (A)\ne 0$ (siehe den Abschnitt A.4.2 weiter unten).